JP2003094367A - Robot hand with tip visual sense - Google Patents

Robot hand with tip visual sense

Info

Publication number
JP2003094367A
JP2003094367A JP2001290189A JP2001290189A JP2003094367A JP 2003094367 A JP2003094367 A JP 2003094367A JP 2001290189 A JP2001290189 A JP 2001290189A JP 2001290189 A JP2001290189 A JP 2001290189A JP 2003094367 A JP2003094367 A JP 2003094367A
Authority
JP
Japan
Prior art keywords
work
shape
hand
data
gripping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001290189A
Other languages
Japanese (ja)
Inventor
Terumi Kamata
照己 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2001290189A priority Critical patent/JP2003094367A/en
Publication of JP2003094367A publication Critical patent/JP2003094367A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a hand capable of autonomously correcting position of a work grip and gripping a work without receiving control of a robot controller. SOLUTION: A work imaging means 201 is provided on the hand 103 and an image of a gripped work is picked up. A work position and shape detecting means 202 calculates data of a position and shape of the work from picked up image data of the work. A gripping position data generating means 203 generates gripping position data by the hand 103 from the calculated data of the position and shape. A hand gripping position control means 204 controls movement of fingers 206 to a position of gripping the work on the basis of the gripping position data. Each means is provided in the hand 103, and the hand 103 autonomously grips the work at an optimum gripping position.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、製品の組立てお
よび分解に使用するロボットハンドに関し、より詳しく
は、ハンドが自律してワークを正確に把持できる手先視
覚付ロボットハンドに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot hand used for assembling and disassembling products, and more particularly, to a robot hand with a visual tip capable of autonomously grasping a work accurately.

【0002】[0002]

【従来の技術】生産ライン等での製品の組立ておよび分
解には、ロボットハンドが使用される。このロボットハ
ンドとして、ロボットの手先部分に製品を視覚検出でき
る機能を有する視覚付ロボットハンドがある。このよう
な視覚入力機能を有するロボットハンドは、その視覚情
報の送受、および制御別に各種形態がある。
2. Description of the Related Art A robot hand is used for assembling and disassembling products on a production line or the like. As this robot hand, there is a visual robot hand having a function of visually detecting a product at the hand of the robot. The robot hand having such a visual input function has various forms depending on transmission / reception of visual information and control.

【0003】従来の第1の視覚付ロボットハンド(特開
平6−206186号公報に開示)は、視覚センサから
得るワークの位置データにハンドリング位置とツール軸
のオフセット情報を加えることによって、ロボットの正
確なハンドリング作業を実現するものである。
A first conventional robot hand with a visual sense (disclosed in Japanese Patent Laid-Open No. 6-206186) adds a handling position and tool axis offset information to the position data of a work obtained from a visual sensor to accurately measure the robot. It realizes various handling work.

【0004】従来の第2の視覚付ロボットハンド(特許
第2679614号公報に開示)は、自走式のロボット
のハンドリングに関して、ハンド部に取り付けた撮像手
段で得た画像から、ロボットの位置および姿勢を補正す
る構成のものである。
The second conventional robot hand with vision (disclosed in Japanese Patent No. 2679614) relates to the handling of a self-propelled robot from the image obtained by the image pickup means attached to the hand portion, and the position and posture of the robot. Is configured to correct.

【0005】図13は、従来の第3の視覚付ロボットハ
ンド(特許第2767417号公報に開示)における制
御システムの構成図である。ロボット本体1300のア
ーム先端部に取り付けられたカメラ1301で撮像した
画像データは、処理演算をおこなうビジョンシステム1
302に出力され、このビジョンシステム1302で作
業対象を認識し、その基準点の画像データが演算処理さ
れる。ロボット制御部1303は、その処理結果を用い
てロボット本体1300のアーム先端部に設けられたエ
ンドエフェクタ1304の位置を補正制御する。
FIG. 13 is a block diagram of a control system in a third conventional robot hand with vision (disclosed in Japanese Patent No. 2767417). The image data captured by the camera 1301 attached to the tip of the arm of the robot body 1300 is used in the vision system 1 for performing processing calculation.
The image data is output to 302, the work target is recognized by the vision system 1302, and the image data of the reference point is processed. The robot control unit 1303 corrects and controls the position of the end effector 1304 provided at the arm tip of the robot body 1300 using the processing result.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上述し
た従来の視覚入力手段をもつロボットにおいては、ワー
クの視覚情報をハンド外部のロボットコントローラへ送
出し、処理する構成であった。このため、ハンドの位置
補正のためにハンドとロボットコントローラ間でワーク
を把持するごとに位置補正のための信号および補正デー
タなどの通信が必要となり、制御が複雑化するととも
に、通信速度の制限によるタクトタイムの向上が図れな
いなどの問題があった。
However, in the above-mentioned conventional robot having the visual input means, the visual information of the work is sent to the robot controller outside the hand and processed. Therefore, in order to correct the position of the hand, communication between the hand and the robot controller such as a signal for position correction and correction data is required each time the workpiece is gripped, which complicates the control and limits the communication speed. There was a problem that the tact time could not be improved.

【0007】また、ロボットプログラムにおいても位置
補正に対応した処理シーケンスの記述が必要で、この処
理シーケンスがワークの把持ごとに毎度実行され制御負
担がかかった。
Further, the robot program also needs a description of a processing sequence corresponding to the position correction, and this processing sequence is executed every time the workpiece is gripped, which imposes a control burden.

【0008】また、近年、計算機シミュレーションによ
るオフラインティーチング等により、実際にロボットを
動作させることなく、ロボットコントローラに対しての
みロボットの教示作業をおこなえるようになってきてい
る。しかし、実際は各ロボットの機差や、ロボット本体
のたわみ等によって位置決め精度を正確に出すことがで
きない。このため、細かいティーチングは、実際にハン
ドを動作させてロボットコントローラ側で補正する必要
があった。この作業は、多数のロボットを多品種少量生
産に導入する際の妨げとなる。
Further, in recent years, it has become possible to perform teaching work of a robot only to a robot controller without actually operating the robot by off-line teaching or the like by computer simulation. However, in reality, the positioning accuracy cannot be accurately obtained due to the machine difference between the robots and the deflection of the robot body. Therefore, it is necessary to actually operate the hand to correct the fine teaching on the robot controller side. This work hinders the introduction of a large number of robots into high-mix low-volume production.

【0009】この発明は、上述した従来技術による問題
点を解消するため、ハンドが自律的にワーク把持を位置
補正し、ロボットコントローラの制御を受けずにワーク
を把持可能な手先視覚付ロボットハンドを提供すること
を目的とする。
In order to solve the above-mentioned problems of the prior art, the present invention provides a robot hand with a visual tip capable of autonomously correcting the position of the work grip by the hand and gripping the work without the control of the robot controller. The purpose is to provide.

【0010】[0010]

【課題を解決するための手段】上述した課題を解決し、
目的を達成するため、請求項1の発明にかかる手先視覚
付ロボットハンドは、ロボットハンドで把持するワーク
の形状および位置を表す画像データを得るワーク画像化
手段と、前記ワーク画像化手段が撮像したワークの画像
データに基づき、ワークの位置と形状のデータを算出す
るワーク位置形状検出手段と、前記ワーク位置形状検出
手段が算出した位置と形状のデータに基づき、ロボット
ハンドによりワークを把持するための把持位置データを
生成する把持位置データ生成手段と、前記把持位置デー
タ生成手段が生成した把持位置データに基づき、前記ロ
ボットハンドの把持位置を変更するハンド把持位置制御
手段とを備え、ロボットハンドが自律して最適な把持位
置でワークを把持可能なことを特徴とする。
[Means for Solving the Problems]
In order to achieve the object, a robot hand with a visual tip according to the invention of claim 1 is a work imaging means for obtaining image data representing a shape and a position of a work grasped by the robot hand, and the work imaging means images the work. Based on the image data of the work, the work position shape detection means for calculating the position and shape data of the work, and for grasping the work by the robot hand based on the position and shape data calculated by the work position shape detection means The robot hand is provided with a grip position data generation unit that generates grip position data and a hand grip position control unit that changes the grip position of the robot hand based on the grip position data generated by the grip position data generation unit. It is characterized in that the work can be gripped at the optimum gripping position.

【0011】この請求項1に記載の発明によれば、ロボ
ットハンド内でワークの把持位置を求めワークを把持可
能であるため、ロボットコントローラからの開/閉動作
指令のみで精密な制御を受けずに自律的にワークを把持
できるようになり、タクトタイムの向上、把持のための
ティーチング作業の削減を図ることができる。
According to the first aspect of the present invention, since it is possible to find the gripping position of the work in the robot hand and grip the work, precise control is not received only by the opening / closing operation command from the robot controller. Since the work can be gripped autonomously, the takt time can be improved and the teaching work for gripping can be reduced.

【0012】また、請求項2に記載の発明にかかる手先
視覚付ロボットハンドは、請求項1に記載の発明におい
て、前記ワーク位置形状検出手段は、ワークの形状と把
持位置に関するデータが蓄積される内部データベースを
備え、前記算出したワーク形状データに基づき、前記内
部データベースを参照してワークの把持位置を得ること
を特徴とする。
Further, in the robot hand with a hand tip according to a second aspect of the invention, in the invention according to the first aspect, the work position shape detecting means accumulates data relating to the shape of the work and the gripping position. An internal database is provided, and the gripping position of the work is obtained based on the calculated work shape data by referring to the internal database.

【0013】この請求項2に記載の発明によれば、内部
データベースを用いてワーク形状データを得て多様なワ
ークを把持できる。
According to the second aspect of the present invention, various work pieces can be gripped by obtaining work shape data using the internal database.

【0014】また、請求項3に記載の発明にかかる手先
視覚付ロボットハンドは、請求項2に記載の発明におい
て、ロボットハンド外部に設けられワークの形状と把持
位置に関するデータが蓄積される外部データベースと、
前記外部データベースとの間でデータ送受可能な通信手
段を備え、前記ワーク位置形状検出手段は、把持しよう
とするワークについて、前記内部データベースに、対応
するワークの形状データに合致するものがない場合に、
前記外部データベースに対して、該当するワーク形状デ
ータに対応した把持位置を得ることを特徴とする。
Further, a robot hand with a visual tip according to a third aspect of the present invention is the external database according to the second aspect of the invention, which is provided outside the robot hand and stores data relating to the shape and gripping position of the work. When,
The work position / shape detecting means is provided with a communication means capable of transmitting / receiving data to / from the external database, and when the work position shape detecting means does not match the shape data of the corresponding work in the internal database, ,
It is characterized in that a gripping position corresponding to the corresponding work shape data is obtained from the external database.

【0015】この請求項3に記載の発明によれば、内部
データベースに把持したワークの形状データに合致する
ものがない場合に、外部データベースへ問い合わせるこ
とにより、新たな種類のワークに対してもプログラミン
グ変更や、意図的なデータベースの変更作業が不要で把
持が可能になる。
According to the third aspect of the present invention, when there is no match with the shape data of the held work in the internal database, the external database is queried to program for a new type of work. Gripping is possible without the need for changes or intentional changes to the database.

【0016】また、請求項4に記載の発明にかかる手先
視覚付ロボットハンドは、請求項3に記載の発明におい
て、前記ワーク位置形状検出手段は、外部データベース
に対して、問い合わせた結果得たワーク形状データを、
前記内部データベースに追加格納し、以後該当するワー
クの形状データを前記内部データベースを用いて得るこ
とを特徴とする。
Further, the robot hand with a hand tip according to the invention of claim 4 is the robot hand according to claim 3, wherein the work position shape detecting means obtains a work as a result of inquiring from an external database. Shape data,
It is characterized in that it is additionally stored in the internal database, and thereafter the shape data of the corresponding work is obtained using the internal database.

【0017】この請求項4に記載の発明によれば、外部
データベースから内部データベースに新たな種類のワー
ク形状データを追加すれば、以後このワークを外部に問
い合わせることなくハンド内で把持処理が実行でき、外
部データベースとの間の通信を最小限に抑えてタクトタ
イムの向上が図ることができる。
According to the invention described in claim 4, by adding a new type of work shape data from the external database to the internal database, the gripping process can be executed in the hand thereafter without inquiring the work externally. , Tact time can be improved by minimizing communication with the external database.

【0018】また、請求項5に記載の発明にかかる手先
視覚付ロボットハンドは、請求項1に記載の発明におい
て、前記把持位置データ生成手段は、前記ワーク位置形
状検出手段が算出した位置と形状のデータに基づき、ワ
ークの形状別の把持位置を算出することを特徴とする。
According to a fifth aspect of the present invention, there is provided a robot hand with a visual tip according to the first aspect, wherein the gripping position data generating means is the position and shape calculated by the work position shape detecting means. The grip position for each shape of the work is calculated based on the data of 1.

【0019】この請求項5に記載の発明によれば、ワー
クを撮像し算出した形状データから、ワークが円形、平
行、棒状等の特徴的な形状を認識し、この形状に対応し
て内部把持、外部把持等の把持位置を判断し、多様なワ
ークを最適な状態で把持することができる。
According to the invention described in claim 5, a characteristic shape such as a circle, a parallel shape, or a bar shape of the work is recognized from the shape data calculated by imaging the work, and the internal gripping is performed corresponding to this shape. It is possible to grasp various gripping positions such as external gripping and grip various works in an optimum state.

【0020】また、請求項6に記載の発明にかかる手先
視覚付ロボットハンドは、請求項1に記載の発明におい
て、前記ワーク画像化手段は、2次元CCDセンサもし
くは2次元CMOSセンサで構成されたことを特徴とす
る。
According to the sixth aspect of the present invention, in the robot hand with a fingertip visualizing device according to the first aspect of the present invention, the work imaging means comprises a two-dimensional CCD sensor or a two-dimensional CMOS sensor. It is characterized by

【0021】この請求項6に記載の発明によれば、2次
元CCDもしくは2次元CMOSセンサを利用してワー
クを撮像するため、ワーク画像化手段の小型化を図るこ
とができる。
According to the sixth aspect of the invention, since the work is imaged by using the two-dimensional CCD or the two-dimensional CMOS sensor, the work imaging means can be downsized.

【0022】また、請求項7に記載の発明にかかる手先
視覚付ロボットハンドは、請求項1に記載の発明におい
て、前記ワーク画像化手段は、2次元CCDセンサもし
くは2次元CMOSセンサを少なくとも2台備え、それ
ぞれ異なる角度から前記ワークを撮像するものであり、
前記ワーク位置形状検出手段は、前記ワーク画像化手段
による2つ以上の画像データに基づき、前記ワークの形
状と位置、および姿勢などを三次元的に求めることを特
徴とする。
According to a seventh aspect of the present invention, there is provided a robot hand with a visual tip in the first aspect of the invention, wherein the work imaging means has at least two two-dimensional CCD sensors or two-dimensional CMOS sensors. And is for imaging the workpiece from different angles,
The work position / shape detecting means is characterized in that the shape, position, posture, and the like of the work are three-dimensionally obtained based on two or more image data obtained by the work imaging means.

【0023】この請求項7に記載の発明によれば、2台
のセンサによりワークを三次元で撮像することにより、
ワークの形状、位置、姿勢を三次元的に求めることがで
き、ワークの種類によらずワークの形状を認識できるよ
うになり、最適な姿勢で安定して把持することができ
る。
According to the invention described in claim 7, the two sensors image the work in three dimensions,
The shape, position, and posture of the work can be obtained three-dimensionally, the shape of the work can be recognized regardless of the type of the work, and the work piece can be stably gripped in the optimum posture.

【0024】また、請求項8に記載の発明にかかる手先
視覚付ロボットハンドは、請求項6に記載の発明におい
て、ワークにパターン照明を施すパターン照明手段を備
え、前記ワーク位置形状検出手段は、前記パターン照明
により得られる前記ワーク画像化手段の画像データに基
づき、ワーク形状と位置、および姿勢を三次元的に求め
ることを特徴とする。
Further, a robot hand with a fingertip visual sense according to the invention of claim 8 is, in the invention of claim 6, provided with a pattern illuminating means for illuminating a workpiece with pattern, and the workpiece position / shape detecting means: It is characterized in that the work shape, position, and orientation are three-dimensionally obtained based on the image data of the work imaging means obtained by the pattern illumination.

【0025】この請求項8に記載の発明によれば、パタ
ーン照明により、空間コード化法や、モアレ法等を用い
てワークの形状および位置・姿勢を三次元的に求めるこ
とができ、より安定してワークを認識し、最適な姿勢で
把持できる。
According to the invention described in claim 8, it is possible to three-dimensionally determine the shape and position / orientation of the work by using the spatial coding method, the moire method, or the like by the pattern illumination, and more stable. Then, the work can be recognized, and the work can be gripped in an optimum posture.

【0026】また、請求項9に記載の発明にかかる手先
視覚付ロボットハンドは、請求項1に記載の発明におい
て、前記ワーク画像化手段には、レーザレンジファイン
ダが用いられ、前記ワーク位置形状検出手段は、前記ワ
ーク画像化手段の画像データに基づき、ワーク形状と位
置、および姿勢を三次元的に求めることを特徴とする。
According to the ninth aspect of the present invention, in the robot hand with a fingertip vision according to the first aspect of the invention, a laser range finder is used as the work imaging means, and the work position shape detection is performed. The means is characterized in that the shape, position, and orientation of the work are three-dimensionally determined based on the image data of the work imaging means.

【0027】この請求項9に記載の発明によれば、レー
ザレンジファインダによりワークの形状、位置、姿勢を
三次元的に求めることができ、より安定してワークを認
識し、最適な姿勢で把持できる。
According to the invention described in claim 9, the shape, position and posture of the work can be three-dimensionally determined by the laser range finder, and the work can be recognized more stably and gripped in the optimum posture. it can.

【0028】また、請求項10に記載の発明にかかる手
先視覚付ロボットハンドは、請求項1に記載の発明にお
いて、前記ワーク形状位置検出手段によって算出された
ワークの形状、あるいは形状に基づくワークの種類を記
憶する記憶手段と、被組み付けワークに対し前記ワーク
の組付けをおこなう際に、被組み付けワークの画像デー
タと、前記記憶手段に記憶しているワークの形状に基づ
き、被組み付けワーク上でのワークの最適な組み付け位
置を判断し、組付けをおこなうワーク組み付け手段とを
備えたことを特徴とする。
Further, the robot hand with a visual tip according to the invention of claim 10 is the robot hand according to claim 1, wherein the shape of the work calculated by the work shape position detecting means or the work based on the shape is calculated. When storing the work on the work to be assembled and storing the type, based on the image data of the work to be assembled and the shape of the work stored in the storage, the work on the work to be assembled And a work assembling means for determining an optimum work assembling position and assembling the work.

【0029】この請求項10に記載の発明によれば、把
持したワークの形状、あるいは種類を記憶することによ
り、このワークを被組み付けワークに組み付ける時に、
被組み付けワークの形状から組付け位置を判断できるた
め、組み付け時にかかるティーチング負荷の軽減を図る
ことができる。
According to the tenth aspect of the present invention, by storing the shape or type of the gripped work, when the work is assembled to the assembly target work,
Since the assembly position can be determined from the shape of the workpiece to be assembled, the teaching load applied during assembly can be reduced.

【0030】また、請求項11に記載の発明にかかる手
先視覚付ロボットハンドは、請求項1に記載の発明にお
いて、前記ロボットコントローラとの間でデータ送受可
能な通信手段を備え、前記把持位置データ生成手段は、
前記生成した把持位置データが、前記ロボットハンドで
把持可能な動作範囲外であることを検出したときには、
該動作範囲外である旨を示す把持位置データを前記通信
手段を介して前記ロボットコントローラに出力し、前記
ロボットコントローラによる位置補正を実行させること
を特徴とする。
According to the eleventh aspect of the present invention, the robot hand with a fingertip visual inspection according to the first aspect of the present invention is provided with a communication means capable of transmitting and receiving data to and from the robot controller. The generation means is
When it is detected that the generated grip position data is out of the operation range that can be gripped by the robot hand,
It is characterized in that grip position data indicating that it is out of the operation range is output to the robot controller via the communication means, and the position correction is executed by the robot controller.

【0031】この請求項11に記載の発明によれば、ワ
ークがロボットハンドが把持可能な動作範囲外であると
判断したとき、ロボットコントローラによる位置補正を
実行させるため、広範囲な位置補正をおこなうことがで
きるようになる。
According to the eleventh aspect of the present invention, when it is determined that the work is out of the operation range in which the robot hand can hold, a wide range of position correction is performed in order to execute the position correction by the robot controller. Will be able to.

【0032】また、請求項12に記載の発明にかかる手
先視覚付ロボットハンドは、請求項2に記載の発明にお
いて、前記ロボットコントローラとの間でデータ送受可
能な通信手段を備え、前記ワーク位置形状検出手段は、
把持したワークに対応するワーク形状を前記内部データ
ベースから得て、該ワーク形状、あるいは該ワーク形状
に対応するワークの種類を前記通信手段を介して前記ロ
ボットコントローラに出力することを特徴とする。
According to the twelfth aspect of the present invention, the hand-visualized robot hand according to the second aspect is provided with a communication means capable of transmitting and receiving data to and from the robot controller, and the work position shape. The detection means is
It is characterized in that the work shape corresponding to the gripped work is obtained from the internal database, and the work shape or the kind of work corresponding to the work shape is output to the robot controller via the communication means.

【0033】この請求項12に記載の発明によれば、把
持したワークの種類をロボットコントローラに出力する
ため、混在する多種類のワークを順次組み付ける場合で
も、把持したワークを次工程の組付け位置へ移動できる
等、組み付けの効率化を図ることができる。
According to the twelfth aspect of the present invention, since the type of the gripped work is output to the robot controller, even if a large number of mixed works are sequentially assembled, the gripped work is attached at the assembly position of the next process. It is possible to improve the efficiency of assembling such as moving to.

【0034】[0034]

【発明の実施の形態】以下に添付図面を参照して、この
発明にかかる手先視覚付ロボットハンドの好適な実施の
形態を詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the robot hand with fingertips according to the present invention will be described in detail below with reference to the accompanying drawings.

【0035】図1は、本発明の実施形態に適用される手
先視覚付ロボットハンドの全体構成を示す図である。ロ
ボット100は複数のアーム101と複数の関節102
を有して構成され、アーム先端部にはワークを把持する
ためのハンド103が設けられる。
FIG. 1 is a diagram showing an overall configuration of a robot hand with a fingertip visual guide applied to an embodiment of the present invention. The robot 100 has a plurality of arms 101 and a plurality of joints 102.
The arm 103 is provided with a hand 103 for gripping a work.

【0036】ロボットコントローラ110は、アーム1
01先端に設けられるハンド103でワークを把持でき
るようハンド103を含むロボット100全体の動作を
統制制御する。このロボットコントローラ110は、ハ
ンド103に対し、アーム101先端(ハンド103)
の位置決め後に後述する把持信号などを送出して把持動
作を開始させる。
The robot controller 110 includes the arm 1
01 The operation of the entire robot 100 including the hand 103 is controlled and controlled so that the work can be gripped by the hand 103 provided at the tip. This robot controller 110 is different from the hand 103 in the tip of the arm 101 (hand 103).
After positioning, the gripping signal described later is sent to start the gripping operation.

【0037】図2は、ハンド103の構成を示すブロッ
ク図である。ハンド103は、先端部に複数、例えば図
示の如く一対のフィンガー206を有し、ステージ20
7上で一対のフィンガー206の間隔を変更させるよう
スライドさせることにより、ワークを把持可能である。
ハンド103部分で把持使用とするワークは、レンズお
よびCCD等の撮像機能を有するワーク画像化手段20
1から画像データとして出力される。
FIG. 2 is a block diagram showing the configuration of the hand 103. The hand 103 has a plurality of fingers 206, for example, a pair of fingers 206 as shown in the figure, at the tip thereof, and the stage 20
The workpiece can be gripped by sliding the pair of fingers 206 so as to change the distance between them.
The work to be gripped and used by the hand 103 part is a work imaging means 20 having an imaging function such as a lens and CCD.
1 is output as image data.

【0038】ワーク位置形状検出手段202は、この画
像データを画像処理してワーク部分を抽出し、そのワー
クの形状および位置を検出する。把持位置データ生成手
段203は、検出されたワークの形状および位置に基づ
き、ワークのハンドリング位置を算出する。(ハンド)
把持位置制御手段204は、算出されたハンドリング位
置に基づき、一対のフィンガー206でワークを把持さ
せるよう駆動制御する。このハンド把持位置制御手段2
04は、例えば、ステッピングモータやサーボモータ、
もしくは、電空レギュレータによる空圧制御方式等でフ
ィンガー206を位置決め制御する。
The work position / shape detecting means 202 performs image processing on this image data to extract a work part, and detects the shape and position of the work. The grip position data generation means 203 calculates the handling position of the work based on the detected shape and position of the work. (hand)
The gripping position control unit 204 controls the driving so that the pair of fingers 206 grips the work based on the calculated handling position. This hand gripping position control means 2
04 is, for example, a stepping motor or a servo motor,
Alternatively, the positioning of the finger 206 is controlled by an air pressure control method using an electropneumatic regulator.

【0039】上記のハンド103は、ワークの把持を正
確におこなうためのずれ補正機能を有し、ワークの形状
および位置を検出してワークを最適な位置で把持可能な
よう構成されている。したがって、ハンド103は、ロ
ボットコントローラ110との間でワークの把持に関す
る画像データや、ワーク形状、位置等の情報の送受を不
要にできる。
The hand 103 has a deviation correction function for accurately gripping the work, and is configured to detect the shape and position of the work and grip the work at an optimum position. Therefore, the hand 103 does not need to send and receive the image data regarding the grip of the work and the information such as the work shape and the position with the robot controller 110.

【0040】ハンド103とロボットコントローラ11
0は、通信手段205を介して接続され、ハンド103
は、ロボットコントローラ110から把持準備信号、把
持信号、等を受信して把持動作を開始し、また、ロボッ
トコントローラ110に対し、把持準備信号に対する返
答信号、把持中信号、ワーク有無信号、等を送信してロ
ボットコントローラ110と連携動作するようになって
いる。
Hand 103 and robot controller 11
0 is connected via the communication means 205, and the hand 103
Starts a gripping operation by receiving a gripping preparation signal, a gripping signal, etc. from the robot controller 110, and also sends a reply signal to the gripping preparation signal, a gripping signal, a work presence / absence signal, etc. to the robot controller 110. Then, it operates in cooperation with the robot controller 110.

【0041】図3は、ハンド103によるワーク把持の
制御内容を示すフローチャートである。同図には、ロボ
ットコントローラ110からの把持準備信号の受信処理
をおこなわずにワークを把持する制御内容が記載されて
いる。ハンド103は、まず、ロボットコントローラ1
10からの把持信号を待機する(ステップS301)。
把持信号を受信すると(ステップS301:Yes)、
ワーク画像化手段201でワークを画像データ化してハ
ンド103内部に取り込む(ステップS302)。
FIG. 3 is a flow chart showing the control contents of the work holding by the hand 103. In the figure, the control content for gripping the work without performing the processing for receiving the grip preparation signal from the robot controller 110 is described. First, the hand 103 includes the robot controller 1
It waits for the grip signal from 10 (step S301).
When the grip signal is received (step S301: Yes),
The work image forming means 201 converts the work into image data and takes it into the hand 103 (step S302).

【0042】つぎに、この画像データをワーク位置形状
検出手段202で画像処理してワーク部分を抽出し、ワ
ークの形状および位置を認識する(ステップS30
3)。この後、認識したワークの形状および位置に基づ
き、把持位置データ生成手段203は、ワークの現在の
位置と、フィンガー206の現在の位置のずれ量を検出
し(ステップS304)、このずれ量に基づきハンドリ
ングに必要なハンド把持位置を算出する(ステップS3
05)。
Next, this image data is subjected to image processing by the work position shape detecting means 202 to extract the work part, and the shape and position of the work are recognized (step S30).
3). Then, based on the recognized shape and position of the work, the grip position data generation unit 203 detects the amount of deviation between the current position of the work and the current position of the finger 206 (step S304), and based on this amount of deviation. A hand gripping position required for handling is calculated (step S3).
05).

【0043】そして、算出されたハンドリング位置に基
づき、ハンド把持位置制御手段204は、フィンガー2
06を駆動制御してワークを把持させる(ステップS3
06)。ワークを把持している期間中は、ロボットコン
トローラ110に対し、把持中信号(把持完了信号)を
出力する(ステップS307)。
Then, based on the calculated handling position, the hand gripping position control means 204 causes the finger 2
Drive control of 06 to grip the work (step S3
06). While the workpiece is being gripped, a gripping signal (gripping completion signal) is output to the robot controller 110 (step S307).

【0044】このように、ハンド103は、ロボットコ
ントローラ110からの把持信号の入力待ちのみで動作
し、把持後にロボットコントローラ110に把持完了信
号を送信するのみで、ワークを正確に把持することがで
きる。これにより、ロボットコントローラ110に対す
るティーチングの精度が低くともハンド103が自律し
て最適な把持位置でワークを把持することができる。
As described above, the hand 103 operates only by waiting for the input of the gripping signal from the robot controller 110, and only after sending the gripping completion signal to the robot controller 110 after gripping, the work can be accurately gripped. . As a result, the hand 103 can autonomously grip the work at the optimum gripping position even if the accuracy of teaching to the robot controller 110 is low.

【0045】ハンド103は、ロボットコントローラ1
10から上記の把持信号を受信した時点で、把持するワ
ークの形状やハンド(フィンガー206)の形状等を要
因として、ワークの形状が判別できない場合もある。
The hand 103 is the robot controller 1
When the above-mentioned gripping signal is received from 10, the shape of the work may not be discriminated due to the shape of the work to be gripped, the shape of the hand (finger 206), or the like.

【0046】図4は、この場合に対応したハンドによる
ワーク把持の他の制御内容を示すフローチャートであ
る。この場合、ロボットコントローラ110から送信さ
れる把持準備信号の入力タイミングで把持位置の検出を
事前におこなう。ハンド103は、まず、ロボットコン
トローラ110からの把持準備信号を待機する(ステッ
プS401)。この際、フィンガー206は、ワークの
把持位置から把持ワーク上面の法線方向にオフセットし
た位置にあるよう制御される。
FIG. 4 is a flow chart showing another control content of the work gripping by the hand corresponding to this case. In this case, the grip position is detected in advance at the input timing of the grip preparation signal transmitted from the robot controller 110. The hand 103 first waits for a grip preparation signal from the robot controller 110 (step S401). At this time, the finger 206 is controlled so as to be at a position offset from the gripping position of the work in the normal direction of the upper surface of the gripping work.

【0047】そして、把持準備信号を受信すると(ステ
ップS401:Yes)、ワーク画像化手段201でワ
ークを画像データ化してハンド103内部に取り込む
(ステップS402)。
When the grip preparation signal is received (step S401: Yes), the work image forming means 201 converts the work into image data and takes it into the hand 103 (step S402).

【0048】つぎに、この画像データをワーク位置形状
検出手段202で画像処理してワーク部分を抽出し、ワ
ークの形状および位置を認識する(ステップS40
3)。この後、認識したワークの形状および位置に基づ
き、把持位置データ生成手段203は、ワークの現在の
位置と、フィンガー206の現在の位置のずれ量を検出
し(ステップS404)、このずれ量に基づきハンドリ
ングに必要なハンド把持位置を算出する(ステップS4
05)。
Next, this image data is subjected to image processing by the work position / shape detecting means 202 to extract a work part, and the shape and position of the work are recognized (step S40).
3). After that, based on the recognized shape and position of the work, the gripping position data generation unit 203 detects a deviation amount between the current position of the work and the current position of the finger 206 (step S404), and based on this deviation amount. A hand gripping position required for handling is calculated (step S4).
05).

【0049】そして、ロボットコントローラ110に対
し把持準備信号に返答する返答信号を送出する(ステッ
プS406)。つぎに、ロボットコントローラ110か
らの把持信号を待機する(ステップS407)。把持信
号を受信すると(ステップS407:Yes)、算出さ
れたハンドリング位置に基づき、ハンド把持位置制御手
段204は、複数のフィンガー206を駆動制御してワ
ークを把持させる(ステップS408)。ワークを把持
している期間中は、ロボットコントローラ110に対
し、把持中信号(把持完了信号)を出力する(ステップ
S409)。
Then, a reply signal for replying to the grip preparation signal is sent to the robot controller 110 (step S406). Next, the robot controller 110 waits for a grip signal from the robot controller 110 (step S407). When the gripping signal is received (step S407: Yes), the hand gripping position control means 204 drives and controls the plurality of fingers 206 based on the calculated handling position to grip the work (step S408). While the workpiece is being gripped, a gripping signal (gripping completion signal) is output to the robot controller 110 (step S409).

【0050】上記のように、ハンド103は、ロボット
コントローラ110から送信される把持準備信号を用い
て把持位置の検出を前もっておこなうことができ、これ
により、把持するワークの形状が判別できない状態であ
っても、ハンド103が自律してワークの形状を認識し
た後に、最適な把持位置でワークを把持することができ
る。
As described above, the hand 103 can detect the gripping position in advance by using the gripping preparation signal transmitted from the robot controller 110, so that the shape of the workpiece to be gripped cannot be determined. However, after the hand 103 autonomously recognizes the shape of the work, the work can be gripped at the optimum gripping position.

【0051】図5は、ハンド103の他の構成例を示す
ブロック図である。上記のワーク位置形状検出手段20
2は、内部データベース(DB)501を有し、各種ワ
ークごとにワーク形状と位置等を表すワークデータ(例
えば、重心位置、外形形状、円形、矩形もしくは、基準
画像等)をあらかじめ登録記憶しておく構成にできる。
そして、ワーク画像化手段201からワークの画像デー
タを得るごとに、内部データベース(DB)501へワ
ークデータを問い合わせ、認識したワークの形状に該当
するワークデータに基づき、ワークの把持位置に関する
データを得て、このワークの位置を把持位置データ生成
手段203に出力する。これにより、ハンド103は、
把持するワークの品種が異なっても、最適位置で把持す
ることが可能になる。
FIG. 5 is a block diagram showing another configuration example of the hand 103. The work position shape detecting means 20 described above.
Reference numeral 2 has an internal database (DB) 501 in which work data representing the work shape and position for each work (for example, the center of gravity position, outer shape, circle, rectangle or reference image) is registered and stored in advance. It can be configured.
Every time the image data of the work is obtained from the work imaging unit 201, the internal database (DB) 501 is inquired of the work data, and the data regarding the gripping position of the work is obtained based on the work data corresponding to the recognized shape of the work. Then, the position of this work is output to the grip position data generation means 203. As a result, the hand 103
Even if the type of workpiece to be gripped is different, it is possible to grip at the optimum position.

【0052】また、図5に示すように、ハンド103の
外部に外部データベース(DB)502を設ける構成に
もできる。ハンド103の内部データベース(DB)5
01を検索して、把持しようとするワークがこの内部デ
ータベース(DB)501に登録されているデータに合
致しない場合には、ハンド103の外部に設けられた外
部データベース(DB)502に対して通信手段503
を介して問い合わせをおこなう構成としてもよい。
Further, as shown in FIG. 5, an external database (DB) 502 may be provided outside the hand 103. Internal database (DB) 5 of hand 103
If 01 is searched and the work to be grasped does not match the data registered in the internal database (DB) 501, communication is performed with the external database (DB) 502 provided outside the hand 103. Means 503
It may be configured to make an inquiry via.

【0053】これにより、未知のワークの形状、位置に
関するデータを得ることができるようになる。また、本
実施形態で説明したハンド103を含むロボット100
を導入後に、ワークが追加になった場合において、ハン
ド103の制御系(上記各手段)の構成やプログラミン
グ、およびデータベースの変更を不要にして、新規なワ
ークを最適位置で把持できるようになる。
As a result, it becomes possible to obtain data relating to the shape and position of the unknown work. In addition, the robot 100 including the hand 103 described in the present embodiment.
When a work is added after the introduction, the new work can be grasped at the optimum position without the need for changing the configuration and programming of the control system (each of the above means) of the hand 103 and the database.

【0054】そして、外部データベース(DB)502
に対しては、Ethernet(R)や、RS−232
C、LAN等の通信手段503を経由して問い合わせを
おこなうことができる。外部データベース(DB)50
2は、SQL(Structured Quey La
nguage)等の言語を用いたサーバクライアントタ
イプのデータベースを利用することができる。図5に示
す例では、外部データベース(DB)502がロボット
コントローラ110外部に設けられた構成としたが、ロ
ボットコントローラ110内部に外部データベース(D
B)502を設ける構成にもできる。この場合、外部デ
ータベース(DB)502は、通信手段205を介して
データを送受する構成にもできる。
An external database (DB) 502
For Ethernet (R) and RS-232
Inquiries can be made via communication means 503 such as C and LAN. External database (DB) 50
2 is SQL (Structured Query La)
It is possible to use a server-client type database using a language such as "nguage". In the example shown in FIG. 5, the external database (DB) 502 is provided outside the robot controller 110. However, the external database (D) 502 is provided inside the robot controller 110.
B) 502 may be provided. In this case, the external database (DB) 502 can also be configured to send and receive data via the communication means 205.

【0055】外部データベース(DB)502に対して
新規に問い合わせて得たワークデータは、ハンド103
の内部データベース(DB)501に追加する構成とし
てもよい。これにより、ハンド103内部でこの新たな
ワークに関するワークデータを保持でき、以降、この新
たなワークに関するワークデータをハンド103の内部
データベース(DB)501に問い合わせて処理が可能
となるため、通信手段503を介した通信が不要で通信
等にかかる時間を短縮でき、制御の高速化が図れるよう
になる。
Work data obtained by making a new inquiry to the external database (DB) 502 is the hand 103
May be added to the internal database (DB) 501. As a result, the work data relating to this new work can be held inside the hand 103, and thereafter, the work data relating to this new work can be queried and processed by the internal database (DB) 501 of the hand 103, and therefore the communication means 503. Since the communication via the terminal is unnecessary, the time required for the communication can be shortened and the control speed can be increased.

【0056】また、新たなワークや新たなハンドの追加
時のみ通信手段503を用いて内部データベース(D
B)501の構築をおこなうことも可能である。この構
成によれば、ロボット100の最初の導入時において
も、ハンド103の内部データベース(DB)501を
外部データベース(DB)502から取り出すことがで
き、ハンド103内部で特別に作る必要がないため、導
入にかかるコストを削減することができる。
Further, only when a new work or a new hand is added, the internal database (D
B) It is also possible to construct 501. According to this configuration, even when the robot 100 is first introduced, the internal database (DB) 501 of the hand 103 can be taken out from the external database (DB) 502, and it is not necessary to specially make it inside the hand 103. The cost of introduction can be reduced.

【0057】また、ハンド103内部のデータベース
(DB)501、および外部データベース(DB)50
2を用いるに限らず、画像データに基づき、ワークの把
持すべき箇所が円形状か、平行形状かを認識し、把持位
置を算出する構成とすることもできる。
Further, a database (DB) 501 inside the hand 103 and an external database (DB) 50.
It is possible to adopt a configuration in which the grip position is calculated by recognizing, based on the image data, whether the location of the workpiece to be gripped is circular or parallel based on the image data.

【0058】図6は、ワーク形状の認識に基づく把持位
置算出の手順を示すフローチャートである。ワーク画像
化手段201で撮像した画像データがワーク位置形状検
出手段202に入力される(ステップS601)。ワー
ク位置形状検出手段202は、画像データからワーク部
分の画像を切り出す(ステップS602)。
FIG. 6 is a flow chart showing the procedure for calculating the gripping position based on the recognition of the work shape. The image data picked up by the work imaging unit 201 is input to the work position shape detection unit 202 (step S601). The work position shape detection means 202 cuts out an image of the work part from the image data (step S602).

【0059】つぎに、切り出したワーク形状が円形状で
あるか、平行形状であるかを認識する(ステップS60
3)。認識の結果が円形形状の場合には(ステップS6
03:円形状)、つぎに把持位置を外側とするか内側と
するかを判断する(ステップS604)。この把持位置
は、あらかじめいずれかが設定される。これに限らず、
得られたワークの外径および内径と、ハンド103のフ
ィンガー206の大きさ、把持可能な移動量に基づき判
断することもできる。
Next, it is recognized whether the cut-out work shape is circular or parallel (step S60).
3). If the recognition result is a circular shape (step S6)
(03: circular shape), and then it is determined whether the gripping position is outside or inside (step S604). Any one of the grip positions is set in advance. Not limited to this,
It can also be determined based on the obtained outer diameter and inner diameter of the work, the size of the finger 206 of the hand 103, and the amount of movement that can be grasped.

【0060】把持位置が外側である場合には(ステップ
S604:外側)、ワークの外径を算出する(ステップ
S605)。つぎに、把持位置データ生成手段203
は、得られたワークの外径位置に基づき、ワークの中心
位置を求め、ワークの現在の中心位置と、フィンガー2
06の現在の中心位置のずれ量を検出する(ステップS
606)。このずれ量に基づき各フィンガー206での
ハンドリングに必要なハンド把持位置を算出する(ステ
ップS607)。そして、算出されたハンドリング位置
をハンド把持位置制御手段204に出力し(ステップS
608)、フィンガー206でワークを把持させる。
When the gripping position is outside (step S604: outside), the outer diameter of the work is calculated (step S605). Next, the gripping position data generating means 203
Determines the center position of the work based on the obtained outer diameter position of the work, and calculates the current center position of the work and the finger 2
A deviation amount of the current center position of 06 is detected (step S
606). A hand gripping position required for handling with each finger 206 is calculated based on this shift amount (step S607). Then, the calculated handling position is output to the hand gripping position control means 204 (step S
608), and the work is gripped by the fingers 206.

【0061】把持位置が内側である場合には(ステップ
S604:内側)、ワークの内径を算出する(ステップ
S609)。つぎに、把持位置データ生成手段203
は、得られたワークの内径位置に基づき、ワークの中心
位置を求め、ワークの現在の中心位置と、フィンガー2
06の現在の中心位置のずれ量を検出(算出)する(ス
テップS610)。このずれ量に基づき各フィンガー2
06でのハンドリングに必要なハンド把持位置を算出す
る(ステップS611)。そして、算出されたハンドリ
ング位置をハンド把持位置制御手段204に出力し(ス
テップS608)、フィンガー206でワークを把持さ
せる。
When the grip position is inside (step S604: inside), the inner diameter of the work is calculated (step S609). Next, the gripping position data generating means 203
Calculates the center position of the work based on the obtained inner diameter position of the work, and calculates the current center position of the work and the finger 2
The deviation amount of the current center position of 06 is detected (calculated) (step S610). Each finger 2 based on this deviation amount
A hand gripping position required for handling in 06 is calculated (step S611). Then, the calculated handling position is output to the hand gripping position control means 204 (step S608), and the finger 206 grips the work.

【0062】ステップS603の認識の結果が平行形状
の場合には(ステップS603:平行形状)、つぎに把
持位置をこのワークの外側とするか内側とするかを判断
する(ステップS612)。
If the recognition result in step S603 is a parallel shape (step S603: parallel shape), it is next determined whether the gripping position is outside or inside this work (step S612).

【0063】把持位置が外側である場合には(ステップ
S612:外側)、ワークの外側間の幅(把持幅)を算
出する(ステップS613)。つぎに、把持位置データ
生成手段203は、得られたワークの幅に基づき、ワー
クの中心位置を求め、ワークの現在の中心位置と、フィ
ンガー206の現在の中心位置のずれ量を検出(算出)
する(ステップS614)。このずれ量に基づき各フィ
ンガー206でのハンドリングに必要なハンド把持位置
を算出する(ステップS615)。そして、算出された
ハンドリング位置をハンド把持位置制御手段204に出
力し(ステップS608)、フィンガー206でワーク
を把持させる。
When the grip position is on the outside (step S612: outside), the width between the outside of the work (grip width) is calculated (step S613). Next, the grip position data generation unit 203 obtains the center position of the work based on the obtained width of the work, and detects (calculates) the deviation amount between the current center position of the work and the current center position of the finger 206.
(Step S614). A hand gripping position required for handling with each finger 206 is calculated based on this shift amount (step S615). Then, the calculated handling position is output to the hand gripping position control means 204 (step S608), and the finger 206 grips the work.

【0064】把持位置が内側である場合には(ステップ
S612:内側)、ワークの内側間の幅(把持幅)を算
出する(ステップS616)。つぎに、把持位置データ
生成手段203は、得られたワークの幅に基づき、ワー
クの中心位置を求め、ワークの現在の中心位置と、フィ
ンガー206の現在の中心位置のずれ量を検出(算出)
する(ステップS617)。このずれ量に基づき各フィ
ンガー206でのハンドリングに必要なハンド把持位置
を算出する(ステップS618)。そして、算出された
ハンドリング位置をハンド把持位置制御手段204に出
力し(ステップS608)、フィンガー206でワーク
を把持させる。
If the gripping position is inside (step S612: inside), the width between the insides of the workpiece (grasping width) is calculated (step S616). Next, the grip position data generation unit 203 obtains the center position of the work based on the obtained width of the work, and detects (calculates) the deviation amount between the current center position of the work and the current center position of the finger 206.
Yes (step S617). A hand gripping position required for handling with each finger 206 is calculated based on this displacement amount (step S618). Then, the calculated handling position is output to the hand gripping position control means 204 (step S608), and the finger 206 grips the work.

【0065】図7は、ハンド103の構成の具体例を示
す正面図、図8は同側面図である。このハンドは、形態
変化ハンド700であり、複数(図示の例では3つ)の
各フィンガー206の位置に冗長性を有するものであ
る。形態変化ハンド700の先端には円形状のステージ
701が設けられ、ステージ701中心部を基軸702
aとして周方向に回動自在な3本のアーム702が設け
られる。各アーム702には、それぞれフィンガー20
6が取り付けられ、これらフィンガー206は、アーム
702のスライド機構703によってアーム702の軸
方向(各フィンガー206同士の拡縮方向)に移動自在
である。
FIG. 7 is a front view showing a specific example of the configuration of the hand 103, and FIG. 8 is a side view of the same. This hand is a form-changing hand 700, and has a plurality of (three in the illustrated example) fingers 206 having redundancy. A circular stage 701 is provided at the tip of the shape-changing hand 700, and the central portion of the stage 701 is provided with a base shaft 702.
As a, three arms 702 that are rotatable in the circumferential direction are provided. Each arm 702 has a finger 20
6, the fingers 206 are movable in the axial direction of the arm 702 (the expansion / contraction direction of the fingers 206) by the slide mechanism 703 of the arm 702.

【0066】上記のような形態変化ハンド700を用い
ることにより、3本のフィンガー206をそれぞれ回動
させて中心位置に対し互いの角度を可変でき、また、拡
縮可能であるため、円形状および平行形状のワークをい
ずれも把持可能となる。
By using the shape-changing hand 700 as described above, the three fingers 206 can be respectively rotated to change the mutual angles with respect to the center position and can be expanded / contracted. Any shaped work can be gripped.

【0067】ハンド103の構成例としては、他に、人
間の手を模した多指ハンドであっても同様に位置ずれ量
を補正して把持することが可能となる。なお、ロボット
100が把持するワークとして、平行部を2指で把持で
きる形状のみを扱うようなワークの場合には、2指の各
フィンガーがそれぞれ独立して駆動することができる機
構であれば中心位置を移動できるので、平行形状のワー
クを把持可能となる。
As another example of the configuration of the hand 103, even a multi-fingered hand simulating a human hand can be corrected and grasped in the same manner. In the case where the robot 100 grasps only a shape in which the parallel portion can be grasped by two fingers, it is a center if a mechanism in which each of the two fingers can be independently driven. Since the position can be moved, a parallel work can be gripped.

【0068】図9は、上記形態変化ハンド700による
ワークの把持位置を説明するための図である。上述した
ように、各フィンガー206は、アーム702によりス
テージ701の基軸702aを中心として軸周りに旋回
可能であり、また、スライド機構703により、ステー
ジ701の半径方向に独立して駆動可能に構成されてい
る。
FIG. 9 is a view for explaining the gripping position of the work by the above-mentioned shape change hand 700. As described above, each of the fingers 206 can be pivoted about the axis of the base 702a of the stage 701 by the arm 702, and can be independently driven in the radial direction of the stage 701 by the slide mechanism 703. ing.

【0069】したがって、把持位置データ生成手段20
3は、まず、得られた画像データから、ハンド103の
中心位置、即ち3本のフィンガー206の中心位置(図
中黒円)P1,P2,P3と、ワークWの中心位置(図
中白丸)Sをそれぞれ求めてから、基準となるフィンガ
ー206の中心位置P1と、ワークWの中心位置Sとを
通る仮想直線Lを引く。
Therefore, the gripping position data generating means 20
First, from the obtained image data, 3 is the center position of the hand 103, that is, the center positions of the three fingers 206 (black circles in the figure) P1, P2, P3, and the center positions of the work W (white circles in the figure). After each S is obtained, a virtual straight line L passing through the center position P1 of the reference finger 206 and the center position S of the work W is drawn.

【0070】つぎに、この仮想直線Lに交わるワークW
の周縁を基準となるフィンガー206の基準把持位置F
1とする。この基準把持位置F1を基準にして、ワーク
Wの外径(周縁)上で120度ごとに3分割し、得られ
たワークWの円周上の他の2点を他のフィンガー206
による把持位置F2,F3とする。
Next, the work W intersecting the virtual straight line L
The reference gripping position F of the finger 206 with the periphery of the reference
Set to 1. With reference to this reference gripping position F1, the work W is divided into three parts every 120 degrees on the outer diameter (periphery), and the other two points on the circumference of the obtained work W are separated by the other fingers 206.
Grip positions F2 and F3.

【0071】ハンド把持位置制御手段204は、各フィ
ンガー206が得られた把持位置F1〜F3にそれぞれ
位置するよう、アーム702を回動させ、スライド機構
703を直線移動させる。これにより、ハンド103は
ワークWを3等分した角度位置で対応する3本のフィン
ガー206で安定して把持することが可能となる。
The hand gripping position control means 204 rotates the arm 702 and linearly moves the slide mechanism 703 so that the fingers 206 are respectively positioned at the gripping positions F1 to F3 obtained. As a result, the hand 103 can stably grip the work W with the corresponding three fingers 206 at an angular position obtained by dividing the work W into three equal parts.

【0072】前記ワーク画像化手段201は、2次元C
CDセンサ、2次元CMOSセンサで構成し、ワークの
2次元画像データを得る構成にできる。また、2次元C
CDセンサもしくは2次元CMOSセンサ2台を備え、
ワーク位置形状検出手段202でステレオ法を用いてワ
ークの形状と位置、姿勢を三次元的に求める構成にもで
きる。
The work imaging means 201 is a two-dimensional C
A CD sensor and a two-dimensional CMOS sensor can be used to obtain two-dimensional image data of the work. Also, two-dimensional C
Equipped with two CD sensors or two-dimensional CMOS sensors,
It is also possible to adopt a configuration in which the work position shape detecting means 202 uses a stereo method to three-dimensionally obtain the shape, position, and orientation of the work.

【0073】さらに、ハンド103にパターン照明手段
(図示略)を設け、ワークに対するパターン照明で得た
ワークの画像データに基づき、ワーク位置形状検出手段
202で空間コード化法や、モアレ法等を用いてワーク
の形状と位置、姿勢を三次元的に求める構成にもでき
る。さらに、ワーク画像化手段201にレーザレンジフ
ァインダを用い、ワーク位置形状検出手段202でワー
クの形状と位置、姿勢を三次元的に求めることもでき
る。
Further, the hand 103 is provided with a pattern illuminating means (not shown), and based on the image data of the work obtained by pattern illuminating the work, the work position / shape detecting means 202 uses a space coding method, a moire method or the like. The shape, position, and orientation of the workpiece can be obtained three-dimensionally. Further, a laser range finder can be used as the work image forming means 201, and the work position shape detecting means 202 can three-dimensionally determine the shape, position, and orientation of the work.

【0074】このように、ワーク画像化手段201で2
次元画像データを得て、ワーク位置形状検出手段202
でワークの形状と位置、姿勢を三次元で求めることによ
って、より複雑な形状をもつワークの把持点が検出可能
となる。例えば、図10に示すワークと、図11に示す
ワークを例に説明する。図10に示すワーク1001
は、四角形のベース1002の中央に円柱状の凸部10
03を備えてなる。図11に示すワーク1101は、四
角形のベース1102の中央に円形状の凹部1103を
備えてなる。
In this way, the work imaging means 201
Obtaining the three-dimensional image data, the work position shape detecting means 202
By calculating the shape, position, and orientation of the work in three dimensions, the gripping point of the work having a more complicated shape can be detected. For example, the work shown in FIG. 10 and the work shown in FIG. 11 will be described as an example. Work 1001 shown in FIG.
Is a cylindrical convex portion 10 at the center of a square base 1002.
It is equipped with 03. A work 1101 shown in FIG. 11 is provided with a circular recess 1103 in the center of a square base 1102.

【0075】これらワーク1001,1101は、一次
元的に平面(上面)方向から撮像しただけでは中央が凸
形状であるか、凹形状であるか判断がつかない。しか
し、ワーク1001,1101の上面と側面から撮像す
る等してワーク1001,1101の三次元的な画像デ
ータを得ることにより、凹凸を判断できるようになる。
これにより、ハンド103で把持可能な把持点を算出可
能となる。図10に示すワーク1001は、ベース10
02の周縁、あるいは凸部1003の周縁を把持可能で
あり、図11に示すワーク1101は、ベース1102
の周縁、あるいは凹部1103の周縁を把持可能と判断
できるようになる。
It is impossible to judge whether these workpieces 1001 and 1101 have a convex shape or a concave shape at the center only by one-dimensionally capturing an image from the plane (upper surface) direction. However, it is possible to determine the unevenness by obtaining three-dimensional image data of the works 1001 and 1101 by taking an image from the upper surface and the side surface of the works 1001 and 1101.
As a result, it becomes possible to calculate a grip point that can be gripped by the hand 103. The work 1001 shown in FIG.
02 or the periphery of the convex portion 1003 can be gripped, and the work 1101 shown in FIG.
It becomes possible to determine that the peripheral edge of the concave portion 1103 or the peripheral edge of the concave portion 1103 can be grasped.

【0076】また、この発明の実施形態で説明したハン
ド103は、把持するワークの形状、もしくは種類を記
憶する記憶手段(不図示)を備えた構成にもできる。ワ
ーク位置形状検出手段202は、把持したワークの形状
もしくは形状に対応する種類を記憶手段に記憶させる。
そして、図示しないワーク組み付け手段は、把持したワ
ークの組付けをおこなう際に、ワーク画像化手段が撮像
した被組み付けワークの画像データに基づき、記憶手段
に記憶しているこのワークの形状に最適な組み付け位置
を判断し、組付けをおこなう構成とすることができる。
Further, the hand 103 described in the embodiment of the present invention can be configured to have a storage means (not shown) for storing the shape or type of the work to be held. The work position shape detection means 202 stores the shape of the gripped work or the type corresponding to the shape in the storage means.
Then, the work assembling means (not shown) is suitable for the shape of the work stored in the storage means based on the image data of the work to be assembled which is picked up by the work imaging means when assembling the gripped work. The assembly position can be determined and the assembly can be performed.

【0077】例えば図12に示す被組み付けワーク12
01に対し、ハンド103が把持しているワークWを組
み付けるときに、把持しているワークWの形状や大き
さ、種類などを記憶しておくことによって、被組み付け
ワーク1201に対しワークWを取り付ける位置を自動
的に認識して組付けをおこなうことが可能となる。図示
の例では、被組み付けワーク1201には3つの組付け
位置1202,1203,1204が配置されている
が、ワークWの形状に基づき、このワークWの形状に適
合した組付け位置1203に組み付けることができるよ
うになる。
For example, the workpiece 12 to be assembled shown in FIG.
When assembling the work W gripped by the hand 103 with respect to 01, the shape, size, type, etc. of the gripped work W are stored, so that the work W is attached to the mounted work 1201. It is possible to automatically recognize the position and assemble. In the illustrated example, the work 1201 to be assembled has three mounting positions 1202, 1203, and 1204. However, based on the shape of the work W, the mounting position 1203 is suitable for the shape of the work W. Will be able to.

【0078】また、以上説明したロボット100は、ロ
ボットコントローラ110との間で通信手段205(図
2参照)を介して相互にデータ通信可能な構成である。
把持位置データ生成手段203は、算出された把持位置
データが、ハンド把持位置制御手段204で制御可能な
ハンド103(フィンガー206)の動作範囲を越える
位置となったときにこれを判断する。ハンド103が動
作範囲に含まれるか否かは、あらかじめ設定された閾値
を用いて簡単に検出できる。そして、把持不能な旨を示
す把持位置データをこの通信手段205を介してロボッ
トコントローラ110に出力する構成としてもよい。
Further, the robot 100 described above has a structure capable of mutually performing data communication with the robot controller 110 via the communication means 205 (see FIG. 2).
The grip position data generation means 203 determines this when the calculated grip position data is at a position beyond the operating range of the hand 103 (finger 206) that can be controlled by the hand grip position control means 204. Whether or not the hand 103 is included in the operating range can be easily detected by using a preset threshold value. Then, the grip position data indicating that gripping is impossible may be output to the robot controller 110 via the communication unit 205.

【0079】これにより、ハンド103で許容できるワ
ーク位置が動作範囲を越えた場合に、ロボットコントロ
ーラ110に対して把持位置データが出力される。これ
により、ハンド103は、大きなずれの発生時には、ロ
ボットコントローラ110に補正制御を要求してロボッ
ト100全体での位置補正を実行させることができる。
これにより、ワークの位置精度が著しく悪い場合にも対
応できるようになる。
As a result, when the allowable work position of the hand 103 exceeds the operation range, the grip position data is output to the robot controller 110. Accordingly, the hand 103 can request the robot controller 110 to perform correction control and cause the robot 100 to perform position correction when the large displacement occurs.
This makes it possible to deal with the case where the positional accuracy of the work is extremely poor.

【0080】このように、本実施形態では、ハンド10
3で補正できない場合のみ、通信手段205を介してロ
ボットコントローラ110に対して把持位置データを出
力するため、ロボットコントローラ110における制御
負荷を軽減できる。また、このような把持不能状態の発
生でのロボットコントローラ110に対する補正制御の
要求は、ワーク把持ごとに発生するものではない。した
がって、従来技術の如く、ロボットコントローラ110
に対して毎回同様の位置決め要求をおこない通信制御す
る構成のものに比して、タクトタイムへの影響が低く、
低コストで高処理能力が得られる。
As described above, in the present embodiment, the hand 10
Only when the correction cannot be performed in step 3, the grip position data is output to the robot controller 110 via the communication unit 205, so that the control load on the robot controller 110 can be reduced. Further, the request for correction control to the robot controller 110 when such a gripping impossible state is generated does not occur every time the workpiece is gripped. Therefore, as in the prior art, the robot controller 110
In comparison with a configuration in which a similar positioning request is made each time and communication control is performed, the effect on tact time is low,
High throughput can be obtained at low cost.

【0081】また、ハンド103とロボットコントロー
ラ110との間の通信手段205を介して、ハンド10
3のワーク位置形状検出手段202が求めたワークの形
状をロボットコントローラ110に出力することができ
る。ハンド103が内部データベース(DB)501を
備えた構成であれば、ワークの形状に基づきワークの種
類を出力することもできる。
Further, the hand 10 is connected via the communication means 205 between the hand 103 and the robot controller 110.
The work shape obtained by the work position shape detecting means 202 of No. 3 can be output to the robot controller 110. If the hand 103 is configured to include the internal database (DB) 501, the type of work can be output based on the shape of the work.

【0082】これによって、ロボットコントローラ11
0は、ハンド103が把持したワークを判別し、そのワ
ークごとに異なる組み付け位置へとハンド103を移動
することができるようになる。したがって、複数種類の
ワークが混在していてもハンド103が把持したワーク
ごとに、被組み付けワーク1201上で対応する組付け
位置に順次移動制御できるようになり、汎用性を向上で
きるようになる。また、逆に、ロボットコントローラ1
10からハンド103に対して、把持すべきワークの形
状、種類等の情報を送出することにより、ハンド103
は混在する多種類のワークから目的のワークを選択的に
取り出すことができるようになる。
As a result, the robot controller 11
With 0, the work held by the hand 103 can be discriminated, and the hand 103 can be moved to a different assembly position for each work. Therefore, even if a plurality of types of works are mixed, it is possible to sequentially control the movement of each work gripped by the hand 103 to the corresponding mounting position on the work 1201 to be mounted, thereby improving versatility. On the contrary, the robot controller 1
By sending information such as the shape and type of the work to be grasped from the hand 10 to the hand 103,
Allows the target work to be taken out selectively from many kinds of mixed work.

【0083】なお、本実施の形態で説明したワークの把
持にかかる方法は、あらかじめ用意されたプログラムを
パーソナル・コンピュータやワークステーション等のコ
ンピュータで実行することにより実現することができ
る。このプログラムは、ハードディスク、フロッピー
(R)ディスク、CD−ROM、MO、DVD等のコン
ピュータで読み取り可能な記録媒体に記録され、コンピ
ュータによって記録媒体から読み出されることによって
実行される。またこのプログラムは、上記記録媒体を介
して、インターネット等のネットワークを介して配布す
ることができる。
The method for gripping a work described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, a floppy (R) disk, a CD-ROM, an MO, or a DVD, and is executed by being read from the recording medium by the computer. The program can be distributed via the recording medium and a network such as the Internet.

【0084】[0084]

【発明の効果】以上説明したように、請求項1に記載の
発明によれば、ロボットハンドで把持するワークの形状
および位置を表す画像データを得るワーク画像化手段
と、前記ワーク画像化手段が撮像したワークの画像デー
タに基づき、ワークの位置と形状のデータを算出するワ
ーク位置形状検出手段と、前記ワーク位置形状検出手段
が算出した位置と形状のデータに基づき、ロボットハン
ドによりワークを把持するための把持位置データを生成
する把持位置データ生成手段と、前記把持位置データ生
成手段が生成した把持位置データに基づき、前記ロボッ
トハンドの把持位置を変更するハンド把持位置制御手段
とを備え、ロボットハンドが自律して最適な把持位置で
ワークを把持可能なため、ロボットハンド内でワークの
把持位置を求めワークを把持可能であるため、通信等を
介してロボットコントローラからの精密な制御を受けず
とも自律的にワークを把持できるようになり、タクトタ
イムの向上、把持のためのティーチング作業の削減を図
ることができるという効果を奏する。
As described above, according to the invention described in claim 1, the work imaging means for obtaining the image data representing the shape and position of the work gripped by the robot hand, and the work imaging means are provided. A work position shape detecting means for calculating the position and shape data of the work based on the image data of the imaged work, and a robot hand grips the work based on the position and shape data calculated by the work position shape detecting means. And a hand gripping position control means for changing the gripping position of the robot hand based on the gripping position data generated by the gripping position data generating means. Since the robot can autonomously grip the work at the optimum gripping position, the work gripping position is calculated in the robot hand. Since it is possible to grasp the workpiece, it becomes possible to autonomously grasp the workpiece without receiving precise control from the robot controller via communication, etc., improving the takt time and reducing teaching work for grasping. There is an effect that can be.

【0085】また、請求項2に記載の発明によれば、請
求項1に記載の発明において、前記ワーク位置形状検出
手段は、ワークの形状と把持位置に関するデータが蓄積
される内部データベースを備え、前記算出したワーク形
状データに基づき、前記内部データベースを参照してワ
ークの把持位置を得るため、ハンドによる自律性をより
向上させ、内部データベースを用いて多様なワークを把
持できるという効果を奏する。
According to a second aspect of the present invention, in the first aspect of the invention, the work position shape detecting means has an internal database for accumulating data relating to the shape and gripping position of the work, Since the grip position of the work is obtained by referring to the internal database based on the calculated work shape data, the autonomy by the hand is further improved, and various works can be gripped using the internal database.

【0086】また、請求項3に記載の発明によれば、請
求項2に記載の発明において、ロボットハンド外部に設
けられワークの形状と把持位置に関するデータが蓄積さ
れる外部データベースと、前記外部データベースとの間
でデータ送受可能な通信手段を備え、前記ワーク位置形
状検出手段は、把持しようとするワークについて、前記
内部データベースに、対応するワークの形状データに合
致するものがない場合に、前記外部データベースに対し
て、該当するワーク形状データに対応した把持位置を得
るため、外部データベースへの問い合わせを極力低減し
て通信等の制限を受けにくくでき、また、新たな種類の
ワークに対してもプログラミング変更や、意図的なデー
タベースの変更作業が不要で把持が可能になるという効
果を奏する。
According to the invention of claim 3, in the invention of claim 2, an external database provided outside the robot hand for accumulating data relating to the shape and gripping position of the work, and the external database. Communication means capable of transmitting and receiving data to and from the work position and shape detecting means, when there is no work matching the shape data of the corresponding work in the internal database for the work to be gripped, Since the grip position corresponding to the relevant work shape data is obtained from the database, the number of inquiries to the external database can be reduced as much as possible, and restrictions on communication etc. can be suppressed, and programming for new types of work is also possible. It is possible to grasp without requiring a change or an intentional change of the database.

【0087】また、請求項4に記載の発明によれば、請
求項3に記載の発明において、前記ワーク位置形状検出
手段は、外部データベースに対して、問い合わせた結果
得たワーク形状データを、前記内部データベースに追加
格納し、以後該当するワークの形状データを前記内部デ
ータベースを用いて得るため、外部データベースから内
部データベースに新たな種類のワーク形状データを追加
すれば、以後このワークを外部に問い合わせることなく
ハンド内で把持処理が実行でき、外部データベースとの
間の通信を最小限に抑えてタクトタイムの向上が図れる
という効果を奏する。
Further, according to the invention described in claim 4, in the invention described in claim 3, the work position shape detecting means stores the work shape data obtained as a result of inquiring from an external database, Since it is additionally stored in the internal database and the shape data of the corresponding work is obtained using the internal database, if a new type of work shape data is added from the external database to the internal database, this work will be inquired to the outside. It is possible to perform the gripping process in the hand without the need for communication, minimize the communication with the external database, and improve the tact time.

【0088】また、請求項5に記載の発明によれば、請
求項1に記載の発明において、前記把持位置データ生成
手段は、前記ワーク位置形状検出手段が算出した位置と
形状のデータに基づき、ワークの形状別の把持位置を算
出するため、ワークを撮像し算出した形状データから、
ワークが円形、平行、棒状等の特徴的な形状を認識し、
この形状に対応して内部把持、外部把持等の把持位置を
判断し、多様なワークを最適な状態で把持できるという
効果を奏する。
According to the invention of claim 5, in the invention of claim 1, the gripping position data generating means is based on the position and shape data calculated by the work position shape detecting means. In order to calculate the gripping position for each shape of the work, from the shape data calculated by imaging the work,
Recognize characteristic shapes such as circular, parallel, and bar-shaped workpieces,
There is an effect that various gripping positions such as internal gripping and external gripping are determined according to this shape, and various works can be gripped in an optimum state.

【0089】また、請求項6に記載の発明によれば、請
求項1に記載の発明において、前記ワーク画像化手段
は、2次元CCDセンサもしくは2次元CMOSセンサ
で構成したので、ワーク画像化手段の小型化が図れると
いう効果を奏する。
According to a sixth aspect of the present invention, in the first aspect of the present invention, the work image forming means is composed of a two-dimensional CCD sensor or a two-dimensional CMOS sensor. This has the effect that the size can be reduced.

【0090】また、請求項7に記載の発明によれば、請
求項1に記載の発明において、前記ワーク画像化手段
は、2次元CCDセンサもしくは2次元CMOSセンサ
を少なくとも2台備え、それぞれ異なる角度から前記ワ
ークを撮像するものであり、前記ワーク位置形状検出手
段は、前記ワーク画像化手段による2つ以上の画像デー
タに基づき、前記ワークの形状と位置、および姿勢など
を三次元的に求めるため、ワークの種類によらずワーク
の形状を認識できるようになり、最適な姿勢で安定して
把持できるという効果を奏する。
According to a seventh aspect of the present invention, in the first aspect of the present invention, the work imaging means is provided with at least two two-dimensional CCD sensors or two-dimensional CMOS sensors, each having a different angle. To image the work, and the work position shape detecting means three-dimensionally obtains the shape, position, posture, etc. of the work based on two or more image data by the work imaging means. Thus, the shape of the work can be recognized regardless of the type of the work, and it is possible to stably grip the work in an optimum posture.

【0091】また、請求項8に記載の発明によれば、請
求項6に記載の発明において、ワークにパターン照明を
施すパターン照明手段を備え、前記ワーク位置形状検出
手段は、前記パターン照明により得られる前記ワーク画
像化手段の画像データに基づき、ワーク形状と位置、お
よび姿勢を三次元的に求めるため、空間コード化法や、
モアレ法等を用いてより安定してワークを認識し、最適
な姿勢で把持できるという効果を奏する。
According to the invention described in claim 8, in the invention described in claim 6, pattern illumination means for applying pattern illumination to the work is provided, and the work position shape detection means is obtained by the pattern illumination. Based on the image data of the work image forming means to be obtained, in order to three-dimensionally obtain the work shape, position, and posture, a space coding method,
There is an effect that the work can be recognized more stably by using the moire method or the like, and the work can be gripped in an optimum posture.

【0092】また、請求項9に記載の発明によれば、請
求項1に記載の発明において、前記ワーク画像化手段に
は、レーザレンジファインダが用いられ、前記ワーク位
置形状検出手段は、前記ワーク画像化手段の画像データ
に基づき、ワーク形状と位置、および姿勢を三次元的に
求めるため、より安定してワークを認識し、最適な姿勢
で把持できるという効果を奏する。
According to a ninth aspect of the invention, in the first aspect of the invention, a laser range finder is used as the work imaging means, and the work position / shape detecting means is the work. Since the shape, position and posture of the work are three-dimensionally determined based on the image data of the imaging means, the work can be recognized more stably, and the work can be gripped in the optimum posture.

【0093】また、請求項10に記載の発明によれば、
請求項1に記載の発明において、前記ワーク形状位置検
出手段によって算出されたワークの形状、あるいは形状
に基づくワークの種類を記憶する記憶手段と、被組み付
けワークに対し前記ワークの組付けをおこなう際に、被
組み付けワークの画像データと、前記記憶手段に記憶し
ているワークの形状に基づき、被組み付けワーク上での
ワークの最適な組み付け位置を判断し、組付けをおこな
うワーク組み付け手段とを備えたので、ワークを被組み
付けワークに組み付ける時に、被組み付けワークの形状
から組付け位置を判断できるため、組み付け時にかかる
ティーチング負荷の軽減を図ることができる。
According to the invention described in claim 10,
In the invention according to claim 1, storage means for storing the shape of the work calculated by the work shape position detection means, or the type of work based on the shape, and when assembling the work to the work to be assembled In addition, based on the image data of the work to be assembled and the shape of the work stored in the storage means, the optimum assembly position of the work on the work to be assembled is determined, and work assembly means for assembling is provided. Therefore, when the work is assembled to the work to be assembled, the assembly position can be determined from the shape of the work to be assembled, so that the teaching load applied during the assembly can be reduced.

【0094】また、請求項11に記載の発明によれば、
請求項1に記載の発明において、前記ロボットコントロ
ーラとの間でデータ送受可能な通信手段を備え、前記把
持位置データ生成手段は、前記生成した把持位置データ
が、前記ロボットハンドで把持可能な動作範囲外である
ことを検出したときには、該動作範囲外である旨を示す
把持位置データを前記通信手段を介して前記ロボットコ
ントローラに出力し、前記ロボットコントローラによる
位置補正を実行させるので、ロボットコントローラによ
る位置補正との協働でより広範囲な位置補正をおこなう
ことができるという効果を奏する。
According to the invention described in claim 11,
The invention according to claim 1, further comprising a communication unit capable of transmitting and receiving data to and from the robot controller, wherein the gripping position data generating unit has an operation range in which the generated gripping position data can be gripped by the robot hand. When it is detected that the position is outside the operating range, grip position data indicating that the position is outside the operating range is output to the robot controller via the communication unit and the position correction by the robot controller is executed. In cooperation with the correction, it is possible to perform a wider range of position correction.

【0095】また、請求項12に記載の発明によれば、
請求項2に記載の発明において、前記ロボットコントロ
ーラとの間でデータ送受可能な通信手段を備え、前記ワ
ーク位置形状検出手段は、把持したワークに対応するワ
ーク形状を前記内部データベースから得て、該ワーク形
状、あるいは該ワーク形状に対応するワークの種類を前
記通信手段を介して前記ロボットコントローラに出力す
るので、混在する多種類のワークを順次組み付ける場合
でも、把持したワークを次工程の組付け位置へ移動でき
る等、組み付けの効率化が図れるという効果を奏する。
According to the invention described in claim 12,
The invention according to claim 2, further comprising communication means capable of transmitting and receiving data to and from the robot controller, wherein the work position shape detecting means obtains a work shape corresponding to a gripped work from the internal database, Since the work shape or the kind of the work corresponding to the work shape is output to the robot controller via the communication means, even when a variety of mixed works are assembled in sequence, the gripped work can be attached to the assembly position in the next step. There is an effect that the efficiency of the assembling can be improved such as moving to.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の本実施の形態にかかる手先視覚付ロ
ボットハンドの全体構成を示す図である。
FIG. 1 is a diagram showing an overall configuration of a robot hand with a fingertip visual sense according to an embodiment of the present invention.

【図2】ハンドの構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a hand.

【図3】ハンドによるワーク把持の制御内容を示すフロ
ーチャートである。
FIG. 3 is a flowchart showing the control content of the work gripping by the hand.

【図4】ハンドによるワーク把持の他の制御内容を示す
フローチャートである。
FIG. 4 is a flowchart showing another control content of gripping a work by a hand.

【図5】ハンドの他の構成例を示すブロック図である。FIG. 5 is a block diagram showing another configuration example of a hand.

【図6】ワーク形状の認識に基づく把持位置算出の手順
を示すフローチャートである。
FIG. 6 is a flowchart showing a procedure of gripping position calculation based on recognition of a work shape.

【図7】ハンドの具体的構成例を示す正面図である。FIG. 7 is a front view showing a specific configuration example of a hand.

【図8】ハンドの具体的構成例を示す側面図である。FIG. 8 is a side view showing a specific configuration example of a hand.

【図9】ハンドの具体的構成例としての形態変化ハンド
によるワークの把持位置を説明するための図である。
FIG. 9 is a diagram for explaining a gripping position of a work by a form change hand as a specific configuration example of the hand.

【図10】ハンドが把持するワークの例を示す図であ
る。
FIG. 10 is a diagram showing an example of a work held by a hand.

【図11】ハンドが把持するワークの他の例を示す図で
ある。
FIG. 11 is a diagram showing another example of the work held by the hand.

【図12】被組み付けワークに対するワークの組付けを
説明するための図である。
FIG. 12 is a view for explaining the assembling of the work with respect to the work to be assembled.

【図13】従来の手先視覚付ロボットハンドを示すシス
テム構成図である。
FIG. 13 is a system configuration diagram showing a conventional robot hand with fingertip vision.

【符号の説明】[Explanation of symbols]

100 ロボット 101 アーム 102 関節 103 ハンド 110 ロボットコントローラ 201 ワーク画像化手段 202 ワーク位置形状検出手段 203 把持位置データ生成手段 204 (ハンド)把持位置制御手段 205,503 通信手段 206 フィンガー 207 ステージ 501 内部データベース(DB) 502 外部データベース(DB) 700 形態変化ハンド 701 ステージ 702 アーム 702a 基軸 703 スライド機構 1001,1101,W ワーク 1002,1102 ベース 1003 凸部 1103 凹部 1201 被組み付けワーク 1202,1203,1204 組付け位置 F1,F2,F3 フィンガーの把持位置 P1,P2,P3 フィンガーの中心位置 S ワークの中心位置 L 仮想直線 100 robots 101 arm 102 joints 103 hands 110 Robot controller 201 Work imaging means 202 Work position shape detection means 203 gripping position data generating means 204 (hand) gripping position control means 205,503 Communication means 206 fingers 207 stage 501 internal database (DB) 502 External database (DB) 700 Hand to change shape 701 stage 702 arm 702a basic axis 703 slide mechanism 1001,1101, W work 1002, 1102 base 1003 convex part 1103 recess 1201 Work to be assembled 1202, 1203, 1204 Assembly position F1, F2, F3 Finger grip position Center position of P1, P2, P3 fingers Center position of S work L virtual straight line

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 ロボットハンドで把持するワークの形状
および位置を表す画像データを得るワーク画像化手段
と、 前記ワーク画像化手段が撮像したワークの画像データに
基づき、ワークの位置と形状のデータを算出するワーク
位置形状検出手段と、 前記ワーク位置形状検出手段が算出した位置と形状のデ
ータに基づき、ロボットハンドによりワークを把持する
ための把持位置データを生成する把持位置データ生成手
段と、 前記把持位置データ生成手段が生成した把持位置データ
に基づき、前記ロボットハンドの把持位置を変更するハ
ンド把持位置制御手段と、 を備え、 ロボットハンドが自律して最適な把持位置でワークを把
持可能なことを特徴とする手先視覚付ロボットハンド。
1. A work position imaging means for obtaining image data representing a shape and a position of a work held by a robot hand, and position and shape data of the work based on the work image data picked up by the work imaging means. A work position / shape detecting means for calculating; a gripping position data generating means for generating gripping position data for gripping a work by a robot hand based on the position and shape data calculated by the work position / shape detecting means; A hand gripping position control means for changing the gripping position of the robot hand based on the gripping position data generated by the position data generating means, and the robot hand is capable of autonomously gripping a workpiece at an optimum gripping position. A characteristic robot hand with a visual tip.
【請求項2】 前記ワーク位置形状検出手段は、ワーク
の形状と把持位置に関するデータが蓄積される内部デー
タベースを備え、 前記算出したワーク形状データに基づき、前記内部デー
タベースを参照してワークの把持位置を得ることを特徴
とする請求項1に記載の手先視覚付ロボットハンド。
2. The work position shape detection means includes an internal database in which data regarding the shape and grip position of the work is accumulated, and based on the calculated work shape data, the work position gripping position is referenced with reference to the internal database. The robot hand with a fingertip visual sense according to claim 1, wherein the robot hand is obtained.
【請求項3】 ロボットハンド外部に設けられワークの
形状と把持位置に関するデータが蓄積される外部データ
ベースと、 前記外部データベースとの間でデータ送受可能な通信手
段を備え、 前記ワーク位置形状検出手段は、 把持しようとするワークについて、前記内部データベー
スに、対応するワークの形状データに合致するものがな
い場合に、前記外部データベースに対して、該当するワ
ーク形状データに対応した把持位置を得ることを特徴と
する請求項2に記載の手先視覚付ロボットハンド。
3. An external database provided outside the robot hand for accumulating data relating to the shape and gripping position of a work, and communication means capable of transmitting and receiving data to and from the external database. When the workpiece to be gripped does not match the shape data of the corresponding workpiece in the internal database, the grip position corresponding to the workpiece shape data is obtained from the external database. The robot hand with a hand tip according to claim 2.
【請求項4】 前記ワーク位置形状検出手段は、 外部データベースに対して、問い合わせた結果得たワー
ク形状データを、前記内部データベースに追加格納し、
以後該当するワークの形状データを前記内部データベー
スを用いて得ることを特徴とする請求項3に記載の手先
視覚付ロボットハンド。
4. The work position shape detection means additionally stores the work shape data obtained as a result of an inquiry to an external database in the internal database,
The robot hand with a visual point of the hand according to claim 3, wherein the shape data of the corresponding work is obtained by using the internal database thereafter.
【請求項5】 前記把持位置データ生成手段は、 前記ワーク位置形状検出手段が算出した位置と形状のデ
ータに基づき、ワークの形状別の把持位置を算出するこ
とを特徴とする請求項1に記載の手先視覚付ロボットハ
ンド。
5. The grip position data generation means calculates a grip position for each shape of the work based on the position and shape data calculated by the work position shape detection means. Robot hand with visual sense of hands.
【請求項6】 前記ワーク画像化手段は、 2次元CCDセンサもしくは2次元CMOSセンサで構
成されたことを特徴とする請求項1に記載の手先視覚付
ロボットハンド。
6. The robot hand with a hand tip according to claim 1, wherein the workpiece imaging means is composed of a two-dimensional CCD sensor or a two-dimensional CMOS sensor.
【請求項7】 前記ワーク画像化手段は、 2次元CCDセンサもしくは2次元CMOSセンサを少
なくとも2台備え、それぞれ異なる角度から前記ワーク
を撮像するものであり、 前記ワーク位置形状検出手段は、 前記ワーク画像化手段による2つ以上の画像データに基
づき、前記ワークの形状と位置、および姿勢などを三次
元的に求めることを特徴とする請求項1に記載の手先視
覚付ロボットハンド。
7. The work imaging means includes at least two two-dimensional CCD sensors or two-dimensional CMOS sensors, and images the work from different angles, and the work position / shape detecting means includes the work. The robot hand with a fingertip according to claim 1, wherein the shape, position, posture, and the like of the work are three-dimensionally determined based on two or more image data obtained by the imaging means.
【請求項8】 ワークにパターン照明を施すパターン照
明手段を備え、 前記ワーク位置形状検出手段は、 前記パターン照明により得られる前記ワーク画像化手段
の画像データに基づき、ワーク形状と位置、および姿勢
を三次元的に求めることを特徴とする請求項6に記載の
手先視覚付ロボットハンド。
8. A pattern illuminating means for illuminating a work with pattern illumination is provided, wherein the work position shape detecting means determines the work shape, position, and orientation based on image data of the work imaging means obtained by the pattern illumination. The robot hand with a visual point of the hand according to claim 6, wherein the robot hand is obtained three-dimensionally.
【請求項9】 前記ワーク画像化手段には、レーザレン
ジファインダが用いられ、 前記ワーク位置形状検出手段は、前記ワーク画像化手段
の画像データに基づき、ワーク形状と位置、および姿勢
を三次元的に求めることを特徴とする請求項1に記載の
手先視覚付ロボットハンド。
9. A laser range finder is used for the work imaging means, and the work position shape detection means three-dimensionally determines the work shape, position, and orientation based on the image data of the work imaging means. The robot hand with a hand tip according to claim 1, characterized in that
【請求項10】 前記ワーク形状位置検出手段によって
算出されたワークの形状、あるいは形状に基づくワーク
の種類を記憶する記憶手段と、 被組み付けワークに対し前記ワークの組付けをおこなう
際に、被組み付けワークの画像データと、前記記憶手段
に記憶しているワークの形状に基づき、被組み付けワー
ク上でのワークの最適な組み付け位置を判断し、組付け
をおこなうワーク組み付け手段と、 を備えたことを特徴とする請求項1に記載の手先視覚付
ロボットハンド。
10. Storage means for storing the shape of the work calculated by the work shape position detecting means, or a kind of work based on the shape, and an assembling work for assembling the work to the assembling work. Based on the image data of the work and the shape of the work stored in the storage means, a work assembling means for determining an optimum work mounting position on the work to be assembled and assembling is provided. The robot hand with a hand tip according to claim 1, which is characterized in that.
【請求項11】 前記ロボットコントローラとの間でデ
ータ送受可能な通信手段を備え、 前記把持位置データ生成手段は、前記生成した把持位置
データが、前記ロボットハンドで把持可能な動作範囲外
であることを検出したときには、該動作範囲外である旨
を示す把持位置データを前記通信手段を介して前記ロボ
ットコントローラに出力し、 前記ロボットコントローラによる位置補正を実行させる
ことを特徴とする請求項1に記載の手先視覚付ロボット
ハンド。
11. A communication unit capable of transmitting and receiving data to and from the robot controller, wherein the gripping position data generating unit is out of an operation range in which the generated gripping position data can be gripped by the robot hand. The grip position data indicating that the position is out of the operating range is output to the robot controller via the communication unit, and the position correction by the robot controller is executed when the position is detected. Robot hand with visual sense of hands.
【請求項12】 前記ロボットコントローラとの間でデ
ータ送受可能な通信手段を備え、 前記ワーク位置形状検出手段は、 把持したワークに対応するワーク形状を前記内部データ
ベースから得て、該ワーク形状、あるいは該ワーク形状
に対応するワークの種類を前記通信手段を介して前記ロ
ボットコントローラに出力することを特徴とする請求項
2に記載の手先視覚付ロボットハンド。
12. A communication means capable of transmitting and receiving data to and from the robot controller, wherein the work position shape detecting means obtains a work shape corresponding to a gripped work from the internal database, and The robot hand with a hand tip according to claim 2, wherein the type of the work corresponding to the work shape is output to the robot controller via the communication means.
JP2001290189A 2001-09-21 2001-09-21 Robot hand with tip visual sense Pending JP2003094367A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001290189A JP2003094367A (en) 2001-09-21 2001-09-21 Robot hand with tip visual sense

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001290189A JP2003094367A (en) 2001-09-21 2001-09-21 Robot hand with tip visual sense

Publications (1)

Publication Number Publication Date
JP2003094367A true JP2003094367A (en) 2003-04-03

Family

ID=19112550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001290189A Pending JP2003094367A (en) 2001-09-21 2001-09-21 Robot hand with tip visual sense

Country Status (1)

Country Link
JP (1) JP2003094367A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005169564A (en) * 2003-12-11 2005-06-30 Toyota Motor Corp Method for gripping object of optional shape by robot
JP2006026875A (en) * 2004-07-21 2006-02-02 Toyota Motor Corp Gripping control device for robot hand
JP2006043798A (en) * 2004-08-02 2006-02-16 Nissan Motor Co Ltd Support device for designing machining jig and method for using the same
JP2006326799A (en) * 2005-05-30 2006-12-07 Honda Motor Co Ltd Clamping device
JP2007183833A (en) * 2006-01-06 2007-07-19 Kazutoshi Tsuda Information processing system
JP2009056593A (en) * 2008-12-12 2009-03-19 Toyota Motor Corp Gripping control device
WO2009113339A1 (en) * 2008-03-10 2009-09-17 トヨタ自動車株式会社 Operation teaching system and operation teaching method
JP2010094787A (en) * 2008-10-17 2010-04-30 Yamaha Motor Co Ltd Robot with electric gripper and electric gripper control method
EP2460628A2 (en) 2010-07-05 2012-06-06 Kabushiki Kaisha Yaskawa Denki Robot apparatus and gripping method for use in robot apparatus
CN103963057A (en) * 2013-01-30 2014-08-06 精工爱普生株式会社 Robot control method, robot control device, robot and robot system
WO2017051446A1 (en) * 2015-09-22 2017-03-30 富士機械製造株式会社 Part supply system
JPWO2015178377A1 (en) * 2014-05-20 2017-04-20 株式会社日立製作所 Assembly teaching apparatus and method
JP2018001397A (en) * 2016-06-28 2018-01-11 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Adaptive gripper device
JP2018039060A (en) * 2016-09-05 2018-03-15 ファナック株式会社 Robot simulation device
JP2018114028A (en) * 2017-01-16 2018-07-26 倉敷紡績株式会社 Cloth piece-holding apparatus, and cloth piece-holding method
JP2018203480A (en) * 2017-06-07 2018-12-27 株式会社東芝 Sorting apparatus and sorting system
KR20190069309A (en) * 2017-12-11 2019-06-19 가부시키가이샤 다이후쿠 Article transport facility
JP2019520271A (en) * 2016-06-03 2019-07-18 ベクトン・ディッキンソン・ロワ・ジャーマニー・ゲーエムベーハー Method For Providing A Single Granulated Device For Storage And Dispensing Containers
JP2020032507A (en) * 2018-08-31 2020-03-05 ファナック株式会社 Robot hand
JP2020078853A (en) * 2018-11-14 2020-05-28 東芝テック株式会社 Commodity ejection device
US11903906B2 (en) 2016-06-03 2024-02-20 Becton Dickinson Rowa Germany Gmbh Method for providing a singling device of a storage and dispensing container

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005169564A (en) * 2003-12-11 2005-06-30 Toyota Motor Corp Method for gripping object of optional shape by robot
JP2006026875A (en) * 2004-07-21 2006-02-02 Toyota Motor Corp Gripping control device for robot hand
JP2006043798A (en) * 2004-08-02 2006-02-16 Nissan Motor Co Ltd Support device for designing machining jig and method for using the same
JP2006326799A (en) * 2005-05-30 2006-12-07 Honda Motor Co Ltd Clamping device
JP2007183833A (en) * 2006-01-06 2007-07-19 Kazutoshi Tsuda Information processing system
US8355816B2 (en) 2008-03-10 2013-01-15 Toyota Jidosha Kabushiki Kaisha Action teaching system and action teaching method
WO2009113339A1 (en) * 2008-03-10 2009-09-17 トヨタ自動車株式会社 Operation teaching system and operation teaching method
JP2009214212A (en) * 2008-03-10 2009-09-24 Toyota Motor Corp Action teaching system, and action teaching method
KR101193125B1 (en) 2008-03-10 2012-10-19 도요타 지도샤(주) Operation teaching system and operation teaching method
JP2010094787A (en) * 2008-10-17 2010-04-30 Yamaha Motor Co Ltd Robot with electric gripper and electric gripper control method
JP4640499B2 (en) * 2008-12-12 2011-03-02 トヨタ自動車株式会社 Grip control device
JP2009056593A (en) * 2008-12-12 2009-03-19 Toyota Motor Corp Gripping control device
EP2460628A2 (en) 2010-07-05 2012-06-06 Kabushiki Kaisha Yaskawa Denki Robot apparatus and gripping method for use in robot apparatus
US8498745B2 (en) 2010-07-05 2013-07-30 Kabushiki Kaisha Yaskawa Denki Robot apparatus and gripping method for use in robot apparatus
CN103963057A (en) * 2013-01-30 2014-08-06 精工爱普生株式会社 Robot control method, robot control device, robot and robot system
US9102059B2 (en) 2013-01-30 2015-08-11 Seiko Epson Corporation Robot control method, robot control device, robot, and robot system
JPWO2015178377A1 (en) * 2014-05-20 2017-04-20 株式会社日立製作所 Assembly teaching apparatus and method
WO2017051446A1 (en) * 2015-09-22 2017-03-30 富士機械製造株式会社 Part supply system
JPWO2017051446A1 (en) * 2015-09-22 2018-07-05 株式会社Fuji Parts supply system
JP2019520271A (en) * 2016-06-03 2019-07-18 ベクトン・ディッキンソン・ロワ・ジャーマニー・ゲーエムベーハー Method For Providing A Single Granulated Device For Storage And Dispensing Containers
US11903906B2 (en) 2016-06-03 2024-02-20 Becton Dickinson Rowa Germany Gmbh Method for providing a singling device of a storage and dispensing container
JP2018001397A (en) * 2016-06-28 2018-01-11 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Adaptive gripper device
JP2018039060A (en) * 2016-09-05 2018-03-15 ファナック株式会社 Robot simulation device
US10603788B2 (en) 2016-09-05 2020-03-31 Fanuc Corporation Robot simulation apparatus
JP2018114028A (en) * 2017-01-16 2018-07-26 倉敷紡績株式会社 Cloth piece-holding apparatus, and cloth piece-holding method
JP2018203480A (en) * 2017-06-07 2018-12-27 株式会社東芝 Sorting apparatus and sorting system
KR102596873B1 (en) 2017-12-11 2023-10-31 가부시키가이샤 다이후쿠 Article transport facility
KR20190069309A (en) * 2017-12-11 2019-06-19 가부시키가이샤 다이후쿠 Article transport facility
JP2019104571A (en) * 2017-12-11 2019-06-27 株式会社ダイフク Article conveying facility
JP2020032507A (en) * 2018-08-31 2020-03-05 ファナック株式会社 Robot hand
DE102019212806B4 (en) 2018-08-31 2023-05-11 Fanuc Corporation robot hand
US11123877B2 (en) 2018-08-31 2021-09-21 Fanuc Corporation Robot hand
JP7156916B2 (en) 2018-11-14 2022-10-19 東芝テック株式会社 Goods take-out device
JP2020078853A (en) * 2018-11-14 2020-05-28 東芝テック株式会社 Commodity ejection device

Similar Documents

Publication Publication Date Title
JP2003094367A (en) Robot hand with tip visual sense
CN110238849B (en) Robot hand-eye calibration method and device
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
JP6180087B2 (en) Information processing apparatus and information processing method
JP5606241B2 (en) Visual cognitive system and method for humanoid robot
US20200298411A1 (en) Method for the orientation of an industrial robot, and industrial robot
JP4001105B2 (en) Grasping method of arbitrarily shaped object by robot
EP2767370A2 (en) Robot system and method for controlling the same
TW201910950A (en) Robot processing method and system based on 3d image
JP7064884B2 (en) Calibration method of parts assembly device
JP2012055999A (en) System and method for gripping object, program and robot system
JP6565175B2 (en) Robot and robot system
JP6885856B2 (en) Robot system and calibration method
WO2018043524A1 (en) Robot system, robot system control device, and robot system control method
EP3411194A1 (en) Robot system calibration
JP4572497B2 (en) Robot controller
JP4591043B2 (en) Method of gripping an arbitrarily shaped object by a robot
JP2006297559A (en) Calibration system and robot's calibration method
WO2020129706A1 (en) Alignment device
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
JP2016203282A (en) Robot with mechanism for changing end effector attitude
Xu et al. Welding robotic hand-eye calibration method based on structured light plane
US20230381969A1 (en) Calibration Method And Robot System
WO2022124232A1 (en) Image processing system and image processing method
WO2024135220A1 (en) Robot control system