JPH0463687A - Holding method for object by robot - Google Patents

Holding method for object by robot

Info

Publication number
JPH0463687A
JPH0463687A JP17595890A JP17595890A JPH0463687A JP H0463687 A JPH0463687 A JP H0463687A JP 17595890 A JP17595890 A JP 17595890A JP 17595890 A JP17595890 A JP 17595890A JP H0463687 A JPH0463687 A JP H0463687A
Authority
JP
Japan
Prior art keywords
image
robot
screen
tip
wire
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP17595890A
Other languages
Japanese (ja)
Inventor
Ryokichi Tamaki
玉木 亮吉
Tetsuo Ueno
上野 哲夫
Akihiko Ishimaru
石丸 昭彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shikoku Research Institute Inc
Shikoku Electric Power Co Inc
Original Assignee
Shikoku Research Institute Inc
Shikoku Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shikoku Research Institute Inc, Shikoku Electric Power Co Inc filed Critical Shikoku Research Institute Inc
Priority to JP17595890A priority Critical patent/JPH0463687A/en
Publication of JPH0463687A publication Critical patent/JPH0463687A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PURPOSE:To immediately confirm whether or not an object is held by the tip of a robot by providing an image sensor at the tip of the robot. CONSTITUTION:An image sensor 9 to receive the image of an object (electric wire) 10 is provided at the tip having a holding section 8 holding the object. The image output of the image sensor 9 is signal-processed by an image processor 12 to extract the distinctive image regarding the object 10. A robot 1 is driven by a computer 19 to move the holding section 8 near the object 10 so that the image regarding the object 10 is located at the specified position on a screen, and the object 10 is held by the holding section of the robot 1.

Description

【発明の詳細な説明】 (産業上の利用公費) 本発明は、対象物をロボットに把持させる方法に関する
DETAILED DESCRIPTION OF THE INVENTION (Industrial Utilization Public Funds) The present invention relates to a method for causing a robot to grip an object.

(従来の技術) 従来から、ロボットに電線等の対象物を把持させるため
、テレビカメラを用いて対象物を撮像し、その対象物の
画像を信号処理して対象物の位置を確認すると共に、ロ
ボットの各関節に取り付けたエンコーダからロボットの
先端の位置を検出し、このロボットの先端の位置情報と
対象物の位置情報との両者によりその先端を対象物に接
近させ、その先端に設けられた把持部によって対象物を
把持する方法が知られている。
(Prior Art) Conventionally, in order to have a robot grasp an object such as an electric wire, a television camera is used to image the object, and the image of the object is processed with signals to confirm the position of the object. The position of the robot's tip is detected from the encoder attached to each joint of the robot, and based on both the position information of the robot's tip and the position information of the object, the tip approaches the object. 2. Description of the Related Art A method of gripping an object using a gripper is known.

(発明が解決しようとする課題) しかしながら、電線等の対象物の把持作業には、作業員
から見にくい場所での作業、正確にロボットの操縦を行
う必要がある作業があり、また、操縦処理も複雑である
という問題点もある。
(Problems to be Solved by the Invention) However, when grasping objects such as electric wires, there are tasks that must be performed in locations that are difficult for workers to see, tasks that require accurate robot operation, and operations that require precise control of the robot. Another problem is that it is complicated.

本発明は、上記の事情に鑑みて為されたもので、その目
的は、操縦操作を容易に行うことができかつ操縦処理も
従来に較べて簡略化する二とのできるロボット操縦方法
であって対象物をロボットに把持させる方法を提供する
ことにある。
The present invention has been made in view of the above-mentioned circumstances, and its purpose is to provide a robot control method that allows easy control operations and simplifies the control process compared to conventional methods. The purpose of the present invention is to provide a method for having a robot grasp an object.

(課題を達成するための手段) 本発明に係わる対象物をロボットに把持させる方法の特
徴は、対象物を把持する把持部を有する先端に前記対象
物を受像するためのイメージセンサを設け、該イメージ
センサの画像出力を信号処理して前記対象物に関する特
徴的なイメージを抽出し、該対象物に関するイメージが
画面の指定位置に位置されるようにロボットを制御しつ
つ前記把持部を前記対象物に接近させることにある。
(Means for Achieving the Object) A feature of the method of making a robot grasp an object according to the present invention is that an image sensor for receiving an image of the object is provided at a tip having a grip portion for grasping the object; Signal processing the image output of the image sensor to extract a characteristic image related to the object, and controlling the robot so that the image related to the object is positioned at a specified position on the screen, move the gripping section to the object. The goal is to bring it closer to.

(作 用) 本発明に係わる対象物をロボットに把持させる方法によ
れば、イメージセンサをロボットの先端に設けであるの
で、ロボットの先端が対象物を捉えているか否かを直ち
に確認できる。そして、対象物の先端が画面の指定位置
に位置するように、かつ、先端が対象物に接近するよう
にロボットを制御する。
(Function) According to the method of having a robot grasp an object according to the present invention, since the image sensor is provided at the tip of the robot, it can be immediately confirmed whether or not the tip of the robot is grasping the object. Then, the robot is controlled so that the tip of the object is located at a designated position on the screen and so that the tip approaches the object.

(実施例) 以下に本発明に係る対象物をロボットに把持させる方法
を図面を参照しつつ説明する。
(Example) A method for causing a robot to grasp an object according to the present invention will be described below with reference to the drawings.

第1図において、1はロボットであり、2はそのロボッ
ト基体部、3は回動アーム、4は回動関節、5は伸縮ア
ーム、6は回動関節、7は先端、8は把持部である。先
端7にはイメージセンサ9が設けられている。このイメ
ージセンサ9は対象物としての電線10を受像して捕捉
する機能を果たす、ここでは、この電線10のうちの1
0′が把持すべき対象物であるとする。イメージセンサ
9は光ファイバー11を介して画像処理装置12に接続
布れている。イメージセンサ8の画像出力は光ファイバ
ー11により画像処理装置12に入力される。画像処理
装置12はイメージセンサ9の画像出力を信号処理する
役割を果たす。
In Fig. 1, 1 is a robot, 2 is a robot base, 3 is a rotating arm, 4 is a rotating joint, 5 is a telescopic arm, 6 is a rotating joint, 7 is a tip, and 8 is a gripping part. be. An image sensor 9 is provided at the tip 7. This image sensor 9 has the function of receiving and capturing an image of electric wires 10 as a target object.
Assume that 0' is the object to be grasped. The image sensor 9 is connected to an image processing device 12 via an optical fiber 11. An image output from the image sensor 8 is input to an image processing device 12 via an optical fiber 11. The image processing device 12 plays a role of signal processing the image output of the image sensor 9.

今、画面13に第2図に示すような画像(イメージ)が
写し出されたとする。この第2図において、14は把持
すべき対象物としての電線10′に対応する電線映像、
15は把持対象物ではない電線映像、16は電線10以
外の以外の映像である。ここで、電線映像14が電線映
像15よりも幅広く映し出されていることにしたのは、
電線10’が電線10′よりも先端7に近いことを意味
させたものである。また、電線映像14.15を黒く塗
りつぶしたのは、電線映像14.15が他の物体16に
較べて黒いからである。
Suppose now that an image as shown in FIG. 2 is displayed on the screen 13. In this FIG. 2, 14 is an electric wire image corresponding to the electric wire 10' as the object to be grasped;
15 is an image of an electric wire that is not an object to be grasped, and 16 is an image of an object other than the electric wire 10. Here, the reason why the wire image 14 is displayed wider than the wire image 15 is because
This means that the electric wire 10' is closer to the tip 7 than the electric wire 10'. Furthermore, the reason why the wire images 14.15 are painted black is because the wire images 14.15 are blacker than the other objects 16.

映像16は、たとえば、遠くの家屋、その他の物体を意
味するが、ここでは、模式化して示されている。なお、
斜線で示されている映像15’は白と黒との中間輝度を
有する物体を意味している。
The image 16 means, for example, a distant house or other object, but is shown schematically here. In addition,
An image 15' indicated by diagonal lines represents an object having an intermediate brightness between white and black.

画像処理装置12は、以下に記載する手順でWl像処理
を行う。
The image processing device 12 performs Wl image processing according to the procedure described below.

画像処理装置12は、まず、画面13に映し出されてい
る映像を三色に分解してA/D変換を実行し、RGBメ
モリ(図示を略す)に記憶する。そして、画面13に映
し出されている映像14.15.16のうち、明るい部
分と暗い部分とを識別するためにスレッショルドレベル
を設けて暗い部分を識別し、第3図に示すように暗い部
分の映像17のみを抽出する。
The image processing device 12 first separates the image displayed on the screen 13 into three colors, performs A/D conversion, and stores the results in an RGB memory (not shown). Then, in order to distinguish between bright and dark parts of the image 14, 15, and 16 displayed on the screen 13, a threshold level is set to identify the dark parts, and as shown in FIG. Only video 17 is extracted.

ここでは、対象物としての電i[10の映像は黒いとい
うことが特徴的なイメージである。
Here, a characteristic image is that the image of electricity i[10 as an object is black.

次に、電線映像14.15は画面13を横切っているは
ずであるという前提に着目して、電線映614.15を
画面13から除去する。従って、画面13には第4図に
示すように電線映像14.15以外の映像15’のみが
残る0次に、電線映像14.15、映像15’が映って
いる画面13(第3図参照)から映像15′が映ってい
る画面(第4図参照)を消去する。これによって、第5
図に示すように、電線映像14.15が映っている映像
のみカで画面13に残される。画像処理装置12は電線
映像14.15の幅の太さを比較する。そして、この情
報をコンピュータ19に向かって出力する。コンピュー
タ19は幅の太い電線映像14が把持対象物であるとの
前提のもとで、電線映像14.15のうち遠い側にある
電線10#に関する電線映像15を除去し、第6図に示
すように電線映像14のみを抽出し、画面13に映し出
す。
Next, focusing on the premise that the wire images 14.15 should cross the screen 13, the wire images 614.15 are removed from the screen 13. Therefore, as shown in FIG. 4, only the image 15' other than the wire image 14.15 remains on the screen 13 (see FIG. 3). ) to erase the screen on which the image 15' is shown (see FIG. 4). With this, the fifth
As shown in the figure, only the images showing the wire images 14 and 15 are left on the screen 13 in full force. The image processing device 12 compares the widths of the wire images 14 and 15. This information is then output to the computer 19. On the premise that the wide wire image 14 is the object to be grasped, the computer 19 removes the wire image 15 related to the electric wire 10# on the far side from among the wire images 14 and 15, as shown in FIG. Only the wire image 14 is extracted and displayed on the screen 13 as shown in FIG.

次に、画像処理装置12は電線映像14の画面13上で
の位置に関係するデータをコンピュータ19に向かって
出力する。コンピュータ19は電線映像14が画面の指
定位置、ここでは、画面中央に位置するようにロボット
1を制御する(第7図参WA)、  すなわち、コンピ
ュータ19は、ロボット1の関節、アーム等を駆動する
ステッピングモータ(図示を略す)を電線映像14の幅
が太くなるように、電線映像14が画面13の中央にく
るように、しがも、画面13における電線映像14が水
平でかつ電線映像14の左右両端部分の幅が等しくなる
ように(把持部8が電線10′に対して水平且つ直角と
なるように)制御する。コンピュータ19は、ロボット
1の関節の制御を繰り返し、画面13上での電線映像1
4の太さが一定となったところで、把持アーム8を駆動
し、電線10′を把持させる。
Next, the image processing device 12 outputs data related to the position of the wire image 14 on the screen 13 to the computer 19. The computer 19 controls the robot 1 so that the wire image 14 is located at a designated position on the screen, in this case at the center of the screen (see WA in FIG. 7). That is, the computer 19 drives the joints, arms, etc. of the robot 1. The stepping motor (not shown) is moved so that the width of the wire image 14 becomes thicker and the wire image 14 is centered on the screen 13, so that the wire image 14 on the screen 13 is horizontal and the wire image 14 control so that the widths of both left and right end portions are equal (so that the gripping portion 8 is horizontal and perpendicular to the electric wire 10'). The computer 19 repeatedly controls the joints of the robot 1 and displays the electric wire image 1 on the screen 13.
When the thickness of the wire 4 becomes constant, the gripping arm 8 is driven to grip the electric wire 10'.

以上、実施例においては、対象物の特徴的イメージとし
て色を例に挙げて説明したが、形に特徴がある対象物で
あれば、その形を対象物に関する特徴的なイメージとし
て指定してもよい。
In the above embodiments, color has been used as an example of the characteristic image of the object, but if the object has a characteristic shape, the shape can also be specified as the characteristic image of the object. good.

(発明の効果) 本発明に係わる対象物をロボットに把持させる方法は、
以上説明したように構成したので、以下の効果を奏する
(Effects of the Invention) The method of making a robot grasp an object according to the present invention is as follows:
The configuration as described above provides the following effects.

■ロボットの構造が簡単化される。■The structure of the robot is simplified.

■ロボット自動操縦処理が簡略化される。■Robot autopilot processing is simplified.

■ロボット操縦者の操作が容易となる。■Easier operation for robot operators.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明に係わる対象物をロボットに把持させる
方法を説明するための模式図、第2図ないし第7図は第
1図に示す画像処理装置の画面に映し出される映像を模
式的に示した図、である。 1・・・ロボット、7・・・先端 8・・・把持部、10・・・電線 9・・・イメージセンサ、13・・・画面第1図 第2図 第4 図 第6図
FIG. 1 is a schematic diagram for explaining the method of making a robot grasp an object according to the present invention, and FIGS. 2 to 7 are schematic diagrams of images projected on the screen of the image processing device shown in FIG. 1. This is the diagram shown. DESCRIPTION OF SYMBOLS 1...Robot, 7...Tip 8...Gripping part, 10...Electric wire 9...Image sensor, 13...Screen Figure 1 Figure 2 Figure 4 Figure 6

Claims (1)

【特許請求の範囲】[Claims] 対象物を把持する把持部を有する先端に前記対象物を受
像するためのイメージセンサを設け、該イメージセンサ
の画像出力を信号処理して前記対象物に関する特徴的な
イメージを抽出し、該対象物に関するイメージが画面の
指定位置に位置されるようにロボットを制御しつつ前記
把持部を前記対象物に接近させ、対象物をロボットに把
持させる方法。
An image sensor for receiving an image of the object is provided at the tip having a gripping part for gripping the object, and the image output of the image sensor is signal-processed to extract a characteristic image regarding the object. A method for causing the robot to grasp the object by moving the gripping section close to the object while controlling the robot so that an image related to the object is located at a specified position on the screen.
JP17595890A 1990-07-03 1990-07-03 Holding method for object by robot Pending JPH0463687A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17595890A JPH0463687A (en) 1990-07-03 1990-07-03 Holding method for object by robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17595890A JPH0463687A (en) 1990-07-03 1990-07-03 Holding method for object by robot

Publications (1)

Publication Number Publication Date
JPH0463687A true JPH0463687A (en) 1992-02-28

Family

ID=16005234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17595890A Pending JPH0463687A (en) 1990-07-03 1990-07-03 Holding method for object by robot

Country Status (1)

Country Link
JP (1) JPH0463687A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002086376A (en) * 2000-09-13 2002-03-26 Yaskawa Electric Corp Method for guiding visual sensor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5993293A (en) * 1982-11-19 1984-05-29 株式会社日立製作所 Visual device for robot
JPS59209782A (en) * 1983-05-10 1984-11-28 古河電気工業株式会社 Method of positionig arm of hot-line robot for power distribution work

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5993293A (en) * 1982-11-19 1984-05-29 株式会社日立製作所 Visual device for robot
JPS59209782A (en) * 1983-05-10 1984-11-28 古河電気工業株式会社 Method of positionig arm of hot-line robot for power distribution work

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002086376A (en) * 2000-09-13 2002-03-26 Yaskawa Electric Corp Method for guiding visual sensor
JP4568978B2 (en) * 2000-09-13 2010-10-27 株式会社安川電機 Manipulator device

Similar Documents

Publication Publication Date Title
JP3487436B2 (en) Video camera system
EP1215017B1 (en) Robot teaching apparatus
US5512951A (en) Auto-focusing apparatus
US5422673A (en) Video camera with automatic focus control
CA2077324A1 (en) Image Editing System and Method Having Improved Automatic Object Selection
US5940128A (en) Object imaging apparatus with object slant correction facility
CN109793482A (en) Oral cavity scanning means and its control method
JPH08320921A (en) Pointing system
JPH0463687A (en) Holding method for object by robot
JP2960733B2 (en) Image display method, image display device, and remote operation device
JPS6334093A (en) Visual device
JP2519445B2 (en) Work line tracking method
JPS59129691A (en) Collision-avoidance system between robot
JP3314513B2 (en) Microscope with video camera
JPH09322047A (en) Video camera control method, video camera control system, video camera controller and video camera
JP2822314B2 (en) Laser processing equipment
JPH07325906A (en) Detecting and tracking device for moving body
US5094529A (en) Method of determining the end face position of an optical waveguide
KR100387197B1 (en) Apparatus and method for performing high speed vision inspection
JPS6314281A (en) Picture fetching method
JPH0497100A (en) Detecting method for position and attitude of segment at time of automatic assembly of segment
JPS63220A (en) Guide apparatus of working machine for fruits and vegetables
JPH09225884A (en) Measuring method for position of electric wire of manupulator for distribution work
JPH0478274A (en) Image pickup device
CN109660732A (en) Electronic equipment and mobile platform