JPH0647670Y2 - Robot controller - Google Patents

Robot controller

Info

Publication number
JPH0647670Y2
JPH0647670Y2 JP1985091166U JP9116685U JPH0647670Y2 JP H0647670 Y2 JPH0647670 Y2 JP H0647670Y2 JP 1985091166 U JP1985091166 U JP 1985091166U JP 9116685 U JP9116685 U JP 9116685U JP H0647670 Y2 JPH0647670 Y2 JP H0647670Y2
Authority
JP
Japan
Prior art keywords
image
robot
posture
component
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1985091166U
Other languages
Japanese (ja)
Other versions
JPS61205781U (en
Inventor
由人 加藤
肇 天野
博之 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP1985091166U priority Critical patent/JPH0647670Y2/en
Publication of JPS61205781U publication Critical patent/JPS61205781U/ja
Application granted granted Critical
Publication of JPH0647670Y2 publication Critical patent/JPH0647670Y2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【考案の詳細な説明】 [産業上の利用分野] 本考案はロボット制御装置に係わり、詳しくはロボット
が把持した対象物の姿勢を検出し、該対象物の姿勢を所
定の姿勢に変更するロボット制御装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial application] The present invention relates to a robot controller, and more specifically, a robot that detects the posture of an object held by the robot and changes the posture of the object to a predetermined posture. Regarding the control device.

[従来の技術] 近年、ファクトリーオートメーションの進展に伴い、各
種の産業用ロボットおよびロボット制御装置が普及して
いる。このような産業用ロボットの制御装置として、作
業の対象物の画像を検出し、該画像を処理することによ
り上記対象物の状態を判定し、該判定結果に基づいてロ
ボットの動作を制御するロボットの制御装置が開発され
ている。従来、このようなロボット制御装置は、対象物
を2次元の画像として認識し、該対象物が存在する平面
上の位置を検出して、該検出結果に基づいて、例えばロ
ボットを駆動し上記対象物を把持させたり移動させたり
するような制御を行なっていた。
[Prior Art] In recent years, various industrial robots and robot control devices have become popular with the progress of factory automation. As a control device for such an industrial robot, a robot that detects an image of an object of work, determines the state of the object by processing the image, and controls the operation of the robot based on the determination result. Control devices have been developed. Conventionally, such a robot control device recognizes an object as a two-dimensional image, detects the position on the plane where the object exists, and drives the robot, for example, based on the detection result to drive the object. Control was performed such that an object was gripped or moved.

[考案が解決しようとする問題点] しかしながら、このような従来のロボット制御装置にお
いては、対象物の姿勢を正確に判断することができない
場合がある。例えば、パレットにランダムに山積された
複数の対象物から1つの対象物を把持して移動させる場
合には、この山積された対象物を一方向から撮像して得
られた2次元画像では、個々の対象物の正確な姿勢を判
断することが極めて困難である。つまり、複数の対象物
の位置、姿勢の概略は認識できるものの、個々の対象物
の正確な姿勢までは判断できない。
[Problems to be Solved by the Invention] However, in such a conventional robot control device, it may not be possible to accurately determine the posture of an object. For example, when one object is grasped and moved from a plurality of objects randomly piled up on a pallet, a two-dimensional image obtained by imaging the piled up objects from one direction It is extremely difficult to judge the accurate posture of the target object. That is, although the outlines of the positions and orientations of a plurality of objects can be recognized, the accurate orientations of individual objects cannot be determined.

例えば、フランジ外径とシャフト外径との差が小さいよ
うなフランジ付シャフトが山積されている場合には、ど
ちらがフランジ側かを判断することができないことがあ
る。
For example, when the shafts with flanges having a small difference between the flange outer diameter and the shaft outer diameter are piled up, it may not be possible to determine which is the flange side.

このため、ロボットにより個々の対象物を把持して取り
出すことはできても、その姿勢は不正確となる。
For this reason, although the robot can grasp and take out individual objects, their postures are inaccurate.

また、このような複数の対象物が山積されている状態を
複数の方向から撮像しても、やはり個々の対象物の姿勢
までは正確に判断できない。
Further, even if such a state in which a plurality of objects are piled up is imaged from a plurality of directions, it is still impossible to accurately determine the posture of each object.

この結果、ロボットにより取り出した個々の対象物を正
確な姿勢で次工程に供給することができなくなり、次工
程での作業に支障をきたしてしまう。
As a result, the individual objects taken out by the robot cannot be supplied to the next process in an accurate posture, which hinders work in the next process.

更に、積載された状態の対象物を個々に次工程に供給す
る作業は、作業の効率化を図るため迅速に行われること
が望まれている。
Further, it is desired that the work of individually feeding the loaded objects to the next process be performed promptly in order to improve the work efficiency.

本考案は上記問題点を解決し、対象物が複数積載された
状態にあっても、個々の対象物を正規の姿勢で次工程等
の被供給部に供給することができ、しかも、装置が簡素
化され迅速な処理が可能なロボット制御装置を提供する
ことを目的とする。
The present invention solves the above-mentioned problems, and even when a plurality of objects are stacked, each object can be supplied in a proper posture to the supply target part in the next process and the like. An object of the present invention is to provide a robot control device that is simple and capable of rapid processing.

[問題点を解決するための手段] 上記目的を達成するため、本考案は第1図に示すような
構成をとった。第1図は本考案の基本概念を示す構成図
である。
[Means for Solving the Problems] In order to achieve the above object, the present invention has a configuration as shown in FIG. FIG. 1 is a block diagram showing the basic concept of the present invention.

本考案は第1図に示すように、 載置部に積載された複数の対象物の画像を第1の方向か
ら検出する第1の画像検出手段bと、 該第1の画像検出手段bによる検出結果に基づいて上記
対象物aのうちの1つの対象物cの少なくとも位置と傾
きとの状態を判定する状態判定手段dと、 該状態判定手段dの判定結果に基づいて上記判定された
対象物cを把持すると共に、その対象物cを移動させて
被供給部に供給するロボットeを駆動する制御手段f
と、 を備えたロボット制御装置において、 上記載置部から上記被供給部への移動経路上の所定位置
における上記ロボットに把持された対象物cの画像を、
上記第1の方向と非平行な第2の方向から検出する第2
の画像検出手段gと、 該第2の画像検出手段gによる検出結果に基づいて上記
所定位置における対象物cの姿勢を判定する姿勢判定手
段hと、 該姿勢判定手段hの判定結果に基づいて上記ロボットe
を駆動し、上記対象物cの姿勢を予め設定された正規の
姿勢に変更する姿勢変更手段iと、 を備えたことを特徴とするロボット制御装置を要旨とす
るものである。
As shown in FIG. 1, the present invention comprises a first image detecting means b for detecting images of a plurality of objects stacked on a mounting portion from a first direction, and a first image detecting means b. State determination means d for determining the state of at least the position and inclination of one of the objects c among the objects a based on the detection result, and the object determined based on the determination result of the state determination means d Control means f for driving the robot e which grips the object c and moves the object c to supply the object c to the supply target portion.
In a robot control device including: an image of the object c gripped by the robot at a predetermined position on the movement path from the placement unit to the supply target unit;
The second detecting from the second direction which is non-parallel to the first direction
Image detection means g, the attitude determination means h for determining the attitude of the object c at the predetermined position based on the detection result by the second image detection means g, and the determination result of the attitude determination means h. Robot e
And a posture changing means i for changing the posture of the object c to a preset regular posture, and a robot controller characterized by the following.

[作用] 次に、本考案の作用を第1図に基づいて説明する。[Operation] Next, the operation of the present invention will be described with reference to FIG.

本考案のロボット制御装置は、載置部に積載された複数
の対象物aの画像を第1の画像検出手段bにより第1の
方向から検出し、その検出結果に基づいて状態判定手段
dが1つの対象物cの少なくとも位置と傾きとの状態を
判定する。この判定結果に基づいて、制御手段fがロボ
ットeを駆動してその対象物cを把持すると共に移動さ
せて被供給部に供給するが、対象物cを供給する前に、
以下のような動作をする。
In the robot controller of the present invention, the first image detecting means b detects the images of the plurality of objects a stacked on the mounting portion from the first direction, and the state determining means d determines the detection result based on the detection result. The state of at least the position and inclination of one object c is determined. Based on the determination result, the control means f drives the robot e to grip and move the object c and supply the object c to the supply target portion, but before supplying the object c,
It operates as follows.

つまり、対象物cを載置部から被供給部へ移動させる経
路上の所定位置における対象物cの画像を第2の画像検
出手段gにより第1の方向と非平行な第2の方向から検
出し、その検出結果に基づいて姿勢判定手段hが対象物
cの姿勢を判定する。そして、この判定結果に基づいて
姿勢変更手段iがロボットeを駆動して対象物cを予め
設定した正規の姿勢に変更する。
That is, the image of the target object c at a predetermined position on the path for moving the target object c from the placement section to the supply target section is detected by the second image detection means g from the second direction that is not parallel to the first direction. Then, the posture determination means h determines the posture of the object c based on the detection result. Then, based on this determination result, the posture changing means i drives the robot e to change the target object c to a preset normal posture.

この場合、把持後は1つの対象物cだけを姿勢判定す
ること、対象物cはロボットeに把持されているた
め、制約された姿勢となっていること、対象物cは所
定位置に停止しているため、対象物cと第2の画像検出
手段gとの距離が絶えず一定となり、遠近差による精度
の低下を招かないこと、等により、第1の画像検出手段
bが検出した画像では読み取れなかった細部について第
2の画像検出手段gが検出した画像から読み取ることが
できる。このため、姿勢判定手段hは、第2の画像検出
手段gが検出した画像に基づいて容易に対象物の姿勢を
判定することができる。
In this case, the posture of only one target object c is determined after gripping, that the target object c has a restricted posture because it is gripped by the robot e, and the target object c stops at a predetermined position. Therefore, the distance between the object c and the second image detecting means g is constantly constant, and the accuracy is not deteriorated due to the distance difference. Therefore, the image detected by the first image detecting means b cannot be read. The missing details can be read from the image detected by the second image detecting means g. Therefore, the posture determination means h can easily determine the posture of the target object based on the image detected by the second image detection means g.

従って、対象物cは被供給部に絶えず正規の姿勢で供給
される。
Therefore, the target object c is constantly supplied to the supplied portion in a regular posture.

以上のように本考案の各構成要素が作用して本考案の技
術的課題が解決される。
As described above, each component of the present invention acts to solve the technical problem of the present invention.

[実施例] 次に、本考案の好適な一実施例を図面に基づいて説明す
る。第2図は本考案の一実施例である粗材取り出しロボ
ット制御装置のシステム構成図である。
[Embodiment] Next, a preferred embodiment of the present invention will be described with reference to the drawings. FIG. 2 is a system configuration diagram of a rough material take-out robot controller according to an embodiment of the present invention.

第2図において多関節ロボット10は操作盤11を備えたロ
ボットコントローラ(以下単にRCとよぶ。)12により制
御される。多関節ロボット10のハンド14近傍には障害物
を検知するための超音波センサ16が配設され、さらに多
関節ロボット10のハンド14内には、部品の把持を確認す
るための近接スイッチ18が内蔵されている。
In FIG. 2, the articulated robot 10 is controlled by a robot controller (hereinafter simply referred to as RC) 12 having an operation panel 11. An ultrasonic sensor 16 for detecting an obstacle is arranged in the vicinity of the hand 14 of the articulated robot 10, and a proximity switch 18 for confirming gripping of a part is further provided in the hand 14 of the articulated robot 10. It is built in.

なお、上記多関節ロボット10が設置されている平面に垂
直な方向を同図に矢印Cで示すZ方向とし、該Z方向と
直交する平面内で互いに直交する2つの方向を、矢印A
で示すX方向、および矢印Bで示すY方向とする。そし
て、本実施例では、上記3方向を各座標軸とする3次元
空間を設定し、以下の説明を行なう。
The direction perpendicular to the plane in which the articulated robot 10 is installed is the Z direction indicated by arrow C in the figure, and two directions orthogonal to each other in the plane orthogonal to the Z direction are indicated by arrow A.
And the Y direction shown by the arrow B. Then, in this embodiment, a three-dimensional space having the above-mentioned three directions as coordinate axes is set, and the following description will be given.

第1カメラ22は、部品パレット24内にばら積みされたフ
ランジ部と該フランジ部よりわずかに小さい外径を有す
るシャフト部とからなる部品26をZ軸方向から画像とし
て検出出来るように、部品パレット24の直上で下向きに
据え付けられている。一方、第2カメラ28は多関節ロボ
ット10のハンド14で持ち上げられ所定位置に移動された
部品26aをY軸方向から画像として検出出来るようにY
軸方向に水平に据え付けられている。なお、両カメラの
視野を第2図に2点鎖線で示した。第1カメラ22および
第2カメラ28で撮像された画像データはそれぞれ画像処
理装置30に入力され、該画像処理装置30からは、画像処
理によって得られた各種データが、RC12に送信される。
一方、RC12からは多関節ロボット10の状態を示す信号が
該画像処理装置30に伝送される。コンベヤー32上には部
品26bが多関節ロボット10により整列され配設されてい
る。
The first camera 22 allows the parts pallet 24 to be detected as an image in the Z-axis direction from the parts 26 consisting of the flange parts stacked in the parts pallet 24 and the shaft part having an outer diameter slightly smaller than the flange parts. It is installed facing down just above. On the other hand, the second camera 28 is arranged so that the component 26a lifted by the hand 14 of the articulated robot 10 and moved to a predetermined position can be detected as an image from the Y-axis direction as an image.
It is installed horizontally in the axial direction. The fields of view of both cameras are shown by a two-dot chain line in FIG. The image data captured by the first camera 22 and the second camera 28 is input to the image processing device 30, and the various data obtained by the image processing is transmitted from the image processing device 30 to the RC 12.
On the other hand, a signal indicating the state of the articulated robot 10 is transmitted from the RC 12 to the image processing device 30. Parts 26b are arranged and arranged on the conveyor 32 by the articulated robot 10.

以上のように構成された本システムは、第1カメラ22と
第2カメラ28により検出された画像データが、画像処理
装置30により処理され、該画像処理装置30の出力するデ
ータに基づき、RC12は多関節ロボット10を制御して、部
品パレット24内の部品26をコンベヤー32上に移動させ
る。
In the present system configured as described above, the image data detected by the first camera 22 and the second camera 28 is processed by the image processing device 30, and based on the data output by the image processing device 30, the RC12 The articulated robot 10 is controlled to move the parts 26 in the parts pallet 24 onto the conveyor 32.

次に、上記RC12および画像処理装置30の構成について第
3図に基づいて説明する。
Next, the configurations of the RC 12 and the image processing device 30 will be described with reference to FIG.

同図に示すようにRC12は、既述した操作盤11,超音波セ
ンサ16,近接スイッチ18および後述する画像処理装置30
から入力される各信号あるいはデータを制御プログラム
に従って入力および演算すると共に、既述した多関節ロ
ボット10の動作を制御するための処理を行なうセントラ
ルプロセッシングユニット(以下単にCPUとよぶ)12a,
上記制御プログラムおよび初期データが予め記憶されて
いるリードオンリメモリ(以下、単にROMとよぶ)12b,R
C12に入力される各種信号や演算制御に必要なデータが
一時的に記憶されるランダムアクセスメモリ(以下、単
にRAMとよぶ)12cを備えている。
As shown in the figure, the RC 12 includes the operation panel 11, the ultrasonic sensor 16, the proximity switch 18, and the image processing device 30 described later, which are described above.
A central processing unit (hereinafter simply referred to as a CPU) 12a that performs processing for controlling the operation of the articulated robot 10 described above while inputting and calculating respective signals or data input from the control program according to a control program,
Read only memory (hereinafter simply referred to as ROM) 12b, R in which the above control program and initial data are stored in advance
It is provided with a random access memory (hereinafter, simply referred to as RAM) 12c in which various signals input to C12 and data necessary for arithmetic control are temporarily stored.

また、RC12は上記超音波センサ16および近接スイッチ18
の出力信号の波形を整形する波形整形回路12dと、上記
ロボット10を駆動する駆動回路12eとを備えている。そ
して、上記操作盤11,超音波センサ16,近接スイッチ18か
らの信号および画像処理装置30からのデータは入出力ポ
ート12fを介してCPU12aに伝達される。さらに、上記入
出力ポート12fからは、多関節ロボット10の駆動回路12e
への制御信号および画像処理装置30へのデータが出力さ
れる。なお、RC12は、上記各素子への制御信号やデータ
の通路となるバスライン12gを備えている。
RC12 is the ultrasonic sensor 16 and the proximity switch 18 described above.
A waveform shaping circuit 12d that shapes the waveform of the output signal of the above and a drive circuit 12e that drives the robot 10 are provided. Then, the signals from the operation panel 11, the ultrasonic sensor 16, the proximity switch 18, and the data from the image processing device 30 are transmitted to the CPU 12a via the input / output port 12f. Further, from the input / output port 12f, the drive circuit 12e of the articulated robot 10 is
To the image processing device 30 and the control signal to the image processing device 30 is output. The RC 12 is provided with a bus line 12g which serves as a passage for control signals and data to the above elements.

一方、画像処理装置30は、既述した第1カメラ22および
第2カメラ28から入力される画像データを制御プログラ
ムに従って入力および解析すると共に、既述したRC12へ
のデータ通信を制御するため処理を行なうCPU30a、上記
制御プログラムおよび初期データが予め記憶されている
ROM30b、画像入力装置30に入力される画像データや制御
に必要なデータが一時的に記憶されるRAM30cを備えてい
る。
On the other hand, the image processing device 30 inputs and analyzes the image data input from the first camera 22 and the second camera 28 described above according to the control program, and performs the processing for controlling the data communication to the RC12 described above. The CPU 30a to be executed, the control program and the initial data are stored in advance.
A ROM 30b and a RAM 30c for temporarily storing image data input to the image input device 30 and data necessary for control are provided.

また、画像処理装置30には、上記第1カメラ22および第
2カメラ28の出力する画像信号のバッファ30d,30eと、
アナログ信号である上記画像信号をディジタル信号に変
換するA/D変換器30fと、該A/D変換器30fの出力を選択的
に上記CPU30aに出力するマルチプレクサ30gとを備えて
いる。そして、上記第1カメラ22,第2カメラ28からの
画像データおよびRC12からの制御信号は入出力ポート30
hを介してCPU30aに伝達される。さらに、上記入出力ポ
ート30hからはRC12へのデータが出力される。なお、画
像処理装置30は、上記各素子への制御信号やデータの通
路となるバスライン30iを備えている。
Further, the image processing device 30 includes buffers 30d and 30e for image signals output from the first camera 22 and the second camera 28,
An A / D converter 30f that converts the image signal that is an analog signal into a digital signal, and a multiplexer 30g that selectively outputs the output of the A / D converter 30f to the CPU 30a are provided. The image data from the first camera 22 and the second camera 28 and the control signal from the RC 12 are input / output port 30.
It is transmitted to the CPU 30a via h. Furthermore, the data to RC12 is output from the input / output port 30h. The image processing device 30 includes a bus line 30i that serves as a passage for control signals and data to each of the above elements.

以下、上記RC12および画像処理装置30により実行される
処理について第4図(イ),(ロ)の各フローチャート
に基づいて説明する。第4図(イ)はRC12により実行さ
れる部品整列処理を示すフローチャートであり、第4図
(ロ)は画像処理装置30により実行される画像処理を示
すフローチャートである。両処理は、作業者の指示や自
動機の要求により部品整列作業が行なわれる場合に、RC
12と画像入力装置30が相互にデータ通信を行なうことに
より並行して実行される。
The processing executed by the RC 12 and the image processing apparatus 30 will be described below with reference to the flowcharts of FIGS. 4 (a) and 4 (b). FIG. 4A is a flowchart showing the component alignment processing executed by the RC 12, and FIG. 4B is a flowchart showing the image processing executed by the image processing device 30. Both processes are RC when the parts alignment work is performed by the operator's instruction or the request of the automatic machine.
12 and the image input device 30 perform data communication with each other so that they are executed in parallel.

RC12起動後、作業者や自動機が部品整列作業を選択し、
操作盤11より指令を入力すると、第4図(イ)に示す部
品整列処理が実行される。
After starting RC12, workers and automatic machines select parts alignment work,
When a command is input from the operation panel 11, the parts alignment processing shown in FIG. 4 (a) is executed.

まず、ステップ100で画像処理起動指令がRC12より画像
処理装置30に出力される。この指令に基づいて、画像処
理装置30により、第4図(ロ)に示す画像処理が実行開
始される。なお、RC12は、多関節ロボット10のアーム15
を第1カメラ22の視野外に退避させる。
First, in step 100, an image processing start command is output from the RC 12 to the image processing device 30. Based on this command, the image processing device 30 starts execution of the image processing shown in FIG. The RC12 is the arm 15 of the articulated robot 10.
Is retracted out of the field of view of the first camera 22.

上記RC12により実行されたステップ100の指令に基づい
て、画像処理装置30は第4図(ロ)に示す画像処理のス
テップ400を実行する。ここでは、画像データの入力装
置として第1カメラ22が選択される。次に、ステップ41
0に進み、該第1カメラ22から部品画像の検出が行なわ
れる。すなわち、第1カメラ22は部品パレット24内にば
ら積みされた部品26の状態をZ軸方向より撮像する。続
くステップ420では、上記ステップ410で第1カメラ22が
検出した部品26の画像データを画像処理装置30が走査し
て部品26の全体的な形状を認識する。そして、部品26の
種類およびX・Y平面上の位置と基本姿勢からの傾きを
判定する。
Based on the command of step 100 executed by the RC12, the image processing device 30 executes step 400 of the image processing shown in FIG. 4B. Here, the first camera 22 is selected as the image data input device. Then step 41
Proceeding to 0, the component image is detected from the first camera 22. That is, the first camera 22 images the state of the components 26 stacked in the component pallet 24 in the Z-axis direction. In the following step 420, the image processing device 30 scans the image data of the component 26 detected by the first camera 22 in step 410, and recognizes the overall shape of the component 26. Then, the type of the component 26, the position on the XY plane, and the inclination from the basic posture are determined.

一方、RC12は、画像処理装置30が上述した各処理を行な
っている間、第4図(イ)に示すステップ110を実行す
る。すなわち、画像入力装置30から認識完了信号が伝達
されるまで待機している。
On the other hand, the RC 12 executes step 110 shown in FIG. 4A while the image processing device 30 is performing the above-described processing. That is, it waits until the recognition completion signal is transmitted from the image input device 30.

画像処理装置30は、既述したステップ420に続いて、ス
テップ430を実行する。すなわち、認識完了信号をRC12
に出力する。そして、ステップ440に進み、画像処理装
置30は、部品26のX・Y平面上での位置を平面座標値
(x,y)とし、該部品26の基本姿勢からの傾きをローテ
ーション値(θ)として、さらに該部品26の種類を予め
定められた符号としてRC12に出力する。
The image processing device 30 executes step 430 following step 420 described above. That is, the recognition completion signal is
Output to. Then, proceeding to step 440, the image processing apparatus 30 sets the position of the component 26 on the XY plane to the plane coordinate value (x, y), and the inclination of the component 26 from the basic posture is the rotation value (θ). Further, the type of the component 26 is output to the RC 12 as a predetermined code.

RC12は、上述した画像処理装置30の実行するステップ43
0の認識完了信号出力に対応してステップ110からステッ
プ120に進む。そして、ここで上述した画像処理装置30
の実行するステップ440の出力データを入力し、RAM12c
の所定のエリアに記憶する。次に、RC12はステップ130
を実行する。すなわち、上記ステップ120で入力した部
品26の平面座標値(x,y)に基づいて、X・Y平面上で
多関節ロボット10のアーム15を部品26の真上に移動させ
る。また、上記ステップ120で入力した部品26のローテ
ーション値(θ)に基づいて、多関節ロボット10のハン
ド14に傾きを調整する。続くステップ140では、多関節
ロボット10のアーム15をZ軸方向に高速下降させる。そ
して、ステップ150に進み、既述した超音波センサ16の
出力を検出する。さらに、ステップ160に進み、該超音
波センサ16の出力がONになったか否かを判定する。すな
わち、多関節ロボット10のアーム15がZ軸方向に高速下
降して部品26に接近したか否かを判定している。超音波
センサ16の出力がOFFの場合には、アーム15が部品26に
接近していないものと判定され、上記ステップ140に戻
ってZ軸方向の高速下降が継続される。一方、超音波セ
ンサ16の出力がONになった場合には、アーム15が部品26
に接近したものとしてステップ170に進む。ここでは、R
C12には多関節ロボット10のアーム15をZ軸方向に低速
下降させる。続くステップ180では多関節ロボット10の
ハンド18に内蔵された近接スイッチ18の出力を検出す
る。さらに、ステップ190に進み、該近接スイッチ18の
出力がONになったか否かを判定する。すなわち、多関節
ロボット10のハンド14がZ軸方向に低速下降して部品26
に接触したか否かを判定している。近接スイッチ18の出
力がOFFの場合には、ハンド14が部品26に接触していな
いものと判定され、上記ステップ170に戻ってZ軸方向
の低速下降が継続される。一方、近接スイッチ18の出力
がONになった場合には、ハンド14が部品26に接触したも
のとしてステップ200に進む。ここでは、RC12がアーム1
5のZ軸方向の下降を停止させる。そして、ステップ210
に進み、ハンド14が部品パレット24内の部品26のうちの
一つの部品26aを把持する。続くステップ220では、該部
品26aをハンド14が把持したまま、アーム15はZ軸方向
に上昇する。ここで部品26aの把持状態は、常時近接ス
イッチ18の出力に基づき監視されている。そして、ステ
ップ230に進む。ここでは、ハンド14に把持された部品2
6aが既述した第2カメラ28の視野内に入るように、アー
ム15が移動させられる。そして、ステップ240に進み、
ハンド14に把持された部品26aが、予め設定されてRAM12
c内に記憶されている所定位置に位置決めされたか否か
が判定される。そして、該位置に位置決めされるまで、
上記ステップ230,240を繰り返す。アーム15の移動が続
けられ、上記位置決めが完了すると、ステップ250に進
み、RC12は画像処理装置30に対して定位置停止信号を出
力する。
RC12 is the step 43 executed by the image processing apparatus 30 described above.
In response to the recognition completion signal output of 0, the process proceeds from step 110 to step 120. Then, the image processing device 30 described above
Input the output data of step 440 to be executed in RAM12c
Stored in a predetermined area. Then RC12 goes to step 130
To execute. That is, based on the plane coordinate value (x, y) of the component 26 input in step 120, the arm 15 of the articulated robot 10 is moved right above the component 26 on the XY plane. Further, the tilt of the hand 14 of the articulated robot 10 is adjusted based on the rotation value (θ) of the component 26 input in step 120. In the following step 140, the arm 15 of the articulated robot 10 is lowered at high speed in the Z-axis direction. Then, the process proceeds to step 150, and the output of the ultrasonic sensor 16 described above is detected. Further, in step 160, it is determined whether or not the output of the ultrasonic sensor 16 is turned on. That is, it is determined whether the arm 15 of the articulated robot 10 descends at high speed in the Z-axis direction and approaches the part 26. When the output of the ultrasonic sensor 16 is OFF, it is determined that the arm 15 is not close to the component 26, the process returns to the step 140, and the high speed descent in the Z-axis direction is continued. On the other hand, if the output of the ultrasonic sensor 16 is turned on, the arm 15
And the process proceeds to step 170. Where R
The arm 15 of the articulated robot 10 is lowered at C12 in the Z-axis direction at a low speed. In the following step 180, the output of the proximity switch 18 incorporated in the hand 18 of the articulated robot 10 is detected. Further, in step 190, it is determined whether or not the output of the proximity switch 18 is turned on. That is, the hand 14 of the articulated robot 10 descends at a low speed in the Z-axis direction and the parts 26
It is determined whether or not the user has touched. When the output of the proximity switch 18 is OFF, it is determined that the hand 14 is not in contact with the component 26, the process returns to step 170, and the low speed descent in the Z-axis direction is continued. On the other hand, when the output of the proximity switch 18 is turned on, it is determined that the hand 14 has come into contact with the component 26, and the process proceeds to step 200. Here, RC12 is arm 1
Stop the descent of 5 in the Z-axis direction. And step 210
Then, the hand 14 grips one component 26a of the components 26 in the component pallet 24. In the following step 220, the arm 15 rises in the Z-axis direction while the hand 14 holds the component 26a. Here, the gripped state of the component 26a is constantly monitored based on the output of the proximity switch 18. Then, it proceeds to step 230. Here, the component 2 gripped by the hand 14
The arm 15 is moved so that 6a is within the field of view of the second camera 28 described above. Then proceed to step 240,
The part 26a gripped by the hand 14 is set in advance in the RAM 12
It is determined whether or not it has been positioned at the predetermined position stored in c. And until it is positioned at that position,
The above steps 230 and 240 are repeated. When the movement of the arm 15 is continued and the above positioning is completed, the routine proceeds to step 250, where the RC 12 outputs a fixed position stop signal to the image processing device 30.

一方、画像処理装置30は、第4図(ロ)に示すステップ
450で、第2カメラ28を画像データ入力装置として選択
している。そして、ステップ460に進み、RC12より部品
が定位置に停止したことを示す定位置停止信号が出力さ
れるまで待機している。上述したように、RC12がステッ
プ250で定位置停止信号を出力すると、画像処理装置30
はステップ470を実行する。ここでは、第2カメラ28か
ら部品26aの方向の検出が行なわれる。即ち、第2カメ
ラ28はハンド14に把持された部品26aの方向をY軸方向
から撮像する。続くステップ480では、上記ステップ470
で第2カメラ28が検出した部品26aの画像データを画像
処理装置30が走査して部品26aの向きを認識する。例え
ば、部品26aのフランジ部がY軸方向に対して右側にあ
るか左側にあるかを判定する。そして、ステップ490に
進み、画像処理装置30は部品26aが右向きか左向きかを
示す部品方向データをRC12に出力する。そして画像処理
を終了する。
On the other hand, the image processing apparatus 30 performs the steps shown in FIG.
At 450, the second camera 28 is selected as the image data input device. Then, the routine proceeds to step 460, where the RC 12 waits until a fixed position stop signal indicating that the component has stopped at the fixed position is output. As described above, when the RC 12 outputs the home position stop signal in step 250, the image processing device 30
Performs step 470. Here, the direction of the part 26a from the second camera 28 is detected. That is, the second camera 28 images the direction of the component 26a held by the hand 14 from the Y-axis direction. In the following Step 480, the above Step 470 is performed.
Then, the image processing device 30 scans the image data of the component 26a detected by the second camera 28 to recognize the orientation of the component 26a. For example, it is determined whether the flange portion of the component 26a is on the right side or the left side with respect to the Y-axis direction. Then, the processing proceeds to step 490, and the image processing device 30 outputs the component direction data indicating whether the component 26a faces rightward or leftward to the RC 12. Then, the image processing ends.

一方、RC12は、画像処理装置30が上述したステップ490
で出力した部品方向データを、第4図(イ)に示すステ
ップ260で入力する。そして、ステップ270に進み、上記
ステップ260で入力したデータに基づき、ハンド14に把
持された部品26aが右向きであるか否かを判定する。該
部品26aが右向きである場合にはステップ280に進み、ハ
ンド14をZ軸回りに時計方向に90°回転させる。そし
て、ステップ300に進む。一方、上記部品26aが左向きで
ある場合にはステップ290に進み、ハンド14をZ軸回り
に反時計方向に90°回転させる。そして、ステップ300
に進む。続くステップ300では、上述したステップ280ま
たは290で所定の方向に向けられた部品26aが、アーム15
の移動によりコンベアー32上の所定の位置に配置された
後、NEXTへ抜けてRC12は部品整列処理を終了する。そし
て、作業者により選択される次の処理に制御が移行す
る。
On the other hand, RC12 is the same as step 490 described above by the image processing device 30.
The component direction data output in step 4 is input in step 260 shown in FIG. Then, the process proceeds to step 270, and based on the data input in step 260, it is determined whether or not the component 26a gripped by the hand 14 is facing right. If the part 26a faces rightward, the process proceeds to step 280, where the hand 14 is rotated 90 ° clockwise about the Z axis. Then, the process proceeds to step 300. On the other hand, if the component 26a is facing left, the process proceeds to step 290, where the hand 14 is rotated 90 ° counterclockwise around the Z axis. And step 300
Proceed to. In the following step 300, the part 26a oriented in the predetermined direction in step 280 or 290 described above is moved to the arm 15a.
After being placed at a predetermined position on the conveyor 32 by moving, the process goes to NEXT and the RC 12 ends the parts alignment process. Then, the control shifts to the next process selected by the operator.

なお、本実施例において、対象物aは部品26に、第1の
画像検出手段bは第1カメラ22と画像処理装置30および
該画像処理装置30により実行される処理(400,410)
に、対象物cは部品26aに、状態判定手段dは画像処理
装置30および該画像処理装置30により実行される処理
(420,430,440)に、ロボットeは多関節ロボット10
に、制御手段fはRC12および該RC12により実行される処
理(100,110,120,130,140,150,160,170,180,190,200,21
0,220,230,240,250)にそれぞれ該当する。また、第2
の画像検出手段gは第2カメラ28と画像処理装置30およ
び該画像処理装置30により実行される処理(450,460,47
0)に、姿勢判定手段hは画像処理装置30および該画像
処理装置30により実行される処理(480,490)に、姿勢
変更手段iはRC12および該RC12により実行される処理
(260,270,280,290)にそれぞれ該当する。
In the present embodiment, the object a is the component 26, the first image detecting means b is the first camera 22, the image processing apparatus 30, and the processing executed by the image processing apparatus 30 (400, 410).
The object c is the component 26a, the state determination means d is the image processing apparatus 30 and the processing (420, 430, 440) executed by the image processing apparatus 30, and the robot e is the articulated robot 10.
In addition, the control means f controls the RC12 and the processing (100, 110, 120, 130, 140, 150, 160, 170, 180, 190, 200, 21) executed by the RC12.
0,220,230,240,250) respectively. Also, the second
The image detecting means g of the second camera 28, the image processing apparatus 30, and the processing executed by the image processing apparatus 30 (450, 460, 47).
0), the attitude determination means h corresponds to the image processing apparatus 30 and the processing (480,490) executed by the image processing apparatus 30, and the attitude changing means i corresponds to the RC12 and the processing (260,270,280,290) executed by the RC12. .

以上説明したように本実施例は、第1カメラ22と画像処
理装置30により部品パレット24内部にばら積みされた部
品26のX・Y平面上の位置と傾きおよび種類を検出して
認識し、該認識に基づいてRC12により多関節ロボット10
を制御して一つの部品26aを把持し、所定位置に移動さ
せる。そして、第2カメラ28と画像処理装置30により該
部品26aの方向を検出して認識し、該認識に基づいてRC1
2により多関節ロボット10を制御して部品26aを所定の向
きに整列させてコンベアー32上に配置する。このため、
第1カメラ22が検出した画像データではその部品26aの
向きの判定が困難な場合でも、第2カメラ28が検出した
画像データに基づいて部品26aを認識すればその向きを
正確に判定することができる。これは、第2カメラ28に
より撮像される部品26aが、その向きを右もしくは左の
いずれかに制約された状態でハンド14に把持されている
ため、その向きの判定が容易となるからである。しか
も、部品26aは、所定位置に位置決めされているため、
遠近差による精度の低下を招くおそれもない。
As described above, in the present embodiment, the position, the inclination, and the type on the XY plane of the components 26 stacked in the component pallet 24 are detected and recognized by the first camera 22 and the image processing device 30. RC12 articulated robot based on recognition 10
Is controlled to grasp one component 26a and move it to a predetermined position. Then, the direction of the component 26a is detected and recognized by the second camera 28 and the image processing device 30, and the RC1 is detected based on the recognition.
2 controls the articulated robot 10 to align the parts 26a in a predetermined direction and arrange them on the conveyor 32. For this reason,
Even if it is difficult to determine the orientation of the component 26a based on the image data detected by the first camera 22, the orientation can be accurately determined by recognizing the component 26a based on the image data detected by the second camera 28. it can. This is because the component 26a imaged by the second camera 28 is grasped by the hand 14 in a state in which the direction is restricted to either the right or the left, so that the determination of the direction becomes easy. . Moreover, since the component 26a is positioned at the predetermined position,
There is also no risk of a reduction in accuracy due to perspective.

また、把持前は第1カメラ22の画像のみに基づいて部品
26の位置等を認識し、把持後は第2カメラ28の画像のみ
から部品26aの向きを判定する構成であるため、装置が
ハード・ソフト両面で簡素化され、迅速に処理を実行で
きる。
In addition, before gripping, the parts are based only on the image of the first camera 22.
Since the configuration is such that the position of 26 is recognized and the orientation of the component 26a is determined only from the image of the second camera 28 after gripping, the device is simplified in terms of both hardware and software, and processing can be executed quickly.

また、第1カメラ22では複数の部品26を撮像するため広
範囲の画像となるが、第2カメラ28では一旦把持した部
品26aのみを撮像するため細部にわたる姿勢判定が可能
となり、判定精度が高くなる。しかも、一旦部品26aを
把持した後は、1方向のみの撮像で部品26aの向きを検
出できる。
Further, since the first camera 22 images a plurality of components 26, a wide range of images is obtained, but the second camera 28 captures only the component 26a that is once held, so that it is possible to make a detailed posture determination, and the determination accuracy increases. . Moreover, once the component 26a is gripped, the orientation of the component 26a can be detected by imaging in only one direction.

また、上記効果に伴い、部品供給位置精度が高くなり、
ばら積みされた任意形状の部品の向きを統一し整列して
配置することが可能となる。この結果、部品整列作業の
効率が向上すると共に、作業の信頼性も高まるという利
点を生じる。
Further, with the above effect, the accuracy of the component supply position is increased,
It is possible to unify the orientations of parts of arbitrary shapes stacked in bulk and arrange them in alignment. As a result, the efficiency of the parts alignment work is improved, and the reliability of the work is increased.

さらに、本実施例では第1カメラと第2カメラとが互い
に直交する方向に設置されているため、部品の位置座標
の算出や部品の向きの判定を簡単な計算により行なうこ
とができる。
Further, in the present embodiment, the first camera and the second camera are installed in the directions orthogonal to each other, so that the position coordinates of the component and the orientation of the component can be determined by a simple calculation.

なお、本実施例では、第1カメラと第2カメラの2台の
カメラを使用したが、例えば1台のカメラと該カメラを
互いに非平行な2つの位置に移動して位置決めさせる装
置とを用いても本考案の効果は生じるものである。
In this embodiment, two cameras, a first camera and a second camera, are used. However, for example, one camera and a device for moving and positioning the camera to two positions that are not parallel to each other are used. Even so, the effect of the present invention can be obtained.

また、本実施例では、部品の方向を統一するために、Z
軸回りに左・右それぞれ90°回転させたが、互いに180
°の補角をなす角度だけ左・右に回転させても本実施例
と同様の効果を奏するものである。
Further, in this embodiment, in order to unify the directions of the parts, Z
Rotated 90 ° left and right about the axis, but 180
Even if it is rotated to the left or right by an angle forming a supplementary angle of °, the same effect as this embodiment can be obtained.

さらに、本実施例では、部品の向きを全て統一して整列
させたが、該部品の向きを互い違いにして並べたり、所
定の個数毎に部品の向きを変えて並べることも可能であ
る。
Furthermore, in the present embodiment, the orientations of the components are all unified and aligned, but the orientations of the components may be arranged in a staggered manner, or the orientations of the components may be changed for each predetermined number.

なお、本実施例では、部品の向きを変更する動作を所定
の停止位置にて行なったが、例えば、該動作を部品パレ
ット24上、または部品パレット24上からコンベア32上に
移動する途中、あるいはコンベア32上に配置する直前に
行なってもよい。
In the present embodiment, the operation of changing the orientation of the component was performed at a predetermined stop position, but for example, the operation is performed on the component pallet 24, or while moving from the component pallet 24 onto the conveyor 32, or It may be performed immediately before the placement on the conveyor 32.

以上本考案の実施例について説明したが、本考案はこの
ような実施例に何等限定されるものではなく、本考案の
要旨を逸脱しない範囲内において種々なる態様で実施し
得ることは勿論である。
Although the embodiments of the present invention have been described above, the present invention is not limited to such embodiments, and it is needless to say that the present invention can be implemented in various modes without departing from the scope of the present invention. .

[考案の効果] 以上詳記したように、本考案のロボット制御装置によれ
ば、まず第1の方向からの対象物の画像に基づいて対象
物の位置や傾きを認識し、次いでロボットが1つの対象
物を把持し、その後その対象物を第2の方向から画像検
出するだけで対象物の姿勢を正確に認識することがき
る。このため、積載された複数の対象物を予め設定され
た正規の姿勢で個々に被供給部に供給することができ
る。また、装置がハード・ソフト両面で簡素化され、迅
速に処理を実行できる。
[Effects of the Invention] As described in detail above, according to the robot control device of the present invention, first, the position and inclination of the object are recognized based on the image of the object from the first direction, and then the robot 1 The posture of the object can be accurately recognized only by gripping one object and then detecting the image of the object from the second direction. Therefore, the plurality of loaded objects can be individually supplied to the supply target portion in a preset normal posture. Further, the device is simplified in terms of both hardware and software, and the processing can be executed quickly.

【図面の簡単な説明】[Brief description of drawings]

第1図は本考案の基本概念を示す構成図、第2図は本考
案一実施例である粗材取り出しロボット制御装置のシス
テム構成図、第3図は同じくそのロボットコントローラ
(RC)と画像処理装置との構成を説明するためのブロッ
ク図、第4図(イ)は本考案一実施例においてRCにより
実行される処理を示すフローチャート、第4図(ロ)は
本考案一実施例において画像処理装置により実行される
処理を示すフローチャートである。 a……対象物、b……第1の画像検出手段 c……対象物、d……状態判定手段 e……ロボット、f……制御手段 g……第2の画像検出手段、h……姿勢判定手段 i……姿勢変更手段 10……多関節ロボット 12……ロボットコントローラ(RC) 22……第1カメラ 26,26a,26b……部品 28……第2カメラ 30……画像処理装置
FIG. 1 is a block diagram showing the basic concept of the present invention, FIG. 2 is a system block diagram of a rough material take-out robot control device according to an embodiment of the present invention, and FIG. 3 is the robot controller (RC) and image processing thereof. 4 is a block diagram for explaining the configuration of the apparatus, FIG. 4 (a) is a flow chart showing the processing executed by the RC in one embodiment of the present invention, and FIG. 4 (b) is image processing in one embodiment of the present invention. It is a flow chart which shows processing performed by a device. a ... Object, b ... First image detecting means c ... Object, d ... State determining means e ... Robot, f ... Control means g ... Second image detecting means, h ... Posture determination means i ... Posture change means 10 ... Articulated robot 12 ... Robot controller (RC) 22 ... First camera 26, 26a, 26b ... Parts 28 ... Second camera 30 ... Image processing device

フロントページの続き (72)考案者 大石 博之 愛知県豊田市トヨタ町1番地 トヨタ自動 車株式会社内 (56)参考文献 特開 昭53−127988(JP,A)Continuation of the front page (72) Inventor Hiroyuki Oishi 1 Toyota Town, Toyota City, Aichi Prefecture Toyota Motor Corporation (56) Reference JP-A-53-127988 (JP, A)

Claims (1)

【実用新案登録請求の範囲】[Scope of utility model registration request] 【請求項1】載置部に積載された複数の対象物の画像を
第1の方向から検出する第1の画像検出手段と、 該第1の画像検出手段による検出結果に基づいて上記対
象物のうちの1つの対象物の少なくとも位置と傾きとの
状態を判定する状態判定手段と、 該状態判定手段の判定結果に基づいて上記判定された対
象物を把持すると共に、その対象物を移動させて被供給
部に供給するロボットを駆動する制御手段と、 を備えたロボット制御装置において、 上記載置部から上記被供給部への移動経路上の所定位置
における上記ロボットに把持された対象物の画像を、上
記第1の方向と非平行な第2の方向から検出する第2の
画像検出手段と、 該第2の画像検出手段による検出結果に基づいて上記所
定位置における対象物の姿勢を判定する姿勢判定手段
と、 該姿勢判定手段の判定結果に基づいて上記ロボットを駆
動し、上記対象物の姿勢を予め設定された正規の姿勢に
変更する姿勢変更手段と、 を備えたことを特徴とするロボット制御装置。
1. A first image detecting means for detecting an image of a plurality of objects stacked on a placing part from a first direction, and the object based on a detection result by the first image detecting means. Of at least one of the objects, the state determining means for determining the state of the position and the inclination, the object determined based on the determination result of the state determining means, and the object is moved. A robot controller for driving a robot to supply the supply target to the supply target, and an object grasped by the robot at a predetermined position on the movement path from the placement unit to the supply target. Second image detecting means for detecting an image from a second direction which is non-parallel to the first direction, and a posture of the object at the predetermined position is determined based on a detection result by the second image detecting means. Posture determination hand And a posture changing unit that drives the robot based on the determination result of the posture determining unit and changes the posture of the object to a preset normal posture. .
JP1985091166U 1985-06-17 1985-06-17 Robot controller Expired - Lifetime JPH0647670Y2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1985091166U JPH0647670Y2 (en) 1985-06-17 1985-06-17 Robot controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1985091166U JPH0647670Y2 (en) 1985-06-17 1985-06-17 Robot controller

Publications (2)

Publication Number Publication Date
JPS61205781U JPS61205781U (en) 1986-12-25
JPH0647670Y2 true JPH0647670Y2 (en) 1994-12-07

Family

ID=30646824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1985091166U Expired - Lifetime JPH0647670Y2 (en) 1985-06-17 1985-06-17 Robot controller

Country Status (1)

Country Link
JP (1) JPH0647670Y2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6022766B2 (en) * 1977-04-15 1985-06-04 株式会社日立製作所 Object attitude control method

Also Published As

Publication number Publication date
JPS61205781U (en) 1986-12-25

Similar Documents

Publication Publication Date Title
US7765031B2 (en) Robot and multi-robot interference avoidance method
EP3222393B1 (en) Automated guidance system and method for a coordinated movement machine
JP3702257B2 (en) Robot handling device
US7321808B2 (en) Robot and multiple robot control method
EP1748339A2 (en) Workpiece tracking and handling device comprising a conveying means and a plurality of robots
US5371836A (en) Position teaching method and control apparatus for robot
US20060149421A1 (en) Robot controller
US20070032905A1 (en) Robot programming device
US20050273199A1 (en) Robot system
JP4303411B2 (en) Tracking method and tracking system
JPH1158273A (en) Mobile robot device
CN114055460B (en) Teaching method and robot system
JP2003305676A (en) Control method and control device for mobile robot
JP4809524B2 (en) Tracking method, tracking system, and tracking device
JP2001300875A (en) Robot system
JPH0647670Y2 (en) Robot controller
JP3328414B2 (en) Robot hand attitude control device
WO2020157875A1 (en) Work coordinate generation device
JPH1011146A (en) Device for correcting stop posture of mobile object
JPH05108131A (en) Teaching device of robot
US11654562B2 (en) Apparatus, robot control device, robot system, and method of setting robot coordinate system
JP7259487B2 (en) Control method and robot system
US20240157567A1 (en) Picking system
WO2023013699A1 (en) Robot control device, robot control system, and robot control method
JPH09234684A (en) Manually-operated manipulator