JPH10222670A - Method for processing picture and method for controlling work transfer device - Google Patents

Method for processing picture and method for controlling work transfer device

Info

Publication number
JPH10222670A
JPH10222670A JP9025581A JP2558197A JPH10222670A JP H10222670 A JPH10222670 A JP H10222670A JP 9025581 A JP9025581 A JP 9025581A JP 2558197 A JP2558197 A JP 2558197A JP H10222670 A JPH10222670 A JP H10222670A
Authority
JP
Japan
Prior art keywords
work
image
subject
data
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9025581A
Other languages
Japanese (ja)
Inventor
Hiroo Arataki
博夫 荒滝
Hidetaka Yoshioka
英貴 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP9025581A priority Critical patent/JPH10222670A/en
Publication of JPH10222670A publication Critical patent/JPH10222670A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To surely recognize the picture of a subject. SOLUTION: When the three pictures m1, m2 and m3 are detected in a last time proceeding picture processing and the three pictures n1, n2 and n3 are detected in this time picture processing, the feature quantities of the pictures m1-m3 and n1-n3 are extracted and the feature quantities of the last time pictures m1-m3 are compared with those of this time pictures n1-n3 concerning whole combinations. When the last time pictures and this time pictures satisfy a prescribed condition, they are synthesized so as to obtain the pictures m1, n2, n3 and m3 for the portion of four cylinders.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、パレット
上のワークを把持するために、ワークの形状を撮像し、
所定閾値にて2値化処理してワーク位置を画像認識する
画像処理方法及びワーク移載装置の制御方法に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup device for picking up a work on a pallet.
The present invention relates to an image processing method for recognizing a work position by performing binarization processing at a predetermined threshold and a control method for a work transfer device.

【0002】[0002]

【従来の技術】従来では、ワーク位置を画像認識する際
に、撮像されたワークからその面積、長さ等の特徴量を
算出することにより画像認識されている。
2. Description of the Related Art Conventionally, when recognizing an image of a work position, the image is recognized by calculating a feature amount such as an area and a length from a picked-up work.

【0003】例えば、特開平1−284979号公報に
は、ワークの形状を撮像し、所定閾値にて2値化処理し
て画像認識する際に、画面上の領域毎に2値化閾値を変
更する画像処理方法が開示されている。この従来技術
は、2値化閾値を変更すべき領域が予め判っている場合
にのみ対応できるものである。
[0003] For example, Japanese Patent Application Laid-Open No. 1-284799 discloses that when a shape of a work is imaged and binarized with a predetermined threshold to recognize an image, the binarization threshold is changed for each region on the screen. An image processing method is disclosed. This conventional technique can deal only with a case where an area for which the binarization threshold should be changed is known in advance.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、2値化
閾値を一定にして画像処理する場合には、例えば、ワー
クがパレット上に複数個連続して配置されていると、各
ワーク毎に画像処理に最適な2値化閾値が異なるため個
々のワークの画像認識を誤ってしまう可能性がある。
However, in the case of performing image processing while keeping the binarization threshold constant, for example, if a plurality of works are continuously arranged on a pallet, the image processing is performed for each work. There is a possibility that the image recognition of each work is erroneously performed because the optimum binarization threshold value is different.

【0005】また、図16に示すように、自動車のシリ
ンダボア3aを画像処理する場合、日光や照明の輝度の
加減やボア内部にパレットが映り込むことにより、斜線
部分hが明るい部分となりワークが分割して認識される
虞がある。
Further, as shown in FIG. 16, when image processing is performed on the cylinder bore 3a of an automobile, the shaded portion h becomes a bright portion and the work is divided by adjusting the brightness of sunlight or illumination or reflecting a pallet inside the bore. There is a risk of being recognized.

【0006】本発明はかかる問題点に鑑みてなされたも
のであり、その目的は、日光や照明の輝度の加減やボア
内部にパレットの映り込み等の外部環境の変化によらず
被写体の画像認識を確実に行なえる画像処理方法を提供
することである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to recognize an image of a subject regardless of changes in the external environment such as adjustment of the brightness of sunlight or illumination and reflection of a pallet in a bore. Is to provide an image processing method that can reliably perform the image processing.

【0007】[0007]

【課題を解決するための手段】上述の問題点を解決し、
目的を達成するために、第1の発明に係わる画像処理方
法は、以下の特徴を備える。即ち、被写体を撮像し、所
定閾値にて2値化処理して画像認識する画像処理方法に
おいて、第1の閾値で2値化処理した第1の画像データ
から前記被写体の第1の特徴データを抽出し、第2の閾
値で2値化処理した第2の画像データから前記被写体の
第2の特徴データを抽出し、前記第1の特徴データと第
2の特徴データとを合成して、前記被写体の画像データ
を抽出する。
SUMMARY OF THE INVENTION To solve the above problems,
In order to achieve the object, an image processing method according to the first invention has the following features. That is, in an image processing method in which a subject is imaged, the image is binarized at a predetermined threshold, and the image is recognized, the first feature data of the subject is converted from the first image data binarized at the first threshold. Extracting, extracting second feature data of the subject from the second image data binarized by a second threshold, synthesizing the first feature data and the second feature data, Extract the image data of the subject.

【0008】また、好ましくは、前記第1及び第2の特
徴データは、前記所定閾値を変更した後、所定基準値に
基づいて抽出される。
[0008] Preferably, the first and second feature data are extracted based on a predetermined reference value after changing the predetermined threshold value.

【0009】また、好ましくは、前記被写体は、自動車
のエンジンのシリンダボアである。
Preferably, the subject is a cylinder bore of an automobile engine.

【0010】また、好ましくは、前記被写体の画像デー
タから2値化ノイズを除去し、該画像データのエッジ部
を連続させる。
Preferably, binarized noise is removed from the image data of the subject, and edge portions of the image data are made continuous.

【0011】また、好ましくは、前記2値化ノイズを除
去する際に、前記被写体の画像データを所定基準値に基
づいてグループ化する。
Preferably, when the binarization noise is removed, the image data of the subject is grouped based on a predetermined reference value.

【0012】また、好ましくは、前記グループ化された
画像データは拡大されてエッジ部が連続された後、元の
縮尺に戻される。
Preferably, the grouped image data is returned to the original scale after the edge portion is continued after being enlarged.

【0013】また、好ましくは、前記画像データは、前
記被写体のテンプレートに基づいてマッチング処理され
る。
Preferably, the image data is subjected to a matching process based on a template of the subject.

【0014】また、好ましくは、前記被写体は、自動車
のエンジンのシリンダボアである。
Preferably, the subject is a cylinder bore of an automobile engine.

【0015】また、好ましくは、前記所定基準値は、被
写体の本来の特徴データに対応する数値データである。
[0015] Preferably, the predetermined reference value is numerical data corresponding to original characteristic data of a subject.

【0016】また、好ましくは、前記第1及び第2の特
徴データは、被写体の画像認識可能な形状部分である。
[0016] Preferably, the first and second feature data are image-recognizable shape portions of a subject.

【0017】また、第2の発明に係わる画像処理方法
は、以下の特徴を備える。即ち、被写体を撮像し、所定
閾値にて2値化処理して画像認識する画像処理方法にお
いて、第1の閾値で2値化処理した第1の画像データか
ら前記被写体の第1の特徴データを抽出し、第2の閾値
で2値化処理した第2の画像データから前記被写体の第
2の特徴データを抽出し、前記第1の特徴データと第2
の特徴データとを合成して、前記被写体の画像データを
抽出し、前記被写体の画像データから、該被写体の所定
部位の相対的な位置関係を検出し、前記位置関係に基づ
いて前記被写体の位置姿勢を検出する。
The image processing method according to the second invention has the following features. That is, in an image processing method in which a subject is imaged, the image is binarized at a predetermined threshold, and the image is recognized, the first feature data of the subject is converted from the first image data binarized at the first threshold. The second feature data of the subject is extracted from the second image data that has been extracted and binarized with a second threshold value, and the first feature data and the second feature data are extracted.
To extract image data of the subject, detect a relative positional relationship of a predetermined portion of the subject from the image data of the subject, and position the subject based on the positional relationship. Detect posture.

【0018】また、本発明に係わるワーク移載装置の制
御方法は、以下の特徴を備える。即ち、パレット上の複
数のワークを、ワーク把持部材で所定の位置に移載する
ワーク移載装置の制御方法であって、所定閾値にて移載
すべきワークを撮像し、第1の閾値で2値化処理した第
1の画像データから前記ワークの第1の特徴データを抽
出し、第2の閾値で2値化処理した第2の画像データか
ら前記ワークの第2の特徴データを抽出し、前記第1の
特徴データと第2の特徴データとを合成して、前記ワー
クの画像データを抽出し、前記ワークの画像データか
ら、該ワークの所定部位の相対的な位置関係を検出し、
前記位置関係に基づいて前記ワークの位置姿勢を検出
し、前記ワークの位置姿勢に基づいてワーク把持部材の
把持動作を制御する。
Further, the control method of the work transfer device according to the present invention has the following features. That is, a method of controlling a work transfer device for transferring a plurality of works on a pallet to a predetermined position by a work holding member, wherein the work to be transferred is imaged at a predetermined threshold, and the image is taken at a first threshold. Extracting first feature data of the work from the first image data that has been binarized, and extracting second feature data of the work from the second image data that has been binarized with a second threshold; Synthesizing the first feature data and the second feature data, extracting image data of the work, detecting a relative positional relationship of a predetermined portion of the work from the image data of the work,
The position and orientation of the work are detected based on the positional relationship, and the gripping operation of the work holding member is controlled based on the position and orientation of the work.

【0019】また、好ましくは、前記ワーク把持部材
は、前記ワークの位置姿勢のズレ量を吸収しつつ、該ワ
ークを把持する位置ズレ吸収手段を有する。
Preferably, the work gripping member has a positional shift absorbing means for gripping the work while absorbing a shift amount of the position and orientation of the work.

【0020】[0020]

【発明の実施の形態】以下、本発明に係わる実施形態に
つき添付図面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

【0021】[ワーク移載装置の全体構成]図1に示す
ように、ワーク移載装置WAは、ペースパレット1の上
面又は中間パレット2の上面に載せられたワーク3を自
動的に搬送コンベア4に移載するとともに、空になった
中間パレット2を自動的に台車5の上に移動するように
なっている。
[Overall Configuration of Work Transfer Device] As shown in FIG. 1, the work transfer device WA automatically transfers the work 3 placed on the upper surface of the pace pallet 1 or the upper surface of the intermediate pallet 2 to the conveyor 4. And the empty intermediate pallet 2 is automatically moved onto the carriage 5.

【0022】ワーク3(図1では自動車のエンジンのシ
リンダブロックが例示されている)は、1つのベースパ
レット1と複数の中間パレット2とを用いて、フォーク
リフト(不図示)等によりワーク移載装置WA内の所定
の位置に矢印A1〜A2方向に搬入されるようになって
いる。ここで、各ワーク3は、両パレット1、2に次の
ような状態で積載されている。すなわち、ベースパレッ
ト1の上に複数(例えば、8個)のワーク3が載せら
れ、これらのワーク3の上に1枚の中間パレット2が載
せられ、この中間パレット2の上に複数のワーク3が載
せられている。そして、かかる中間パレット2の上にワ
ーク3が載せられたものがさらに複数積み重ねられてい
る。
A work 3 (FIG. 1 illustrates a cylinder block of an automobile engine, for example) uses one base pallet 1 and a plurality of intermediate pallets 2 and a work transfer device by a forklift (not shown) or the like. It is designed to be carried into a predetermined position in the WA in the directions of arrows A1 and A2. Here, each work 3 is loaded on both pallets 1 and 2 in the following state. That is, a plurality of (for example, eight) works 3 are placed on the base pallet 1, one intermediate pallet 2 is placed on these works 3, and a plurality of works 3 are placed on the intermediate pallet 2. Has been posted. A plurality of the work pieces 3 placed on the intermediate pallet 2 are further stacked.

【0023】ここで、ワーク3がすべて払い出されて空
になった中間パレット2は順次、後で説明するように自
動的に台車5の上に移載され、これらの中間パレット2
は所定の枚数までたまったときに、台車5を矢印B方向
に動かすことによって搬出される。尚、搬出コンベア4
に移載されたワーク3は、矢印Cで示す方向に搬送され
る。
Here, the intermediate pallets 2 from which all the works 3 have been paid out and become empty are automatically transferred to the carriage 5 automatically as will be described later.
Is transported by moving the cart 5 in the direction of arrow B when the predetermined number of sheets has been accumulated. In addition, unloading conveyor 4
Is transported in the direction shown by arrow C.

【0024】ワーク移載装置WAには、夫々上下方向に
のびる複数の支柱6によって支持されワーク移載装置W
Aの幅方向(以下、この方向を横方向という)に延びる
第1、第2横フレーム7a、7bと、支柱6及び第1、
第2横フレーム7a、7bによって支持されワーク移載
装置WAの長手方向(以下、この方向を縦方向という)
に延びる第1縦フレーム8aと、第1、第2横フレーム
7a、7bのみによって支持され縦方向に延びる第2縦
フレーム8bとが設けられている。
The work transfer device WA is supported by a plurality of columns 6 extending in the vertical direction.
A first and second horizontal frames 7a and 7b extending in the width direction of A (hereinafter, this direction is referred to as a lateral direction),
The longitudinal direction of the work transfer device WA supported by the second horizontal frames 7a and 7b (hereinafter, this direction is referred to as the vertical direction).
And a second vertical frame 8b supported only by the first and second horizontal frames 7a and 7b and extending in the vertical direction.

【0025】第1、第2フレーム8a、8bの上端面に
は夫々、縦方向に延びる第1、第2レール9a、9bが
配設されている。そして、両縦フレーム8a、8bに亘
って横方向に延びる可動フレーム10が設けられ、この
可動フレーム10は第1、第2レール9a、9bと係合
して、該第1、第2レール9a、9bに沿って縦方向に
移動できるようになっている。
First and second rails 9a and 9b are provided on the upper end surfaces of the first and second frames 8a and 8b, respectively, and extend in the vertical direction. A movable frame 10 extending in the horizontal direction is provided across both the vertical frames 8a and 8b, and the movable frame 10 is engaged with the first and second rails 9a and 9b, and the first and second rails 9a are provided. , 9b in the vertical direction.

【0026】そして、可動フレーム10を駆動する可動
フレーム駆動機構11が設けられ、この可動フレーム駆
動機構11は、第1、第2チェン12a、12bを介し
て可動フレーム10を縦方向に自在に往復移動させるこ
とができるようになっている。
A movable frame driving mechanism 11 for driving the movable frame 10 is provided. The movable frame driving mechanism 11 freely reciprocates the movable frame 10 in the vertical direction via the first and second chains 12a and 12b. It can be moved.

【0027】図2に示すように、可動フレーム10の第
1横フレーム7a側の側部には、上下方向に延びるパレ
ットアーム13が取り付けられ、このパレットアーム1
3の下端部には中間パレット2をクランプ(把持)する
ことができるパレットクランプ部材19が付設されてい
る。そして、パレットアーム13には、パレットアーム
13を上下方向に自在に往復移動させることができるパ
レットアーム昇降機構17が設けられている。
As shown in FIG. 2, a pallet arm 13 extending vertically is attached to the side of the movable frame 10 on the first horizontal frame 7a side.
A pallet clamp member 19 capable of clamping (gripping) the intermediate pallet 2 is attached to a lower end of the pallet 3. The pallet arm 13 is provided with a pallet arm elevating mechanism 17 that can freely reciprocate the pallet arm 13 in the vertical direction.

【0028】また、可動フレーム10の第2横フレーム
7bの側部には、上下方向に延びるワークアーム14が
ワークアーム連結部14aを介して取り付けられ、この
ワークアーム14の下端部にはワーク3をクランプ(把
持)することができるワーククランプ部材20が付設さ
れている。また、ワークアーム14の上下方向中間部に
は、後で説明する画像処理用カメラ22が取り付けられ
ている。
A work arm 14 extending in the vertical direction is attached to the side of the second horizontal frame 7b of the movable frame 10 via a work arm connecting portion 14a. A work clamp member 20 capable of clamping (gripping) is provided. An image processing camera 22, which will be described later, is attached to a vertically intermediate portion of the work arm 14.

【0029】ここで、ワークアーム14は可動フレーム
10に沿って横方向に移動できるようになっている。そ
して、可動フレーム10にはワークアーム14を駆動す
るワークアーム駆動機構15が設けられ、ワークアーム
駆動機構15は、駆動チェーン16を介してワークアー
ム14を横方向に自在に往復移動させることができるよ
うになっている。そして、ワークアーム14には、ワー
クアーム14を上下方向に自在に往復移動させることが
できるワークアーム昇降機構18が設けられている。
Here, the work arm 14 can be moved laterally along the movable frame 10. The movable frame 10 is provided with a work arm drive mechanism 15 for driving the work arm 14, and the work arm drive mechanism 15 can freely reciprocate the work arm 14 in the lateral direction via a drive chain 16. It has become. The work arm 14 is provided with a work arm elevating mechanism 18 that can reciprocate the work arm 14 freely in the up and down direction.

【0030】さらに、ワークアーム14の上端部には、
該ワークアーム14をその軸線まわりに回動させること
ができる旋回駆動機構21が設けられている。
Further, at the upper end of the work arm 14,
A turning drive mechanism 21 that can turn the work arm 14 around its axis is provided.

【0031】図3及び図4(a)、(b)に示すよう
に、ワーククランプ部材20においては、ワークアーム
14の下端部に連結・固定された連結部材31と、本体
部32とが、ボールジョイント33とコイルスプリング
34とを介して連結されている。そして本体部32に
は、ワーク3(図3、図4においてはシリンダブロック
が例示されている)ヘの接近を検出する近接スイッチ3
5を備えた当接部材36と、エアシリンダ37によって
駆動されるクランプアーム38とが設けられている。こ
こで、当接部材36は、ワーククランプ部材20がワー
ク3をクランプしているときに該ワーク3の上面に当接
してその位置を安定させるようになっている。また、ク
ランプアーム38は、ワーク3の所定の部位に係合して
ワーク3を確実にクランプできるようになっている。な
お、図3において、左半部はワーク3をクランプしてい
ない状態(アンクランプ)を示し、右半部はワーク3を
クランプしている状態を示している。
As shown in FIGS. 3 and 4A and 4B, in the work clamp member 20, a connecting member 31 connected and fixed to the lower end of the work arm 14 and a main body 32 are provided. It is connected via a ball joint 33 and a coil spring 34. A proximity switch 3 that detects an approach to the workpiece 3 (a cylinder block is illustrated in FIGS. 3 and 4) is provided in the main body 32.
5 is provided, and a clamp arm 38 driven by an air cylinder 37 is provided. Here, the contact member 36 comes into contact with the upper surface of the work 3 when the work clamp member 20 is clamping the work 3 to stabilize its position. Further, the clamp arm 38 engages with a predetermined portion of the work 3 so that the work 3 can be reliably clamped. In FIG. 3, the left half shows a state where the work 3 is not clamped (unclamping), and the right half shows a state where the work 3 is clamped.

【0032】図5に拡大して示すように、ボールジョイ
ント33は、連結部材31に固定された第1ボール受部
33aによって揺動可能に支持された第1リンクボール
33bと、本体部32に固定された第2ボール受部33
cによって揺動可能に支持された第2リンクボール33
dと、夫々第1、第2リンクボール33b、33dに延
設された第1、第2軸部33f、33gを把持・連結す
る筒部材33eとで構成されたユニバーサルジョイント
であって、連結部材31(ワークアーム14)と本体部
32とを水平方向に互いに相対変位させる(ずれさせ
る)ことができるようになっている。
As shown in an enlarged view in FIG. 5, the ball joint 33 includes a first link ball 33b swingably supported by a first ball receiving portion 33a fixed to the connecting member 31 and a main body portion 32. Fixed second ball receiving portion 33
The second link ball 33 swingably supported by c.
d, and a cylindrical member 33e that grips and connects the first and second shaft portions 33f and 33g extending from the first and second link balls 33b and 33d, respectively. 31 (work arm 14) and the main body 32 can be relatively displaced (shifted) from each other in the horizontal direction.

【0033】このように、連結部材31と本体部32と
が、ボールジョイント33とコイルスプリング34とを
介して相対変位可能に連結されているので、本体部32
は、基本的にはワークアーム14によって吊り下げられ
た状態となり、材本体部32は水平方向にある程度変位
できることになる。なお、図4(b)は、本体部32が
水平方向に相対変位した(ずれた)状態を示している。
As described above, the connecting member 31 and the main body 32 are connected via the ball joint 33 and the coil spring 34 so as to be relatively displaceable.
Is basically suspended by the work arm 14, and the material body 32 can be displaced to some extent in the horizontal direction. FIG. 4B shows a state in which the main body 32 is relatively displaced (shifted) in the horizontal direction.

【0034】このため、後述する画像処理により認識さ
れたワーク3の位置が多少ずれている場合でも、該ワー
ク3をクランプする際には本体部32がそのずれ量を吸
収するので、クランプアーム38は該ワーク3を確実に
クランプすることができる。
For this reason, even when the position of the work 3 recognized by the image processing described later is slightly shifted, when the work 3 is clamped, the body 32 absorbs the shift amount. Can reliably clamp the work 3.

【0035】なお、ワーククランプ部材20がワーク3
をクランプした状態で移動しているときには、連結部材
31(ワークアーム14)に取り付けられた差し込み部
材39を、本体部32に取り付けられた受け部40に差
し込むことによって、ワークアーム14と本体部32と
をリジッドに合体させることができるようになってい
る。したがって、かかる移動時に本体部32が水平方向
に揺れることはない。
It should be noted that the work clamp member 20 is
Is moved in a clamped state, the work arm 14 and the main body 32 are inserted by inserting the insertion member 39 attached to the connecting member 31 (work arm 14) into the receiving portion 40 attached to the main body 32. And can be combined rigidly. Therefore, the main body 32 does not swing in the horizontal direction during such movement.

【0036】ここで、ワーク移載装置WAには、移載す
べきワーク3の位置姿勢等を検出し、各駆動機構による
ワーク3及び中間パレット2の把持・移載動作を制御す
る制御装置が設けられているが、以下この制御装置につ
いて説明する。
Here, the work transfer device WA has a control device for detecting the position and orientation of the work 3 to be transferred and controlling the gripping and transfer operations of the work 3 and the intermediate pallet 2 by each drive mechanism. The control device will be described below.

【0037】図6に示すように、ワーク移載装置WAの
制御装置Sには、上位リンクユニットとベーシックユニ
ットとA/D変換ユニットと複数のI/Oユニットとを
備えた第1制御ユニット51と、シーケンサと位置決め
ユニット等とを備えた第2制御ユニット52とが設けら
れている。
As shown in FIG. 6, the control device S of the work transfer device WA includes a first control unit 51 including an upper link unit, a basic unit, an A / D conversion unit, and a plurality of I / O units. And a second control unit 52 including a sequencer, a positioning unit, and the like.

【0038】ここで、第1制御ユニット51の上位リン
クユニットは、第1制御ユニット51と第2制御ユニッ
ト52とをリンクし、両ユニット51、52間の相互通
信を行わせる。尚、上位リンクユニットには、オペレー
タによって操作されるタッチパネル41の各種出力信号
が入力される。
Here, the upper link unit of the first control unit 51 links the first control unit 51 and the second control unit 52, and causes the two units 51 and 52 to communicate with each other. Various output signals of the touch panel 41 operated by the operator are input to the upper link unit.

【0039】第1制御ユニット51のベーシックユニッ
トは、画像処理用カメラ22(以下、これをカメラ22
と略称する)によって撮影された画像をカメラアンプ4
7と画像処理装置48とで処理した結果を受け入れる。
ここで、画像処理装置48は、後で説明するように、カ
メラ22によって撮影されたワーク3の多値画像の各画
素を所定の2値化閾値に基づいて2値化処理し、この2
値化処理によって得られた2値画像から、ワーク3の位
置姿勢を検出(演算)する。尚、画像処理装置48の処
理結果はCRT49に表示されるようになっている。
The basic unit of the first control unit 51 is an image processing camera 22 (hereinafter referred to as a camera 22).
The image captured by the camera amplifier 4
7 and the result of processing by the image processing device 48 are accepted.
Here, as described later, the image processing device 48 performs a binarization process on each pixel of the multi-value image of the work 3 captured by the camera 22 based on a predetermined binarization threshold.
The position and orientation of the work 3 are detected (calculated) from the binary image obtained by the binarization process. The processing result of the image processing device 48 is displayed on the CRT 49.

【0040】第1制御ユニット51のA/D変換ユニッ
トには、距離センサ42によって検出された、パレット
クランプ部材19とその下方の中間パレット2との間の
距離、或いはワーククランプ部材20とその下方のワー
ク3との間の距離が、センサアンプ50を介して入力さ
れる。尚、第1制御ユニット51の各I/Oユニットに
は、バルブ43、リミットスイッチ44、押しボタン4
5、ランプ46等が接続されている。
The distance between the pallet clamp member 19 and the intermediate pallet 2 below the pallet clamp member 19 or the work clamp member 20 and the lower portion thereof below the pallet clamp member 19 are detected by the A / D conversion unit of the first control unit 51. Is input via the sensor amplifier 50. The I / O unit of the first control unit 51 includes a valve 43, a limit switch 44, a push button 4
5, lamp 46, etc. are connected.

【0041】第2制御ユニット52のシーケンサは、主
として、可動フレーム駆動機構11、ワークアーム駆動
機構15、パレットアーム昇降機構17、ワークアーム
昇降機構18、旋回駆動機構21、パレットクランプ部
材19、ワーククランプ部材20等の動作順序を制御す
る。
The sequencer of the second control unit 52 mainly includes a movable frame drive mechanism 11, a work arm drive mechanism 15, a pallet arm elevating mechanism 17, a work arm elevating mechanism 18, a turning drive mechanism 21, a pallet clamp member 19, a work clamp The operation order of the members 20 and the like is controlled.

【0042】また、第2制御ユニット52の位置決めユ
ニットは、第1〜第5アンプ53〜57を介して第1〜
第7モータ58〜62を制御し、パレットアーム13及
びワークアーム14の位置決めを行う。ここで、第1モ
ータ58は可動フレーム駆動機構11の駆動源であり、
第2モータ59はワークアーム駆動機構15の駆動源で
あり、第3モータ60はワークアーム昇降機構18の駆
動源であり、第4モータ61は旋回駆動機構21の駆動
源であり、第5モータ62はパレットアーム昇降機構1
7の駆動源である。つまり、第1モータ58はパレット
アーム13及びワークアーム14の縦方向の移動ないし
は位置決めを行い、第2モータ59はワークアーム14
の横方向の移動ないしは位置決めを行い、第3モータ6
0はワークアーム14の上下方向の移動ないしは位置決
めを行い、第4モータ61はワークアーム14のその軸
線まわりの回転方向の移動ないしは位置決めを行い、第
5モータ62はパレットアーム13の上下方向の移動な
いしは位置決めを行う。そして、位置決めユニットによ
って第1〜第5モータ58〜62を制御することによっ
て、パレットアーム13(パレットクランプ部材19)
及びワークアーム14(ワーククランプ部材20)を任
意の位置に移動させ、あるいは位置決めすることができ
る。
The positioning unit of the second control unit 52 is connected to the first to fifth amplifiers 53 to 57 through the first to fifth amplifiers 53 to 57.
The seventh motors 58 to 62 are controlled to position the pallet arm 13 and the work arm 14. Here, the first motor 58 is a drive source of the movable frame drive mechanism 11,
The second motor 59 is a drive source of the work arm drive mechanism 15, the third motor 60 is a drive source of the work arm elevating mechanism 18, the fourth motor 61 is a drive source of the turning drive mechanism 21, and the fifth motor 62 is a pallet arm lifting mechanism 1
7 is a driving source. That is, the first motor 58 moves or positions the pallet arm 13 and the work arm 14 in the vertical direction, and the second motor 59 operates the work arm 14
Of the third motor 6
0 moves or positions the work arm 14 in the vertical direction, the fourth motor 61 moves or positions the work arm 14 in the rotational direction about its axis, and the fifth motor 62 moves the pallet arm 13 in the vertical direction. Or perform positioning. The pallet arm 13 (pallet clamp member 19) is controlled by controlling the first to fifth motors 58 to 62 by the positioning unit.
Further, the work arm 14 (work clamp member 20) can be moved to an arbitrary position or positioned.

【0043】以下、図7に示すフローチャートに従っ
て、適宜図1〜図6を参照しつつ、制御装置Sによるワ
ーク移載装置WAの制御方法を説明する。尚、図7はか
かる制御のメインルーチンである。
Hereinafter, a method of controlling the work transfer device WA by the control device S will be described with reference to FIGS. 1 to 6 as appropriate according to the flowchart shown in FIG. FIG. 7 shows a main routine of such control.

【0044】図7に示すように、メインルーチンにおい
ては、まずステップS1〜ステップS2で次サイクル動
作の判定、すなわち次サイクル動作がワーク3の移載で
あるかそれとも中間パレット2の移載であるかが判定さ
れ、この判定結果に応じて、ステップS3〜ステップS
12のワーク移載ルーチン又はステップS13〜ステッ
プS20のパレット移載ルーチンのうちいずれか一方が
実行される。この次サイクル動作の判定は、操作盤を介
して作業者から次サイクル動作を実行する命令がなされ
たか否か、或いはカメラ22により中間パレット2上に
ワークが無くなったか否かを判定する。
As shown in FIG. 7, in the main routine, the next cycle operation is determined in steps S1 to S2, that is, the next cycle operation is transfer of the work 3 or transfer of the intermediate pallet 2. Is determined, and according to the determination result, steps S3 to S
One of a work transfer routine of No. 12 and a pallet transfer routine of Steps S13 to S20 is executed. This next cycle operation is determined by determining whether or not an instruction to execute the next cycle operation has been issued from the operator via the operation panel, or whether or not the camera 22 has run out of work on the intermediate pallet 2.

【0045】次サイクル動作がワーク3の移載であると
判定された場合は、まずステップS3で、第1、第2モ
ータ58、59が駆動され、可動フレーム10が縦方向
に所定の距離だけ移動させられ、かつワークアーム連結
部14a(ワークアーム14)が横方向に所定の距離だ
け移動させられ、ワークアーム14(カメラ22)が平
面視における画像読み取り位置に配置される。
If it is determined that the next cycle operation is the transfer of the workpiece 3, first, in step S3, the first and second motors 58 and 59 are driven to move the movable frame 10 by a predetermined distance in the vertical direction. The work arm 14a (work arm 14) is moved in the horizontal direction by a predetermined distance, and the work arm 14 (camera 22) is arranged at the image reading position in plan view.

【0046】ステップS4では、第3モータ60が駆動
され、ワークアーム14が所定の距離だけ下降させら
れ、ワークアーム14(カメラ22)が画像読み取り位
置(高さ)に配置されている。
In step S4, the third motor 60 is driven, the work arm 14 is lowered by a predetermined distance, and the work arm 14 (camera 22) is located at the image reading position (height).

【0047】続いて、ステップS5で、サブルーチンで
ある画像処理ルーチン(図8〜図10参照)が実行さ
れ、移載すべきワーク3の位置姿勢が演算(検出)さ
れ、これに基づいて移載すべきワーク3を的確にクラン
プするためにワークアーム14(ワーククランプ部材2
0)を配置すべき位置が演算され、さらにこれに対応す
るワークアーム14(ワーククランプ部材20)の移動
量、すなわち、第1〜第4モータ58〜61駆動量が演
算される。尚、画像処理ルーチンは後で説明する。
Subsequently, in step S5, an image processing routine (see FIGS. 8 to 10), which is a subroutine, is executed to calculate (detect) the position and orientation of the work 3 to be transferred. The work arm 14 (the work clamp member 2)
The position where 0) is to be arranged is calculated, and the corresponding movement amount of the work arm 14 (work clamp member 20), that is, the first to fourth motor 58 to 61 drive amount is calculated. The image processing routine will be described later.

【0048】ステップS6では、画像処理ルーチンでの
演算結果に基づいて、第1、第2、第4モータ58、5
9、61が駆動され、ワークアーム14は、平面視にお
いて移載すべきワーク3を的確にクランプすることがで
きる位置に配置される。続いて、ステップS7で、第3
モータ60が駆動され、ワークアーム14(ワーククラ
ンプ部材20)は、移載すべきワーク3を的確にクラン
プすることができる位置(高さ)まで下降させられる。
In step S6, the first, second, and fourth motors 58, 5
The work arms 9 and 61 are driven, and the work arm 14 is arranged at a position where the work 3 to be transferred can be accurately clamped in plan view. Subsequently, in step S7, the third
The motor 60 is driven, and the work arm 14 (work clamp member 20) is lowered to a position (height) where the work 3 to be transferred can be accurately clamped.

【0049】ステップS8では、ワーククランプ部材2
0のエアシリンダ37が駆動され、クランプアーム38
によって移載すべきワーク3がクランプ(把持)され
る。続いて、ステップS9で第3モータ60が駆動さ
れ、ワークアーム14が走行位置まで上昇させられる。
In step S8, the work clamp member 2
0 air cylinder 37 is driven, and clamp arm 38
The workpiece 3 to be transferred is clamped (gripped). Subsequently, in step S9, the third motor 60 is driven, and the work arm 14 is raised to the traveling position.

【0050】ステップS10では、第1、第2、第4モ
ータ58、59、61が駆動され、ワーク3をクランプ
したワークアーム14が、平面視において該ワーク3を
搬送コンベア4の所定の位置に移載することができる位
置に移動させられる。次に、ステップS11で、第3モ
ータ60が駆動され、ワークアーム14が、ワーク3を
搬送コンベア4に移載することができる位置(高さ)ま
で下降させられ、続いてステップS12で、エアシリン
ダ37が駆動され、クランプアーム38によるワーク3
のクランプが解除(アンクランプ)され、ワーク3が搬
送コンベア4上に移載される。
In step S10, the first, second, and fourth motors 58, 59, and 61 are driven, and the work arm 14 that has clamped the work 3 moves the work 3 to a predetermined position on the conveyor 4 in plan view. It is moved to a position where it can be transferred. Next, in step S11, the third motor 60 is driven, and the work arm 14 is lowered to a position (height) at which the work 3 can be transferred onto the transport conveyor 4, and subsequently, in step S12, air is supplied. The cylinder 37 is driven, and the work 3
Is released (unclamped), and the work 3 is transferred onto the transport conveyor 4.

【0051】ところで、前記のステップS1〜ステップ
S2で、次サイクル動作が中間パレット2の移載である
と判定された場合は、まずステップS13で第1モータ
58が駆動され、可動フレーム10が縦方向に所定の距
離だけ移動させられ、パレットアーム13が平面視にお
いて移載すべき中間パレット2に対応する位置に配置さ
れる。
If it is determined in steps S1 and S2 that the next cycle operation is transfer of the intermediate pallet 2, the first motor 58 is driven in step S13, and the movable frame 10 is vertically moved. The pallet arm 13 is moved in the direction by a predetermined distance, and the pallet arm 13 is arranged at a position corresponding to the intermediate pallet 2 to be transferred in plan view.

【0052】ステップS14では、第5モータ62が駆
動され、パレットアーム13が所定の距離だけ下降させ
られ、パレットアーム13(パレットクランプ部材1
9)が、移載すべき中間パレット2を的確にクランプす
ることができる位置(高さ)に配置される。
In step S14, the fifth motor 62 is driven, the pallet arm 13 is lowered by a predetermined distance, and the pallet arm 13 (the pallet clamp member 1) is moved.
9) is arranged at a position (height) where the intermediate pallet 2 to be transferred can be clamped accurately.

【0053】ステップS15では、パレットクランプ部
材19によって移載すべき中間パレット2がクランプ
(把持)される。続いて、ステップS16で第5モータ
62が駆動され、パレットアーム13が走行位置まで上
昇させられる。
In step S15, the intermediate pallet 2 to be transferred is clamped (gripped) by the pallet clamp member 19. Subsequently, in step S16, the fifth motor 62 is driven, and the pallet arm 13 is raised to the traveling position.

【0054】ステップS17では、中間パレット2の降
ろし位置の距離データが取り込まれる。すなわち、台車
5の上に段積みされている中間パレット2の枚数が演算
され、この枚数から中間パレット層の高さが演算され、
これに基づいて現在クランプされている中間パレット2
をおろすべき位置(高さ)が演算される。
In step S17, the distance data of the lowering position of the intermediate pallet 2 is fetched. That is, the number of intermediate pallets 2 stacked on the cart 5 is calculated, and the height of the intermediate pallet layer is calculated from this number,
The intermediate pallet 2 currently clamped based on this
Is calculated.

【0055】ステップS18では、第1モータ58が駆
動され、中間パレット2をクランプしたパレットアーム
13が、平面視において該中間パレット2を台車5上の
所定の位置に移載することができる位置に移動させられ
る。次に、ステップS19で第5モータ62が駆動さ
れ、パレットアーム13がステップS17での演算結果
に基づいて、台車5の上の中間パレット層の上端面付近
まで下降させられる。続いてステップS20で、パレッ
トクランプ19による中間パレット2のクランプが解除
(アンクランプ)され、中間パレット2が台車5の上の
中間パレット層の上に移載される。
In step S18, the first motor 58 is driven, and the pallet arm 13 clamping the intermediate pallet 2 is moved to a position where the intermediate pallet 2 can be transferred to a predetermined position on the carriage 5 in plan view. Moved. Next, in step S19, the fifth motor 62 is driven, and the pallet arm 13 is lowered to near the upper end surface of the intermediate pallet layer on the carriage 5 based on the calculation result in step S17. Subsequently, in step S20, the clamp of the intermediate pallet 2 by the pallet clamp 19 is released (unclamped), and the intermediate pallet 2 is transferred onto the intermediate pallet layer on the carriage 5.

【0056】このようにして、ワーク3と中間パレット
2とが、いずれも自動的に所定の位置に移載される。
In this manner, both the work 3 and the intermediate pallet 2 are automatically transferred to predetermined positions.

【0057】[画像処理方法]以下、画像処理方法につ
いて説明する。
[Image Processing Method] The image processing method will be described below.

【0058】この画像処理方法の概要は次の通りであ
る。即ち、所定の2値化閾値でカメラ22によって撮影
された画像を2値化処理し、2値化処理した画像データ
の特徴量(面積、円形状係数等)を抽出して記憶する。
次に、2値化閾値を変更して同様の処理を実行して今回
の特徴量を抽出する。そして、前回の特徴量と今回の特
徴量とを比較し、より基準値に近い方の値を特徴量とし
て採用することにより、ワーク3の位置姿勢を検出する
ようにしている。また、かかる画像処理によってワーク
3の位置姿勢を検出することができなかった場合は、2
値化閾値を変更して再度画像処理を行いワーク3の位置
姿勢を検出する。
The outline of this image processing method is as follows. That is, the image photographed by the camera 22 is binarized with a predetermined binarization threshold, and the feature amount (area, circular shape coefficient, etc.) of the binarized image data is extracted and stored.
Next, the same processing is executed by changing the binarization threshold to extract the current feature amount. Then, the position and orientation of the work 3 are detected by comparing the previous characteristic value with the current characteristic value and adopting a value closer to the reference value as the characteristic value. If the position and orientation of the work 3 cannot be detected by the image processing,
The value threshold is changed and the image processing is performed again to detect the position and orientation of the work 3.

【0059】次に、図12、図14、図15を参照し
て、カメラ22で撮像するワークが4気筒のシリンダブ
ロックのシリンダボアの場合について概略して説明す
る。
Next, with reference to FIGS. 12, 14, and 15, a case in which the workpiece imaged by the camera 22 is a cylinder bore of a cylinder block of four cylinders will be schematically described.

【0060】先ず、シリンダボアは、所定の2値化閾値
でカメラ22によって撮影されて2値化処理される。こ
のとき、図14に示すように、この2値化処理されたボ
ア画像Biの面積が本来のボアBrefの面積の約40%以
上あればボア画像として認識される。或いは、このボア
画像Biのx方向の長さlx、y方向の長さlyが本来
のボアBrefのx方向の長さlx、y方向の長さlyの
約40%以上あればボア画像として認識される。
First, the cylinder bore is photographed by the camera 22 at a predetermined threshold for binarization and binarized. At this time, as shown in FIG. 14, if the area of the binarized bore image Bi is about 40% or more of the area of the original bore Bref, it is recognized as a bore image. Alternatively, the bore image Bi is recognized as a bore image if the length lx and the length ly in the y direction of the bore image Bi are about 40% or more of the length lx in the x direction and the length ly of the original bore Bref in the y direction. Is done.

【0061】次に、図12に示すように、上述のボア認
識で、4気筒のシリンダボアの中で、前回の画像処理で
3つのボア画像m1、m2、m3が検出され、今回の画
像処理で3つのボア画像n1、n2、n3が検出された
とすると、画像m1〜m3、n1〜n3の特徴量を抽出
し、前回の画像m1〜m3の特徴量と今回の画像n1〜
n3の特徴量とを全ての組合せについて比較し、前回の
画像と今回の画像が所定条件を満たす場合には前回の画
像と今回の画像とを合成して4気筒分の画像m1、n
2、n3、m3を得る。画像の合成では、例えば、前回
の画像と今回の画像との重心間隔が所定基準値より小さ
い組合せを抽出し、更に前回の画像と今回の画像のx方
向の長さ及びy方向の長さに関して所定基準値との差を
とりその差が小さい方の値を特徴量とすることで、前回
の画像の特徴量が採用される場合にはそのまま画像デー
タが記憶され(画像m1)、今回の画像の特徴量が採用
される場合には前回の画像データが今回の画像データに
更新され(画像n3)、更に組合せが不可能な画像は新
たな画像データとして追加される(画像n2、m3)。
Next, as shown in FIG. 12, three bore images m1, m2, and m3 are detected in the previous image processing in the cylinder bores of the four cylinders by the above-described bore recognition, and in the current image processing. Assuming that three bore images n1, n2, and n3 are detected, the feature amounts of the images m1 to m3 and n1 to n3 are extracted, and the feature amounts of the previous images m1 to m3 and the current image n1 to n3 are extracted.
The feature amount of n3 is compared for all combinations, and when the previous image and the current image satisfy a predetermined condition, the previous image and the current image are combined to generate images m1 and n for four cylinders.
2, n3 and m3 are obtained. In the image synthesis, for example, a combination in which the center of gravity interval between the previous image and the current image is smaller than a predetermined reference value is extracted, and further, the length of the previous image and the current image in the x direction and the length in the y direction are extracted. By taking the difference from the predetermined reference value and taking the value of the smaller difference as the feature amount, if the feature amount of the previous image is adopted, the image data is stored as it is (image m1), and the current image When the feature amount is adopted, the previous image data is updated to the current image data (image n3), and images that cannot be combined are added as new image data (images n2 and m3).

【0062】そして、図14に示す画像処理にて、ボア
画像B1〜B4が取り込まれたとすると、図15に示す
ように、各ボア画像B1〜B4の重心間距離f1、f
2、f3の距離が所定基準値(例えば、本来のボアBre
fの重心間距離の約80%の値)以内であり、且つ各ボ
ア画像B1〜B4の重心を結ぶ直線g1−g2、g2−
g3、g3−g4の成す角度が所定基準角度以内であれ
ばボア画像B1〜B4はワーク単体の4つのボアとして
認識される。
If the bore images B1 to B4 are captured by the image processing shown in FIG. 14, the distances f1, f between the centers of gravity of the bore images B1 to B4 are obtained as shown in FIG.
2 and f3 are equal to a predetermined reference value (for example, the original bore Bre
straight lines g1-g2, g2- connecting the centers of gravity of the respective bore images B1 to B4.
If the angles formed by g3 and g3-g4 are within a predetermined reference angle, the bore images B1 to B4 are recognized as four bores of the workpiece alone.

【0063】最後に、各ボア画像B1〜B4の重心デー
タg1〜g4からワーク3の中心位置を演算し、両側の
ボアB1、B4にワーククランプ部材20、中央の2つ
のボアB2、B3に当接部材36を挿入してワークを把
持する。ここで、各ボア画像B1〜B4の重心データg
1〜g4が本来の重心位置からずれていれば、ワークの
中心位置も本来の位置からずれてしまうが、ワーク3を
クランプする際には本体部32がそのずれ量を吸収する
ので、クランプアーム38は該ワーク3を確実にクラン
プすることができるのである。
Finally, the center position of the work 3 is calculated from the center of gravity data g1 to g4 of each of the bore images B1 to B4, and the work clamp member 20 is applied to the bores B1 and B4 on both sides, and the center two bores B2 and B3 are applied. The workpiece is gripped by inserting the contact member 36. Here, the center of gravity data g of each of the bore images B1 to B4
If 1 to g4 deviate from the original position of the center of gravity, the center position of the work will also deviate from the original position. However, when the work 3 is clamped, the main body 32 absorbs the deviation amount. Numeral 38 can reliably clamp the work 3.

【0064】具体的には、図8に示すように、まずステ
ップS30で所定の2値化閾値を設定する。次に、ステ
ップS31では前回の画像処理で設定された2値化閾値
を変更する。ステップS32では、カメラ22により撮
像した画像を所定の閾値で2値化処理を実行し、ステッ
プS34では2値化処理された画像から2値画像ノイズ
が除去されてラベリング処理が実行されて画像データを
生成する。ステップS36では、画像データから所定の
特徴量が抽出される。ここで、2値化処理は、カメラ2
2によって撮影された多値画像を、所定の閾値よりも明
るい画素を白とし、該閾値よりも暗い画素を黒とすると
いった普通の手法で行われる。尚、かかる2値化処理或
いはその他の画像処理を、特定の波長の光を選択して行
うようにしてもよい。また、ラベリングは、まず1つの
黒い画素にあるラベル(例えばAとする)をつけ、この
画素と隣合う画素が黒である場合にはこの画素にもラベ
ルAをつけ、さらにすでにラベルAがつけられた画素と
隣合う画素が黒である場合にはこれらの画素にもすべて
ラベルAをつけるといった手法を繰り返し、かかるラベ
ルつけが収束した時点で、ラベルAがつけられた黒い画
素の集団を1つの形状部の画像として認識するといった
普通の手法で行われる。尚、形状部とは、ワーク3の構
成部分であって、所定の簡素な形状(例えば円)を有
し、2値化処理により孤立した黒い画素の集団として認
識することが可能なものである。例えば、ワーク3がシ
リンダブロックである場合は、シリンダポアが代表的な
形状部となる。
Specifically, as shown in FIG. 8, first, at step S30, a predetermined binarization threshold is set. Next, in step S31, the binarization threshold set in the previous image processing is changed. In step S32, the image captured by the camera 22 is subjected to a binarization process at a predetermined threshold, and in step S34, the binarized image is subjected to binarization image removal to perform a labeling process to perform image data processing. Generate In step S36, a predetermined feature amount is extracted from the image data. Here, the binarization processing is performed by the camera 2
The multi-valued image captured by the method 2 is performed by an ordinary method such that pixels brighter than a predetermined threshold are set to white and pixels darker than the threshold are set to black. Note that such binarization processing or other image processing may be performed by selecting light of a specific wavelength. Labeling is performed by first attaching a label (for example, A) to one black pixel. If a pixel adjacent to this pixel is black, the pixel is also labeled A, and the label A is already attached. When pixels adjacent to the assigned pixel are black, the method of attaching a label A to all these pixels is repeated, and when the labeling converges, a group of black pixels assigned the label A is set to 1 It is performed by an ordinary method such as recognizing the image as one shape part image. The shape portion is a component of the work 3 and has a predetermined simple shape (for example, a circle) and can be recognized as a group of isolated black pixels by binarization processing. . For example, when the work 3 is a cylinder block, the cylinder pore is a typical shape portion.

【0065】ステップS36で抽出される特徴量は、図
11に示すように、例えば、以下の値が適用される。
As shown in FIG. 11, for example, the following values are applied to the feature values extracted in step S36.

【0066】(1)各形状部の面積S (2)各形状部の周長R (3)各形状部の円形状係数(面積と周長の比)S/R (4)隣接する2つの形状部の重心(中心)gの間隔d (5)各形状部のx方向の長さlx、y方向の長さly (6)ある隣接する2つの形状部の重心g同士を結ぶ直
線と、他の隣接する2つの形状部の重心同士を結ぶ直線
とがはさむ角度 続いて、ステップS38では、前回の形状部miの特徴
量と今回抽出された形状部njの特徴量を比較して各形
状部になる可能性がある候補を抽出する(ステップS3
8での詳細な処理は図9で後述する)。その後、ステッ
プS40では各形状部のグループ化処理が行われる。こ
のグループ化処理では、図13に示すように、1つの形
状部miが2つの画像データi1、i2を有する場合に
これら2つの部分が1つにグループ化すべき画像データ
として判定される。
(1) Area S of each shape part (2) Perimeter R of each shape part (3) Circular shape coefficient (ratio of area to circumference) S / R of each shape part (4) Two adjacent two A distance d between the centers of gravity (centers) g of the shape parts d (5) a length lx in the x direction of each shape part and a length ly in the y direction (6) a straight line connecting the centers of gravity g of two adjacent shape parts; Angle between a straight line connecting the centers of gravity of the other two adjacent shape portions. Next, in step S38, the feature amount of the previous shape portion mi and the feature amount of the shape portion nj extracted this time are compared, and each shape is compared. (Step S3)
8 will be described later with reference to FIG. 9). After that, in step S40, a grouping process of each shape part is performed. In this grouping process, as shown in FIG. 13, when one shape part mi has two image data i1 and i2, these two parts are determined as image data to be grouped into one.

【0067】ステップS42では、ステップS40でグ
ループ化された画像データを結合して一体化する結合処
理を実行する。この結合処理では、グループ化された画
像データを拡大して2つの画像データの隙間を埋めた
後、元の縮尺に戻す拡大・縮小処理や、2つの画像デー
タのエッジ部を結合するエッジ処理や、予め決められた
ワークのテンプレートに対応させてマッチングするテン
プレートマッチング処理等が採用される。
In step S42, a combining process for combining and integrating the image data grouped in step S40 is executed. In this combination processing, after enlarging the grouped image data to fill the gap between the two image data, the enlargement / reduction processing for returning to the original scale, edge processing for combining the edge portions of the two image data, For example, a template matching process or the like for matching in correspondence with a predetermined work template is employed.

【0068】ステップS44では、ステップS30〜ス
テップS34と同様の処理を行なって、グループ化処理
及び結合処理が施された画像データから所定の特徴量が
抽出される。ステップS46では、結合処理後の前回の
形状部piの特徴量と今回抽出された形状部qjの特徴
量を比較して各形状部を検出する(ステップS46の詳
細な処理は図10で後述する)。ステップS48では、
ステップS46で検出された形状部の特徴量から、図1
5で説明したように、各ボア画像データの重心間距離や
各ボア画像データの重心を結ぶ直線の成す角度が検出さ
れる。ステップS50では、ステップS48で検出され
たワーク3の画像データが予め決定された所定基準値
(例えば、図15に示す本来のボアBrefの重心間距離
の約80%の値)以内であるか否かを判定する。ステッ
プS50で所定基準値以内の場合(ステップS50でY
es)、ボア画像データはワーク単体の4つのボアとし
て認識され、図7のステップS6に進み、所定基準値以
内でない場合(ステップS50でNo)、2値化処理が
適切に行われていないものと考えられるので、ステップ
S31に進んで2値化閾値を変更して再度ステップS3
2から処理が実行される。
In step S44, the same processing as in steps S30 to S34 is performed, and a predetermined feature amount is extracted from the image data on which the grouping processing and the combining processing have been performed. In step S46, each feature is detected by comparing the feature of the previous shape pi after the combining process with the feature of the shape qj extracted this time (detailed processing of step S46 will be described later with reference to FIG. 10). ). In step S48,
From the feature amount of the shape part detected in step S46, FIG.
As described in 5, the distance between the centers of gravity of the bore image data and the angle formed by the straight line connecting the centers of gravity of the bore image data are detected. In step S50, it is determined whether or not the image data of the work 3 detected in step S48 is within a predetermined reference value (for example, a value of about 80% of the original distance between the centers of gravity of the bores Bref shown in FIG. 15). Is determined. If it is within the predetermined reference value in step S50 (Y in step S50)
es) If the bore image data is recognized as four bores of the workpiece alone, the process proceeds to step S6 in FIG. 7, and if the bore image data is not within the predetermined reference value (No in step S50), the binarization process is not properly performed. Therefore, the process proceeds to step S31, the binarization threshold is changed, and step S3 is performed again.
The processing is executed from step 2.

【0069】<形状部候補抽出処理>次に、図8のステ
ップS38で説明した形状部候補抽出処理について詳細
に説明する。
<Shape Part Candidate Extraction Processing> Next, the shape part candidate extraction processing described in step S38 of FIG. 8 will be described in detail.

【0070】この形状部候補抽出処理では、形状部をラ
フに検出して形状部である可能性が高い候補を抽出す
る。
In this shape part candidate extraction processing, a shape part is roughly detected, and a candidate having a high possibility of being a shape part is extracted.

【0071】図9に示すように、ステップS60では、
前回の形状部miの特徴量と今回の形状部njの特徴量
から各形状部の重心の間隔dを演算する。重心の間隔d
は、下記の式1から算出される。但し、「↑」は乗数を
表わし、iは前回までの累積検出数、jは今回の検出数
を表している。
As shown in FIG. 9, in step S60,
The distance d between the centers of gravity of the respective shape portions is calculated from the feature amount of the previous shape portion mi and the feature amount of the current shape portion nj. Center of gravity distance d
Is calculated from Equation 1 below. Here, “↑” represents a multiplier, i represents the cumulative detection number up to the previous time, and j represents the current detection number.

【0072】 d=(gxn[j]−gxm[i])↑2+(gyn[j]−gym[i]) ↑2…(1) 但し、gxnj:今回抽出した重心のx座標データ gynj:今回抽出した重心のy座標データ gxmi:前回抽出した重心のx座標データ gymi:前回抽出した重心のy座標データ 続いて、ステップS62では、重心間隔dが所定値d0
より小さいが否かを判定する。ここで、所定値d0は、
例えば、形状部がシリンダボアの場合、そのボア半径と
する。ステップS62で重心間隔dが所定値d0より小
さい場合(ステップS62でYes)、ステップS64
に進み、ステップS62で重心間隔dが所定値d0以上
の場合(ステップS62でNo)、後述するステップS
80に進む。
D = (gxn [j] −gxm [i]) ↑ 2 + (gyn [j] −gym [i]) ↑ 2 (1) where gxnj: x-coordinate data of the centroid extracted this time gynj: this time The extracted y-coordinate data of the center of gravity gxmi: the x-coordinate data of the previously extracted center of gravity gymi: the y-coordinate data of the previously extracted center of gravity Next, in step S62, the center-of-gravity interval d is set to a predetermined value d0
It is determined whether or not it is smaller. Here, the predetermined value d0 is
For example, when the shape portion is a cylinder bore, the bore radius is used. If the center-of-gravity interval d is smaller than the predetermined value d0 in step S62 (Yes in step S62), step S64
If the center distance d is equal to or greater than the predetermined value d0 in step S62 (No in step S62),
Go to 80.

【0073】ステップS64では、前回の形状部miの
特徴量から各形状部のx方向の長さlxmiと所定の第
1の基準値X1との差の絶対値と、y方向の長さlym
iと所定の第1の基準値Y1との差の絶対値の和lmi
を演算する。和lmiは、下記の式2から算出される。
In step S64, the absolute value of the difference between the length lxmi in the x direction of each shape portion and a predetermined first reference value X1 from the feature value of the last shape portion mi, and the length lym in the y direction
sum lmi of the absolute value of the difference between i and a predetermined first reference value Y1
Is calculated. The sum lmi is calculated from Equation 2 below.

【0074】 lmi=|lxm[i]−X1|+|lym[i]−Y1|…(2) 但し、lxmi:前回抽出したx方向の長さ lymi:前回抽出したy方向の長さ ステップS66では、今回の形状部njの特徴量から各
形状部のx方向の長さlxnjと所定基準値X1との差
の絶対値と、y方向の長さlynjと所定基準値Y1と
の差の絶対値の和lnjを演算する。和lnjは、下記
の式3から算出される。
Lmi = | lxm [i] −X1 | + | lym [i] −Y1 | (2) where lxmi: the length of the previously extracted x direction lymi: the length of the previously extracted y direction Step S66 Then, the absolute value of the difference between the length lxnj in the x direction of each shape portion and the predetermined reference value X1 and the absolute value of the difference between the length lynj in the y direction and the predetermined reference value Y1 are calculated from the feature amount of the current shape portion nj. The sum lnj of the values is calculated. The sum Inj is calculated from the following Equation 3.

【0075】 lnj=|lxn[j]−X1|+|lyn[j]−Y1|…(3) 但し、lxnj:今回抽出したx方向の長さ lynj:今回抽出したy方向の長さ ステップS68では、今回のx、y方向の差の和lnj
が前回のx、y方向の差の和lmiより小さいが否かを
判定する。ステップS68で今回の値が前回の値より小
さい場合(ステップS68でYes)、ステップS70
に進み、ステップS68で今回の値が前回の値以上の場
合(ステップS68でNo)、後述するステップS72
にに進む。
Lnj = | lxn [j] -X1 | + | lyn [j] -Y1 | (3) where lxnj: the length of the currently extracted x direction lynj: the length of the currently extracted y direction Step S68 Then, the sum lnj of the difference in the x and y directions this time
Is smaller than the previous sum lmi of the difference in the x and y directions. If the current value is smaller than the previous value in step S68 (Yes in step S68), step S70
If the current value is equal to or greater than the previous value in step S68 (No in step S68), the process proceeds to step S72 described below.
Proceed to.

【0076】ステップS70では、前回抽出された特徴
量を今回抽出された特徴量に更新する。ステップS72
では、前回抽出された形状部の検出数iを1つディクリ
メントして、ステップS74で検出数iがゼロになるま
でステップS64からの処理が繰り返し行われる。即
ち、検出数iがゼロになると、前回抽出された形状部
(m1、m2、・・・mi)の全てについてステップS
64からの処理が実行されたことになる。
In step S70, the feature quantity extracted last time is updated to the feature quantity extracted this time. Step S72
Then, the detection number i of the previously extracted shape portion is decremented by one, and the processing from step S64 is repeated until the detection number i becomes zero in step S74. That is, when the number of detections i becomes zero, step S is performed for all of the previously extracted shape parts (m1, m2,..., Mi).
This means that the processing from step 64 has been executed.

【0077】次に、ステップS76では、今回抽出され
た形状部の検出数jを1つディクリメントして、ステッ
プS78で検出数jがゼロになるまでステップS64か
らの処理が繰り返し行われる。即ち、検出数jがゼロに
なると、今回抽出された形状部(n1、n2、・・・n
j)の全てについてステップS64からの処理が実行さ
れたことになる。そして、ステップS78で検出数jが
ゼロになると(ステップS78でYes)、図8に示す
ステップS40に進み、各形状部がグループ化処理が実
行される。
Next, in step S76, the detected number j of the shape part extracted this time is decremented by one, and the processing from step S64 is repeated until the detected number j becomes zero in step S78. That is, when the number of detections j becomes zero, the shape parts (n1, n2,.
The processing from step S64 has been executed for all of j). Then, when the number j of detections becomes zero in step S78 (Yes in step S78), the process proceeds to step S40 shown in FIG. 8, and each shape part is subjected to a grouping process.

【0078】ステップS80では、今回抽出された特徴
量を新たな形状部の特徴量として追加し、ステップS8
2で前回検出数iに1加算した後、ステップS72に進
む。
In step S80, the feature quantity extracted this time is added as a feature quantity of a new shape portion, and step S8
After adding 1 to the previous detection number i in 2, the process proceeds to step S72.

【0079】<形状部検出処理>次に、図8のステップ
S38で説明した形状部候補抽出処理について詳細に説
明する。
<Shape Part Detection Processing> Next, the shape part candidate extraction processing described in step S38 of FIG. 8 will be described in detail.

【0080】この形状部検出処理では、形状部候補抽出
処理にてラフに検出された形状部候補を更に正確な基準
値と比較することによりワークの位置姿勢検出に用いら
れる形状部の画像データを検出する。
In the shape part detection processing, the shape part image data used for detecting the position and orientation of the work is compared by comparing the shape part candidates roughly detected in the shape part candidate extraction processing with more accurate reference values. To detect.

【0081】図10に示すように、ステップS84で
は、前回の形状部piの特徴量と今回の形状部qjの特
徴量から各形状部の重心の間隔eを演算する。重心の間
隔eは、上記式1から算出される。
As shown in FIG. 10, in step S84, the distance e between the centers of gravity of the respective shape portions is calculated from the feature amount of the previous shape portion pi and the feature amount of the current shape portion qj. The center-of-gravity interval e is calculated from Equation 1 above.

【0082】続いて、ステップS86では、重心間隔e
が所定値e0より小さいが否かを判定する。ここで、所
定値e0は、ステップS62の重心間隔dより小さな値
とする(e0<d0)。ステップS86で重心間隔eが
所定値e0より小さい場合(ステップS86でYe
s)、ステップS88に進み、ステップS86で重心間
隔eが所定値e0以上の場合(ステップS86でN
o)、後述するステップS104に進む。
Subsequently, in step S86, the center of gravity e
Is smaller than a predetermined value e0. Here, the predetermined value e0 is a value smaller than the center-of-gravity interval d in step S62 (e0 <d0). When the center-of-gravity interval e is smaller than the predetermined value e0 in step S86 (Ye in step S86)
s), the process proceeds to step S88, and if the center-of-gravity interval e is equal to or larger than the predetermined value e0 in step S86 (N in step S86)
o), and proceed to step S104 described later.

【0083】ステップS88では、前回の形状部piの
特徴量から各形状部のx方向の長さlxpiと所定の第
2の基準値X2との差の絶対値と、y方向の長さlyp
iと所定の第2の基準値Y2との差の絶対値の和lpi
を演算する。和lpiは、上記式2から算出される。
In step S88, the absolute value of the difference between the length lxpi in the x direction of each shape portion and a predetermined second reference value X2 from the feature value of the previous shape portion pi, and the length lyp in the y direction
sum lpi of the absolute value of the difference between i and a predetermined second reference value Y2
Is calculated. The sum lpi is calculated from the above equation (2).

【0084】ステップS90では、今回の形状部qjの
特徴量から各形状部のx方向の長さlxqjと所定基準
値X2との差の絶対値と、y方向の長さlyqjと所定
基準値Y2との差の絶対値の和lqjを演算する。和l
qjは、上記式3から算出される。ここで、所定の第2
の基準値X2は、ステップS64及びステップS66で
用いた第1の基準値X1より小さい値とし(X2<X
1)、前回の特徴量と今回の特徴量の誤差をより正確に
検出できるように設定される。
In step S90, the absolute value of the difference between the length lxqj in the x direction of each shape portion and the predetermined reference value X2, the length lyqj in the y direction and the predetermined reference value Y2 And the sum lqj of the absolute values of the differences from Sum l
qj is calculated from Equation 3 above. Here, a predetermined second
Is smaller than the first reference value X1 used in steps S64 and S66 (X2 <X
1) It is set so that the error between the previous feature and the current feature can be detected more accurately.

【0085】ステップS92では、今回のx、y方向の
差の和lqjが前回のx、y方向の差の和lpiより小
さいが否かを判定する。ステップS92で今回の値が前
回の値より小さい場合(ステップS92でYes)、ス
テップS94に進み、ステップS92で今回の値が前回
の値以上の場合(ステップS92でNo)、後述するス
テップS96に進む。
In step S92, it is determined whether or not the current sum lqj of the differences in the x and y directions is smaller than the previous sum lpi of the differences in the x and y directions. If the current value is smaller than the previous value in step S92 (Yes in step S92), the process proceeds to step S94. If the current value is equal to or more than the previous value in step S92 (No in step S92), the process proceeds to step S96 described later. move on.

【0086】ステップS94では、前回抽出された特徴
量を今回抽出された特徴量に更新する。ステップS96
では、前回抽出された形状部の検出数iを1つディクリ
メントして、ステップS98で検出数iがゼロになるま
でステップS88からの処理が繰り返し行われる。即
ち、検出数iがゼロになると、前回抽出された形状部
(p1、p2、・・・pi)の全てについてステップS
88からの処理が実行されたことになる。
In step S94, the previously extracted feature quantity is updated to the currently extracted feature quantity. Step S96
Then, the detection number i of the previously extracted shape portion is decremented by one, and the processing from step S88 is repeated until the detection number i becomes zero in step S98. That is, when the number of detections i becomes zero, step S is performed for all of the previously extracted shape parts (p1, p2,... Pi).
This means that the processing from step 88 has been executed.

【0087】次に、ステップS100では、今回抽出さ
れた形状部の検出数jを1つディクリメントして、ステ
ップS102で検出数jがゼロになるまでステップS8
8からの処理が繰り返し行われる。即ち、検出数jがゼ
ロになると、今回抽出された形状部(q1、q2、・・
・qj)の全てについてステップS88からの処理が実
行されたことになる。そして、ステップS102で検出
数jがゼロになると(ステップS102でYes)、図
8に示すステップS48に進み、形状部候補抽出処理に
てラフに検出された形状部候補からワークの位置姿勢検
出に用いられる形状部の画像データを検出する。
Next, in step S100, the detected number j of the shape part extracted this time is decremented by one, and in step S102, until the detected number j becomes zero in step S8.
The processing from step 8 is repeated. That is, when the number of detections j becomes zero, the shape parts (q1, q2,...
The processing from step S88 is executed for all of qj). Then, when the number of detections j becomes zero in step S102 (Yes in step S102), the process proceeds to step S48 shown in FIG. 8, and the position and orientation of the workpiece are detected from the shape part candidates roughly detected in the shape part candidate extraction processing. The image data of the used shape part is detected.

【0088】ステップS104では、今回抽出された特
徴量qjを新たな形状部の特徴量として追加し、ステッ
プS82で前回検出数iに1加算した後、ステップS1
06に進む。
In step S104, the feature quantity qj extracted this time is added as a feature quantity of a new shape portion. In step S82, 1 is added to the number of detections i in the previous time.
Proceed to 06.

【0089】かかる画像処理によれば、カメラ22によ
って撮影された画像中から所定の第1の基準値に基づい
て、形状部をラフに検出して形状部である可能性が高い
候補を抽出し、更に、第1の基準値よりも正確な所定の
第2の基準値に基づいて、形状部候補抽出処理にてラフ
に検出された形状部候補からワークの位置姿勢検出に用
いられる形状部の画像データを検出するので、複数のワ
ーク3が含まれている場合でも、移載すべきワーク3に
属する形状部を選定することができ、このように選定さ
れた形状部の特徴量から、該ワーク3の重心位置、即ち
ワーク3の位置姿勢を正確に検出することができ、該ワ
ーク3を的確にクランプすることができる。
According to this image processing, a shape portion is roughly detected from an image captured by the camera 22 based on a predetermined first reference value, and a candidate having a high possibility of being a shape portion is extracted. Further, based on a predetermined second reference value that is more accurate than the first reference value, the shape part used for detecting the position and orientation of the workpiece from the shape part candidate roughly detected in the shape part candidate extraction process. Since image data is detected, even when a plurality of works 3 are included, a shape part belonging to the work 3 to be transferred can be selected. The position of the center of gravity of the work 3, that is, the position and orientation of the work 3 can be accurately detected, and the work 3 can be accurately clamped.

【0090】また、日光や照明の輝度の加減やボア内部
にパレットの映り込み等の外部環境が変化した場合でも
ワークの画像認識を正確に実行でき、移載すべきワーク
3の位置姿勢を正確に検出することができる。
Further, even when the external environment changes, such as adjustment of the brightness of sunlight or illumination or the reflection of a pallet in the bore, image recognition of the work can be executed accurately, and the position and orientation of the work 3 to be transferred can be accurately determined. Can be detected.

【0091】尚、本発明は、その趣旨を逸脱しない範囲
で上記実施形態を修正又は変更したものに適用可能であ
る。
The present invention can be applied to a modification or change of the above embodiment without departing from the spirit thereof.

【0092】[0092]

【発明の効果】以上のように、本発明によれば、第1の
閾値で2値化処理した第1の画像データから被写体の第
1の特徴データを抽出し、第2の閾値で2値化処理した
第2の画像データから被写体の第2の特徴データを抽出
し、第1の特徴データと第2の特徴データとを合成し
て、被写体の画像データを抽出することにより、日光や
照明の輝度の加減やボア内部にパレットの映り込み等の
外部環境の変化によらず被写体の画像認識を確実に行な
える。
As described above, according to the present invention, the first feature data of a subject is extracted from the first image data binarized by the first threshold, and the binary data is extracted by the second threshold. The second feature data of the subject is extracted from the second image data subjected to the conversion processing, and the first feature data and the second feature data are combined to extract the image data of the subject. The image recognition of the object can be reliably performed regardless of changes in the external environment such as the adjustment of the brightness of the image and the reflection of the palette inside the bore.

【0093】[0093]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態に係るワーク移載装置の外観
斜視図である。
FIG. 1 is an external perspective view of a work transfer device according to an embodiment of the present invention.

【図2】本発明の実施形態に係るワーク移載装置のパレ
ットアーム及びワークアームを示す図である。
FIG. 2 is a view showing a pallet arm and a work arm of the work transfer device according to the embodiment of the present invention.

【図3】本発明の実施形態に係るワーククランプ部材の
正面図である。
FIG. 3 is a front view of a work clamp member according to the embodiment of the present invention.

【図4】図3に示すワーククランプ部材の側面図であ
る。
FIG. 4 is a side view of the work clamp member shown in FIG. 3;

【図5】ボールジョイントの断面図である。FIG. 5 is a sectional view of a ball joint.

【図6】ワーク移載装置の制御装置のシステムブロック
図である。
FIG. 6 is a system block diagram of a control device of the work transfer device.

【図7】ワーク移載装置のメイン制御を示すフローチャ
ートである。
FIG. 7 is a flowchart showing main control of the work transfer device.

【図8】画像処理のメイン制御を示すフローチャートで
ある。
FIG. 8 is a flowchart illustrating main control of image processing.

【図9】画像処理におけるサブルーチン制御を示すフロ
ーチャートである。
FIG. 9 is a flowchart illustrating subroutine control in image processing.

【図10】画像処理におけるサブルーチン制御を示すフ
ローチャートである。
FIG. 10 is a flowchart illustrating subroutine control in image processing.

【図11】画像処理された形状部の特徴量を説明する図
である。
FIG. 11 is a diagram illustrating a feature amount of a shape portion that has been subjected to image processing.

【図12】本実施形態に係る画像処理方法を説明する図
である。
FIG. 12 is a diagram illustrating an image processing method according to the embodiment.

【図13】本実施形態に係る画像処理方法を説明する図
である。
FIG. 13 is a diagram illustrating an image processing method according to the embodiment.

【図14】本実施形態に係る画像処理方法を説明する図
である。
FIG. 14 is a diagram illustrating an image processing method according to the embodiment.

【図15】本実施形態に係る画像処理方法を説明する図
である。
FIG. 15 is a diagram illustrating an image processing method according to the embodiment.

【図16】従来技術の画像処理における問題点を説明す
る図である。
FIG. 16 is a diagram illustrating a problem in image processing of the related art.

【符号の説明】[Explanation of symbols]

WA…ワーク移載装置 S…制御装置 2…中間パレット 3…ワーク 20…ワーククランプ部材 22…画像処理用カメラ 48…画像処理装置 51…第1制御ユニット 52…第2制御ユニット WA Work transfer device S Control device 2 Intermediate pallet 3 Work 20 Work clamp member 22 Image processing camera 48 Image processing device 51 First control unit 52 Second control unit

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 被写体を撮像し、所定閾値にて2値化処
理して画像認識する画像処理方法において、 第1の閾値で2値化処理した第1の画像データから前記
被写体の第1の特徴データを抽出し、 第2の閾値で2値化処理した第2の画像データから前記
被写体の第2の特徴データを抽出し、 前記第1の特徴データと第2の特徴データとを合成し
て、前記被写体の画像データを抽出することを特徴とす
る画像処理方法。
1. An image processing method for capturing an image of a subject, binarizing the image with a predetermined threshold value, and recognizing the image, comprising the steps of: Extracting characteristic data, extracting second characteristic data of the subject from the second image data binarized by a second threshold, and synthesizing the first characteristic data and the second characteristic data And extracting image data of the subject.
【請求項2】 前記第1及び第2の特徴データは、前記
所定閾値を変更した後、所定基準値に基づいて抽出され
ることを特徴とする請求項1に記載の画像処理方法。
2. The image processing method according to claim 1, wherein the first and second feature data are extracted based on a predetermined reference value after changing the predetermined threshold value.
【請求項3】 前記被写体は、自動車のエンジンのシリ
ンダボアであることを特徴とする請求項1に記載の画像
処理方法。
3. The image processing method according to claim 1, wherein the subject is a cylinder bore of an automobile engine.
【請求項4】 前記被写体の画像データから2値化ノイ
ズを除去し、該画像データのエッジ部を連続させること
を特徴とする請求項1に記載の画像処理方法。
4. The image processing method according to claim 1, wherein binarized noise is removed from the image data of the subject, and edge portions of the image data are made continuous.
【請求項5】 前記2値化ノイズを除去する際に、前記
被写体の画像データを所定基準値に基づいてグループ化
することを特徴とする請求項4に記載の画像処理方法。
5. The image processing method according to claim 4, wherein the image data of the subject is grouped based on a predetermined reference value when the binarization noise is removed.
【請求項6】 前記グループ化された画像データは拡大
されてエッジ部が連続された後、元の縮尺に戻されるこ
とを特徴とする請求項5に記載の画像処理方法。
6. The image processing method according to claim 5, wherein the grouped image data is restored to its original scale after the edge portion is continued after being enlarged.
【請求項7】 前記画像データは、前記被写体のテンプ
レートに基づいてマッチング処理されることを特徴とす
る請求項1に記載の画像処理方法。
7. The image processing method according to claim 1, wherein the image data is subjected to a matching process based on a template of the subject.
【請求項8】 前記被写体は、自動車のエンジンのシリ
ンダボアであることを特徴とする請求項5乃至請求項7
のいずれかに記載の画像処理方法。
8. The vehicle according to claim 5, wherein the subject is a cylinder bore of an automobile engine.
The image processing method according to any one of the above.
【請求項9】 前記所定基準値は、被写体の本来の特徴
データに対応する数値データであることを特徴とする請
求項2に記載の画像処理方法。
9. The image processing method according to claim 2, wherein the predetermined reference value is numerical data corresponding to original characteristic data of the subject.
【請求項10】 前記第1及び第2の特徴データは、被
写体の画像認識可能な形状部分であることを特徴とする
請求項2に記載の画像処理方法。
10. The image processing method according to claim 2, wherein the first and second feature data are a shape portion of an image of a subject that can be recognized.
【請求項11】被写体を撮像し、所定閾値にて2値化処
理して画像認識する画像処理方法において、 第1の閾値で2値化処理した第1の画像データから前記
被写体の第1の特徴データを抽出し、 第2の閾値で2値化処理した第2の画像データから前記
被写体の第2の特徴データを抽出し、 前記第1の特徴データと第2の特徴データとを合成し
て、前記被写体の画像データを抽出し、 前記被写体の画像データから、該被写体の所定部位の相
対的な位置関係を検出し、 前記位置関係に基づいて前記被写体の位置姿勢を検出す
ることを特徴とする画像処理方法。
11. An image processing method for capturing an image of a subject, binarizing the image with a predetermined threshold, and recognizing the image, comprising: Extracting characteristic data, extracting second characteristic data of the subject from the second image data binarized by a second threshold, and synthesizing the first characteristic data and the second characteristic data Extracting image data of the subject, detecting a relative positional relationship of a predetermined portion of the subject from the image data of the subject, and detecting a position and orientation of the subject based on the positional relationship. Image processing method.
【請求項12】 パレット上の複数のワークを、ワーク
把持部材で所定の位置に移載するワーク移載装置の制御
方法であって、 所定閾値にて移載すべきワークを撮像し、 第1の閾値で2値化処理した第1の画像データから前記
ワークの第1の特徴データを抽出し、 第2の閾値で2値化処理した第2の画像データから前記
ワークの第2の特徴データを抽出し、 前記第1の特徴データと第2の特徴データとを合成し
て、前記ワークの画像データを抽出し、 前記ワークの画像データから、該ワークの所定部位の相
対的な位置関係を検出し、 前記位置関係に基づいて前記ワークの位置姿勢を検出
し、 前記ワークの位置姿勢に基づいてワーク把持部材の把持
動作を制御することを特徴とするワーク移載装置の制御
方法。
12. A method of controlling a work transfer device for transferring a plurality of works on a pallet to a predetermined position by a work gripping member, wherein the work to be transferred is imaged at a predetermined threshold value. Extracting the first feature data of the work from the first image data binarized by the threshold value, and the second feature data of the work from the second image data binarized by the second threshold value Is extracted, and the first feature data and the second feature data are combined to extract image data of the work. From the image data of the work, a relative positional relationship of a predetermined portion of the work is determined. Detecting the position and orientation of the work based on the positional relationship, and controlling a gripping operation of a workpiece gripping member based on the position and orientation of the work.
【請求項13】 前記ワーク把持部材は、前記ワークの
位置姿勢のズレ量を吸収しつつ、該ワークを把持する位
置ズレ吸収手段を有することを特徴とする請求項12に
記載のワーク移載装置の制御方法。
13. The work transfer device according to claim 12, wherein the work gripping member has a position shift absorbing unit that grips the work while absorbing a shift amount of the position and orientation of the work. Control method.
JP9025581A 1997-02-07 1997-02-07 Method for processing picture and method for controlling work transfer device Pending JPH10222670A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9025581A JPH10222670A (en) 1997-02-07 1997-02-07 Method for processing picture and method for controlling work transfer device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9025581A JPH10222670A (en) 1997-02-07 1997-02-07 Method for processing picture and method for controlling work transfer device

Publications (1)

Publication Number Publication Date
JPH10222670A true JPH10222670A (en) 1998-08-21

Family

ID=12169894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9025581A Pending JPH10222670A (en) 1997-02-07 1997-02-07 Method for processing picture and method for controlling work transfer device

Country Status (1)

Country Link
JP (1) JPH10222670A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139258A (en) * 2006-12-05 2008-06-19 Meidensha Corp Graphic group image recognition technique
WO2010041374A1 (en) * 2008-10-08 2010-04-15 本田技研工業株式会社 Device for estimating shape of work and method for estimating shape of work

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139258A (en) * 2006-12-05 2008-06-19 Meidensha Corp Graphic group image recognition technique
WO2010041374A1 (en) * 2008-10-08 2010-04-15 本田技研工業株式会社 Device for estimating shape of work and method for estimating shape of work
JP2010091429A (en) * 2008-10-08 2010-04-22 Honda Motor Co Ltd Workpiece shape estimation device
US8611672B2 (en) 2008-10-08 2013-12-17 Honda Motor Co., Ltd. Work piece shape estimation device and work piece shape estimation method

Similar Documents

Publication Publication Date Title
EP2045772B1 (en) Apparatus for picking up objects
JP4911341B2 (en) Article transfer device
CN113771045B (en) Vision-guided high-adaptability positioning and grabbing method for middle frame of right-angle robot mobile phone
JP3849514B2 (en) Article position recognition device
JP3921968B2 (en) Position detection method and position detection apparatus
JPH11333770A (en) Loading position and attitude recognizing device
US20240043227A1 (en) Depalletizer system and controlling method for the same
JP3482938B2 (en) Article position recognition device
JP2855147B2 (en) Unmanned car with visual
JPH07299782A (en) Method and device for image preparation for depalletizing
JPH10222670A (en) Method for processing picture and method for controlling work transfer device
JPH06241719A (en) Article position detection device
JP3390058B2 (en) Work transfer device
JP3596434B2 (en) Article position recognition device
CN116468791A (en) Unstacking positioning method, unstacking positioning device, unstacking positioning system and storage medium
JP4073995B2 (en) Electronic component position detection method
JPH07112383A (en) Position recognizing method for article, transfer control method for article and transfer control device for article
JP2974111B2 (en) Article transfer method
JP2004118467A (en) Member inclination recognizing method, member inclination recognition control program, readable recording medium, and shape recognizing device
JP3715683B2 (en) Image processing apparatus and image processing method therefor
JPH01103850A (en) Device for attracting frame for semiconductor wafer mount
JPH06226668A (en) Article position detecting device
WO2021187003A1 (en) Inspection system, method for displaying inspection method, and display program
JPH08201041A (en) Method for recognizing three-dimensional shape
JP3271689B2 (en) Article position detection device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060807

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061204