JPS61167804A - Visual sensor - Google Patents

Visual sensor

Info

Publication number
JPS61167804A
JPS61167804A JP60007396A JP739685A JPS61167804A JP S61167804 A JPS61167804 A JP S61167804A JP 60007396 A JP60007396 A JP 60007396A JP 739685 A JP739685 A JP 739685A JP S61167804 A JPS61167804 A JP S61167804A
Authority
JP
Japan
Prior art keywords
image
circuit
groove
input circuit
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP60007396A
Other languages
Japanese (ja)
Other versions
JPH0414723B2 (en
Inventor
Toshihiko Kayukawa
粥川 敏彦
Masao Katagiri
片桐 正夫
Masami Niwa
正美 丹羽
Michiharu Asai
浅井 道治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP60007396A priority Critical patent/JPS61167804A/en
Publication of JPS61167804A publication Critical patent/JPS61167804A/en
Publication of JPH0414723B2 publication Critical patent/JPH0414723B2/ja
Granted legal-status Critical Current

Links

Abstract

PURPOSE:To identificate a groove easily and securely by converting an image of an object work into a binarization signal and approximating a line element calculated by outer periphery tracking by using three orthogonal straight lines. CONSTITUTION:The image of the object work 3 is read by a camera 4 at constant intervals and converted into a video signal, which is transmitted to an image input circuit 9. The circuit 9 converts the video signal into binary data, which is transmitted to an image storage circuit 11 after isolated-point removal. Then, the original image, binarization image, etc., are displayed on a monitor television 5. An operator, therefore, sets the kind of the local feature of the work 3, etc., on the screen of the television 5 with a light pen 6 and also indicates an aimed point in the binary image. The indication is made with the light pen 6 to supply a command to the circuit 9 from a central processor 7, and the circuit 9 convert the video signal of the work 3 which is read by the camera 4 into a binarization signal and also removes isolated points to send the resulting signal to an image processing circuit 10, which generates run-length data. The processor 7 tracks the outer periphery of the calculated area to generate a line element table.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は組立、搬送作業等においてワーク形状の識別
および寸法計測等を行なう視覚センサーに関するもので
ある。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a visual sensor for identifying the shape of a workpiece, measuring dimensions, etc. during assembly, transportation work, etc.

〔従来の技術〕[Conventional technology]

最近、ロボットや自動組立機械等、高度な機能を備えた
設備が生産自動化のために導入されているが、対象ワー
クの形状や位置の情報が不足しているためにその変化に
対応できず組立工程等まだ人手に頼らざるを得ない分野
も多い。従って、今後これらの工程を更に自動化して行
くためには視覚センサーが不可欠である。その視覚セン
サーとは、例えばモニター画面内に分離して存在する複
数ワークの面積、外周長、ホール面積1型心からの最大
長、最小長などの特徴データを計測したシ、そのデータ
を用いてティーチング(教示)されたワークのいずれに
該当するワークかを自動的に識別したり、画面内のウィ
ンドウ部分から円、長円、矩形等指定された図形を識別
する機能を備えることが必要とされ実用化が進められて
きた。
Recently, equipment with advanced functions such as robots and automatic assembly machines have been introduced for production automation, but due to the lack of information on the shape and position of the target workpiece, it is difficult to respond to changes There are still many areas, such as manufacturing processes, that still have to rely on human labor. Therefore, visual sensors will be essential in order to further automate these processes in the future. The visual sensor is a sensor that measures characteristic data such as the area, outer circumference, hole area, maximum length from the 1-type center, and minimum length of multiple workpieces that are separated on the monitor screen, and uses that data for teaching. It is necessary to have a function to automatically identify which of the taught works corresponds to the work, and to identify specified shapes such as circles, ellipses, and rectangles from the window part of the screen. has been progressing.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

視覚センサーの機能としては上述の諸認識以外に対象ワ
ークの図形として溝を識別することも必要でその有効な
方式が見当らなかったために組立の自動化に制約が生ず
る等の問題点があつ九。
In addition to the above-mentioned recognition functions, the visual sensor also needs to identify grooves as shapes in the target workpiece, and as no effective method has been found for this purpose, there are problems such as restrictions on automation of assembly.

この発明は、上記の問題点を解決するためになされたも
ので対象ワークの図形のうち溝を互いに直交する3本の
直線で近似させることにより簡便かつ確実に識別できる
視覚センナ−を提供することを目的としている。
The present invention has been made in order to solve the above problems, and provides a visual sensor that can easily and reliably identify grooves in the figure of a target workpiece by approximating them with three straight lines orthogonal to each other. It is an object.

〔問題点を解決するための手段〕 この発明に係る視覚センサーは対象ワークの画像を2値
化し外周トラッキングにて求めたls″gを直交する3
直線で近似することにより図形として溝を認識するもの
である。
[Means for Solving the Problems] The visual sensor according to the present invention binarizes the image of the target workpiece and converts ls″g obtained by outer circumferential tracking into three orthogonal values.
The groove is recognized as a figure by approximating it with a straight line.

〔作 用〕[For production]

この発明においては、対象図形から得られる線素のうち
互いに直交する3本の直線で溝を近似し、円、長円、矩
形等閑じた図形と同じ考え方で溝の形状を認識する。
In this invention, a groove is approximated by three straight lines that are orthogonal to each other among the line elements obtained from the target figure, and the shape of the groove is recognized using the same concept as for empty figures such as circles, ellipses, and rectangles.

〔実施例〕〔Example〕

以下この発明の一実施例を図について説明する。 An embodiment of the present invention will be described below with reference to the drawings.

まず、第1図において、1は視覚センサー制御装置、2
は視覚セ/す制御装置1に計測指令を与える上位コント
ローラ、3は計測の対象となる対象ワーク、4はカメラ
で、前記対象ワーク3の画像を読み込みビデオ信号に変
換する。5はモニターテレビで原画像、2値化画像、認
識結果や各種操作のためのガイダンスが表示される。6
はライトペ/でハードウェアの内部設定及び認識すべき
対象ワークを登録するティーチングモード時のマン  
1マシンインターフエイス用として用いられる。7は中
央処理装置で視覚センサー制御装置1内で命令を解読し
実行する。8は前記中央処理装置Tで実行すべきプログ
ラムやティーチングデータ等を格納する記憶回路、9は
カメラ4から入力されるビデオ信号を2値化画像に変換
しさらに孤立点除去等の前処理を行なう画像入力回路、
10は画像入力回路9から出力される信号をもとにラン
レングスデータを生成する画像処理回路、11は画像入
力回路9からの2値画像を格納したシ認識結果を格納す
る画像記憶回路、12はモニターテレビ5とのモニター
インターフェイス回路、 13ハ5イトペン6とのライ
トペンインターフェイス回路。
First, in FIG. 1, 1 is a visual sensor control device, 2 is a visual sensor control device;
Reference numeral denotes a host controller which gives a measurement command to the visual center control device 1, 3 a target workpiece to be measured, and 4 a camera which reads an image of the target workpiece 3 and converts it into a video signal. 5 is a monitor TV that displays the original image, binarized image, recognition results, and guidance for various operations. 6
is a manual in the teaching mode that registers the internal settings of the hardware and the target work to be recognized using Lightpe/.
1 machine interface. A central processing unit 7 decodes and executes instructions within the visual sensor control device 1. 8 is a storage circuit for storing programs and teaching data to be executed by the central processing unit T; 9 is a storage circuit that converts the video signal input from the camera 4 into a binary image, and further performs preprocessing such as removing isolated points; image input circuit,
10 is an image processing circuit that generates run length data based on the signal output from the image input circuit 9; 11 is an image storage circuit that stores the binary image from the image input circuit 9; and 12 is an image storage circuit that stores the recognition result; 13 is a monitor interface circuit with the monitor TV 5, and a light pen interface circuit with the 13-high 5 light pen 6.

14は上位コントローラ2との上位インターフェイス回
路である。
14 is a higher-level interface circuit with the higher-level controller 2;

次にこの発明の動作について説明する。まず、視覚セン
サー制御装置1の動作モードとしては視覚センサー制御
装置1の内部設定及び認識すべき対象ワークを登録する
ティーチングモートド、上位コントローラ2からの指令
により計測を行ない上位コントローラ2に計測結果を報
告するオンラインモードとがおりモニターテレビ5の画
面からライトペ/6にて指示することによシ選択可能で
ある。
Next, the operation of this invention will be explained. First, the operation mode of the visual sensor control device 1 is a teaching mode in which the internal settings of the visual sensor control device 1 and the target work to be recognized are registered, and a teaching mode in which measurements are performed according to commands from the host controller 2 and measurement results are sent to the host controller 2. The online mode for reporting can be selected from the screen of the monitor television 5 by instructing with the LitePe/6.

ティーチングモードにおいては、一定周期で対象ワーク
3の画像をカメラ4で読み取シピデオ信号に変換し画像
入力回路9に伝送する。画像入力回路9では第2図(a
)に示すように設定された2値化レベルによシピデオ信
号を2値化するとともにノイズ等の孤立点除去を行ない
画像記憶回路11に2値化データを伝送する。ここでP
は溝の着目点指示、WLは設定されたウィンドウの範囲
、Dは対象ワークの2値画像を示す。そしてモニターテ
レビ5には画像選択により原画像及び2値化画像等が表
示される。オペレータはモニターテレビ5の画面を見な
がら対象ワーク3のワークNo、2値化レベル、円、長
円、矩形等ローカルフィーチャーの種別、ウィンドウの
設定をモニターテレビ5の画面からライトペン6によシ
行なう。又、モニターテレビ5の画面に表示される2値
画像によ)着目点の指示を行なう。溝の場合には第2図
(−)の如く着目点Pを底面として溝の中を指示したあ
とで計測開始の旨ライトペン6で指示することにより、
中央処理装置7から画像入力回路9に指令を与える。画
像入力回路9はカメラ4で読み取られた対象ワーク3の
ビデオ信号を設定された2値化レベルで2値化するとと
もに孤立点除去を行ない画像処理回路10に送υランレ
ングスデータを生成する。中央処理装置1はランレング
スデータからシンレングスが連続してつながっている領
域を求め、求められた領域の外周をトラッキングして線
素テーブルを作成する(第2図(b))。例えば、領域
の左側については次のようにして求める。対応する領域
の最初又は切断点のう/レングスの左側の熾点(ランレ
ングスとしては始点にあたる)゛の位置を(x(0)、
 y(0) ]とし、それからn番目のランレングスの
左側の端点の位置を〔x(n)、y(n)〕とした時、
その2点を通る直線は(1)式で表わされる。
In the teaching mode, the camera 4 reads an image of the target workpiece 3 at regular intervals, converts it into a signal, and transmits it to the image input circuit 9. In the image input circuit 9, as shown in FIG.
), the cipideo signal is binarized at the set binarization level, isolated points such as noise are removed, and the binarized data is transmitted to the image storage circuit 11. Here P
indicates the target point of the groove, WL indicates the range of the set window, and D indicates the binary image of the target workpiece. Then, the original image, the binarized image, etc. are displayed on the monitor television 5 according to the image selection. While looking at the screen of the monitor TV 5, the operator inputs the work number of the target work 3, the binarization level, the type of local feature such as circle, ellipse, rectangle, etc., and the window settings from the screen of the monitor TV 5 using the light pen 6. Let's do it. Further, the point of interest is indicated (by means of a binary image displayed on the screen of the monitor television 5). In the case of a groove, as shown in FIG. 2 (-), by pointing inside the groove with the point of interest P as the bottom surface, and then using the light pen 6 to indicate the start of measurement.
A command is given from the central processing unit 7 to the image input circuit 9. The image input circuit 9 binarizes the video signal of the target workpiece 3 read by the camera 4 at a set binarization level, removes isolated points, and generates run length data sent to the image processing circuit 10. The central processing unit 1 determines a region where thin lengths are continuously connected from the run length data, tracks the outer periphery of the determined region, and creates a line element table (FIG. 2(b)). For example, the left side of the area is determined as follows. The position of the starting point of the corresponding area or the left end of the cutting point (corresponding to the starting point as a run length) is (x(0),
y(0)], and then the position of the left end point of the nth run length is [x(n), y(n)],
A straight line passing through those two points is expressed by equation (1).

ここでy(1)〜y(n−1)に対応するI位置をxc
(1)〜Xe(ロー1)とした時のランレングスの端点
(X(1)。
Here, the I position corresponding to y(1) to y(n-1) is xc
The end point of the run length (X(1)) when (1) to Xe (low 1).

y(1)]〜(x(n−1)、 y(n−1) )との
X方向の長さはlX、(i)−X(1)l≦ΔX  ・
・・・・・・・・・・・・・・・・・(2)1=1 〜
 n−1 lX:許容値 とな9(21式を満せば次のランレングスについても同
様に繰〕返す。
y(1)] ~ (x(n-1), y(n-1)) in the X direction is lX, (i)-X(1)l≦ΔX ・
・・・・・・・・・・・・・・・・・・(2) 1=1 ~
n-1 lX: Allowed value 9 (If formula 21 is satisfied, repeat the same for the next run length).

1xc(量)−X(量)l>lX  ・・・・・・・・
・・・・・・・・・・(3)監=1〜n−1 そして(3)式となれば、(x(n)、 y(n) )
を切断点としCx(0)、 y(0) ]からCx(n
−1)sy(n−1) ]を1つの線素の始点、終点と
して傾きとともに線素テーブルに登録する(第3図)。
1xc (amount) - X (amount) l>lX ・・・・・・・・・
・・・・・・・・・(3) Supervision = 1 to n-1 And if it becomes the formula (3), (x(n), y(n) )
Set Cx(0), y(0) ] to Cx(n
-1) sy(n-1) ] are registered in the line element table as the starting and ending points of one line element along with the slope (FIG. 3).

線素テーブルは第4図に示すように1つの線素について
始点位置、終点位置及び傾きのデータから構成される。
As shown in FIG. 4, the line element table is composed of data on the starting point position, ending point position, and slope for one line element.

次にモニターテレビ5の画面上で指定された溝の着目点
4から最も近い線素を線素テーブルより求める。第2図
(b)においては、線素Liがこれに対応する。線素L
iを基準として溝を構成する線素を求める。第2図(b
)において、線素Li−1* Li+1  は溝の側面
に、Liは溝の底Vcs Ll−2# Li+2  は
湾の表面に相当する線素と位置付けられ、以下の条件を
満足する時溝と認識する(第2図(−)の矩形近似)。
Next, the line element closest to the designated groove point 4 on the screen of the monitor television 5 is found from the line element table. In FIG. 2(b), line element Li corresponds to this. Line element L
Find the line elements that make up the groove using i as a reference. Figure 2 (b
), the line element Li-1* Li+1 is positioned as the line element corresponding to the side surface of the groove, Li is the bottom of the groove Vcs Ll-2# Li+2 is positioned as the line element corresponding to the surface of the bay, and is recognized as a time groove that satisfies the following conditions. (Rectangular approximation of Fig. 2 (-)).

第6図のフローチャートにおいて、 m  線素Lit−溝の底と考え、線素Li−1とL’
t+tのなす角度θi−1,i+1  が 180°−β0≦θi−1,i+1≦180@+β6 
・・・(4)であること。
In the flowchart of Fig. 6, m line element Li- is considered as the bottom of the groove, and line elements Li-1 and L'
The angle θi-1, i+1 formed by t+t is 180°-β0≦θi-1, i+1≦180@+β6
...(4).

(2)  li*L1 (!: Iq−1−Li+t 
Olkす角度をθi−1.i #θ1−+1 とする時 であること。
(2) li*L1 (!: Iq-1-Li+t
Let the angle θi-1. i #θ1−+1.

(3)線素Li−2とLi * Li+2とLlのなす
角度をθi−2.i +θi 、 i+2とする時ra
j≦θt−2,を及び θi 、 i+2≦r’  ・
−・−・・・−(63であること。
(3) The angle formed by the line elements Li-2 and Li*Li+2 and Ll is θi-2. When i +θi, i+2, ra
j≦θt-2, and θi, i+2≦r'・
−・−・・・−(Must be 63.

(4)線素Li−2とI、l−1勝Li+2とLi+1
のなす角度をθt−2.t−t−θ1−1−1 、 i
+2とする時であること。
(4) Line elements Li-2 and I, l-1 wins Li+2 and Li+1
The angle formed by θt-2. t-t-θ1-1-1, i
It's time to make it +2.

ここでα、β、rは許容値である。Here, α, β, and r are permissible values.

上記の判定結果より指定された図形が溝と認識された場
合には、その溝を定義するティーチングデータとして溝
の巾W、深さく左および右)dl。
If the specified figure is recognized as a groove based on the above judgment result, the groove width W, depth (left and right) dl are used as teaching data that defines the groove.

d2を(8)式により求める。d2 is determined by equation (8).

そして、2値化レベル及びウィンドウ範囲とともにワー
クNo対応で登録する。
Then, the binarization level and window range are registered in correspondence with the work number.

又、溝の方向については、溝の側面及び底を構成する線
素の基準線からの傾きをθl−1+θl。
Regarding the direction of the groove, the inclination of the line elements forming the side surfaces and bottom of the groove from the reference line is θl-1+θl.

θi+1  とするとき、溝の方向θt−(9)式で求
める。
When θi+1, the direction of the groove θt− is determined by equation (9).

7=(θ、−1 +180’) + (θ1−90’)
十θl + 1 0.、 t9)上記のように溝の方向
θを定義し底を構成する線素Llの中点(X6sF(り
を通る直線で示す。
7=(θ, -1 +180') + (θ1-90')
10θl + 1 0. , t9) As described above, the direction θ of the groove is defined, and it is shown by a straight line passing through the midpoint (X6sF) of the line element Ll that constitutes the bottom.

また、オンラインモードにおいては、視覚センサー制御
装置1が上位コントローラ2からの計i111指令(ワ
ークNoの指定あり)を上位インターフェイス回路14
を介して受は取ると、中央処理装置7はティーチングデ
ータからウィンドウ範囲、2値化レベルの設定を行ない
、画像入力回路9に指令を与え、カメラ4から対象ワー
ク3の画像を読み取り、画像処理回路10でランレング
スを生成後、ティーチフグモードと同様の方法で線素テ
ーブルを作成する。
In addition, in the online mode, the visual sensor control device 1 sends a total i111 command (with work No. specified) from the host controller 2 to the host interface circuit 14.
When the data is received via the central processing unit 7, the central processing unit 7 sets the window range and binarization level from the teaching data, gives a command to the image input circuit 9, reads the image of the target work 3 from the camera 4, and performs image processing. After the run length is generated by the circuit 10, a line element table is created in the same manner as in the teach blowfish mode.

オンラインモードにおいてはモニターテレビ5の画面上
で着目点が指定されていないので最初の線素からティー
チングデータをもとに次の手順で溝を識別する。第7図
フローチャートにおいて+13  着目した線素の線長
ktjとするときr 1jW r≦δ ・・・・・・・
・・・・・・・・・・・・・・・・・・・・α・を満た
す線素Ljを求める。
In the online mode, since the point of interest is not specified on the screen of the monitor television 5, the groove is identified in the following steps based on the teaching data from the first line element. In the flowchart of FIG. 7, +13 When the line length of the line element of interest is ktj, r 1jW r≦δ ・・・・・・・・・
・・・・・・・・・・・・・・・・・・Find the line element Lj that satisfies α.

(2)線素Ljを溝の底と考え、線素Lj−1とLj+
1のなす角度θj−1,J+1  が 180−β0≦θj−1*j+1≦180@+β0 ・
・・・・・συであること。
(2) Considering line element Lj as the bottom of the groove, line elements Lj-1 and Lj+
The angle θj-1, J+1 formed by 1 is 180-β0≦θj-1*j+1≦180@+β0 ・
...Be συ.

(31線素Ljと”j−1s Lj+1のなす角度をθ
j−4sj ’θj I j+1  とする時 であること。
(The angle between 31 line elements Lj and "j-1s Lj+1 is θ
j−4sj 'θj I j+1.

(4)  線素L3−2とLj m ”j+2とIgの
なす角度をθj−21J IθLJ+2とする時 −γ0≦θj−2eJ及びθLj+2≦r0   °−
°−°−°−(13であること。
(4) When the angle between line element L3-2, Lj m''j+2 and Ig is θj-21J IθLJ+2, -γ0≦θj-2eJ and θLj+2≦r0 °-
°−°−°−(Must be 13.

(5)線素Lj−2とLj−1*Lj+2とL j+ 
1のなす角度をθj −2* j−1e ’ J +l
 e j +2とする時であること。
(5) Line elements Lj-2 and Lj-1*Lj+2 and Lj+
1 is the angle θj −2* j−1e ' J +l
It is time to set e j +2.

(6)線素LJ−1、LJ 、 Lj+1  の基準線
からの角度をθj−1.θj、θj+1  とする時深
さd1′(加。
(6) The angle of the line elements LJ-1, LJ, Lj+1 from the reference line is θj-1. When θj, θj+1, the depth d1' (additional.

d2′(右)は となる。これら深さdi’ (a 、 d21 (右)
がを満足すること。
d2' (right) becomes. These depths di' (a, d21 (right)
be satisfied.

ここでα、βIrlδは許容値である。Here, α and βIrlδ are permissible values.

上記11)〜(6)を満足する線素Lj−1* Lj 
* Lj+1が存在すれば、ティーチング時と同様の方
法で、溝の方向θを計算し、上位コントローラ2に対し
て計測データd1’ 、 d2’ 、 Wと位置(x、
!、yc)及び方向θを報告する(第5図(a) # 
(b) ) a〔発明の効果〕 以上のようにこの発明によれば対象ワークの図形として
の溝を互いに直交する3直線で近似して取扱うようにす
るため一定の演算式に当てはめ中央処理装置で自動的に
認識判定するようにしたので図形中の溝の認識が簡単か
つ確実に認識できる効果がある。
Line element Lj-1* Lj that satisfies the above 11) to (6)
* If Lj+1 exists, calculate the groove direction θ using the same method as during teaching, and send the measurement data d1', d2', W and position (x,
! , yc) and direction θ (Fig. 5(a) #
(b) ) a [Effects of the Invention] As described above, according to the present invention, in order to treat the groove as a figure of the target work by approximating it with three straight lines orthogonal to each other, the central processing unit applies it to a certain calculation formula. Since recognition and determination are automatically performed, grooves in figures can be easily and reliably recognized.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の一実施例による視覚センサー制御装
置のブロック構成図、第2図は対象ワークについて(1
)2値画像、(b)線素、(C)矩形近似のモデル図、
第3図は対象ワークの領域のランレングス図、第4図は
線素テーブル図、第5図は上位コントローラからの計測
指令及び計測結果図、第6図はティーチング時の認識ア
ルゴリズムのフローチャート、第7図はオンライン時の
認識アルゴリズムのフローチャートである。 1は視覚センサー制御装置、2は上位コントローラ、3
は対象ワーク、4はカメラ、5はテレビモニタ、6はラ
イトペン、7は中央処理装置、8は記憶回路、9は画像
入力回路、10は画像処理回路、11は画像記憶回路、
12はモニターインターフェイス回路、13はライトペ
ンインターフェイス回路、14は上位インターフェイス
回路。
FIG. 1 is a block diagram of a visual sensor control device according to an embodiment of the present invention, and FIG. 2 shows a target workpiece (1
) binary image, (b) line element, (C) model diagram of rectangular approximation,
Figure 3 is a run length diagram of the area of the target workpiece, Figure 4 is a line element table diagram, Figure 5 is a diagram of measurement commands and measurement results from the host controller, Figure 6 is a flowchart of the recognition algorithm during teaching, and Figure 6 is a flowchart of the recognition algorithm during teaching. FIG. 7 is a flowchart of the recognition algorithm when online. 1 is a visual sensor control device, 2 is a host controller, 3
is a target work, 4 is a camera, 5 is a television monitor, 6 is a light pen, 7 is a central processing unit, 8 is a storage circuit, 9 is an image input circuit, 10 is an image processing circuit, 11 is an image storage circuit,
12 is a monitor interface circuit, 13 is a light pen interface circuit, and 14 is a host interface circuit.

Claims (2)

【特許請求の範囲】[Claims] (1)上位コントローラとの間で対象ワークの計測指令
、計測結果を授受する上位インターフエイス回路と、前
記対象ワークの画像を読みとるカメラのビデオ信号を2
値化及び孤立点の除去を行なう画像入力回路と、前記画
像入力回路からの出力信号によりランレングスを生成す
る画像処理回路と、前記画像入力回路からの2値画像存
び認識結果を格納する画像記憶回路と、前記の認識結果
を表示したりテイーチング等マンマシンインターフエイ
スのためのモニターテレビ及びライトペンの夫々インタ
ーフエイス回路、認識プログラム及びテイーチングデー
タを格納する記憶回路及びこれらを制御する中央処理装
置とを備えた視覚センサー。
(1) A host interface circuit that sends and receives measurement commands and measurement results for the target workpiece to and from the host controller, and a video signal from the camera that reads the image of the target workpiece.
an image input circuit that performs value conversion and removal of isolated points; an image processing circuit that generates a run length based on an output signal from the image input circuit; and an image that stores a binary image and a recognition result from the image input circuit. A memory circuit, an interface circuit for a monitor television and a light pen for displaying the recognition results and man-machine interface for teaching, etc., a memory circuit for storing recognition programs and teaching data, and a central processing unit for controlling these. A visual sensor with
(2)前記中央演算処理装置での溝認識手段として、画
像入力回路で得た2値化画像より互いに直交する3直線
を用いて絵素テーブルを作成し、前記絵素テーブルより
所定の演算式を用いて該溝の方向、深さ、幅、位置、方
向を求め、該演算の結果を上位コントローラに報告する
ようにしたことを特徴とする特許請求の範囲第1項記載
の視覚センサー。
(2) As a groove recognition means in the central processing unit, a picture element table is created using three straight lines orthogonal to each other from the binarized image obtained by the image input circuit, and a predetermined calculation formula is created from the picture element table. 2. The visual sensor according to claim 1, wherein the direction, depth, width, position, and direction of the groove are determined using the following method, and the results of the calculation are reported to a host controller.
JP60007396A 1985-01-21 1985-01-21 Visual sensor Granted JPS61167804A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60007396A JPS61167804A (en) 1985-01-21 1985-01-21 Visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60007396A JPS61167804A (en) 1985-01-21 1985-01-21 Visual sensor

Publications (2)

Publication Number Publication Date
JPS61167804A true JPS61167804A (en) 1986-07-29
JPH0414723B2 JPH0414723B2 (en) 1992-03-13

Family

ID=11664740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60007396A Granted JPS61167804A (en) 1985-01-21 1985-01-21 Visual sensor

Country Status (1)

Country Link
JP (1) JPS61167804A (en)

Also Published As

Publication number Publication date
JPH0414723B2 (en) 1992-03-13

Similar Documents

Publication Publication Date Title
US4847911A (en) Electronic parts recognition method and apparatus therefore
JPH07210687A (en) Shape detecting device
EP2793172B1 (en) Image processing apparatus, image processing method and program
JPH0762869B2 (en) Position and shape measurement method by pattern projection
JPS6332306A (en) Non-contact three-dimensional automatic dimension measuring method
JPS61167804A (en) Visual sensor
JPH02125375A (en) Position detecting device
JP2995127B2 (en) How to recognize circular holes
JPH0854222A (en) Method for detecting displacement by image processing
JP2519445B2 (en) Work line tracking method
JPH0414724B2 (en)
JPH065545B2 (en) Figure recognition device
JPS61130809A (en) Visual sensor
JP2522277B2 (en) Image recognition device
JPH05204459A (en) Fitting method for location measuring unit and connector
CN116958515B (en) Fitting positioning method and device for workpiece contour and storage medium
JPH0781835B2 (en) Width measuring device
JP2558901B2 (en) Automatic segment assembly equipment
JPS60201863A (en) Positioning of tab cut
JP2712884B2 (en) Work identification method and device
CN117115450A (en) Machine vision information processing method
JPS6016672B2 (en) Object detection method and device
JPS61241606A (en) Eyesight sensor
JPH02100181A (en) Visual sensor
JPS62293382A (en) Straight line and curve discriminating method in picture processing