JPS59107898A - Method of monitoring work of robot, etc. - Google Patents

Method of monitoring work of robot, etc.

Info

Publication number
JPS59107898A
JPS59107898A JP21452982A JP21452982A JPS59107898A JP S59107898 A JPS59107898 A JP S59107898A JP 21452982 A JP21452982 A JP 21452982A JP 21452982 A JP21452982 A JP 21452982A JP S59107898 A JPS59107898 A JP S59107898A
Authority
JP
Japan
Prior art keywords
pattern
monitoring
state
video
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP21452982A
Other languages
Japanese (ja)
Other versions
JPS6315116B2 (en
Inventor
昭史 井上
武田 光資郎
浦牛原 浩幸
上田 芳伸
郡司 剛士
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Gakki Co Ltd
Original Assignee
Nippon Gakki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Gakki Co Ltd filed Critical Nippon Gakki Co Ltd
Priority to JP21452982A priority Critical patent/JPS59107898A/en
Publication of JPS59107898A publication Critical patent/JPS59107898A/en
Publication of JPS6315116B2 publication Critical patent/JPS6315116B2/ja
Granted legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 この発明はロボット等の作業監視方法に関し、詳しくは
カメラを用いて物体の有無確認あるいは作業の異常状態
を監視する場合にお(・て、監視領域を縦m列1’A 
n列のmXn個の画素に分割し、各画素について監視時
の実際状態とあらかじめ設定された正常時の状態とを比
較することによりその監視目的を達成する方法に関する
ものである。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to a method for monitoring the work of robots, etc., and more specifically, when checking the presence or absence of an object or monitoring an abnormal state of work using a camera. 'A
The present invention relates to a method of achieving the purpose of monitoring by dividing each pixel into m×n pixels in n columns and comparing the actual state at the time of monitoring with a preset normal state for each pixel.

カメラ、例えば工業用テレビカメラ(ITV)ある(・
は固体撮像′t を用(・た監視方法はロボット4の作
業状態監視あるいは製品の検査工程などで(ト)外観検
査による良品、不良品の選別0分類、仕分け■位置検出
■寸法測別、傷や汚れの計測■物本の有無確認■異常状
態監視■文字、記号等の読み取りなとの目的に用し゛ら
れて(・ろ。
There are cameras, such as industrial television cameras (ITV).
The monitoring method uses solid-state imaging 't, such as monitoring the work status of the robot 4 or the product inspection process. It is used for purposes such as measuring scratches and dirt, checking the presence of books, monitoring abnormal conditions, and reading characters, symbols, etc.

この監視方法は一般的にはカメラよりの映像を211i
i化、即ち白黒化、あるいは2進化(1またはO)、得
られる映像パターン’1cRT、映像J管析装置などに
入力し、例えばCRTK表示された映像を作業員などが
目視検査することにより上記目的を遂行している。
This monitoring method generally uses 211i video from a camera.
i, that is, black and white, or binary coded (1 or O), the resulting image pattern '1cRT is input to a video J control device, etc., and the image displayed on, for example, a CRTK is visually inspected by a worker, etc. is accomplishing its purpose.

ところで上記監視方法の欠点としては監視唄域の映像パ
ターンが実際の監視狽域と一致しにくいことが挙げられ
る。このためITVによる監視々野を狭くしたり、監視
スクリーンの走査線全密にしてその解像度を向上させ、
監視精度全向上させている。しかしこれはカメラの必要
設置点数の増加を招き、精密な映像解析装置を必要とす
ることから設備費を高騰させてしまう。
However, a drawback of the above-mentioned monitoring method is that the video pattern of the monitored song area is difficult to match the actual monitored area. For this reason, the monitoring field by ITV was narrowed, the scanning line of the monitoring screen was made denser, and its resolution was improved.
Monitoring accuracy has been completely improved. However, this increases the number of cameras required to be installed and requires a precise video analysis device, raising equipment costs.

この発明は監視精度全低下させることなく、また設備費
を増大させることのないロボット等の監視方法を提供す
ることを目的とする。そしてこの発明は監視目的を物体
の有無雑誌と異常状態監視という点におき、監視領域を
m X n−115の両系に分割し、正常作業1サイク
ル分の各画素の状態に基づいて基本映像パターンを求め
、基本映像パターンと監視中の各画素の状態を2直化し
た映1等パターンとを常時比較し、両者が不一致の場合
には異常信号を発生させることを要旨とする。尚映像パ
ターンを構成する画素は作業1サイクル中にその状態が
変化するものと変化しないものとがあるが、状態が変化
するものについては作業正常時にも基本映像パターンと
映像パターンとが不一致の場合があるので上記比較の対
象から外す。
It is an object of the present invention to provide a method for monitoring robots, etc., without reducing the monitoring accuracy or increasing equipment costs. The purpose of this invention is to monitor the presence or absence of objects and to monitor abnormal conditions, and the monitoring area is divided into m x n-115 systems, and the basic image is calculated based on the state of each pixel for one cycle of normal operation. The basic idea is to find a pattern, constantly compare the basic video pattern with a first-class video pattern obtained by converting the state of each pixel under monitoring into two, and to generate an abnormal signal if the two do not match. Note that some of the pixels that make up the video pattern change their state during one cycle of work, while others do not, but for pixels whose state changes, there is a case where the basic video pattern and the video pattern do not match even when the work is normal. Therefore, it is excluded from the above comparison.

以下添付図面に示す実施例を用(・てこの発明の詳細な
説明′1−る。
The following is a detailed description of the invention using embodiments shown in the accompanying drawings.

第1図において矢印方向に移動するベルトコンペア1上
の作業片2はロボット3,4による加工をうけて(・る
。ロボット6.4の頭上にはITV5が設けられており
、1点鎖線により画定される監視領域6をモニタして(
゛る。そしてITV5の出力はパターン処理装置7に入
力されている。
In Fig. 1, the workpiece 2 on the belt comparer 1 moving in the direction of the arrow is processed by the robots 3 and 4. Monitor the defined monitoring area 6 (
It's true. The output of the ITV 5 is input to the pattern processing device 7.

第2図は実施例の基本動作を説明するためのブロック図
であり、パターン処理装置7はITVよりの映像清報を
以下に説明する方法で2値化する2値化部71と、同じ
(以下に説明する基本映像パターンがメモリされるRA
Mなどより成るパターンメモリ72及び異常時には異常
信号の発生を司る比較部76とから成っている。同図に
お(・て鎮護矢印はパターンメモリ72への基本映像パ
ターンセット時のフローを、また実線矢印は監視作業時
のフロー全それぞれ示す。即ち2値化部71の出力であ
る映像パターンは基本映像パターン七ント時においては
パターンメモリ72に入力され、監視時においては比較
部73に人力される。そして監視作業中は、比較部76
には更にパターンメモリ72からの基本映像パターンが
入力されており、比較部73は両者不一致の場合に異常
信号を出力する。そしてこの異常信号により例えばアラ
ーム音全発生させるなどの処理をする。
FIG. 2 is a block diagram for explaining the basic operation of the embodiment, and the pattern processing device 7 is the same as the binarization unit 71 that binarizes video broadcasts from ITV by the method described below. RA where the basic video pattern explained below is stored
It consists of a pattern memory 72 made up of M, etc., and a comparison section 76 that controls generation of an abnormal signal when an abnormality occurs. In the same figure, the protective arrow (*) indicates the flow when setting the basic video pattern to the pattern memory 72, and the solid arrow indicates the entire flow during monitoring work.In other words, the video pattern that is the output of the binarization section 71 is When the basic video pattern is seven, it is input to the pattern memory 72, and during monitoring, it is manually input to the comparison section 73. During the monitoring operation, the comparison section 76
Further, the basic video pattern from the pattern memory 72 is input, and the comparison unit 73 outputs an abnormal signal when the two do not match. Then, based on this abnormal signal, processing such as emitting all alarm sounds is performed.

次に監視作業開始に先立って行なわれる基本映像パター
ン”(ll−1))の作成、パターンメモリ72へのセ
ット(メモリ〕全第6,4図を用いて説明する。まずI
TV5の露出絞り状態(以下第1状態〕でロボット3,
4の作業1ザイクル中における監視領域6の映像清報を
パターン処理装置7に入力する。パターン処理装置7に
おし・てこの映像tH報は以下のようにして映像パター
ン化される。
Next, the creation of the basic video pattern "(ll-1)) and its setting in the pattern memory 72 (memory) which is performed prior to the start of the monitoring work will be explained using FIGS. 6 and 4. First, I
In the exposure aperture state of TV5 (hereinafter referred to as the first state), the robot 3,
A video report of the monitoring area 6 during one cycle of work No. 4 is input to the pattern processing device 7. The image tH information of the push and lever is converted into an image pattern by the pattern processing device 7 as follows.

υIJち第4図に示した様に監視領域6は縦m列、横n
列の計量Xn(m、nは条件に応じて適X設定)個の画
素に分割される。次に各画素の状態(白か黒か)が判別
される。そして第1状態における監視・阻域6の各画素
IL(i、j)(i=1〜m 、 j = 1〜n片の
状態は画素が作業1ザイクル中常に白の時はII(i、
コン=0、黒の時は11(i。
υIJ As shown in Figure 4, the monitoring area 6 is arranged in m columns vertically and n horizontally.
The column is divided into Xn pixels (m and n are set appropriately depending on the conditions). Next, the state of each pixel (white or black) is determined. In the first state, each pixel IL (i, j) (i = 1 to m, j = 1 to n) of the monitoring/blocking area 6 is II (i, j) when the pixel is always white during one work cycle.
Con=0, black is 11 (i.

J〕=1、また白黒に変化する場合はzl(i、j)=
2とされてパターンメモリ72にメモリされる。
J] = 1, and when changing to black and white, zl (i, j) =
2 and stored in the pattern memory 72.

同様にしてITV5の露出を開放状態(以下第2状態〕
にして作業1サイクル分の映像lPf報ヲパターン処理
装置7に入力し、この時の各画素の状態を第2映像パタ
ーンl2(1+j);’2(1+j)=0〜2としてパ
ターンメモリ72にメモリする。
Similarly, the exposure of ITV5 is opened (hereinafter referred to as the second state)
The image lPf information for one cycle of work is input to the pattern processing device 7, and the state of each pixel at this time is stored in the pattern memory 72 as a second image pattern l2(1+j);'2(1+j)=0 to 2. do.

そしてパターン72内において第1映像パターン11(
i、j)と第2映像パターンエ2z、、j) と全比較
し、次表(・コ基づいて基本映像パターンI (i。
Then, within the pattern 72, the first image pattern 11 (
i, j) and the second video pattern I (i.

j)、即ちロボットの作業が正常であり、10]らの異
常も発生しな(・状態の映1家パターン、を作成する。
j), that is, the robot's work is normal, and no abnormalities such as 10] have occurred.

そして爾後この基本映像パターンI(i、j)全パター
ンメモリ72Vcメモリさぜる。
Then, this basic video pattern I (i, j) is stored in the entire pattern memory 72Vc memory.

尚、上表にお(・て状態か「その他」とは前述のように
作業1ザイクル中に画素が白から黒あるいはその逆に変
化する個所、例え゛ぽロボットの7−人作業領域(8)
などを指す。そしてこの個所は作業1サイクル全体とし
てみた場合には灰色として認識される。また状態「黒」
または「白」とはそれぞれ監視領域6内で固定設置され
ている個所(9U エバ、ロボットの本体、ベルトコン
ベア)ヲ、また設置物のなし゛個所を示す。従ってパタ
ーンメモリ72にお(゛ては基本映像パターンI(i、
j)によって監視領域乙の各画素の状態はそれぞれ2ピ
ントのメモリによって例えば白→01、黒→10、その
他→11のようVC,2値化されてメモリされる。
In addition, in the table above, "state" or "other" refers to locations where pixels change from white to black or vice versa during one cycle of work, such as the 7-person work area (8 )
etc. This area is recognized as gray when viewed as a whole in one work cycle. In addition, the condition is "black"
``White'' indicates fixedly installed locations within the monitoring area 6 (9U Eva, robot main body, belt conveyor), and locations where there are no installed objects. Therefore, the pattern memory 72 (i.e. basic video pattern I(i,
According to j), the state of each pixel in the monitoring area B is converted into a VC and binarized and stored in a 2-focus memory, for example, white → 01, black → 10, others → 11.

以上のごとく、基本映像パターンを作成するにあたって
、露出の異る5g1映像パターンと第2映像パターンを
比較することにより、前記表に示すこと(、「白」の瞭
と「黒」の値が明確化されることになる。即ち、例えば
第1映像パターンエ1で「白」と認識されたパターンが
第2映像パターン■2で「黒」または「灰」と認識され
た場合のように第1映像パターン■1 と第2映1象パ
ターノエ2の認識値が一致しな(・限り、基本映像パタ
ーン■は全て「灰」という結果でメモリされることにな
る。このことは、前記の例の第1映像パターンエ1で「
白」と認識されても室内の照明の麦異による監視狽域内
の明るさの度合いによって白色の程度に差異が生ずる可
能性があり、その状況における認識値を確定的なものと
できな(・ため、露出の強い第1映像パターンエ1の場
合の認識値と露出の弱い第2映像パターンエ2の場合の
認識値が一致した場合のみ、その一致した認識値を基本
映像パターンエとしたものである。これにより監視領域
内の谷画素11(1+1)(i=1〜n 、j−1〜n
)Kおける「白」または「黒」に相当する画素は明確に
決定づけられ、監視領域内に多少の明るさの変動が生じ
てもこれによって誤った認識が行われることはない。
As mentioned above, when creating the basic image pattern, by comparing the 5g1 image pattern and the 2nd image pattern with different exposures, it was possible to achieve the things shown in the table above (the values of ``white'' and ``black'' were clearly defined. In other words, for example, when a pattern recognized as "white" in the first video pattern E1 is recognized as "black" or "gray" in the second video pattern As long as the recognition values of video pattern ■1 and second image pattern pattern noe 2 do not match, all of the basic video pattern ■ will be memorized as "gray".This means that in the example above, In the first video pattern E1,
Even if it is recognized as "white," there may be differences in the degree of whiteness depending on the brightness within the monitoring area due to differences in indoor lighting, and the recognition value in that situation cannot be definitive. Therefore, only when the recognition value for the highly exposed first video pattern E1 and the recognition value for the weakly exposed second video pattern E2 match, the matched recognition value is taken as the basic video pattern E. As a result, valley pixels 11 (1+1) (i=1 to n, j-1 to n
) The pixels corresponding to "white" or "black" in K are clearly determined, and even if there is some variation in brightness within the monitoring area, this will not cause erroneous recognition.

このようにして基本映像パターンエ(11])全作成、
パターンメモIJ 72 Kメモリ後監視全開始する。
In this way, the basic video pattern (11) is completely created.
Pattern memo IJ 72 Start all monitoring after K memory.

尚、來1、第2映1象パターンより基本映像パターンを
求める手段は上記の様にパターンメモリ72内にお(・
て行なってもよ(、またあらかじめ外部作業により求め
たものを単にパターンメモリ72内にメ手りするように
してもよい。そして自iS記作業・頭載を構成する各画
素はその状態が作業1サイクル中に白から黒あるいは逆
に変化するので、後述する監視時における比較部73V
cよる比較対象から除外される。
The means for determining the basic image pattern from the first and second image patterns is stored in the pattern memory 72 as described above.
(Also, it is also possible to simply store in the pattern memory 72 what has been obtained in advance by an external operation.The state of each pixel constituting the own iS writing operation/initialization is determined by the state of the operation. Since it changes from white to black or vice versa during one cycle, the comparing section 73V during monitoring, which will be described later.
excluded from comparison by c.

次に第5,6図(Al 、 (B)を用して監視時の実
施例の動作を説明する。尚、説明の跣宜上以下の説明で
は設i途ロボットは1体であるとする。
Next, the operation of the embodiment during monitoring will be explained using FIGS. .

W、5図1h)は正常時のベルトコンベア1、ロボット
(3または4)の本体7.7−ム31 (41)、アー
ムの可動φn囲8及び不ケ領域9全示したもので、この
状態はITV5によってモニタされろ。
W, 5, Fig. 1h) shows the belt conveyor 1, the robot (3 or 4) main body 7.7-mm 31 (41), the movable φn radius 8 of the arm, and the unfinished area 9 during normal operation. Conditions will be monitored by ITV5.

また監視開始14iJ Kお(・て前述した方法で第6
図(Alに示す基本映1家パターンr(i、])が1′
[成され、この基本映+1パターン’(”+コ)はパタ
ーンメモ’)72Wlメモリされる。尚第6図(Al 
、 fBJにおいて斜線部はI(t、j)−2、斜十字
部は■(l+])−1また白色部はI(1、j )=o
にそれぞれ対応する状態の画素を示す。
In addition, the monitoring started on 14iJK(・The 6th
The basic image pattern r(i, ]) shown in Figure (Al) is 1'
[This basic image + 1 pattern'("+") is a pattern memo') 72Wl is stored in memory.
, fBJ, the shaded area is I(t,j)-2, the diagonal cross is ■(l+])-1, and the white area is I(1,j)=o
The pixels in the corresponding states are shown.

そして監視時にあっては比較部73にはパターンメモリ
72よりの基本映像パターン清報及び2値化部71より
の境仕の映1家パターン隋報がそれぞれ入力されている
。従ってロボットの動作がノラ1定のプログラムに従っ
て行なわれており、監視唄域6内に何らかの物体が侵入
する等の異常状態の発生がない場合には、比較部73V
C入力される2つの映像パターン清報は同一であり、異
常信号が出力されることはな(・。尚前述のように第6
図+Alにおいて斜線部の各画素は比較の対象からはず
される。
At the time of monitoring, the basic video pattern information from the pattern memory 72 and the boundary video pattern information from the binarization section 71 are input to the comparison section 73, respectively. Therefore, if the robot is operating according to the Nora 1 fixed program and there is no abnormality such as an object entering the monitoring singing area 6, the comparing section 73V
The two video pattern reports inputted in C are the same, and no abnormal signal is output.
In Figure +Al, each pixel in the shaded area is excluded from comparison.

一方第5図(BI K示す様に監視中に監視鎖酸6内に
作業者の手11が浸入したり、あるいはロホットの誤動
作によりそのアームが51に示す位置まで暴走した場合
には2値化部71から比較部73に入力される映像パタ
ーン哨報は第6図(Blのようになる。尚第6図(B)
の斜線部の画素は前述のように比較の対象からはずされ
る画素を指す。即ちこの場合には2値化部71から比較
部73に入力される作業者の手11、あるいは暴走した
アームの位置5に相当する領域の各画素の状態が白から
黒に変化する。よってこれらの画素においては比較部7
3に入力J−る2つの値が相異し、従って比較部76に
入力する2つの映像パターンが異なるので比較部76は
異常信号を出力する。
On the other hand, if the operator's hand 11 enters the monitoring chain acid 6 during monitoring as shown in Figure 5 (BIK), or if the arm moves out of control to the position shown in 51 due to a malfunction of the robot, the binarization is performed. The video pattern signal inputted from the section 71 to the comparison section 73 is as shown in FIG. 6 (Bl).
Pixels in the shaded area indicate pixels that are excluded from comparison as described above. That is, in this case, the state of each pixel in the area corresponding to the position 5 of the operator's hand 11 or the runaway arm inputted from the binarization unit 71 to the comparison unit 73 changes from white to black. Therefore, in these pixels, the comparison unit 7
Since the two values input to J-3 are different, and therefore the two image patterns input to the comparison section 76 are different, the comparison section 76 outputs an abnormal signal.

尚以上の説明にあっては外部物体(手)の介入ある(・
は設置物の異常な移動(アームの暴走)Kよって作業領
域の対応する画素の状態が白から黒  ・に変化した場
合につ(・て説明したが、何らかの異常により画素の状
態が黒から白に変化′1−る場合にも比較部73vc入
力される映1家パターンが相異1−るので比較部からは
異常信号が出力されてこの異常状態は検知される。
In addition, the above explanation involves the intervention of an external object (hand).
This is a case where the state of the corresponding pixel in the work area changes from white to black due to abnormal movement of the installed object (runaway arm). Even when there is a change in 1-, the video pattern inputted to the comparator 73vc is different, so the comparator outputs an abnormal signal and this abnormal state is detected.

また実施例では作業領域内の異常状態を検知する目的で
異常信号を出力させて(・るが、当然のことながら作業
領域内の任意の画素の状態全比較すること(でより物体
の存在有無を確認することも可能であるので、応答性が
速く、安価なパターン処理が可能である。
In addition, in the embodiment, an abnormal signal is output for the purpose of detecting an abnormal state in the work area (-), but it goes without saying that all the states of arbitrary pixels in the work area can be compared (to determine whether an object exists or not). Since it is also possible to confirm the pattern, responsiveness is quick and inexpensive pattern processing is possible.

以上のようにこの発明によれば監視目的を物体の有無確
認と異常状態検知と(・う点におき、基本映像パターン
と監視領域の実際の画面を映像パターンと監視領域の実
際の画面全映像パターン化したものとを比較し、異常状
態物体の有無を検知している。よって従来のように高価
な映像m折抜ばを用いる必要がなく、また監視領域を任
意に広げることが可能となるので、カメラの設備点数を
大幅に抑えることができる。
As described above, according to the present invention, the purpose of monitoring is to check the presence or absence of an object and to detect an abnormal state. The presence or absence of abnormal objects is detected by comparing the patterned images.Therefore, there is no need to use expensive video clips as in the past, and the monitoring area can be expanded arbitrarily. Therefore, the number of camera equipment can be significantly reduced.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の実施例を示した概略斜視図、第2図
は実施例における各部の関係を示したブロック図、 第3図は基本映稼パターンの作成方法の一例を示したフ
ローチャート、 第4図は実施例における監視領域の分割方法を示した説
明図、 第5図(A) 、 fB)は実施例における監視・領域
を示した平面図、 第6図(A)、(8)はそれぞれ第5図(AJ 、 (
B) Vc示した監視領域を映像パターン化した状態ケ
示した説明1ヌ1である。 1・・・ベルトコンベア  3,4・・・ロボット6・
・・監視領域     7・・・パターン処理装置8・
・・作業領域     9・・・不在領域71・・・2
値化部     72・・・パターンメモリ73・・・
比較部 特許出願人  日本楽器製造株式会社 特許出願代理人  弁理士 菅 原 −部幕6図 (A) L6図 (f3 J 手続補正書(方式)     6 昭和58年4月f日 特許庁長官若杉和夫殿 1 事件の表示 特願昭57−214529号 2 発明の名称 ロボット等の作業監視方法 ろ 補正をする者 代表者  川 上 源 − 補正の対象 明細書の「発明の詳細な説明」の欄 補正の内容 明細書の第7頁を別紙の通り訂正する。
FIG. 1 is a schematic perspective view showing an embodiment of the present invention, FIG. 2 is a block diagram showing the relationship of various parts in the embodiment, and FIG. 3 is a flowchart showing an example of a method for creating a basic movie operation pattern. Fig. 4 is an explanatory diagram showing the method of dividing the monitoring area in the embodiment, Fig. 5 (A), fB) is a plan view showing the monitoring area in the embodiment, Fig. 6 (A), (8) are shown in Figure 5 (AJ, (
B) Explanation 1-1 shows the state in which the monitoring area indicated by Vc is converted into a video pattern. 1... Belt conveyor 3, 4... Robot 6.
・Monitoring area 7 ・Pattern processing device 8 ・
...Work area 9...Absent area 71...2
Value conversion unit 72...Pattern memory 73...
Comparison Department Patent Applicant Nippon Gakki Mfg. Co., Ltd. Patent Application Agent Patent Attorney Sugawara - Figure 6 (A) Figure L6 (f3 J Procedural Amendment (Method) 6 April f, 1980 Patent Office Commissioner Kazuo Wakasugi 1 Indication of the case Patent application No. 1987-214529 2 Name of the invention Work monitoring method for robots, etc. Representative of the person making the amendment Gen Kawakami - Amendment in the "Detailed description of the invention" column of the specification to be amended Page 7 of the statement of contents is corrected as shown in the attached sheet.

Claims (1)

【特許請求の範囲】 監視・頭載(6〕を縦m列横n列のmXn個の画素に分
割し、かつ画素の状態を2値化し、正常作業1サイクル
分の各画素の状態変化によって各画素を変化するものと
変化しないものとの少くとも2つに分類して基本映像パ
ターンI(1゜])を求め、 監視中には各画素の状態を常時2値化して映像パターン
を求め、 前記基本映像パターンと映像パターンとを前記変化しな
い画素につし・て比較し、 両者が不一致の場合には異常信号全発生させること全特
徴とするロボット等の監視方法。
[Claims] The monitoring/heading (6) is divided into mXn pixels arranged in m columns and n columns, and the state of the pixels is binarized, and the state change of each pixel for one cycle of normal operation is Classify each pixel into at least two types, those that change and those that do not change, to obtain a basic image pattern I (1°), and during monitoring, constantly binarize the state of each pixel to obtain the image pattern. A method for monitoring a robot, etc., characterized in that the basic video pattern and the video pattern are compared for the pixels that do not change, and if the two do not match, all abnormal signals are generated.
JP21452982A 1982-12-06 1982-12-06 Method of monitoring work of robot, etc. Granted JPS59107898A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21452982A JPS59107898A (en) 1982-12-06 1982-12-06 Method of monitoring work of robot, etc.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21452982A JPS59107898A (en) 1982-12-06 1982-12-06 Method of monitoring work of robot, etc.

Publications (2)

Publication Number Publication Date
JPS59107898A true JPS59107898A (en) 1984-06-22
JPS6315116B2 JPS6315116B2 (en) 1988-04-02

Family

ID=16657232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21452982A Granted JPS59107898A (en) 1982-12-06 1982-12-06 Method of monitoring work of robot, etc.

Country Status (1)

Country Link
JP (1) JPS59107898A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61226289A (en) * 1985-03-29 1986-10-08 株式会社神戸製鋼所 Diagnostic device for robot-manipulator
JPS62102984A (en) * 1985-10-29 1987-05-13 日産自動車株式会社 Method of determining attitude of wrist section of robot
JP2011048736A (en) * 2009-08-28 2011-03-10 Fujitsu Ltd Monitoring and control device, and monitoring system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61226289A (en) * 1985-03-29 1986-10-08 株式会社神戸製鋼所 Diagnostic device for robot-manipulator
JPS62102984A (en) * 1985-10-29 1987-05-13 日産自動車株式会社 Method of determining attitude of wrist section of robot
JP2011048736A (en) * 2009-08-28 2011-03-10 Fujitsu Ltd Monitoring and control device, and monitoring system

Also Published As

Publication number Publication date
JPS6315116B2 (en) 1988-04-02

Similar Documents

Publication Publication Date Title
TWI689875B (en) Defect inspection and classification apparatus and training apparatus using deep learning system
US4448532A (en) Automatic photomask inspection method and system
JP3041090B2 (en) Appearance inspection device
JPS58217294A (en) Safety apparatus of industrial robot
JP2617014B2 (en) Sheet length measurement system
JPS59107898A (en) Method of monitoring work of robot, etc.
JP2822937B2 (en) Semiconductor device manufacturing system and defect inspection method
JP7496080B2 (en) Machine Tools
JP3047881B2 (en) Semiconductor device manufacturing system and semiconductor device manufacturing method
GB2272764A (en) Inspecting surfaces of materials by optical scanning
JPS6322612B2 (en)
KR910007348B1 (en) Machine vision process and apparatus for reading a plurality of separated figures
JP3198105B2 (en) Automatic visual inspection device
Beck et al. A self-training visual inspection system with a neural network classifier
JP3189604B2 (en) Inspection method and device
JP2591687B2 (en) How to judge the quality of parts
EP1347286A1 (en) Method and apparatus for inspecting objects
JPH0245706A (en) Shape inspecting device
JPH05180618A (en) Position-recognizing method for object
KR100205172B1 (en) Apparatus for monitoring the number of sheets transfered
JPH07134019A (en) Method for specifying inspection position in x-ray soldering inspection
JPH01318176A (en) Specific part detection apparatus and method
JPH05108798A (en) Picture processing method and picture processor
JPH06235625A (en) Inspecting apparatus for flaw
JPS60227107A (en) Device for defect detection