JPS60249559A - Vision tracking apparatus - Google Patents

Vision tracking apparatus

Info

Publication number
JPS60249559A
JPS60249559A JP59104608A JP10460884A JPS60249559A JP S60249559 A JPS60249559 A JP S60249559A JP 59104608 A JP59104608 A JP 59104608A JP 10460884 A JP10460884 A JP 10460884A JP S60249559 A JPS60249559 A JP S60249559A
Authority
JP
Japan
Prior art keywords
image
processing
production line
processor
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP59104608A
Other languages
Japanese (ja)
Inventor
Shigeru Sugiyama
椙山 繁
Takakazu Sakurai
桜井 孝員
Masaaki Nakajima
正明 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP59104608A priority Critical patent/JPS60249559A/en
Publication of JPS60249559A publication Critical patent/JPS60249559A/en
Pending legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Control Of Conveyors (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Multi-Process Working Machines And Systems (AREA)
  • General Factory Administration (AREA)

Abstract

PURPOSE:To reduce the number of position recognizing sensors while to detect the abnormality in the tracking system by tracking the material on all production and machining lines then taking the vision of the material and correcting the moving position. CONSTITUTION:In a tracking system for monitoring the passing position of material in a production line having several kind of processing and machining processes while provided with material passing position recognizing sensors and operated with predetermined speed, the signal from a video recognizer 9 is selected through a distributor 12 and fed to an image processor 13. The signal applied with recognition processing through said processor 13 is operated through a processor 5 and fed to a video unit 14 to display the image recognized material onto a display 8. The signal from a line speed detector 11 is taken into the processor 5. The distributor 12 is controlled by the processor 5. In such a manner, the shape and the position of a plurality of moving objects having different shape on the production line can be recognized sequentially.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、製造あるいは加工等、連続したプロセスライ
ンの材料等の移動物体トラッキング装置に係り、特に、
異なる形状の複数の移動物体の形状及び位置を順次認識
するのに好適なビジョントラッキング装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Application of the Invention] The present invention relates to a device for tracking a moving object such as a material in a continuous process line such as manufacturing or processing, and in particular,
The present invention relates to a vision tracking device suitable for sequentially recognizing the shapes and positions of a plurality of moving objects having different shapes.

〔発明の背景〕[Background of the invention]

従来、トラッキングシステムでは、第1図、第2図のよ
うに、製造ライン1に設置された位置認識センサ2によ
り移動物体(以下材料と呼ぶ)3の通過ポイントを検出
し、検出信号をセンサ入力 。
Conventionally, in a tracking system, as shown in Figs. 1 and 2, a position recognition sensor 2 installed on a production line 1 detects a passing point of a moving object (hereinafter referred to as material) 3, and a detection signal is input to the sensor. .

装置4、及び、処理装置5を用いて材料3の位置を評価
又は認識する方式がとられていた。本方式によると、材
料3を位置認識センサ2が設置された位置でしかとらえ
ることが出来ないため、位置認識センサ2が設置されて
いない区間は、無監視の状態となる欠点があった。さら
に、通常、位置認識センサ2はポイント検出器であるこ
とが多く、材料3をポイントとしてとらえることしか出
来ないため、材料3の形状を認識することが不可能であ
った。
A method has been adopted in which the position of the material 3 is evaluated or recognized using the device 4 and the processing device 5. According to this method, since the material 3 can only be detected at the position where the position recognition sensor 2 is installed, there is a drawback that the section where the position recognition sensor 2 is not installed is not monitored. Furthermore, since the position recognition sensor 2 is usually a point detector and can only detect the material 3 as a point, it has been impossible to recognize the shape of the material 3.

従って、異なる形状の材料3を同一の製造ライン1で処
理する混在ラインにおいて本方式を適用することは出来
なかった。
Therefore, this method cannot be applied to a mixed line in which materials 3 of different shapes are processed on the same production line 1.

また、本方式では、材料3の位置をトラッキングする場
合、位置認識センサ2の数が非常に多くなり、それに伴
い、センサス力装置4の規模が大きくなるという欠点が
あり、さらに、材料3の位置のみならず材料3の形状を
認識してパターンマツチングを行ない、予測された時刻
における材料3の位置を補正することは可能であった。
In addition, in this method, when tracking the position of the material 3, the number of position recognition sensors 2 becomes very large, and the size of the census force device 4 increases accordingly.Furthermore, the position of the material 3 In addition, it was possible to perform pattern matching by recognizing the shape of the material 3 and correct the position of the material 3 at the predicted time.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、製造あるいは、加工ラインにおける材
料を全ラインにおいてトラッキングし。
An object of the present invention is to track materials in a manufacturing or processing line throughout the line.

材料の形状を認識し、位置認識センサの数を減らし、さ
らに、材料の移動位置を補正、あるいは、異常検出をす
ることができるビジョントラッキング装置を提供するに
ある。
It is an object of the present invention to provide a vision tracking device that can recognize the shape of a material, reduce the number of position recognition sensors, and further correct the moving position of the material or detect abnormalities.

〔発明の概要〕 第1図に示す製造ライン1では、製造ラインl上を移動
する材料3のトラッキングは不可欠である。材料3の位
置は、位置認識センサ2により認識出来るが、従来位置
認識センサ2は、ポイントう場合、第3図に示すように
、表示装置8上の模擬製造ラインに取り付けられた材料
位置表示器7を点滅させることにより、材料3の位置を
確認する方式がとられていた。この方式によると材料位
置表示器7間での材料3の位置は全く監視することが出
来ない。一方、このようなトラッキングを行なう場合、
通常、製造ライン1の速度は、一定処理区間、たとえば
、第3図におけるXの区間では、既知であり、情報源と
なり得る。すなわち、ある時刻T。において、点Aに投
入された材料3は、ライン速度により、その位置を正確
に知ることが出来る。従って、点Aに、視覚認識器を設
置することにより、その形状を認識し、材料3の特定の
不変点(加工等によりその形状が変化しない点)をとら
え、その位置を時系列的に予測することが可能となる。
[Summary of the Invention] In the production line 1 shown in FIG. 1, tracking of the material 3 moving on the production line 1 is essential. The position of the material 3 can be recognized by the position recognition sensor 2. Conventionally, the position recognition sensor 2 is a material position indicator attached to the simulated production line on the display device 8, as shown in FIG. A method was adopted in which the position of material 3 was confirmed by blinking 7. According to this method, the position of the material 3 between the material position indicators 7 cannot be monitored at all. On the other hand, when performing such tracking,
Normally, the speed of the production line 1 is known in a certain processing section, for example the section X in FIG. 3, and can be a source of information. That is, at a certain time T. In this case, the position of the material 3 introduced at point A can be accurately determined based on the line speed. Therefore, by installing a visual recognizer at point A, its shape can be recognized, specific fixed points of material 3 (points whose shape does not change due to processing, etc.) can be detected, and its position can be predicted in time series. It becomes possible to do so.

このようにして、正確にその位置を予測された材料3は
、映像装置により表示器[18に動画として映し出され
、模擬製造ライン上を移動することになる。この方式に
よると模擬製造ライン上の材料を途切れることなく確認
することが出来る。
The material 3 whose position has been accurately predicted in this way is displayed as a moving image on the display [18] by the video device, and moves on the simulated production line. With this method, materials on the simulated production line can be checked without interruption.

又、各々異なる形状の材料3が同一の製造ライン1上で
処理される混在ラインでは、前述の不変点を互いに変え
ることにより、各々区別して認識することができ、模擬
製造ライン上で互いに異なるシンボルを用いて区別する
ことが出来る。
In addition, in a mixed line where materials 3 of different shapes are processed on the same production line 1, by changing the above-mentioned invariant points, they can be recognized separately, and different symbols can be recognized on the simulated production line. can be distinguished using.

一方、視覚認識器を、製造ライン上の処理区間毎に12
置することにより、その数は高々数〜士数点にとどまり
、前述のポイント検出器に比べ、極端に減少する。
On the other hand, 12 visual recognizers are installed in each processing section on the production line.
As a result, the number of points is only a few to a few points at most, which is extremely reduced compared to the point detector described above.

さらに、時刻Toにおいて、点Aに投入された材料3が
、ライン速度及び処理区間長より予測された時刻T1に
、点Bに達したと仮定すると、点Bにおける視覚認識器
により、第4図に示すような像が得られる。第4図で、
実際に認識された像(実線)と予測された像(破線)の
特徴点のずれΔXより処理装置に記憶されている像の位
置(予測位置)を補正することが可能となる。この場合
、Axに規定を設けることにより、さらに、系の異常を
検出することができる。
Further, assuming that the material 3 introduced at point A at time To reaches point B at time T1 predicted from the line speed and processing section length, the visual recognizer at point B An image like the one shown is obtained. In Figure 4,
It becomes possible to correct the image position (predicted position) stored in the processing device based on the deviation ΔX between the feature points of the actually recognized image (solid line) and the predicted image (broken line). In this case, by providing a regulation for Ax, it is possible to further detect abnormalities in the system.

〔発明の実施例〕[Embodiments of the invention]

以下、本発明の一実施例を説明する。 An embodiment of the present invention will be described below.

第5図に示すような異なる処理区間X1〜X11をもつ
製造ライン1上を、材料3は、破線のように点Aから各
処理区間を経て点Zまだ移動する。視覚認識器9は、処
理区間X1〜Xllの先頭に設置され、材料3の形状及
び位置を認識する。
On the manufacturing line 1 having different processing sections X1 to X11 as shown in FIG. 5, the material 3 moves from point A through each processing section to point Z as shown by the broken line. The visual recognizer 9 is installed at the beginning of the processing sections X1 to Xll, and recognizes the shape and position of the material 3.

すなわち、第6図に示すような特徴点10をもつ材料3
は、視覚認識器9により第7図のような平面像としてと
らえることが出来る。視覚認識器p1.p、の製造ライ
ン1上の座標は通常既知であるから、今、その相対位置
(距離)をX、とすると、時刻T0においてP、で認識
された材料3は、処理区間X1のライン速度、すなわち
、材料の速度V、より、時刻T、にPI3の視野に入る
ことになる。
That is, a material 3 having feature points 10 as shown in FIG.
can be captured by the visual recognizer 9 as a plane image as shown in FIG. Visual recognizer p1. Since the coordinates of p on the production line 1 are usually known, if its relative position (distance) is now X, the material 3 recognized at P at time T0 is at the line speed of processing section X1, That is, due to the velocity V of the material, it enters the field of view of PI3 at time T.

時刻Tl =T g + x 1 / v t (1)
従って、時刻T、におけるP2の像を認識することによ
り材料3の予測位置を補正することが可能となる。さら
に、処理区間X、をn1個に分割すると、Xl上の単位
区間距離ΔX、は、式(2)%式% (2) (2)より材料3がΔx1移動する時間ΔT。
Time Tl = T g + x 1 / v t (1)
Therefore, by recognizing the image of P2 at time T, it is possible to correct the predicted position of material 3. Furthermore, when the processing section X is divided into n1 pieces, the unit section distance ΔX on Xl is the time ΔT for the material 3 to move by Δx1 from equation (2).

は、 ΔT、= Δx、/ vs (3) であり、時刻T、αにおける材料3の位lxαは。teeth, ΔT, = Δx, / vs (3) And the position lxα of material 3 at time T, α is.

T1 α=α・ΔT、=α・ΔXt/Vt (4)Xα
=v、XT、α (5) となる。従って、αをインクリメントすることにより任
意の時刻の材料の位置を知ることが出来る。
T1 α=α・ΔT,=α・ΔXt/Vt (4)Xα
=v, XT, α (5). Therefore, by incrementing α, the position of the material at any given time can be known.

次に、この考えにもとづいて、材料3のトラッキング装
置の説明を行なう。
Next, based on this idea, the tracking device for material 3 will be explained.

一8図はトラッキング装置の構成図である。視覚認識器
9からの信号は、分配器12により選択され、画像処理
装置13に送られる。画像処理装置13によって認識処
理された信号は、処理装置5によって演算され、映像装
置14に送られる。
FIG. 18 is a configuration diagram of the tracking device. The signal from the visual recognizer 9 is selected by a distributor 12 and sent to an image processing device 13. The signal that has been recognized and processed by the image processing device 13 is calculated by the processing device 5 and sent to the video device 14.

映像装置14は1画像認識された材料3を表示装置8に
映し出す。ライン速度検出器11の信号は、処理装置5
に取り込まれる。又1分配器12は処理装置5によって
制御される。
The video device 14 displays one image of the recognized material 3 on the display device 8. The signal of the line speed detector 11 is processed by the processing device 5
be taken in. Further, the 1-distributor 12 is controlled by the processing device 5.

第9図に表示装置8上の像を示す。模擬製造ライン6は
、模擬材料15を任意の位置に表示出来るものである。
FIG. 9 shows an image on the display device 8. The simulated production line 6 can display the simulated material 15 at any position.

模擬材料15は、製造ライン1上を材料3が移動するに
つれて、模擬製造ライン6上の表示位置がA−+B−+
c・・・・・・→Lと順次変化していくものである。
As the material 3 moves on the production line 1, the display position of the simulated material 15 on the simulated production line 6 changes to A-+B-+
It changes sequentially from c...→L.

第10図に視覚認識器9の信号処理ブロック図を示す。FIG. 10 shows a signal processing block diagram of the visual recognizer 9.

視覚認識器の信号は、A/D変換され、領域分割処理に
入る。第11図に領域分割方式を示す。A/D変換され
た信号は、予め定められた閾値により二値化される。二
値化された信号は、第11図のように、領域■、■、■
に分割される。
The signal from the visual recognizer is A/D converted and subjected to region segmentation processing. FIG. 11 shows the area division method. The A/D converted signal is binarized using a predetermined threshold. The binarized signal is divided into areas ■, ■, ■ as shown in Fig. 11.
divided into

領域分割された後、領域■を抽出する。これは、予め領
域■の面積、局長を計測等によって知ることにより、特
徴量を面積、周長として抽出する。
After the region is divided, region ■ is extracted. This is done by knowing the area and length of the area (3) in advance through measurement or the like, and extracting the feature amounts as the area and circumference.

抽出された領域■は、その重心をめることが出来る。The center of gravity of the extracted region (■) can be determined.

一方、領域■も同様にして、面積及び周長よりその重心
を知ることが出来るため、今、領域■の重心を製造ライ
ン1の始点Aにおける原点Oとすることが出来る。従っ
て、第11図に示すように、領域■の重心を原点Oとの
相対値として(xo。
On the other hand, since the center of gravity of the area (2) can be similarly determined from the area and circumference, the center of gravity of the area (2) can now be set to the origin O at the starting point A of the manufacturing line 1. Therefore, as shown in FIG. 11, the center of gravity of the area (2) is expressed as a relative value to the origin O (xo.

yo)の座標表示が可能となる。It becomes possible to display the coordinates of yo).

このようにして材料3の座標がまった後、速度信号を使
って、材料3の位置を予測する。時刻T0で認識された
材料3は、処理区間A−Bの製造ライン速度をv (t
)とすると、77間にだけ進むことになる。従って、模
擬材料15を時刻T。で模擬製造ライン6上に映し出し
た後、第12図に示すように、時刻T。+Δτ後に時刻
T、との相対位置ΔXに映し出すことが可能となる。X
Tを小さくとることによって模擬材料15は、連続的に
譲動する動画となる。この様子を第13図に示す。この
像の作成は処理5により順次行なわれる。
After the coordinates of the material 3 are determined in this manner, the position of the material 3 is predicted using the velocity signal. The material 3 recognized at time T0 changes the production line speed in processing section A-B to v (t
), it will advance only by 77 intervals. Therefore, the simulated material 15 is placed at time T. After projecting on the simulated production line 6 at time T, as shown in FIG. After +Δτ, it becomes possible to project the image at the relative position ΔX with time T. X
By setting T small, the simulated material 15 becomes a moving image that yields continuously. This situation is shown in FIG. The creation of this image is sequentially performed in process 5.

通常、製造ライン1は、一方向のみの運動となるが、視
覚認識器9により、第11図のように、特徴点10のy
方向の座標も知ることができるため、X方向の座標を作
成するのと同様にして、y方向の座標をも作成すること
が出来る。すなわち、y方向の移動量Δyは式(7)に
よってまる。
Normally, the production line 1 moves in only one direction, but the visual recognizer 9 detects the y of the feature point 10 as shown in FIG.
Since the coordinates in the direction can also be known, the coordinates in the y direction can also be created in the same way as creating the coordinates in the x direction. That is, the movement amount Δy in the y direction is calculated by equation (7).

但し、Vγ(1)はy方向の速度 このようにして、処理装置5及び映像装[14によって
表示装置8に映し出された模擬製造ライン6上を模擬材
料15が移動するが、今、時刻T1に点Bに材料3が達
したとする。時刻T1は、A−B間の距離X1よりあら
がじめめることが出来る。時刻T、では処理装置5によ
り、材料3は点Bに達していると予測され、点Bにおけ
る視覚認識装置9により、その像をとらえることが出来
る。
However, Vγ(1) is the speed in the y direction.In this way, the simulated material 15 moves on the simulated production line 6 displayed on the display device 8 by the processing device 5 and the video device [14, but now at time T1 Assume that material 3 reaches point B. The time T1 can start from the distance X1 between A and B. At time T, the processing device 5 predicts that the material 3 has reached point B, and the visual recognition device 9 at point B can capture its image.

第14図に時刻T1における像を示す。時刻T、におい
て、材料3の特徴点1oは、(Xl。
FIG. 14 shows an image at time T1. At time T, the feature point 1o of the material 3 is (Xl.

y、)の位置にある。y,).

一方、予測された材料3の位置は、(x%。On the other hand, the predicted position of material 3 is (x%).

yI′)であるからここで偏差と 、ε 、をめること
が出来る。
yI'), so we can calculate the deviation and ε here.

ε =x、−X1 (8) 6 =ア、−7,・ (9) このようにしてめられた偏差ε 、ε を用いて処理装
置5により評価する。すなわち、IEx l、Iεア 
1が許容範゛囲ε。え、ε。7以下であった場合、模擬
材料15の位置を補正し、実際にとらえられた像(Xs
*’ix)とする。一方、1ε、1,1εy 1がε。
ε = x, -X1 (8) 6 = A, -7, (9) The processing device 5 evaluates using the deviations ε and ε determined in this way. That is, IEx l, Iε a
1 is the tolerance range ε. Eh, ε. 7 or less, the position of the simulated material 15 is corrected and the actually captured image (Xs
*'ix). On the other hand, 1ε, 1,1εy 1 is ε.

8.ε、ア以上であった場合、製造ライン1の異常とす
る。このようにして、各視覚認識器9により得られた像
を評価することが出来る。
8. If it is ε, A or more, it is determined that the production line 1 is abnormal. In this way, the images obtained by each visual recognizer 9 can be evaluated.

次に、偏差εえが大きく、時刻T1においてP、により
像が得られなかった場合を考える。この場合、材料3は
、時刻T1において、点Bに達していないか、あるいは
、点Bを通過していることになる。この時の位置は、式
(6)によって料15を確認することによってv(x、
)の異常を判断することが出来る。
Next, consider a case where the deviation ε is large and no image is obtained due to P at time T1. In this case, the material 3 has not reached point B or has passed through point B at time T1. The position at this time can be determined by confirming the value 15 using equation (6), v(x,
) abnormalities can be determined.

第5図に示す製造ライン1がデッドタイムなしの連続し
たプロセスラインである場合、視覚認識器9は、処理区
間Xi、X2.・・・・・・、X11毎に設置される必
要はない。すなわち、点Aにおいて時刻T。で認識され
た材料3は、前述の方法により正確に予測トラッキング
されるため、最終的に点Zで認識されれば良いことにな
る。従って視覚認識器は、点A、点Zの二ケ所で良いた
め、その数を極端に減らすことができる。
When the manufacturing line 1 shown in FIG. 5 is a continuous process line without dead time, the visual recognizer 9 recognizes the processing sections Xi, X2, . ..., it is not necessary to install it for each X11. That is, at point A at time T. Since the material 3 recognized at point Z is accurately predicted and tracked by the method described above, it is only necessary to finally recognize it at point Z. Therefore, since only two visual recognizers, point A and point Z, are required, the number of visual recognizers can be extremely reduced.

さらに、製造ライン1が混在ラインであり、異なる形状
をもった複数種の材料3を処理する場合を考える。この
場合、特徴点1,0として、互いに区別の可能なものを
考える必要がある。第15図に一例を示す。特徴点10
の形状は任意に決定することができるため、その特徴量
も自由、である。
Furthermore, consider a case where the manufacturing line 1 is a mixed line and processes multiple types of materials 3 having different shapes. In this case, it is necessary to consider feature points 1 and 0 that can be distinguished from each other. An example is shown in FIG. Feature points 10
Since the shape of can be determined arbitrarily, its feature quantity is also free.

このような特徴点10を設けることにより、製造ライン
1が混在ラインであっても前述の予測トラッキングが可
能であり、模擬製造ライン6上の模擬材料15を互いに
区別出来るシンボルを用いて、表示すれば良いことにな
る。
By providing such feature points 10, the aforementioned predictive tracking is possible even if the manufacturing line 1 is a mixed line, and the simulated materials 15 on the simulated manufacturing line 6 can be displayed using symbols that can be distinguished from each other. That's a good thing.

〔発明の効果〕〔Effect of the invention〕

変発明によれば、消料を映像としてとらえることが出来
るため、材料の連続映像トラッキング、材料認識センサ
数の減少、材料の位置の予測、トラッキング系の異常検
出が可能となる。
According to the modified invention, since consumption can be captured as an image, continuous image tracking of the material, reduction in the number of material recognition sensors, prediction of the position of the material, and detection of abnormalities in the tracking system become possible.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は従来のトラッキング製造ラインを示す図、第2
図、第3図は従来のトラッキング装置の図、第4図は視
覚認識装置によって得られた材料の像を示す図、第5図
は本発明の一実施例のトラッキング製造ラインを示す図
、第6図は材料の一例を示す図、第7図は材料の特徴点
の説明図、第8図は本発明の一実施例のトラッキング装
置の構成図、第9図は本発明の一実施例のトラッキング
表示装置を示す図、第10図は視覚認識器信号の処理ブ
ロック図、第11図は材料の領域分割説明図、第12図
は特徴点の時間的変化を示す図、第13図は材料トラッ
キング映像図、第14図は材料の位置補正説明図、第1
5図は互いに異なる特徴点をもつ材料の説明図である。 1・・・製造ライン、3・・・材料、9・・・視覚認識
器、10・・・特徴点。 代理人 弁理士 高橋明夫 $+口 茅3目 ヰ4図 キ50 −コー 2 井3目 年9囚 竿10口 3 芽n E] 7□ 竿13邑 牛15目
Figure 1 shows a conventional tracking manufacturing line;
3 is a diagram of a conventional tracking device, FIG. 4 is a diagram showing an image of a material obtained by a visual recognition device, and FIG. 5 is a diagram showing a tracking production line according to an embodiment of the present invention. FIG. 6 is a diagram showing an example of the material, FIG. 7 is an explanatory diagram of the characteristic points of the material, FIG. 8 is a configuration diagram of a tracking device according to an embodiment of the present invention, and FIG. 9 is a diagram showing an example of the present invention. A diagram showing a tracking display device, FIG. 10 is a processing block diagram of a visual recognizer signal, FIG. 11 is an explanatory diagram of region division of a material, FIG. 12 is a diagram showing temporal changes in feature points, and FIG. 13 is a diagram of a processing block diagram of a visual recognizer signal. Tracking image diagram, Figure 14 is an explanatory diagram of material position correction, Figure 1
FIG. 5 is an explanatory diagram of materials having mutually different feature points. 1... Production line, 3... Material, 9... Visual recognizer, 10... Feature point. Agent Patent Attorney Akio Takahashi $ + mouth 3 eyes ヰ 4 figures ki 50 - ko 2 well 3 eyes year 9 prison rod 10 mouth 3 bud n E] 7□ rod 13 eupushi 15 eyes

Claims (1)

【特許請求の範囲】 ■、数種の処理又は加工過程をもち、材料の通過位置認
識センサを備え、予め定めた速度で運転される製造ライ
ンの前記材料の通過位置を監視するトラッキング装置に
おいて、 視覚認識器と、その認識信号を処理するための画像処理
装置と、前記製造ラインを模擬的に映し出すための映像
装置及び表示装置と、これらを総合的に制御するための
処理装置と、画像認識器の認識信号により材料の形状及
び位置を認識し、前記映像装置に連結された前記表示装
置に、模擬的に映し出された前記製造ライン上で、材料
の形状及び位置を順次変化させる手段とからなることを
特徴とするビジョントラッキング装置。
[Scope of Claims] (1) A tracking device that monitors the passing position of the material on a production line that has several types of processing or processing steps, is equipped with a sensor for recognizing the passing position of the material, and is operated at a predetermined speed, a visual recognizer, an image processing device for processing recognition signals thereof, a video device and a display device for displaying a simulated image of the manufacturing line, a processing device for comprehensively controlling these, and an image recognition device. means for recognizing the shape and position of the material based on a recognition signal from the container, and sequentially changing the shape and position of the material on the production line displayed in a simulated manner on the display device connected to the video device; A vision tracking device characterized by:
JP59104608A 1984-05-25 1984-05-25 Vision tracking apparatus Pending JPS60249559A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59104608A JPS60249559A (en) 1984-05-25 1984-05-25 Vision tracking apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59104608A JPS60249559A (en) 1984-05-25 1984-05-25 Vision tracking apparatus

Publications (1)

Publication Number Publication Date
JPS60249559A true JPS60249559A (en) 1985-12-10

Family

ID=14385137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59104608A Pending JPS60249559A (en) 1984-05-25 1984-05-25 Vision tracking apparatus

Country Status (1)

Country Link
JP (1) JPS60249559A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63120060A (en) * 1986-11-06 1988-05-24 Toyota Motor Corp Tracking method
JPH0228824U (en) * 1988-08-17 1990-02-23
JP2020203791A (en) * 2019-05-29 2020-12-24 ドイチェ ポスト アーゲー Method of monitoring and/or maintaining conveyor system and conveyor system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63120060A (en) * 1986-11-06 1988-05-24 Toyota Motor Corp Tracking method
JPH0228824U (en) * 1988-08-17 1990-02-23
JP2020203791A (en) * 2019-05-29 2020-12-24 ドイチェ ポスト アーゲー Method of monitoring and/or maintaining conveyor system and conveyor system

Similar Documents

Publication Publication Date Title
Cheng et al. Intelligent highway traffic surveillance with self-diagnosis abilities
US20030137593A1 (en) Infrared image-processing apparatus
JPH033079A (en) Infrared-ray monitoring system
JP2003150938A (en) Image recognizing device
US10740908B2 (en) Moving object
CN112530170A (en) Vehicle driving state detection method and device, electronic equipment and storage medium
JP5386744B2 (en) Monitoring system
US20220055618A1 (en) Apparatus, method, and computer program for object detection
JP6327297B2 (en) Traffic information acquisition device, traffic information acquisition method, and traffic information acquisition program
CN109703456B (en) Warning method and device for preventing automobile collision and automobile controller
KR20160075135A (en) Vehicle System for Detecting Objects and Detecting Method
JP3920535B2 (en) Vehicle detection method and vehicle detection device
CN110519566B (en) Belt motion state monitoring method based on video processing
CN105976398A (en) Daylight fire disaster video detection method
JP2000259999A (en) Method for warning deviation of vehicle from lane
JP5292047B2 (en) Vehicle periphery monitoring device
JPS60249559A (en) Vision tracking apparatus
JP2000137790A (en) Method and device for monitoring image of man conveyor
JPH08249597A (en) Road shape detector
KR100302724B1 (en) Method for road modeling of beyond a lane alarm device
US6757006B1 (en) Moving trouble monitoring system and recording medium
CN114581447B (en) Conveying belt deviation identification method and device based on machine vision
CN103886754B (en) A kind of system and method for quick discovery signal lamp control crossroad exception parking
JPH02182093A (en) Monitor
US20160311430A1 (en) Road environment recognition device, vehicle control device, and vehicle control method