DE19843602A1 - Processing unit movement detection for manufacturing process - Google Patents

Processing unit movement detection for manufacturing process

Info

Publication number
DE19843602A1
DE19843602A1 DE19843602A DE19843602A DE19843602A1 DE 19843602 A1 DE19843602 A1 DE 19843602A1 DE 19843602 A DE19843602 A DE 19843602A DE 19843602 A DE19843602 A DE 19843602A DE 19843602 A1 DE19843602 A1 DE 19843602A1
Authority
DE
Germany
Prior art keywords
evaluation
unit
cameras
units
evaluation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19843602A
Other languages
German (de)
Inventor
Werner Wolfrum
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE19843602A priority Critical patent/DE19843602A1/en
Publication of DE19843602A1 publication Critical patent/DE19843602A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31286Detect position of articles and equipment by receivers, identify objects by code
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31288Archive collected data into history file
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31304Identification of workpiece and data for control, inspection, safety, calibration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37208Vision, visual inspection of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37216Inpect component placement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

Spatial coordinates of each processing unit are continuously recorded by means of stationary cameras forming a camera array, and an evaluation unit. A translation vector describing the movement of the respective processing unit is determined for each spatial coordinate, and data corresponding to a spatial path are determined for each processing unit through stringing together of the determined translation vectors. The method involves detecting movements of processing units in a predetermined range during a manufacturing process. Spatial coordinates of each processing unit are continuously recorded by means of at least two stationary cameras arranged in the range, which form a camera array, and an evaluation unit. A translation vector describing the movement of the respective processing unit is determined for each spatial coordinate, and data corresponding to a spatial, preferably two-dimensional path are determined for each processing unit through stringing together of the determined translation vectors. An Independent claim is provided for a corresponding movement detection arrangement.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erfassen der Bewegungen von Prozeßeinheiten während eines Produktionsprozesses in einem vorgegebenen Auswer­ tebereich.The invention relates to a method and a device for detecting the movements of process units during of a production process in a given evaluation area.

Für die Steuerung von Materialflüssen und Produktionspro­ zessen in einer Fertigung sowie für eine automatische Er­ fassung von Qualitäts- und Produktdaten wird es immer wichtiger, daß einzeln transportierte Einheiten (Chargen, Horden, usw.) eine Kennung tragen, anhand der sie im Pro­ duktionsprozeß eindeutig identifiziert werden können. Dies ist dann um so wichtiger, wenn die zu fertigenden Produkte rein äußerlich nicht zu unterscheiden sind. Ein Beispiel dafür sind Wafer mit unterschiedlichen Prozeß­ historien in der Wafer- oder Chipproduktion.For the control of material flows and production pro in a production facility and for an automatic er Quality and product data will always be recorded more important that individually transported units (batches, Hordes, etc.) have an identifier that they use in the pro production process can be clearly identified. This is all the more important when the to be finished Products cannot be distinguished from the outside. A Examples of this are wafers with different processes histories in wafer or chip production.

Zunächst wird zur Vereinheitlichung der Formulierungen folgende Begriffsdefinition vereinbart:First, the wording is standardized the following definition of terms agreed:

Alle Arten von Produkt-, Material-, Transport- und/oder Equipmenteinzelteilen, -kombinationen oder -zusammenfas­ sungen werden als Prozeßeinheiten bezeichnet. Weiterhin werden im folgenden alle Arten von Produkt-, Material- und/oder Equipmentbewegungen und/oder -flüssen als Pro­ zeßeinheitenbewegung bezeichnet. All kinds of product, material, transportation and / or Equipment items, combinations or summaries solutions are called process units. Farther are all types of product, material and / or Equipment movements and / or flows as a pro designated unit movement.  

Die Beschreibung der Erfindung erfolgt der Anschaulich­ keit halber ausschließlich anhand der Chipproduktion. Diese steht stellvertretend für alle Arten von Produkti­ onsprozessen in der Wafer-, Halbleiter-, Elektronik-, Micromechanik- und/oder Feinwerktechnikproduktion.The description of the invention is clear only for the sake of chip production. This represents all types of products on processes in wafer, semiconductor, electronics, Micromechanics and / or precision engineering production.

Gerade weil es für die Chipproduktion so wichtig ist, eine eindeutige Verfolgung und Protokollierung von Mate­ rialflüssen zu erreichen, haben sich als derzeitiger Stand der Technik in der Halbleiterindustrie verschiedene automatisch oder maschinell auswertbare bzw. lesbare Kennzeichnungssysteme für die inner- und außerbetrieb­ lichen Prozeßeinheiten etabliert.Precisely because it is so important for chip production clear tracking and logging of mate Rial rivers have become more current State of the art in the semiconductor industry various Automatically or automatically evaluable or readable Labeling systems for indoor and outdoor use process units.

Die einfachste bekannte Technik ist die Verwendung eines Barcodes, der mit Hilfe von Laserscannern oder Barcode­ stiften gelesen werden kann.The simplest known technique is to use one Barcodes with the help of laser scanners or barcodes can be read.

Eine weitaus fortschrittlichere Kennzeichnungstechnologie stellen die sogenannten Infrarot-Tags (IR-ID) dar. Dabei handelt es sich um Kennzeichnungselemente, die bereits in Form eines integrierten Chips vorliegen. Aktiviert wird der Chip durch eine Lichteinstrahlung über einen Photo­ voltaikprozeß. Datenaustausch erfolgt durch eine Infra­ rotübertragung.A far more advanced labeling technology represent the so-called infrared tags (IR-ID) are label elements already in Form of an integrated chip. Is activated the chip through light exposure through a photo voltaic process. Data exchange takes place through an infra red transmission.

Ebenfalls in die Richtung einer intelligenten (Chip) Kennzeichnung gehen die seit neuerer Zeit bekannt gewor­ denen sogenannten Transponder. Diese enthalten ähnlich wie die IR-IDs einen Chip, jedoch mit dem Unterschied, daß die Energieversorgung und Datenübertragung mit Hilfe von Rundfunkwellen geschieht. Eine eigene Energiequelle ist in diesen RF-IDs (RF = Radio Frequency) ebenfalls nicht erforderlich.Also in the direction of an intelligent (chip) Marking that has become known recently the so-called transponders. These contain similar like the IR IDs a chip, but with the difference that using power and data transmission of radio waves happens. Your own energy source is also in these RF-IDs (RF = Radio Frequency) not mandatory.

Besonders fehleranfällig ist eine rein logische Material­ verfolgung. A purely logical material is particularly prone to errors tracking.  

Nachteile des Standes der Technik bestehen vor allem darin, daß die Transponder (RF-IDs), die Infrarot-Kenn­ zeichnungen (IR-IDs) und auch alle anderen bekannten Ver­ folgungssysteme durch die relativ kurzen Reichweiten und die eingeschränkte Selektivität (z. B. mehrere Prozeßein­ heiten mit Transponder auf einem Tisch) nicht in der Lage sind, die komplette Produkt-, Material- oder Equipmentbe­ wegung lückenlos zu erfassen, denn alle Vorgänge zwischen den Lese- oder Identifikationsstellen sind grundsätzlich unsichtbar. Gerade diese Erfassungslücken sind es aber, die bei den bekannten Systemen zu Problemen führen kön­ nen.The main drawbacks of the prior art are in that the transponders (RF IDs), the infrared identifier drawings (IR IDs) and all other known ver systems due to the relatively short ranges and the limited selectivity (e.g. multiple processes units with transponders on a table) are the complete product, material or equipment movement without gaps, because all processes between the reading or identification points are fundamental invisible. It is precisely these gaps in coverage, which can lead to problems with the known systems nen.

Aufgabe der Erfindung ist es deshalb, ein Verfahren zum Erfassen der Bewegungen von Prozeßeinheiten während eines Produktionsprozesses in einem vorgegebenen Auswertebe­ reich anzugeben, bei welchem die vorstehend beschriebenen Nachteile beseitigt sind.The object of the invention is therefore to provide a method for Detect the movements of process units during a Production process in a given evaluation area rich to indicate at which the above Disadvantages are eliminated.

Diese Aufgabe wird durch ein Verfahren mit den im An­ spruch 1 angegebenen Merkmalen und durch eine Vorrichtung mit den im Anspruch 15 angegebenen Merkmalen gelöst. Vor­ teilhafte Weiterbildungen ergeben sich aus den abhängigen Patentansprüchen.This task is accomplished by a procedure with the in claim 1 specified features and by a device solved with the features specified in claim 15. Before partial further training results from the dependent Claims.

Die Vorteile der Erfindung bestehen insbesondere darin, daß auch die sogenannten blinden Flecken oder chaotischen Zwischenschritte oder Pufferlager zwischen den einzelnen Prozeßschritten oder Prozeßabschnitten erfaßt werden kön­ nen. Als blinde Flecke bzw. chaotische Zwischenschritte oder Pufferlager sind insbesondere diejenigen Prozeß­ schritte oder Prozeßeinheitenbewegungen gemeint, die durch die bereits bekannten Erfassungsmöglichkeiten (Transponder, Barcode, Infrarot-Kennzeichnung) nicht oder nur unzureichend erfaßt oder verfolgt werden können. The advantages of the invention are in particular that even the so-called blind spots or chaotic ones Intermediate steps or buffer storage between the individual Process steps or process sections can be detected nen. As blind spots or chaotic intermediate steps or buffer stores are especially those process steps or process unit movements meant the through the already known detection options (Transponder, barcode, infrared identification) not or can only be insufficiently recorded or tracked.  

Die Erfindung ist sowohl dann verwendbar, wenn die Pro­ zeßeinheitenbewegung durch Verwendung einer technischen Vorrichtung wie Förderband, Conveyor, Roboter, usw., er­ folgt und auch dann, wenn diese Prozeßeinheitenbewegung durch das Operatorpersonal manuell vorgenommen wird.The invention can be used both when the Pro Unit movement using a technical Device such as conveyor belt, conveyor, robot, etc., he follows and even when this process unit movement is carried out manually by the operator staff.

Ein Zusammenwirken mit den bereits bekannten Systemen er­ höht die Gesamtsicherheit der durchgeführten Bewegungser­ fassung.An interaction with the already known systems increases the overall safety of the movement performed version.

In vorteilhafter Weise wird gemäß der Erfindung die Pro­ zeßeinheitenbewegung durch ein optisches Erfassungssystem als zwei- oder dreidimensionale Raumspur erfaßt und abge­ speichert bzw. protokolliert. Dies entspricht einer opti­ schen Erfassung durch eine zwei- oder dreidimensionale Bewegungsanalyse. Dadurch wird es zu jedem Zeitpunkt mög­ lich, im vorgegebenen Auswertebereich nicht nur die An­ zahl der Prozeßeinheiten, sondern auch deren genauen Auf­ enthaltsort zu bestimmen.Advantageously, according to the invention, the Pro Unit movement through an optical detection system detected as a two- or three-dimensional space trace and abge saves or logs. This corresponds to an opti acquisition by a two- or three-dimensional Motion analysis. This makes it possible at any time not only the type in the specified evaluation range number of process units, but also their exact order to determine location.

Weitere vorteilhafte Eigenschaften der Erfindung ergeben sich aus der Erläuterung von Ausführungsbeispielen anhand der Figuren.Further advantageous properties of the invention result itself based on the explanation of exemplary embodiments of the figures.

Es zeigt:It shows:

Fig. 1 eine schematische Darstellung eines ersten Aus­ führungsbeispiels für die Erfindung, Fig. 1 is a schematic representation of a first example of the invention From guide,

Fig. 2 eine schematische Darstellung eines zweiten Ausführungsbeispiels für die Erfindung, Fig. 2 is a schematic representation of a second embodiment of the invention,

Fig. 3 ein Blockschaltbild der Auswerteeinheit 3 von Fig. 1, Fig. 3 is a block diagram of the evaluation unit 3 of Fig. 1,

Fig. 4 eine Skizze zur Veranschaulichung der Anordnung der Kameras in einem Reinraum, Fig. 4 is a diagram illustrating the arrangement of the cameras in a clean room,

Fig. 5 eine Skizze des Reinraumes mit darin befind­ lichen Prozeßeinheiten, Fig. 5 is a sketch of the clean room having therein befind current process units,

Fig. 6 eine zweite Skizze zur Veranschaulichung eines Reinraumes mit darin befindlichen Prozeßein­ heiten, Figure 6 units. A second drawing that illustrates a clean room with Prozeßein therein,

Fig. 7 eine Skizze zur Veranschaulichung der Ermitt­ lung einer dreidimensionalen Raumspur, und Fig. 7 is a sketch illustrating the determination of a three-dimensional space, and

Fig. 8 eine Skizze zur Veranschaulichung eines weite­ ren Ausführungsbeispiels für die Erfindung. Fig. 8 is a sketch illustrating a wide ren embodiment for the invention.

Wie aus den Fig. 1 und 2 hervorgeht, weist die bean­ spruchte Vorrichtung Bildaufnahmeeinheiten 1 bzw. 5 auf, die in geeigneter Weise angeordnet und mit einer Auswer­ teeinheit 3 bzw. 7 verbunden sind. Im weiteren wird ein Verbund aus einer oder mehreren Bildaufnahmeeinheiten als Kamera-Array bezeichnet.As is apparent from FIGS . 1 and 2, the claimed device has image recording units 1 and 5 , respectively, which are arranged in a suitable manner and are connected to an evaluation unit 3 and 7 , respectively. In the following, a composite of one or more image recording units is referred to as a camera array.

Die verwendeten Kameras können dabei die Bilddaten sowohl in analoger Form (BAS-Signal, Standard-Videosignal) als auch in bereits digitalisierter, d. h. binärer Form lie­ fern.The cameras used can both image data in analog form (BAS signal, standard video signal) as even in already digitized, d. H. binary form lie remote.

Analoge Schwarz/Weiß-Videokameras mit Standard-Videosi­ gnal (Fernsehtechnik) sind auf dem Markt mittlerweile sehr kostengünstig und mit extrem kleiner Baugröße (32 mm × 32 mm × 14 mm) erhältlich, was dem Aufbau eines großen Kamera-Arrays sehr entgegenkommt. Die einzelnen Videosi­ gnale 2 werden, wie in Fig. 1 dargestellt, einzeln auf die Auswerteeinheit 3 geführt und darin in eine digitale Form gebracht.Analog black and white video cameras with standard video signal (television technology) are now available on the market at very low cost and with an extremely small size (32 mm × 32 mm × 14 mm), which is very beneficial for the construction of a large camera array. The individual video signals 2 , as shown in FIG. 1, are individually guided to the evaluation unit 3 and brought into a digital form therein.

Eine Busvariante, wie sie in Fig. 2 dargestellt ist, ist mit analogen Kameras prinzipiell zwar möglich, erfordert dafür aber, daß die Kameras einen Schalter für das Video­ signal integriert haben und sich an ein Busprotokoll (Zu­ griffssteuerung) halten.A bus variant, as shown in Fig. 2, is possible in principle with analog cameras, but requires that the cameras have a switch for the video signal integrated and adhere to a bus protocol (access control).

Die digitale Kameratechnik dagegen, die derzeit eine sehr rasche Weiterentwicklung durchmacht, eröffnet die Mög­ lichkeit, die Bilddaten ohne zusätzlichen Signalwand­ lungsaufwand mit einem Rechner oder einer sonstigen digi­ talen Bildverarbeitungseinheit zu verarbeiten.The digital camera technology, on the other hand, is currently a very undergoes rapid further development, opens the Mög the image data without an additional signal wall effort with a computer or other digi tal image processing unit to process.

Mit einer Bus- oder Vernetzungstechnologie 6 (Fig. 2) zwischen den Kameras 5 und der Auswerteeinheit 7 zu ar­ beiten, ist deshalb einfach, weil die Bilddaten schon in digitaler Form vorliegen und somit einfach digital über­ tragen werden können. Die Bus- oder Vernetzungstechnolo­ gie sowie die unterschiedlichen Protokollvarianten sind im Bereich der Automation und Computernetzwerke hinrei­ chend bekannt, so daß an dieser Stelle auf eine erschöp­ fende Darstellung verzichtet werden kann.Working with a bus or networking technology 6 ( FIG. 2) between the cameras 5 and the evaluation unit 7 is simple because the image data are already in digital form and can therefore be easily transmitted digitally. The bus or networking technology as well as the different protocol variants are sufficiently known in the field of automation and computer networks, so that an exhaustive presentation can be dispensed with at this point.

Stellvertretend für alle anderen möglichen Lösungsan­ sätze, wie die Bilddaten aus einer oder mehreren Kameras in eine Bildauswerteeinheit gelangen, wird der Aufbau an­ hand einer analogen Lösung näher erläutert.Representing all other possible solutions sets, such as the image data from one or more cameras get into an image evaluation unit, the structure is on hand explained in more detail an analog solution.

Die Fig. 3 zeigt hierzu den schematischen Aufbau für ei­ nen Auswerteeinheit 3 mit acht Analogeingängen 2, über die kontinuierlich die vom Kamera-Array aufgenommenen Teilbilder des zu überwachenden Auswertebereiches (siehe auch Fig. 4) eingehen. In diesem Beispiel wird durch ei­ nen Multiplexer 8 jeweils nur ein Kamerasignal selektiert und auf die Digitalisierungseinheit, den sogenannten Framegrapper 9, gegeben. Danach liegen die Bilddaten in binärer Form vor und können digital in der Bildauswerte­ einheit 10 weiterverarbeitet und insbesondere ausgewertet werden. Fig. 3 shows this continuously enter the captured by the camera array sub-images to be monitored evaluation range (see also Fig. 4) the schematic structure for egg NEN evaluation unit 3 with eight analog inputs 2, on the. In this example, only one camera signal is selected by a multiplexer 8 and passed to the digitizing unit, the so-called frame grabber 9 . The image data are then available in binary form and can be processed digitally in the image evaluation unit 10 and in particular evaluated.

Bei 50 Halbbildern pro Sekunde ergeben sich durch das Multiplexen von acht Kameras ca. fünf Halbbilder pro Se­ kunde. Bei einer durchschnittlichen Schrittgeschwindig­ keit von 1,6 m/s ergibt sich zwischen zwei Halbbildern einer Kamera eine Wegdifferenz von ca. 30 cm. Für jeweils einen Transportvorgang z. B. durch nur eine Person (Ope­ rator 18) ist dies für eine Auswertung ausreichend.At 50 fields per second, the multiplexing of eight cameras results in approximately five fields per second. With an average walking speed of 1.6 m / s, there is a path difference of approx. 30 cm between two fields of a camera. For one transport operation each. B. by only one person (operator 18 ), this is sufficient for an evaluation.

Sollen mehrere Personen arbeiten (hohes Transportaufkom­ men) oder simultan komplexere Prozeßeinheitenbewegungen analysiert und erfaßt werden, so ist eine höhere Bildrate erforderlich. Dies erreicht man einfach durch weniger Ka­ meras pro Auswerteeinheit oder durch den Einsatz von di­ gitalen Kameras.Should several people work (high transport volume men) or simultaneously more complex process unit movements are analyzed and recorded, so is a higher frame rate required. You can do this simply by using less Ka meras per evaluation unit or by using di gital cameras.

Eine Translationsbewegung einer Prozeßeinheit, etwa durch das Weitertragen durch den Operator, läßt sich am ein­ fachsten durch einen Mustervergleich erkennen. Dieser ist besonders einfach, wenn die Prozeßeinheit immer aus der gleichen Perspektive (z. B. aufrecht stehend), wie es in den Fig. 5, 6 und 7, Element 27, gesehen wird.A translational movement of a process unit, for example by being carried on by the operator, can be most easily recognized by comparing a pattern. This is particularly simple if the process unit is always viewed from the same perspective (e.g. upright), as seen in FIGS. 5, 6 and 7, element 27 .

Gerade in der Halbleiterproduktion kommt es jedoch häufig vor, daß die Prozeßeinheiten im Prozeßequipment auf die Seite gekippt eingelegt werden, so daß beispielsweise die Wafer einfach durch einen Roboterarm entnommen werden können. Durch das Kippen wird zwar der Aufwand für die Identifizierung der Prozeßeinheit im Bild aufwendiger, bleibt aber trotzdem ohne weiteres lösbar. Setzt man bei der Auswertung zusätzlich physikalisches Wissen wie bei­ spielsweise die Kenntnis der inversen Kinematik, Plausi­ bilitätsüberlegungen oder anatomische Vorgaben wie In­ formationen über die Abmessungen und Bewegungseinschrän­ kungen des menschlichen Körpers, ein, so lassen sich auch schwierige Bildsituationen oder unklare Bilddaten, wie z. B. eine Abdeckung der Prozeßeinheit durch den Körper des Operators, beherrschen. However, it is particularly common in semiconductor production before that the process units in the process equipment on the Inserted side tilted so that, for example, the Wafers can be easily removed by a robotic arm can. By tilting the effort for Identification of the process unit in the picture but still remains easily solvable. You put in additional physical knowledge as with for example the knowledge of inverse kinematics, plausi balance considerations or anatomical specifications such as In Formations about the dimensions and restrictions of movement of the human body, can also be difficult picture situations or unclear picture data, such as B. a cover of the process unit through the body of the Operators, master.  

Auch können einzelne Prozeßeinheiten, die im System noch nicht bekannt sind, d. h. deren Anfangsraumspur oder Her­ kunft nicht vom System erfaßt wurde, aufgefunden und durch entsprechende Maßnahmen, wie z. B. eine Meldung an den Operator und/oder eine Identifizierung mittels einer konventionellen Lesestelle, erfaßt werden.Also, individual process units that are still in the system are not known, d. H. their initial space trace or fro was not detected by the system, found and through appropriate measures such. B. a message the operator and / or identification by means of a conventional reading point.

Der einfachste Ansatz einer Bildauswerteeinheit 10 mit hoher Rechenleistung besteht in der Verwendung eines Di­ gitalen-Signal-Prozessors DSP. Derartige DSPs ermöglichen es erst durch die ständig wachsende Leistung den enormen Rechenaufwand für die Bildauswertungen zu beherrschen. Allerdings stoßen auch derartige DSPs bei den oben ge­ nannten Zusatzüberlegungen (physikalisches Wissen und Plausibilitätsprüfungen) an ihre Grenzen.The simplest approach of an image evaluation unit 10 with high computing power is to use a digital signal processor DSP. Such DSPs only make it possible to master the enormous computing effort for the image evaluations due to the constantly growing performance. However, such DSPs also reach their limits when it comes to the additional considerations mentioned above (physical knowledge and plausibility checks).

Ein neuer und noch leistungsfähigerer Ansatz besteht in der Verwendung eines FPGAs (Field Programable Field Array) als Bildauswerteeinheit 10. Durch eine geeignete Programmierung ist man damit nicht nur in der Lage, auch komplexe Auswertealgorithmen hochgradig parallel abzuar­ beiten, sondern auch noch die gesamte Ansteuerlogik für den Multiplexer, den Framegrapper oder für die Ansteue­ rung von digitalen Kameras mit zu integrieren. Noch lei­ stungsfähiger, insbesondere für 3D-Auswertungen, ist eine Kombination aus FPGA und DSP. Die höchste Leistung wird natürlich erzielt, wenn im Extremfall jede Kamera eine eigene Auswerteeinheit besitzt, wobei diese Auswerteein­ heiten über ein Netzwerk 4 logisch miteinander verbunden sind.A new and even more powerful approach is to use an FPGA (Field Programmable Field Array) as an image evaluation unit 10. With suitable programming, you are not only able to process complex evaluation algorithms in parallel to a high degree, but also the entire control logic for to integrate the multiplexer, the frame grabber or for the control of digital cameras. A combination of FPGA and DSP is even more powerful, especially for 3D evaluations. The highest performance is of course achieved if, in extreme cases, each camera has its own evaluation unit, these evaluation units being logically connected to one another via a network 4 .

Durch die Bildauswerteeinheit 10 wird zunächst die Posi­ tion einer Prozeßeinheit, d. h. die Koordinaten in der zweidimensionalen Bildmatrix, extrahiert. Drehungen der Prozeßeinheit um die Hochachse können durch die Lage des Mustervergleiches hier zusätzlich gewonnen und für wei­ tere Auswertungen herangezogen werden. The position of a process unit, ie the coordinates in the two-dimensional image matrix, is first extracted by the image evaluation unit 10 . Rotations of the process unit around the vertical axis can also be obtained here by the position of the pattern comparison and used for further evaluations.

Durch Vergleich mit dem Vorgängerbild erhält man die durch Bewegung bedingte Verschiebung, d. h. die Transla­ tionsvektoren. Beschränkt man sich auf eine zweidimensio­ nale Auswertung, so setzt sich die Raumspur, wie in den Fig. 5, Element 19 und 6, Element 21 veranschaulicht, einfach durch ein Aneinanderreihen der Translationsvekto­ ren zusammen.By comparing with the previous image, one obtains the shift caused by movement, ie the translation vectors. If one restricts himself to a two-dimensional evaluation, the space track, as illustrated in FIGS . 5, elements 19 and 6 , element 21 , is composed simply by stringing the translation vectors together.

Die Bildauswerteeinheit 10 muß dabei natürlich die Per­ spektiven der einzelnen Kameras im Kamera-Array berück­ sichtigen und die einzelnen Bilder entsprechend zusammen­ setzen. Weiterhin muß das Überschreiten einer Bildgrenze mit dem Eintreten in das angrenzende Bild rechnerisch be­ rücksichtigt werden. Da die Kameras ein kegelförmiger Blickfeld (siehe Fig. 7, Bezugszahl 29) besitzen, wird es ab einer gewissen Höhe 28 immer zu einem Überlappen der Bildfelder kommen, welches die Bildauswerteeinheit 10 ebenfalls zu berücksichtigen hat.The image evaluation unit 10 must of course take into account the perspectives of the individual cameras in the camera array and put the individual images together accordingly. Furthermore, the crossing of an image boundary must be taken into account arithmetically when entering the adjacent image. Since the cameras have a conical field of view (see FIG. 7, reference number 29 ), from a certain height 28 there will always be an overlap of the image fields, which the image evaluation unit 10 must also take into account.

Die errechneten Koordinaten der im Bereich einer Auswer­ teeinheit 3, 7 befindlichen Prozeßeinheiten werden von dieser mit Hilfe einer Netzwerkanbindung 11 zur weiteren Verwendung auf einem Netzwerk 4 bereitgestellt. Diese weitere Verwendung kann beispielsweise ein Steuervorgang oder eine Qualitätsdatenerfassung sein. Das Netzwerk 4 kann insbesondere auch dazu dienen, mehrere Kamera-Arrays 1, 5 mit ihren zugehörigen Auswerteeinheiten 3, 7 mitein­ ander logisch zu verknüpfen und so aus einzelnen Arrays quasi ein Makro-Array oder Super-Array zu bilden. Logi­ sche Abgleichinformationen, beispielsweise das Über­ schreiten einer Prozeßeinheit über eine Kamera-Array-Grenze in angrenzendes Array, fließen dabei zwischen den beteiligten Auswerteeinheiten.The calculated coordinates of the process units located in the area of an evaluation unit 3 , 7 are provided by the latter with the aid of a network connection 11 for further use on a network 4 . This further use can be, for example, a control process or quality data acquisition. The network 4 can, in particular, also serve to logically link several camera arrays 1 , 5 with their associated evaluation units 3 , 7 and thus quasi form a macro array or super array from individual arrays. Logical calibration information, for example the crossing of a process unit over a camera array boundary into an adjacent array, flows between the evaluation units involved.

Weiterhin kann auch eine zentrale Steuereinheit die Ein­ zel-Arrays koordinieren, steuern und die Bewegungsdaten verwalten. Dies entspricht einer Steuerung des Makro- Arrays oder Super-Arrays durch eine zentrale Steuerein­ heit bzw. übergeordnete Intelligenz.Furthermore, a central control unit can also be used zel arrays coordinate, control and the movement data manage. This corresponds to a control of the macro  Arrays or super arrays by a central control unit unit or superordinate intelligence.

Im folgenden wird die Arbeitsweise der gezeigten Vorrich­ tung anhand der Fig. 4, 5 und 6 näher erläutert.In the following the operation of the device shown Vorrich is explained in more detail with reference to FIGS . 4, 5 and 6.

Vorzugsweise sind die Kameras des Kamera-Arrays 1, 5 an der Decke einer Produktionsstätte montiert und nehmen von oben die Szenerie auf. In der Fig. 4 sind insgesamt sechs Kameras 1/5 in einem Raster über dem zu überwachen­ den Auswertebereich angeordnet. Das gezeigte Szenario um­ faßt weiterhin eine Schleuse 13, durch die Prozeßeinhei­ ten in den Reinraumbereich, der in der Produktionsstätte vorliegt, eingeschleust werden.The cameras of the camera array 1 , 5 are preferably mounted on the ceiling of a production facility and record the scenery from above. In FIG. 4, six cameras fifth total arranged in a grid on the monitor the evaluation region. The scenario shown also includes a lock 13 through which process units are introduced into the clean room area that is present in the production facility.

Die bereits bekannten Erfassungsmöglichkeiten wie bei­ spielsweise Transponder 12, 16, Barcode, Infrarot-Kenn­ zeichnung oder eine sonstige Kennzeichnung der Produk­ tionseinheiten oder auch die virtuelle, ausschließlich auf der Basis von Informationsverarbeitung (Datenbanken usw.) basierende Datenmitführung übergibt an das optische System gemäß der Erfindung die zur Prozeßeinheit gehören­ den Daten. Dies geschieht entweder an der Schleuse 13 oder an sonstigen definierten Identifizierungspunkten 15. Dies ermöglicht eine eindeutige Identifizierung am Start­ punkt einer Raumspur, so daß dadurch Prozeßkennzeichnun­ gen oder -daten eindeutig einer auf einer Raumspur beweg­ ten Prozeßeinheit zugeordnet werden können.The already known detection options such as transponders 12 , 16 , barcode, infrared identification or other identification of the production units or the virtual data transfer based solely on information processing (databases etc.) transfers to the optical system according to the Invention which belongs to the process unit is the data. This takes place either at the lock 13 or at other defined identification points 15. This enables a clear identification at the starting point of a space trace, so that process identifications or data can be clearly assigned to a process unit moving in a space trace.

Ist diese Zuordnung erfolgt, dann kann der Operator 18 die Prozeßeinheit aus der Schleuse entnehmen und bei­ spielsweise auf einem Tisch 14 abstellen. Dies ist das einfachste Beispiel eines chaotischen Zwischenlagers. Re­ gale oder kompliziertere Einrichtungen sind mit einer dreidimensionalen Auswertung erfaßbar. Die Prozeßeinheit wird dabei auf einer Raumspur 19 bewegt, die in der Fig. 5 dargestellt ist. Das System hat nun vier Prozeßeinhei­ ten im Erfassungsbereich, deren zugehörige Daten mit vom System verwaltet werden können.Once this assignment has been made, the operator 18 can remove the process unit from the lock and place it on a table 14, for example. This is the simplest example of a chaotic interim storage facility. Re gale or more complicated facilities can be detected with a three-dimensional evaluation. The process unit is moved on a space track 19 , which is shown in FIG. 5. The system now has four process units in the detection area, the associated data of which can also be managed by the system.

Gemäß der Fig. 6 nimmt nun der Operator 18 eine andere Prozeßeinheit 17 wieder vom Tisch 14 auf und bewegt diese auf der Raumspur 21 zur Eingabestation 15 einer Prozeßan­ lage. Beim Punkt 22 erfolgt dabei die logische Weiterfüh­ rung der Raumspur, mit der die Prozeßeinheit auf den Tisch 14 befördert wurde.According to FIG. 6, the operator 18 now takes a different process unit 17 back from the table 14 and moves it to the space track 21 to input station 15 of a location Prozeßan. At point 22 there is the logical continuation of the space track with which the process unit was conveyed to the table 14 .

Am definierten Ende der Raumspur 21 erfolgt die Zurückzu­ ordnung bzw. eine Überprüfung der zugeordneten Daten und ggf. eine Datenübergabe an eine nachfolgende oder überge­ ordnete Prozeßumgebung. Ist die Transponderkennzeichnung 16 am Beginn und am Ende einer Raumspur verschieden, ohne daß ein Wechsel der Transportmedien (Transponder) vorge­ sehen ist, so ist offensichtlich eine Fehlersituation aufgetreten.At the defined end of the space track 21 , the assignment back or a check of the assigned data and possibly a data transfer to a subsequent or superordinate process environment takes place. If the transponder identification 16 is different at the beginning and at the end of a space lane without a change in the transport media (transponder) being provided, then an error situation has obviously occurred.

Da das System ständig abspeichert bzw. oneline mitproto­ kolliert, wo sich eine Prozeßeinheit gerade befindet, ist es auch möglich, logische Einschränkungen der Bewegung festzulegen. Dies geschieht durch eine Definition von Be­ wegungskorridoren, wobei diese Bewegungskorridore durch in einem Speicher der Bildauswerteeinheit 10 abgespei­ cherte Daten charakterisiert werden. Wird eine Prozeßein­ heit über eine derartige virtuelle Grenze hinausbewegt, so wird vom System ein Alarmsignal ausgegeben. Dadurch wird ausgeschlossen, daß eine Prozeßeinheit versehentlich aus dem Prozeßbereich entfernt und irgendwo abgestellt und/oder vergessen wird.Since the system constantly saves or collates oneline where a process unit is located, it is also possible to define logical restrictions on the movement. This is done by defining movement corridors, these movement corridors being characterized by data stored in a memory of the image evaluation unit 10 . If a process unit is moved beyond such a virtual limit, the system issues an alarm signal. This prevents a process unit from being accidentally removed from the process area and placed somewhere and / or forgotten.

Die Erfassung einer dreidimensionalen Raumkurve ist schwieriger als die Erfassung einer zweidimensionalen Raumkurve. Die dritte Raumkoordinate muß aus der Überlap­ pung zweier Kamerabilder extrahiert werden, wie in Fig. 7 veranschaulicht ist. Jede Auswertung eines Kamerakana­ les liefert einen zweidimensionalen Koordinatensatz mit der Position der Prozeßeinheit im Bild. Was aus den Ein­ zelbildern nicht einfach extrahiert werden kann, ist der Abstand des Objektes 26 von der Kamera, d. h. die Höhen­ position des Objektes 26 im Raum. Liegt nur ein zweidi­ mensionales Bild vor, dann kann die Höhenposition des Ob­ jektes nur durch die erfaßte Objektgröße ermittelt wer­ den, was aber sehr aufwendig ist.Acquiring a three-dimensional space curve is more difficult than acquiring a two-dimensional space curve. The third spatial coordinate must be extracted from the overlap of two camera images, as illustrated in FIG. 7. Each evaluation of a camera channel provides a two-dimensional set of coordinates with the position of the process unit in the image. What cannot be easily extracted from the individual images is the distance of the object 26 from the camera, ie the height position of the object 26 in space. If there is only a two-dimensional image, then the height position of the object can only be determined by the detected object size, which is very expensive.

Einfacher kann die Höhenposition des Objektes im Raum er­ mittelt werden, wenn man unter Berücksichtigung der An­ ordnung zweier Kameras 23 und 24 unter Auswertung von de­ ren Bilder oder den bereits extrahierten 2D-Koordinaten (Vorverarbeitung) geometrische Auswertungen durchführt. So lassen sich beispielsweise die Sichtwinkel α und β der beiden Kameras 23 und 24 berechnen und aus einer einfa­ chen Triangulation die Höhe (dritte Raumkoordinate) er­ mitteln.The height position of the object in space can be determined more easily if one carries out geometric evaluations, taking into account the arrangement of two cameras 23 and 24 , evaluating their images or the already extracted 2D coordinates (preprocessing). For example, the viewing angles α and β of the two cameras 23 and 24 can be calculated and the height (third spatial coordinate) determined from a simple triangulation.

Voraussetzung dafür ist, daß das Objekt 26 bei jeder Po­ sition im zu überwachenden Bereich von mindestens zwei Kameras erfaßt wird. Hierfür kann es vorteilhaft sein, mindestens eine Kamera auch gekippt und/oder gedreht zu installieren, wie dies anhand der Kamera 25 in der Fig. 7 gezeigt ist. Dadurch wird zwar der geometrische Aufwand für die Auswertung aufwendiger, aber es lassen sich die Blickfelder der Kameras besser und effektiver ausnutzen. Voraussetzung ist aber, daß die durchzuführenden Muster­ vergleiche alle Perspektiven einer Prozeßeinheit analy­ sieren und auswerten können.The prerequisite for this is that the object 26 is detected by at least two cameras in each position in the area to be monitored. For this purpose, it can be advantageous to install at least one camera also tilted and / or rotated, as is shown with reference to the camera 25 in FIG. 7. This means that the geometric effort for the evaluation is more complex, but the fields of view of the cameras can be used better and more effectively. However, the prerequisite is that the patterns to be carried out can analyze and evaluate all perspectives of a process unit.

Arbeitet man mit einem optischen System, so ist es damit unter anderem auch möglich, definierte optische Kenn­ zeichnungen zu erfassen und zu lesen. Sind die Prozeßein­ heiten 30, wie es in der Fig. 8 gezeigt ist, zusätzlich mit einem Barcode 32, einem 2D-Code (Bitmap) oder einer OCR-Schrift 31 versehen, so kann deren Erfassung, Auswer­ tung oder Lesung ebenfalls im Rahmen der erfindungsgemä­ ßen Bewegungserfassung erfolgen. If you work with an optical system, it is also possible to capture and read defined optical markings. If the process units 30 , as shown in FIG. 8, are additionally provided with a bar code 32 , a 2D code (bitmap) or an OCR font 31 , their detection, evaluation or reading can also be carried out within the scope of the Motion detection according to the invention take place.

Dies hat den Vorteil, daß bei Prozeßautomaten oder Pro­ zeßanlagen (Equipment) die Anwesenheit und die Kennzeich­ nung einer Prozeßeinheit 34 beispielsweise an einer Auf­ nahmestelle in diesem Equipment erfaßt und - falls eine Vernetzung besteht - auch an das Equipment weitergeleitet werden kann. Dies ist besonders dann vorteilhaft, wenn in der Umgebung der Aufnahmestelle 35 Schwierigkeiten beste­ hen, Antennen oder sonstige Anbauten für eine Identifi­ zierung anzubringen, die den Bewegungsfreiraum um die Aufnahmestelle 35 einschränken. Eine Kamera über dem Equipment stört hingegen nicht. Am einfachsten ist - wie bereits oben ausgeführt - die Installation der Kameras an der Decke des jeweiligen Raumes.This has the advantage that the presence and identification of a process unit 34, for example at a receiving point in this equipment, can be detected in process machines or process systems (equipment) and - if there is a network - can also be forwarded to the equipment. This is particularly advantageous if there are difficulties in the vicinity of the receiving point 35 to attach antennas or other attachments for identification, which restrict the freedom of movement around the receiving point 35 . A camera over the equipment does not interfere. The easiest way - as already explained above - is to install the cameras on the ceiling of the respective room.

Selbstverständlich ist es auch möglich, eine Kamera ein­ zig für den Zweck der Anwesenheits- und der Kennzeich­ nungserfassung einzusetzen, ohne damit gleichzeitig Raum­ spuren zu analysieren.Of course it is also possible to use a camera umpteen for the purpose of presence and identification use acquisition without using space at the same time analyze traces.

Claims (27)

1. Verfahren zum Erfassen der Bewegungen von Prozeßein­ heiten während eines Produktionsprozesses in einem vorge­ gebenen Auswertebereich, dadurch gekennzeich­ net, daß mittels mindestens zweier ortsfest im Auswer­ tebereich angeordneten, ein Kamera-Array bildenden Kame­ ras und einer Auswerteeinheit kontinuierlich Ortkoordina­ ten jeder Prozeßeinheit erfaßt werden, daß zu jeder Orts­ koordinate ein die Bewegung der jeweiligen Prozeßeinheit beschreibender Translationsvektor ermittelt wird, und daß für jede Prozeßeinheit durch ein Aneinanderreihen der er­ mittelten Translationsvektoren einer Raumspur entspre­ chende Daten ermittelt werden.1. A method for detecting the movements of Prozessein units during a production process in a given evaluation area, characterized in that by means of at least two fixedly arranged in the evaluation area, a camera array forming cameras and an evaluation unit, location coordinates of each process unit are continuously detected that a coordinate describing the movement of the respective process unit is determined for each location coordinate, and that corresponding data for each process unit is determined by stringing together the determined translation vectors of a spatial trace. 2. Verfahren nach Anspruch 1, dadurch gekenn­ zeichnet, daß die der Raumspur entsprechenden Daten abgespeichert werden.2. The method according to claim 1, characterized records that the data corresponding to the space track can be saved. 3. Verfahren nach Anspruch 1 oder 2, dadurch ge­ kennzeichnet, daß einer zweidimensionalen Raumspur entsprechende Daten ermittelt werden.3. The method according to claim 1 or 2, characterized ge indicates that a two-dimensional space trace corresponding data can be determined. 4. Verfahren nach Anspruch 1 oder 2, dadurch ge­ kennzeichnet, daß einer dreidimensionalen Raumspur entsprechende Daten ermittelt werden.4. The method according to claim 1 or 2, characterized ge indicates that a three-dimensional space trace corresponding data can be determined. 5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß in der Auswerteein­ heit die von den Kameras zur Verfügung gestellten Daten einem Mustervergleich zugeführt werden.5. The method according to any one of the preceding claims, characterized in that in the evaluation is the data provided by the cameras be compared to a sample. 6. Verfahren nach Anspruch 5, dadurch gekenn­ zeichnet, daß die Kameras die Prozeßeinheiten stets aus derselben Perspektive erfassen. 6. The method according to claim 5, characterized records that the cameras always the process units grasp from the same perspective.   7. Verfahren nach Anspruch 5, dadurch gekenn­ zeichnet, daß die Kameras die Prozeßeinheiten aus verschiedenen Perspektiven erfassen.7. The method according to claim 5, characterized characterizes that the cameras distinguish the process units different perspectives. 8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Ausgangssignale jeder Kamera einer eigenen Auswerteeinheit zugeführt wer­ den.8. The method according to any one of the preceding claims, characterized in that the output signals each camera is supplied with its own evaluation unit the. 9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Ausgangssignale der Auswerteeinheit einer weiteren Auswerteeinheit zuge­ führt werden, wobei die weitere Auswerteeinheit zum Er­ fassen von Bewegungen der Prozeßeinheiten in einem weite­ ren Auswertebereich mit den Kameras eines weiteren Ka­ mera-Arrays verbunden ist.9. The method according to any one of the preceding claims, characterized in that the output signals the evaluation unit to a further evaluation unit are led, with the further evaluation unit to the Er summarize the movements of the process units in a wide range evaluation area with the cameras of another camera mera arrays is connected. 10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß beim Erfassen einer bisher nicht registrierten Prozeßeinheit ein Meldesignal erzeugt wird.10. The method according to any one of the preceding claims, characterized in that when a Process unit not previously registered a message signal is produced. 11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die von mehreren Auswerteeinheiten zur Verfügung gestellten Ausgangs­ signale einer zentralen Steuereinheit zugeführt werden.11. The method according to any one of the preceding claims, characterized in that the of several Evaluation units provided output signals are fed to a central control unit. 12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß an einem Eingangs- und/oder Ausgangspunkt des vorgegebenen Auswertebereiches Übergabedaten zur Identifizierung einer Prozeßeinheit zur Verfügung gestellt werden.12. The method according to any one of the preceding claims, characterized in that at an input and / or the starting point of the specified evaluation range Transfer data to identify a process unit for Will be provided. 13. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß Bewegungskorridoren entsprechende Daten vorgegeben werden und ein Alarmsignal erzeugt wird, wenn eine Prozeßeinheit den vorgegebenen Bewegungskorridor verläßt. 13. The method according to any one of the preceding claims, characterized in that movement corridors corresponding data are specified and an alarm signal is generated when a process unit the specified Movement corridor leaves.   14. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß mittels der Kameras und der Auswerteeinheit weiterhin auch auf die Prozeßein­ heiten aufgebrachte Prozeßeinheitenkennungen erfaßt wer­ den.14. The method according to any one of the preceding claims, characterized in that by means of the cameras and the evaluation unit also continue to process units applied process unit identifiers the. 15. Vorrichtung zum Erfassen der Bewegungen von Pro­ zeßeinheiten während eines Produktionsprozesses in einem vorgegebenen Auswertebereich, mit
  • - mindestens zwei ortsfest im Auswertebereich angeordne­ ten, ein Kamera-Array bildenden Kameras, und
  • - einer eingangsseitig mit den Kameras verbundenen Aus­ werteeinheit, die kontinuierlich Ortskoordinaten jeder Prozeßeinheit erfaßt, zu jeder Ortskoordinate einen die Bewegung der jeweiligen Prozeßeinheit beschreibenden Translationsvektor ermittelt und für jede Prozeßeinheit durch ein Aneinanderreihen der ermittelten Translati­ onsvektoren einer Raumspur entsprechende Daten ermit­ telt.
15. Device for detecting the movements of pro cess units during a production process in a predetermined evaluation range, with
  • - At least two stationary in the evaluation area arranged th, a camera array forming cameras, and
  • - An input side connected to the cameras from the evaluation unit, which continuously detects location coordinates of each process unit, determines a movement vector describing the movement of the respective process unit for each location coordinate, and determines corresponding data for each process unit by stringing together the determined translation vectors of a space trace.
16. Vorrichtung nach Anspruch 15, dadurch gekenn­ zeichnet, daß der vorgegebene Auswertebereich ein Reinraumbereich ist und die Kameras an der Decke des Reinraumbereiches angeordnet sind.16. The apparatus according to claim 15, characterized indicates that the specified evaluation range Is clean room area and the cameras on the ceiling of the Clean room area are arranged. 17. Vorrichtung nach Anspruch 15 oder 16, dadurch gekennzeichnet, daß die Kameras Analogkameras sind.17. The apparatus of claim 15 or 16, characterized characterized that the cameras are analog cameras. 18. Vorrichtung nach Anspruch 15 oder 16, dadurch gekennzeichnet, daß die Kameras Digitalkameras sind.18. The apparatus of claim 15 or 16, characterized characterized that the cameras are digital cameras are. 19. Vorrichtung nach einem der vorhergehenden Ansprüche 15 bis 18, dadurch gekennzeichnet, daß die Ka­ meras mit der Auswerteeinheit über einen Datenbus verbun­ den sind. 19. Device according to one of the preceding claims 15 to 18, characterized in that the Ka meras connected to the evaluation unit via a data bus they are.   20. Vorrichtung nach einem der vorhergehenden Ansprüche 15 bis 19, dadurch gekennzeichnet, daß die Aus­ werteeinheit eine Reihenschaltung aufweist, die aus einem Multiplexer (8), einer Digitalisierungseinheit (9) und einer Bildauswerteeinheit (10) besteht.20. Device according to one of the preceding claims 15 to 19, characterized in that the evaluation unit has a series circuit which consists of a multiplexer ( 8 ), a digitizing unit ( 9 ) and an image evaluation unit ( 10 ). 21. Vorrichtung nach Anspruch 20, dadurch gekenn­ zeichnet, daß die Bildauswerteeinheit (10) ein digi­ taler Signalprozessor (DSP) oder ein FPGA (Field Progra­ mable Field Array) ist oder sowohl einen digitalen Si­ gnalprozessor als auch FPGA aufweist.21. The apparatus according to claim 20, characterized in that the image evaluation unit ( 10 ) is a digital signal processor (DSP) or an FPGA (Field Programmable Field Array) or has both a digital signal processor and FPGA. 22. Vorrichtung nach einem der vorhergehenden Ansprüche 15 bis 21, dadurch gekennzeichnet, daß jeder Kamera eine eigene Auswerteeinheit zugeordnet ist und die Auswerteeinheiten ausgangsseitig miteinander verbunden sind.22. Device according to one of the preceding claims 15 to 21, characterized in that everyone Camera is assigned its own evaluation unit and the Evaluation units connected to one another on the output side are. 23. Vorrichtung nach einem der vorhergehenden Ansprüche 15 bis 22, dadurch gekennzeichnet, daß sie meh­ rere Kamera-Arrays und mehrere Auswerteeinheiten aufweist und daß mindestens zwei dieser Auswerteeinheiten mitein­ ander verbunden sind.23. Device according to one of the preceding claims 15 to 22, characterized in that they meh has more camera arrays and several evaluation units and that at least two of these evaluation units are included are connected. 24. Vorrichtung nach einem der vorhergehenden Ansprüche 15 bis 23, dadurch gekennzeichnet, daß sie eine zentrale Steuereinheit aufweist, die zur Steuerung sämt­ licher Auswerteeinheiten vorgesehen ist.24. Device according to one of the preceding claims 15 to 23, characterized in that they have a Central control unit that controls all Licher evaluation units is provided. 25. Vorrichtung nach einem der vorhergehenden Ansprüche 15 bis 24, dadurch gekennzeichnet, daß die Bildauswerteeinheit zur Erfassung von auf die Prozeßein­ heiten aufgebrachten Prozeßeinheitenkennungen vorgesehen ist. 25. Device according to one of the preceding claims 15 to 24, characterized in that the Image evaluation unit for capturing processes provided applied process unit identifiers is.   26. Vorrichtung nach einem der vorhergehenden Ansprüche 15 bis 25, dadurch gekennzeichnet, daß die Bildauswerteeinheit einen Speicher, in welchem einem Be­ wegungskorridor entsprechende Daten abgespeichert sind, und Alarmgebermittel aufweist, die ein Alarmsignal abge­ ben, wenn eine Prozeßeinheit den vorgegebenen Bewegungs­ korridor verläßt.26. Device according to one of the preceding claims 15 to 25, characterized in that the Image evaluation unit a memory in which a loading corresponding corridor corridor data is stored, and alarm means which emit an alarm signal ben when a process unit the specified movement leaves corridor. 27. Vorrichtung nach einem der vorhergehenden Ansprüche 15 bis 26, dadurch gekennzeichnet, daß minde­ stens eine der Kameras geneigt oder verdreht ausgerichtet ist.27. Device according to one of the preceding claims 15 to 26, characterized in that mind at least one of the cameras is tilted or twisted is.
DE19843602A 1997-11-13 1998-09-23 Processing unit movement detection for manufacturing process Withdrawn DE19843602A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19843602A DE19843602A1 (en) 1997-11-13 1998-09-23 Processing unit movement detection for manufacturing process

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19750117 1997-11-13
DE19843602A DE19843602A1 (en) 1997-11-13 1998-09-23 Processing unit movement detection for manufacturing process

Publications (1)

Publication Number Publication Date
DE19843602A1 true DE19843602A1 (en) 1999-05-20

Family

ID=7848496

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19843602A Withdrawn DE19843602A1 (en) 1997-11-13 1998-09-23 Processing unit movement detection for manufacturing process

Country Status (1)

Country Link
DE (1) DE19843602A1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006048163B4 (en) * 2006-07-31 2013-06-06 Pilz Gmbh & Co. Kg Camera-based monitoring of moving machines and / or moving machine elements for collision prevention
DE10216023B4 (en) * 2002-04-11 2013-08-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and apparatus for controlled interaction between a self-propelled robot unit and a human
WO2019052742A1 (en) * 2017-09-12 2019-03-21 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Method for production control of production processes in the metalworking industry by means of image-capturing devices
DE202021100171U1 (en) 2021-01-15 2022-04-20 Sick Ag Device for securing a surveillance area
EP4030188A1 (en) 2021-01-15 2022-07-20 Sick Ag Device and method for securing a surveillance area
DE202022104108U1 (en) 2022-07-20 2023-10-23 Sick Ag Device for detecting objects in a surveillance area
DE202022104107U1 (en) 2022-07-20 2023-10-23 Sick Ag Device for detecting objects
EP4310541A1 (en) 2022-07-20 2024-01-24 Sick Ag Device and method for detecting objects in a surveillance area
EP4310547A1 (en) 2022-07-20 2024-01-24 Sick Ag Device and method for detecting objects

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10216023B4 (en) * 2002-04-11 2013-08-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and apparatus for controlled interaction between a self-propelled robot unit and a human
DE102006048163B4 (en) * 2006-07-31 2013-06-06 Pilz Gmbh & Co. Kg Camera-based monitoring of moving machines and / or moving machine elements for collision prevention
US9122266B2 (en) 2006-07-31 2015-09-01 Pilz Gmbh & Co. Kg Camera-based monitoring of machines with mobile machine elements for collision prevention
WO2019052742A1 (en) * 2017-09-12 2019-03-21 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Method for production control of production processes in the metalworking industry by means of image-capturing devices
US11460832B2 (en) 2017-09-12 2022-10-04 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Object tracking-based control of manufacturing processes in the metalworking industry
DE202021100171U1 (en) 2021-01-15 2022-04-20 Sick Ag Device for securing a surveillance area
EP4030188A1 (en) 2021-01-15 2022-07-20 Sick Ag Device and method for securing a surveillance area
DE202022104108U1 (en) 2022-07-20 2023-10-23 Sick Ag Device for detecting objects in a surveillance area
DE202022104107U1 (en) 2022-07-20 2023-10-23 Sick Ag Device for detecting objects
EP4310541A1 (en) 2022-07-20 2024-01-24 Sick Ag Device and method for detecting objects in a surveillance area
EP4310547A1 (en) 2022-07-20 2024-01-24 Sick Ag Device and method for detecting objects

Similar Documents

Publication Publication Date Title
DE102015015638B4 (en) Apparatus and method for transferring articles using a robot
DE60034555T2 (en) SYSTEM FOR OBJECT DETECTION AND TRACKING
EP0853299B1 (en) Method and device for actuating a door assembly in response to the presence of persons
DE112016000909T5 (en) Monitoring device and monitoring method
DE69628929T2 (en) Method and machine for reading and mapping an optical code
DE2937335C2 (en) Method and device for the optical inspection of objects
DE69629930T2 (en) Method for setting an optical code attached to an object
EP2693218B1 (en) Process und Apparatus for determining and testing an arrangement of laboratory articles on a work bench of a laboratory work station
DE102006031178A1 (en) Gripper guide system, processing system and program
DE112010003000T5 (en) Visual system for monitoring people in dynamic environments
WO1999018555A1 (en) Method and device for guiding aircraft into a parking position with automatic support
EP3291144B1 (en) Rfid device and method for detecting compartment occupation
DE102016200386B4 (en) Method for controlling a manipulator system
DE19843602A1 (en) Processing unit movement detection for manufacturing process
DD152870A1 (en) METHOD AND DEVICE FOR CLASSIFYING MOVING MATERIALS
EP3290770A1 (en) Monitoring device
EP2491713B1 (en) Image sensor array for detecting image information for automatic image data processing
DE19856762A1 (en) Electronic archiving device for files on shelf transmits visual light beam to transponder on required file
DE19729372C2 (en) shelf
DE10049366A1 (en) Security area monitoring method involves using two image detection units whose coverage areas overlap establishing monitored security area
DE2513655A1 (en) Machine tool control with TV cameras - has sensor arrangement for controlling programmed auto handling systems
EP3805990A1 (en) Identification element, processing system and method
DE102009009533A1 (en) Image processing sensor i.e. vision sensor, for quality control in production process, has hardware-processor unit in which region of interest mask is repositioned such that relative position of mask is changed under preset criteria
DE202014101714U1 (en) Code reading system for reading codes
EP3058428B1 (en) Mobile system controller

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee