EP3682303A1 - Method for production control of production processes in the metalworking industry by means of image-capturing devices - Google Patents

Method for production control of production processes in the metalworking industry by means of image-capturing devices

Info

Publication number
EP3682303A1
EP3682303A1 EP18752130.7A EP18752130A EP3682303A1 EP 3682303 A1 EP3682303 A1 EP 3682303A1 EP 18752130 A EP18752130 A EP 18752130A EP 3682303 A1 EP3682303 A1 EP 3682303A1
Authority
EP
European Patent Office
Prior art keywords
image
production
tracked
mobile unit
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP18752130.7A
Other languages
German (de)
French (fr)
Inventor
Klaus Bauer
Christian Bauer
Manuel BEUTTLER
Hans-Peter Bock
Daniel Bossert
Marcel Ely Gomes
Christian Görg
Manuel Kiefer
Thorsten Larsen-Vefring
Frank Perdana
Zaigham Faraz SIDDIQUI
Eberhard Wahl
Stephan Fischer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Trumpf Werkzeugmaschinen SE and Co KG
Original Assignee
Trumpf Werkzeugmaschinen SE and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Trumpf Werkzeugmaschinen SE and Co KG filed Critical Trumpf Werkzeugmaschinen SE and Co KG
Publication of EP3682303A1 publication Critical patent/EP3682303A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/41865Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by job scheduling, process planning, material flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31304Identification of workpiece and data for control, inspection, safety, calibration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31432Keep track of conveyed workpiece, batch, tool, conditions of stations, cells
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32055Identify workpiece, read status centrally, machine, adapt status centrally
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Definitions

  • a physical material flow is usually synchronized discretely at booking stations manually with processing steps to be performed, so that often no detailed or only a delayed evaluation can take place.
  • German patent applications DE 10 2016 120 132.4 ("workpiece collection unit and method for supporting the machining of workpieces") and DE 10 2016 120 131.6 (“Absortierunterstützungsvon and flatbed machine”) with filing date 21 October 2016 are methods for sub - supporting the sorting operation of workpieces produced by a flatbed machine tool, in general, methods for assisting the machining of workpieces.
  • German patent application DE 10 2017 107 357.4
  • German patent application DE 10 2017 120 358.8 relates to "Interior location-based control of production processes in the metalworking industry", DE 10 2017 120 381.8 "Assisted allocation of a workpiece to a mobile unit of an indoor location system", DE 10 2017 120 382.6 "Image-based assignment of an editing plan to a mobile unit data record of a mobile unit of an indoor location system” and DE 10 2017 120 383.4 "Interior passenger location-based production control in the metalworking industry", each with filing date 5 September 2017, the use from Z. B. ultra-wideband technology for locating mobile units in manufacturing halls revealed.
  • German patent applications are incorporated herein in full. It is an object of this disclosure to propose methods and systems that can intelligently support manufacturing processes, particularly in the field of metal processing, for example steel and / or sheet metal processing.
  • a production control system for controlling production processes in a production hall comprises:
  • machine tools or workstation units can also be retrofitted with such an image acquisition device and with such a location system.
  • the image pickup device may be fixed or movable.
  • inventory cameras generally inventory imaging devices, e.g. B. on, inside and outside of machines already in the manufacturing plant for other purposes are provided in the described system of image-based tracking are included.
  • the observation areas of the first image sequence and a second image sequence may have an overlap area, and a transfer of the object features from the first image sequence to the second image sequence may be based on pixel values in the overlap area of substantially simultaneous images.
  • associating the location of the object feature in the current time image with a current position in the observation area of the image sequence may include providing reference points in the observation areas, and calculating an accurate location / space time of the object to be tracked at least one reference point.
  • the method may further comprise recording and / or providing the determined position via a suitable interface and / or incorporating the determined position into a motion analysis of the object to be tracked
  • workpiece collection units workpiece assembly.
  • workpiece collection units workpiece assembly.
  • workpiece collection units workpiece assembly.
  • workpiece collection unit workpiece assembly.
  • workpiece collection unit workpiece collection unit
  • mobile unit workpiece collection unit
  • Each of the jobs can be assigned to a workpiece collection unit.
  • imager-based tracking of objects is implemented, each job with job-related workpieces, workpiece collection units, or mobile units in the shop floor can be located at any time. This can also be combined with feedback information from workstations and / or machines in the production control system.
  • the image pickup-based tracking of objects is distinguished by the fact that the position of the objects can be determined solely by observation with the various image pickup devices provided in the production hall, ie without manual interaction.
  • Previous systems for locating workpieces or jobs in manufacturing facilities have the disadvantage that lost workpieces or jobs must be searched manually. It has been recognized that these manual searches, especially in manufacturing facilities with a high number of small and constantly changing orders, ie z. As in toll manufacturing, account for a tremendous proportion of non-productive time.
  • the need for time-consuming manual searches of workpieces, but also of tools or persons, can thus be drastically reduced, especially in the (metal and / or sheet-metal processing) industrial production.
  • the machining of the workpiece or workpieces is controlled or monitored at workplaces that are networked or integrated with the manufacturing controller.
  • Such machine workplaces include machines that receive and execute manufacturing instructions by data connection, in particular digitally. This can be done by the operator no or only a minimal intervention.
  • Such machines are commonly referred to as automated or fully automated machines.
  • Such machines can also report the status of production to a production control.
  • the machining of the work piece (s) at workplaces that are networked or not integrated with the manufacturing control to a very low degree or not at all is controlled and / or controlled.
  • so-called manual workstations as described in DE 10 2016 220 015.1, "manual workstation, work data processing device, manual workstation system, manual workstation operating method and manual workstations" method with filing date October 13, 2016. This said German patent application is incorporated herein in its entirety.
  • imager-based tracking systems can be integrated into a shop floor control system (also referred to herein as MES (Manufacturing Execution System)).
  • MES Manufacturing Execution System
  • inventions of the integration of such tracking into the processes of metal processing disclosed herein may include the following method steps, uses and advantages: - Illustration of the changing assignment of orders.
  • Production hall installed transceiver units, at least one mobile unit and an analysis unit, wherein the transceiver units and the mobile unit is designed for transmitting and receiving electromagnetic signals and the analysis unit is formed, from running times of the electromagnetic signals between the transceiver units and the mobile unit To determine positions of the mobile unit in the production hall.
  • Usage scenarios for this concern for example, the monitoring of security-critical areas for the protection of persons, in particular the processor. Furthermore, motion patterns can be generated, which in turn z. B. for process or Ergonomie- improvement of jobs the operator can be evaluated. In particular, the synchronous evaluation of both hands of a person, in particular an operator or a worker, detailed information about the manufacturing process and the workpiece can be detected. So can be detected that
  • the image-based tracking can also be used for example in the sorting by z.
  • the location of a hand (especially a clearly visible in pictures glove) is traced. If the "hand" of an operator removes a component from the skeleton, the component location in the MES is posted from the skeleton to the hand If the hand moves near a workpiece collection unit, the MES posts that this part has been deposited on the associated workpiece collection unit On the one hand, the tracking system can see that the hand came close to the workpiece, and on the other hand, a higher level system (eg, the MES) can link the workpiece collection unit and the hand position.
  • a higher level system eg, the MES
  • a further step 83 the data assignment of each of the processing steps to a machine 7 or a workstation unit takes place.
  • the workstation unit may be a workstation 26 as described above, in particular a manual workstation.
  • step 84 the data assignment of the production order to a tracked object data record is stored in the MES 3 for a mobile unit.
  • This step 84 may correspond to step 53 shown in FIG. Step 84 can in particular also earlier, z. B. after one or more of the method steps described above, take place.
  • the MES 3 can at any time have data such as current status data and current position data of the workpiece 23.
  • MES 3 and the imaging device-based tracking system 5 may be designed as described above. All the above-described method steps carried out by a production control, a production control system, an image acquisition device-based tracking system or by the MES 3 can also be implemented by means of one or more data processing devices having means for performing the method steps.

Abstract

The invention relates to a method for production control of process sequences in the industrial machining of workpieces (23) according to machining plans (37) in a production hall for producing an end product, wherein multiple image-capturing devices (13), e.g. cameras, are arranged in the production hall and capture image sequences (41), e.g. video recordings, of overlapping observation regions (17) of the production hall, wherein an object to be tracked, e.g. a mobile unit (15), a transport means (21), a workpiece (23) or a person (31), is identified in a captured image using at least one object feature, e.g. a geometric shape, colour or a light signal of an LED, and the position of said object is determined by means of an interior location system, and it is established whether the object to be tracked is in a predefined spatial zone (27) and/or has passed through a spatial barrier (29), andwherein the production control system emits signals to support location of the object (15, 21, 23, 31) to be tracked, displays information about the position and/or production status of the object to be tracked, sets operating parameters of a machine tool (7), updates a production log, or assigns the object to be tracked to a production task.

Description

FERTIGUNGSPROZESSEN IN DER METALLVERARBEITENDEN INDUSTRIE  MANUFACTURING PROCESSES IN THE METAL-PROCESSING INDUSTRY
MITTELS BILDAUFNAHMEVORRICHTUNGEN  BY PICTURE RECORDING DEVICES
Die vorliegende Erfindung betrifft ein Verfahren zur Überwachung und Steuerung von Ferti- gungsprozessen, insbesondere von Prozessabläufen bei der industriellen Fertigung von Werkstücken in der Metall- und/oder Blechverarbeitung. Ferner betrifft die Erfindung ein System zur Werkstückpositionsüberwachung in Fertigungshallen der metallverarbeitenden Industrie, insbesondere bei der Stahl- und/oder Blechverarbeitung. Ferner betrifft die Erfindung die Zuordnung von Werkstücken zu Prozessabläufen im Rahmen der Fertigungssteuerung. The present invention relates to a method for monitoring and control of manufacturing processes, in particular of process sequences in the industrial production of workpieces in the metal and / or sheet metal processing. Furthermore, the invention relates to a system for workpiece position monitoring in production halls of the metalworking industry, especially in steel and / or sheet metal processing. Furthermore, the invention relates to the assignment of workpieces to process flows in the context of manufacturing control.
Beispielhaft für die metallverarbeitende Industrie werden in der industriellen Stahl- und/oder Blechverarbeitung oft viele Teile unterschiedlicher Größe verschiedensten Verarbeitungsschritten zugeführt. So werden beispielsweise Werkstücke an Werkzeugmaschinen, z. B. Laserschnittgut oder gestanzte Blechteile, absortiert und weiteren Verarbeitungsschritten zuge- führt. Geschnittene oder gestanzte Werkstücke werden dabei nach dem Bearbeitungsvorgang häufig in einem Verbund dem jeweiligen nachgelagerten Produktionsschritt zur Verfügung gestellt. Die verschiedenen Prozessabläufe werden üblicherweise basierend auf einem visuellen Abgleich mit Papier-basierten Unterlagen manuell durchgeführt. Werden jedoch viele unterschiedliche Teilformen geschnitten, verschiedenste Bearbeitungsschritte durchgeführt und unterschiedliche Bereiche in einer Fertigungshalle für die Metall- und/oder Blechverarbeitung angefahren, so werden derartige Überwachungs- und Steuerungsvorgänge aufwändig und fehleranfällig. So kann eine hohe Teilevielfalt Fehler bei der Teilezuordnung und den nachfolgenden Bearbeitungsschritten, z. B. beim auftragsspezifischen Ablegen in vorgesehenen Werkstücksammelstelleneinheiten oder beim Überstellen zum nachfolgenden Bearbeitungs- schritt, hervorrufen. Werden z. B. Teile falsch abgelegt, kann ein nachfolgender Verarbeitungsschritt negativ beeinträchtigt werden, z. B. fehlerhaft durchgeführt werden. By way of example for the metalworking industry, in industrial steel and / or sheet metal processing many parts of different sizes are often supplied to a very wide variety of processing steps. For example, workpieces on machine tools, z. As laser cut or punched sheet metal parts, sorted out and further processing steps supplied. Cut or punched workpieces are often made available after the machining process in a composite the respective downstream production step. The various process flows are usually performed manually based on a visual comparison with paper-based documents. However, if many different part shapes are cut, a variety of processing steps carried out and approached different areas in a production hall for metal and / or sheet metal processing, such monitoring and control operations are complex and error-prone. Thus, a high variety of parts errors in the parts allocation and subsequent processing steps, eg. B. during order-specific storage in provided workpiece collecting units or when transferring to the subsequent processing step, cause. Are z. B. parts stored incorrectly, a subsequent processing step can be adversely affected, eg. B. be carried out incorrectly.
So wird ein physischer Materialfluss meist diskret an Buchungsstationen manuell mit durchzuführenden Bearbeitungsschritten synchronisiert, sodass oft keine detaillierte oder nur eine verzögerte Auswertung stattfinden kann. Thus, a physical material flow is usually synchronized discretely at booking stations manually with processing steps to be performed, so that often no detailed or only a delayed evaluation can take place.
Beispielsweise aus den (noch unveröffentlichten) deutschen Patentanmeldungen DE 10 2016 120 132.4 („Werkstücksammelstelleneinheit und Verfahren zur Unterstützung der Bearbeitung von Werkstücken") und DE 10 2016 120 131.6 („Absortierunterstützungsverfahren und Flachbettwerkzeugmaschine") mit Anmeldetag 21. Oktober 2016 sind Verfahren zum Unter- stützen des Absortiervorgangs von mit einer Flachbettwerkzeugmaschine erzeugten Werkstücken, allgemein Verfahren zur Unterstützung der Bearbeitung von Werkstücken, bekannt. Ferner ist aus der deutschen Patentanmeldung DE 10 2017 107 357.4 For example, from (still unpublished) German patent applications DE 10 2016 120 132.4 ("workpiece collection unit and method for supporting the machining of workpieces") and DE 10 2016 120 131.6 ("Absortierunterstützungsverfahren and flatbed machine") with filing date 21 October 2016 are methods for sub - supporting the sorting operation of workpieces produced by a flatbed machine tool, in general, methods for assisting the machining of workpieces. Furthermore, from the German patent application DE 10 2017 107 357.4
„Absortierunterstützungsverfahren und Flachbettwerkzeugmaschine" mit Anmeldetag 5. April 2017 ein Unterstützungsverfahren beim Absortieren von z. B. Schnittgut einer Flachbettwerkzeugmaschine bekannt. Die genannten deutschen Patentanmeldungen werden hierin vollumfänglich aufgenommen.  "Absortierunterstützungsverfahren und Flachbettwerkzeugmaschine" with filing date April 5, 2017 A support method for sorting, for example, cuttings of a flatbed machine tool is known, the cited German patent applications are incorporated herein in their entirety.
Ferner betreffen die folgenden deutschen Patentanmeldung DE 10 2017 120 358.8„Innen- raum-Ortung-basierte Steuerung von Fertigungsprozessen in der metallverarbeitenden Industrie", DE 10 2017 120 381.8 „Assistiertes Zuordnen eines Werkstücks zu einer Mobileinheit eines Innenraum-Ortungssystems", DE 10 2017 120 382.6„Bild-gestütztes Zuordnen eines Bearbeitungsplans zu einem Mobileinheitsdatensatz einer Mobileinheit eines Innenraum- Ortungssystems" und DE 10 2017 120 383.4„Innenraum-Personenortung-basierte Fertigungs- Steuerung in der metallverarbeitenden Industrie", jeweils mit Anmeldetag 5. September 2017, die Verwendung von z. B. ultra-wideband-Technologie zur Ortung von Mobileinheiten in Fertigungshallen offenbart. Auch diese genannten deutschen Patentanmeldungen werden hierin vollumfänglich aufgenommen. Einem Aspekt dieser Offenbarung liegt die Aufgabe zugrunde, Verfahren und Systeme vorzuschlagen, die insbesondere im Umfeld der Metallverarbeitung, beispielsweise der Stahl- und/oder Blechverarbeitung, Fertigungsprozesse intelligent unterstützen können. Furthermore, the following German patent application DE 10 2017 120 358.8 relates to "Interior location-based control of production processes in the metalworking industry", DE 10 2017 120 381.8 "Assisted allocation of a workpiece to a mobile unit of an indoor location system", DE 10 2017 120 382.6 "Image-based assignment of an editing plan to a mobile unit data record of a mobile unit of an indoor location system" and DE 10 2017 120 383.4 "Interior passenger location-based production control in the metalworking industry", each with filing date 5 September 2017, the use from Z. B. ultra-wideband technology for locating mobile units in manufacturing halls revealed. These mentioned German patent applications are incorporated herein in full. It is an object of this disclosure to propose methods and systems that can intelligently support manufacturing processes, particularly in the field of metal processing, for example steel and / or sheet metal processing.
Zumindest eine dieser Aufgaben wird gelöst durch ein Verfahren zur Fertigungssteuerung von Prozessabläufen bei der industriellen Bearbeitung von Werkstücken nach Anspruch 1 , durch ein Fertigungssteuerungssystem zur Steuerung von Fertigungsprozessen in einer Fertigungshalle nach Anspruch 16 und ein Verfahren zur industriellen Fertigung eines Endprodukts nach Anspruch 19. Weiterbildungen sind in den Unteransprüchen angegeben. In einem Aspekt weist ein Verfahren zur Fertigungssteuerung von Prozessabläufen bei der industriellen Bearbeitung von Werkstücken gemäß Bearbeitungsplänen, insbesondere in der Metall- und/oder Blechverarbeitung, in einer Fertigungshalle zur Fertigung eines Endprodukts folgende Schritte auf: Bereitstellen mehrerer in der Fertigungshalle angeordneter Bildaufnahmevorrichtungen, die zum Aufnehmen von Bildsequenzen von zugeordneten Beobachtungsbereichen in der Fertigungshalle ausgebildet sind, At least one of these objects is achieved by a method for manufacturing control of process sequences in the industrial machining of workpieces according to claim 1, by a production control system for controlling manufacturing processes in a production hall according to claim 16 and a method for industrial manufacturing of an end product according to claim 19. Further developments specified in the dependent claims. In one aspect, a method for manufacturing control of process sequences in the industrial machining of workpieces according to machining plans, in particular in the metal and / or sheet metal processing, in a production hall for manufacturing a final product comprises the following steps: Providing a plurality of image capture devices arranged in the production hall and configured to record image sequences of assigned observation areas in the production hall,
Identifizieren eines zu verfolgenden Objekts in einem ersten Bild einer ersten der Bild- Sequenzen anhand mindestens eines Objekt-Merkmals, das als Pixelstruktur in den Pixeln des ersten Bildes vorliegt,  Identifying an object to be tracked in a first image of a first one of the image sequences using at least one object feature that is present as a pixel structure in the pixels of the first image,
Bestimmen des Bearbeitungsplans, der sich auf das zu verfolgende Objekt bezieht, Determining the machining plan that relates to the object to be tracked,
Bestimmen der Lagen des Objekt-Merkmals in Bildern der ersten der Bildsequenzen, die dem ersten Bild zeitlich nachfolgend erfasst wurden, Determining the positions of the object feature in pictures of the first of the picture sequences which were subsequently recorded in the first picture,
Bestimmen einer aktuellen Position des zu verfolgenden Objekts durch Lokalisieren des Objekt-Merkmals in einem zeitlich aktuellen Bild einer der Bildsequenzen und Zuordnen der Lage des Objekt-Merkmals im zeitlich aktuellen Bild zu einer aktuellen Position im Beobachtungsbereich der Bildsequenz, die das zeitlich aktuelle Bild umfasst, und  Determining a current position of the object to be tracked by locating the object feature in a temporally current image of one of the image sequences and assigning the position of the object feature in the temporally current image to a current position in the observation region of the image sequence comprising the temporally current image, and
Einbinden der bestimmten aktuellen Position des zu verfolgenden Objekts in die Ferti- gungssteuerung der Industriefertigungsanlage zur Fertigung des Endprodukts.  Integration of the determined current position of the object to be tracked into the production control of the industrial production plant for the production of the final product.
In einem weiteren Aspekt weist ein Verfahren zur industriellen Fertigung eines Endprodukts mittels eines Fertigungssteuerungssystems die folgenden Schritte auf: In another aspect, a method for industrially manufacturing an end product using a manufacturing control system includes the steps of:
Entgegennehmen eines Fertigungsauftrags zur Fertigung des Endprodukts aus einem Werkstück mit einem in einer Datenverarbeitungsvorrichtung implementierten MES (Maschinensteuerungssystem) des Fertigungssteuerungssystems,  Receiving a manufacturing order to manufacture the final product from a workpiece with an MES (Machine Control System) of the manufacturing control system implemented in a data processing device,
Auswählen einzelner Bearbeitungsschritte mit dem MES,  Selecting individual processing steps with the MES,
Bestimmen einer Reihenfolge der Bearbeitungsschritte mit dem MES, wobei die Bearbeitungsschritte einzelne oder mehrere der folgenden Vorgänge umfassen: Schneiden, insbe- sondere Laserschneiden, Stanzen, Biegen, Bohren, Gewindeschneiden, Schleifen, Zusammenfügen, Schweißen, Nieten, Schrauben, Pressen, Behandeln der Kanten und Oberflächen;  Determining a sequence of processing steps with the MES, the processing steps comprising one or more of the following operations: cutting, especially laser cutting, punching, bending, drilling, tapping, grinding, joining, welding, riveting, screwing, pressing, treating the edges and surfaces;
Datentechnisches Zuordnen der Bearbeitungsschritte zu einer Maschine oder einer Arbeitsplatzeinheit,  Data-technical assignment of the processing steps to a machine or a workstation unit,
Datentechnisches Zuordnen des Fertigungsauftrags zu einem zu verfolgenden Objekt in dem MES,  Data-technical assignment of the production order to an object to be tracked in the MES,
Fertigen eines Werkstücks für das Endprodukt, wobei es insbesondere zu einem Teil des Endprodukts nach einem ersten der Bearbeitungsschritte an der dem Bearbeitungsschritt zugewiesenen Maschine oder Arbeitsplatzeinheit bearbeitet wird, (optionaler Schritt des Räumlichen Zuordnens einer dem Fertigungsauftrag zugeordneten Mobileinheit zu dem gefertigten Werkstück,) Manufacturing a workpiece for the final product, wherein it is processed in particular to a part of the final product after a first of the processing steps at the machine or workstation unit assigned to the processing step, (optional step of spatially allocating a mobile unit associated with the production order to the finished workpiece,)
Speichern einer Statusänderung des Fertigungsauftrags im MES,  Saving a status change of the production order in the MES,
Transport des gefertigten Werkstücks (optional zusammen mit der Mobileinheit) gemäß dem Fertigungsauftrag zu der nächsten Maschine oder Arbeitsplatzeinheit in der vorbestimmten Reihenfolge,  Transport of the finished workpiece (optionally together with the mobile unit) according to the production order to the next machine or workstation unit in the predetermined order,
Durchführen des Bearbeitungsschritts an dieser Maschine oder Arbeitsplatzeinheit, Speichern einer Statusänderung des Fertigungsauftrags im MES und  Performing the processing step on this machine or workstation unit, saving a status change of the production order in the MES and
Durchführen der Bearbeitungsschritte des Fertigungsauftrags mit dem MES, wobei die Position des zu verfolgende Objekts durch das MES gemäß dem zuvor skizzierten Verfahren bestimmbar ist und das MES zu jeder Zeit über Daten zum aktuellen Status und zur aktuellen Position des zu verfolgenden Objekt verfügt.  Performing the processing steps of the production order with the MES, wherein the position of the object to be tracked by the MES according to the method outlined above is determinable and the MES has at any time data on the current status and the current position of the object to be tracked.
In einem weiteren Aspekt weist ein Fertigungssteuerungssystem zur Steuerung von Fertigungsprozessen in einer Fertigungshalle, insbesondere einer metall- und/oder blechverarbeitenden Industriefertigungsanlage, auf:  In a further aspect, a production control system for controlling production processes in a production hall, in particular a metal and / or sheet-metal processing industrial production facility, comprises:
mehreren fest in der Fertigungshalle angeordneten Bildaufnahmevorrichtungen, wobei die Beobachtungsbereiche mindestens zweier Bildaufnahmevorrichtungen sich überlappen und/oder wobei die Beobachtungsbereiche mindestens zweier Bildaufnahmevorrichtungen räumlich voneinander beabstandet sind, und  a plurality of image pickup devices fixedly arranged in the production hall, wherein the observation areas of at least two image pickup devices overlap one another and / or wherein the observation areas of at least two image pickup devices are spatially separated from one another, and
einer Analyseeinheit, die zum Bestimmen, Austausch und Bereitstellen von Daten zur Position von einem zu verfolgenden Objekt in der Fertigungshalle und zur Durchführung der zuvor skizzierten Verfahren ausgebildet ist.  an analysis unit, which is designed to determine, exchange and provide data for the position of an object to be tracked in the production hall and to carry out the method outlined above.
Das Fertigungssteuerungssystem kann ferner eine Anzeigeeinheit, die zum Anzeigen der Position der mindestens einen Mobileinheit in einem Lageplan der Fertigungshalle ausgebildet ist, aufweisen. Mindestens eine der Bildaufnahmevorrichtungen kann ortsfest installiert und/oder beweglich, insbesondere frei um eine Schwenkachse und/oder entlang einer Verschiebeachse beweglich, installiert und/oder an einer Drohne installiert sein. The manufacturing control system may further include a display unit configured to display the position of the at least one mobile unit in a floor plan of the production hall. At least one of the image recording devices may be fixedly installed and / or movable, in particular freely movable about a pivot axis and / or along a displacement axis, installed and / or installed on a drone.
Das Fertigungssteuerungssystem kann ferner ein Innenraum-Ortungssystem aufweisen, das mehrere fest in der Fertigungshalle installierte Sende-Empfangseinheiten, mindestens eine Mobileinheit und eine (Ortungssystem-)Analyseeinheit aufweist. Die Sende-Empfangseinheiten und die Mobileinheit können zum Aussenden und Empfangen von elektromagnetischen Signalen ausgebildet sein. Die Analyseeinheit ist dazu ausgebildet, aus Laufzeiten der elektromagnetischen Signale zwischen den Sende-Empfangseinheiten und der Mobileinheit die Positionen der Mobileinheit und somit die Position eines der Mobileinheit zugeordneten nachzuverfolgenden Objekts in der Fertigungshalle zu bestimmen. In einigen Ausführungsformen können die folgenden Aspekte umgesetzt sein. Die Bildaufnahmevorrichtungen können unterschiedlich ausgebildet sein. Beispielsweise können die Bildaufnahmevorrichtungen als (Video-) Kameras ausgebildet sein. Eine Bildaufnahmevorrichtung ist einfach an der Werkzeugmaschine oder an einer Arbeitsplatzeinheit oder in ihrer Nähe installierbar und die Bildinformationen können direkt ausgewertet werden. So können auch Werkzeugmaschinen oder Arbeitsplatzeinheiten mit einer solchen Bildaufnahmevorrichtung und mit einem solchen Ortungssystem nachgerüstet werden. Die Bildaufnahmevorrichtung kann fest installiert oder beweglich sein. Sie kann auch noch für weitere Aufgaben z. B. beim Ab- und Zuladen oder zur Sicherheitszwecken verwendet werden Bildaufnahmevorrichtungen können im für den Menschen sichtbaren Bereich des Lichts arbeiten. Sie können aber alternativ oder zusätzlich auch im nichtsichtbaren Bereich, z. B IR- oder UV- Bereich arbeiten. Sie können zusätzlich mit eigenen Lichtquellen zur zusätzlichen Beleuchtung ausgestattet sein. Ferner können Bestands-Kameras, allgemein Bestands- Bildaufnahmevorrichtungen, die z. B. an, innerhalb und außerhalb von Maschinen bereits in der Fer- tigungsanlage für andere Zwecke vorgesehen sind, in das beschriebene System der Bildbasierten Nachverfolgung mit aufgenommen werden. The shop floor control system may further include an indoor location system having a plurality of transceiver units permanently installed in the shop floor, at least one mobile unit, and a (location system) analysis unit. The transceiver units and the mobile unit may be configured to transmit and receive electromagnetic signals. The analysis unit is designed to run from the terms of electromagnetic signals between the transceiver units and the mobile unit to determine the positions of the mobile unit and thus the position of a mobile unit to be tracked object to be tracked in the production hall. In some embodiments, the following aspects may be implemented. The image pickup devices can be designed differently. By way of example, the image recording devices can be designed as (video) cameras. An image pickup device can be easily installed on the machine tool or at a workstation unit or in its vicinity, and the image information can be directly evaluated. Thus, machine tools or workstation units can also be retrofitted with such an image acquisition device and with such a location system. The image pickup device may be fixed or movable. You can also for other tasks z. B. when unloading and loading or used for security imaging devices can work in visible to the human region of the light. But you can alternatively or additionally also in the non-visible area, eg. B IR or UV range work. They can also be equipped with their own light sources for additional lighting. Furthermore, inventory cameras, generally inventory imaging devices, e.g. B. on, inside and outside of machines already in the manufacturing plant for other purposes are provided in the described system of image-based tracking are included.
Die Bildaufnahmevorrichtung kann aber auch durch einen Ultraschallsensor, insbesondere mit einer zusätzlichen Schallquelle, ausgebildet sein. The image recording device can also be formed by an ultrasonic sensor, in particular with an additional sound source.
Die Bildsequenzen der Bildaufnahmevorrichtungen können einen eindeutigen Zeitbezug zur Positionsbestimmung und untereinander aufweisen. The image sequences of the image recording devices can have a clear time reference for position determination and with one another.
In einigen Aus führungsformen kann das zu verfolgende Objekt innerhalb der bereitgestellten Bilder ausschließlich anhand von typischen Pixeländerungen, die einem Objekt-Merkmal zugeordnet sind, verfolgt werden. Das Identifizieren des zu verfolgenden Objekts kann im ersten Bild mit einem Software-System erfolgen, das Information über die Lage des Objekts im ersten Bild bereitstellt, insbesondere mittels eines dem Beobachtungsbereich überlagerten Objekt-Informationsbereichs. Das Lokalisieren des Objekt-Merkmals kann ein Bestimmen eines Objekt-Merkmalsvektors, der die Bewegung des Objekt-Merkmals zwischen Bildern der ersten der Bildsequenzen beschreibt, und ein Projizieren des Objekt-Merkmalsvektors in ein Bild einer zweiten der Bildsequenzen umfassen. Ein Objekt-Merkmal kann eine spezifische geometrische Form, eine Farbe, ein Lichtsignal einer LED, oder eine Ausdehnung eines Bereichs im Bild sein. Ein Objekt-Merkmalsvektor kann ein Richtungs- oder Geschwindigkeitsvektor eines Objekt-Merkmals sein. In some embodiments, the object to be tracked may be tracked within the provided images solely on the basis of typical pixel changes associated with an object feature. The identification of the object to be tracked can take place in the first image with a software system which provides information about the position of the object in the first image, in particular by means of an object information area superimposed on the observation area. Locating the object feature may include determining a An object feature vector that describes the movement of the object feature between images of the first of the image sequences, and projecting the object feature vector into an image of a second of the image sequences. An object feature may be a specific geometric shape, a color, a light signal of an LED, or an extent of an area in the image. An object feature vector may be a directional or velocity vector of an object feature.
In einigen Aus führungsformen kann beim Verlassen des Objekt-Merkmals eines der Bildsequenz zugeordneten Beobachtungsbereichs in der Fertigungshalle geprüft werden, ob ein dem Objekt-Merkmal und/oder Objekt-Merkmalsvektor entsprechendes Objekt-Merkmal in einem passenden Ort-/Zeitfenster einer weiteren Bildsequenz - insbesondere mit ausreichend hoher Wahrscheinlichkeit - identifizierbar ist. Dies kann insbesondere mit Hilfe von geeigneten Bildauswertemittel und Bildauswerte- Verfahren/Programme erfolgen. Allgemein kann das zu verfolgende Objekt ein Werkstück, einem Transportmittel, ein Werkzeug, eine Mobileinheit oder eine Person sein. In some embodiments, when leaving the object feature, one of the image sequence associated observation area in the production hall can be checked whether an object feature corresponding to the object feature and / or object feature vector in an appropriate location / time window another image sequence - in particular with sufficiently high probability - is identifiable. This can be done, in particular, with the aid of suitable image evaluation means and image evaluation methods / programs. In general, the object to be tracked may be a workpiece, a means of transport, a tool, a mobile unit or a person.
In einigen Ausführungsformen können die Beobachtungsbereiche der ersten Bildsequenz und einer zweiten Bildsequenz einen Überlappungsbereich aufweisen und eine Übergabe der Ob- jekt-Merkmale von der ersten Bildsequenz in die zweiten Bildsequenz kann anhand von Pixelwerten im Überlappungsbereich im Wesentlichen zeitgleicher Bilder erfolgen. In some embodiments, the observation areas of the first image sequence and a second image sequence may have an overlap area, and a transfer of the object features from the first image sequence to the second image sequence may be based on pixel values in the overlap area of substantially simultaneous images.
In einigen Ausführungsformen kann das Zuordnen der Lage des Objekt-Merkmals im zeitlich aktuellen Bild zu einer aktuellen Position im Beobachtungsbereich der Bildsequenz ein Be- reitstellen von Referenzpunkten in den Beobachtungsbereichen, und ein Berechnen eines genauen Ort-/Raum-Zeitpunkts des zu verfolgenden Objektes anhand mindestens eines Referenzpunkts umfassen. In some embodiments, associating the location of the object feature in the current time image with a current position in the observation area of the image sequence may include providing reference points in the observation areas, and calculating an accurate location / space time of the object to be tracked at least one reference point.
In einigen Ausführungsformen kann das Verfahren ferner ein Aufzeichnen und/oder Bereitstel- len der bestimmten Position über eine geeignete Schnittstelle und/oder ein Einbinden der bestimmten Position in eine Bewegungsanalyse des zu verfolgenden Objekts umfassen In some embodiments, the method may further comprise recording and / or providing the determined position via a suitable interface and / or incorporating the determined position into a motion analysis of the object to be tracked
In einigen Ausführungsformen kann das Verfahren ferner ein Definieren von Zonen und/oder räumlichen Schranken in der Fertigungshalle, insbesondere in einem Lageplan der Ferti- gungshalle, und ein Abgleichen der bestimmten Position des zu verfolgenden Objekts hin- sichtlich der Zonen und/oder der räumlichen Schranken und Steuern der Fertigung basierend auf dem Abgleich umfassen. Das Abgleichen der bestimmten Position kann z. B. ergeben, dass sich das zu verfolgende Objekt in einer Zone befindet oder diese verlassen hat oder dass das zu verfolgende Objekt eine räumliche Schranke passiert hat. Die Zonen und/oder die räumli- chen Schranken können in zwei oder drei Dimensionen definiert werden. In some embodiments, the method may further include defining zones and / or spatial barriers in the shop floor, particularly in a site plan of the manufacturing hall, and matching the particular location of the object to be tracked. visually of the zones and / or the physical barriers and control of manufacturing based on the alignment. The matching of the specific position can, for. B. revealed that the object to be tracked is located in a zone or has left this or that the object to be traced has passed through a spatial barrier. The zones and / or the spatial barriers can be defined in two or three dimensions.
In einigen Ausführungsformen kann das Einbinden der bestimmten Position des zu verfolgenden Objekts einen oder mehrere der folgenden Schritte umfassten: ein Abgeben von Signalen zur Unterstützung der Ortung des zu verfolgenden Objekts; ein Anzeigen von Information zu der Position und/oder dem Fertigungszustand des zu verfolgenden Objekts, insbesondere auf einem mobilen Ausgabegerät wie einem Tablett, Smartphone oder einem Überwachungsmonitor; ein Einstellen von Betriebsparametern einer Werkzeugmaschine; ein Aktualisieren eines Protokolls, das die Fertigung, insbesondere Bearbeitungsschritte, protokolliert; ein Zuordnen des zu verfolgenden Objekts zu einem Auftrag zur Fertigung eines oder mehrerer Endprodukte in mehreren unterschiedlichen Arbeitsschritten; In some embodiments, including the particular position of the object to be tracked may include one or more of the following steps: outputting signals to assist in locating the object to be tracked; displaying information about the position and / or the manufacturing state of the object to be tracked, in particular on a mobile output device such as a tablet, smartphone or a surveillance monitor; setting operating parameters of a machine tool; updating a log that records the manufacturing, in particular processing steps; assigning the object to be tracked to an order for manufacturing one or more end products in a plurality of different work steps;
Ist das zu verfolgende Objekt ein Werkstück kann das Einbinden der bestimmten Position des zu verfolgenden Objekts umfassen: Steuern und/oder Überwachen einer Bearbeitung des Werkstücks in mehreren unterschiedlichen Arbeitsschritten, die an unterschiedlichen Orten, insbesondere aber innerhalb der Fertigungshalle, durchgeführt werden; Steuern und/oderIf the object to be tracked is a workpiece, the incorporation of the specific position of the object to be tracked can include: controlling and / or monitoring a machining of the workpiece in a plurality of different work steps carried out at different locations, but in particular within the production hall; Taxes and / or
Überwachen eines Transports des Werkstücks zwischen unterschiedlichen Arbeitsschritten, die an unterschiedlichen Orten, insbesondere aber innerhalb der Fertigungshalle, durchgeführt werden; Steuern und/oder Überwachen einer Bearbeitung des Werkstücks an Arbeitsplätzen, die mit der Fertigungssteuerung vernetzt oder in diese integriert sind; und/oder Steuern und/oder Überwachen einet Bearbeitung des Werkstücks an Arbeitsplätzen, die mit der Fertigungssteuerung nicht vernetzt oder in diese nicht integriert sind. Monitoring a transport of the workpiece between different operations performed at different locations, but especially within the shop floor; Controlling and / or monitoring a machining of the workpiece at workplaces that are networked or integrated with the production control; and / or control and / or monitoring einet work on workplaces that are not networked with the production control or not integrated into this.
Bei einer durch eine Innenraum-Ortung unterstützten Fertigungssteuerung kann das Verfahren folgende Schritte umfassen: ein Bereitstellen eines Innenraum-Ortungssystems mit mehreren fest in der Fertigungshalle installierten Sende-Empfangseinheiten, mindestens einer Mobileinheit und einer Ortungsanalyseeinheit, wobei die Sende-Empfangseinheiten und die Mobileinheit zum Aussenden und Empfangen von elektromagnetischen Signalen ausgebildet ist und die Ortungsanalyseeinheit ausgebildet ist, aus Laufzeiten der elektromagnetischen Signale zwischen den Sende-Empfangseinheiten und der Mobileinheit die Positionen der Mobileinheit in der Fertigungshalle zu bestimmen; ein Zuordnen der Mobileinheit zu mindestens einem, insbesondere nachzuverfolgendem Objekt; ein Bestimmen der Position des mindestens einen zugeordneten Objekts durch Lokalisierung der zugeordneten Mobileinheit mit dem Innenraum-Ortungssystem; ein Einbinden der bestimmten Position in den Zuordnungsvorgang, bei dem für ein zu verfolgendes Objekt eine Pixelstruktur im Bild bestimmt wird, und/oder in die Fertigungssteuerung der Industriefertigungsanlage zur Fertigung des Endprodukts, insbesondere in die Bildaufnahmevorrichtung-basierte Nachverfolgung (hierin auch als Bild-basierte Nachverfolgung bezeichnet). Beispielsweise kann das Einbinden der Bildaufnahmevorrichtung-basierten Nachverfolgung in ein Fertigungssystem mit folgenden Einheiten erfolgen: In a production control assisted by indoor locating, the method may include the steps of providing an indoor location system having a plurality of transceivers fixedly installed in the production hall, at least one mobile unit, and a location analysis unit, the transceiver units and the mobile unit for broadcasting and receiving electromagnetic signals is formed and the location analysis unit is formed, from running times of the electromagnetic signals between the transceiver units and the mobile unit, the positions of the mobile unit in to determine the production hall; an assignment of the mobile unit to at least one, in particular traceable object; determining the location of the at least one associated object by locating the associated mobile unit with the indoor location system; incorporation of the particular position in the mapping process in which an object to be tracked determines a pixel structure in the image, and / or in the manufacturing control of the industrial manufacturing facility for manufacturing the final product, in particular image capture device based tracking (also referred to herein as image based Tracking). For example, the incorporation of the imager-based tracking into a manufacturing system may be accomplished with the following entities:
- einer Bildaufnahmevorrichtung-Einheit, die Bildsequenzen (Video-Streams) in zeitlich ausreichender Bildwiederholungsfrequenz und Pixel- Auflösung zur Verfügung stellt.  an image capture device unit that provides image sequences (video streams) at a time sufficient frame rate and pixel resolution.
- einem Positionserkennungssystem mit einer Objekterkennungseinheit, die mit Hilfe von geeigneten Objekterkennungsverfahren das zu verfolgende Objekt zu einem bestimmten a position recognition system having an object recognition unit which, with the aid of suitable object recognition methods, selects the object to be tracked for a specific object
Zeitpunkt und Ort in einer (ersten) Bildsequenz (Video-Stream) einer der Bildaufnahmevorrichtungen lokalisiert. Time and location in a (first) image sequence (video stream) of one of the image pickup devices located.
- einer Bildsequenz-Analyseeinheit, die mit Hilfe einer Bildsequenz- Analyse-Software das Objekt innerhalb der bereitgestellten Bildsequenzen ausschließlich anhand der typischen Pixeländerungen (Bewegung) verfolgt, ohne das zu verfolgende Objekt als solches eindeutig zu identifizieren.  - An image sequence analysis unit, using an image sequence analysis software, the object within the image sequences provided only on the basis of the typical pixel changes (movement) tracks without uniquely identifying the object to be tracked as such.
- einer Bildsequenz- Wechseleinheit, die das zu verfolgende Objekt einem Bereich in einer Bildsequenz einer zweiten Bildaufnahmevorrichtung zuordnet. Die Bildsequenz- Wechseleinheit kann ferner dazu ausgebildet sein, mindestens einen Objekt-Merkmalsvektor aus einer ersten Bildsequenz abzuleiten und basierend auf dem Objekt-Merkmalsvektor das zu verfolgende Objekt einem Pixelbereich in einem Bild einer (zweiten) Bildsequenz zuzuordnen.  an image sequence changing unit which associates the object to be tracked with a region in an image sequence of a second image pickup device. The image sequence change unit can also be designed to derive at least one object feature vector from a first image sequence and, based on the object feature vector, to associate the object to be tracked with a pixel region in an image of a (second) image sequence.
Mehrere Werkstücke, insbesondere solche, die im Endzustand die gleiche Form aufweisen und die gleichen Prozessschritte durchlaufen haben, und besonders solche, die auch zu einem gemeinsamen Auftrag gehören, werden als Werkstücksammeieinheiten oder Werkstückverbund bezeichnet. Diese werden üblicherweise an einer Werkstücksammelstelleneinheit abgelegt. Es ist vorteilhaft, jeder Werkstücksammeieinheit eine Werkstücksammelstelleneinheit und evtl. eine Mobileinheit zuzuordnen. Im Fertigungssteuerungssystem kann eine Liste aller Aufträge (inklusive Bearbeitungsplänen) abgelegt sein. Jeder der Aufträge kann einer Werkstücksammeieinheit zugeordnet werden. Wenn die Bildaufnahmevorrichtung-basierte Verfolgung von Objekten umgesetzt wird, dann ist jeder Auftrag mit den zum Auftrag gehörenden Werkstücken, Werkstücksammelstelleneinheiten oder Mobileinheiten in der Fertigungshalle jederzeit lokalisierbar. Dies kann ferner mit rückgemeldeten Informationen von Arbeitsplätzen und/oder Maschinen im Fertigungssteuerungssystem kombiniert werden. Several workpieces, in particular those which have the same shape in the final state and have passed through the same process steps, and especially those which also belong to a common order, are referred to as workpiece collection units or workpiece assembly. These are usually deposited on a workpiece collection unit. It is advantageous to assign a workpiece collection unit and possibly a mobile unit to each workpiece collection unit. In the manufacturing control system can see a list of all orders (including machining plans). Each of the jobs can be assigned to a workpiece collection unit. When imager-based tracking of objects is implemented, each job with job-related workpieces, workpiece collection units, or mobile units in the shop floor can be located at any time. This can also be combined with feedback information from workstations and / or machines in the production control system.
Die Bildaufnahmevorrichtung-basierte Verfolgung von Objekten zeichnet sich dabei dadurch aus, dass die Positionsbestimmung der Objekte allein durch die Beobachtung mit den ver- schiedenen in der Fertigungshalle vorgesehenen Bildaufnahmevorrichtungen, also ohne manuelle Interaktion, erfolgen kann. Bisherige Systeme zur Ortung von Werkstücken oder Aufträgen in Fertigungsstätten haben den Nachteil, dass verloren gegangene Werkstücke oder Aufträge manuell gesucht werden müssen. Man hat erkannt, dass diese manuellen Suchvorgänge, insbesondere in Fertigungsstätten mit einer hohen Anzahl von kleinen und ständig wechselnden Aufträgen, also z. B. in Lohnfertigungsstätten, einen enorm hohen Anteil der nichtproduktiven Zeit ausmachen. Mit der erfindungsgemäßen Nachverfolgung und dem beschriebenen System können die Positionen der Werkstücke und damit der Aufträge z. B. auf einem Bildschirm aufgerufen, gefiltert oder gezielt lokalisiert werden. Die Notwendigkeit von zeitaufwändigen manuellen Suchvorgängen von Werkstücken, aber auch von Werkzeugen oder Personen, kann so insbesondere in der (metall- und/oder blechverarbeitenden) industriellen Fertigung drastisch verringert werden. The image pickup-based tracking of objects is distinguished by the fact that the position of the objects can be determined solely by observation with the various image pickup devices provided in the production hall, ie without manual interaction. Previous systems for locating workpieces or jobs in manufacturing facilities have the disadvantage that lost workpieces or jobs must be searched manually. It has been recognized that these manual searches, especially in manufacturing facilities with a high number of small and constantly changing orders, ie z. As in toll manufacturing, account for a tremendous proportion of non-productive time. With the tracking and the described system according to the invention, the positions of the workpieces and thus the orders z. B. on a screen, filtered or localized. The need for time-consuming manual searches of workpieces, but also of tools or persons, can thus be drastically reduced, especially in the (metal and / or sheet-metal processing) industrial production.
In einigen Ausführungsformen wird die Bearbeitung des oder der Werkstücke an Arbeitsplätzen gesteuert oder überwacht, die mit der Fertigungssteuerung vernetzt oder in diese integriert sind. Derartige Maschinenarbeitsplätze umfassen Maschinen, die Fertigungsanweisungen per Datenverbindung, insbesondere digital, übermittelt bekommen und durchführen. Dabei kann kein oder nur ein minimaler Eingriff durch den Bediener erfolgen. Solche Maschinen werden üblicherweise als automatisierte oder vollautomatisierte Maschinen bezeichnet. Derartige Maschinen können auch den Status der Fertigung an eine Fertigungssteuerung melden. In some embodiments, the machining of the workpiece or workpieces is controlled or monitored at workplaces that are networked or integrated with the manufacturing controller. Such machine workplaces include machines that receive and execute manufacturing instructions by data connection, in particular digitally. This can be done by the operator no or only a minimal intervention. Such machines are commonly referred to as automated or fully automated machines. Such machines can also report the status of production to a production control.
In einigen Ausführungsformen wird die Bearbeitung des oder der Werkstücke an Arbeitsplätzen, die mit der Fertigungssteuerung nur zu einem sehr geringen Grad oder gar nicht vernetzt oder in diese nicht integriert sind, gesteuert und/oder kontrolliert. Das können Arbeitsplätze sein, bei denen die Arbeitsschritte manuell von Menschenhand durchgeführt werden oder sol- che, die wohl Maschinen aufweisen, die aber nur zu einem sehr geringen Grad oder gar nicht vernetzt sind oder sich auch nur sehr aufwändig vernetzen lassen, z. B. sogenannte Handarbeitsplätze, wie sie in DE 10 2016 220 015.1,„Handarbeitsplatzeinheit, Arbeits-Datenverar- beitungsvorrichtung, Handarbeitsplatzbetreibungssystem, Handarbeitsplatzbetriebsverfahren und Handarbeitsplatzbereitstellungsverfahren" mit Anmeldetag 13. Oktober 2016 beschrieben sind. Auch diese genannte deutsche Patentanmeldung wird hierin vollumfänglich aufgenommen. In some embodiments, the machining of the work piece (s) at workplaces that are networked or not integrated with the manufacturing control to a very low degree or not at all is controlled and / or controlled. These can be jobs in which the work steps are carried out manually by human hands or sol- che, which probably have machines, but only to a very low degree or not at all crosslinked or can be networked very complex, z. B. so-called manual workstations, as described in DE 10 2016 220 015.1, "manual workstation, work data processing device, manual workstation system, manual workstation operating method and manual workstations" method with filing date October 13, 2016. This said German patent application is incorporated herein in its entirety.
Arbeitsplätze, die nur zu einem sehr geringen Grad vernetzt sind, können beispielsweise Han- darbeitsplätze mit einfachen Maschinen sein, wie Arbeitsplätze zum Bohren, Sägen, Fräsen und Biegen. Ihre einzige Vernetzung kann in einem Überwachungssystem bestehen, wie es in der DE 10 2016 220 015.1 beschrieben ist. Eine weitere Vernetzungsmöglichkeit ist die Überwachung der Leistungsaufnahme solcher Maschinen und die Vernetzung der Informationen aus der Leistungsaufnahme. So kann, wenn eine Maschine gar keine Leistung verbraucht hat, z. B. gefolgert werden, dass die Maschine den Auftrag noch nicht abgearbeitet haben kann. Jobs that are networked only to a very limited extent can be, for example, workplaces with simple machines, such as workplaces for drilling, sawing, milling and bending. Their only networking can consist in a monitoring system, as described in DE 10 2016 220 015.1. Another networking option is the monitoring of the power consumption of such machines and the networking of the information from the power consumption. So if a machine has not consumed any power, z. B. concluded that the machine may not have completed the job yet.
Insbesondere die Kombination aus Fertigungsprozessen mit Arbeitsplätzen, die mit der Fertigungssteuerung vernetzt oder in diese integriert sind und solchen, die es nicht oder nur zu ei- nem sehr geringen Grad sind, stellt heute noch einen wichtigen Hinderungsgrund für die effektive und effiziente Fertigungssteuerung dar, weil Aufträge nach wie vor auf Papier ausgedruckt werden, wenn sie von einem automatisierten Arbeitsplatz zu einem nicht automatisierten Arbeitsplatz kommen. Das verlangsamt die Fertigung. Das erschwert auch die Flexibilität, wenn beispielsweise ein besonders schnell zu bearbeitender Auftrag mit mehreren Prozess- schritten an mehreren Arbeitsplätzen innerhalb kurzer Zeit abgearbeitet werden soll. Ein Fertigungsbetrieb, der dies reibungslos sicherstellen kann, hat gegenüber seinen Wettbewerbern, die das nicht können, Vorteile. Mit der Bildaufnahmevorrichtung-basierten Nachverfolgung von Werkstücken und der Verknüpfung der mit der Nachverfolgung gewonnen Positionsinformation mit der Fertigungssteuerung können die hierin offenbarten Konzepte eine flexible und schnelle Fertigung von Endprodukten ermöglichen. In particular, the combination of manufacturing processes with workplaces that are networked with or integrated into the production control and those that are not, or only to a very small degree, still represents an important hindrance to effective and efficient production control, because Jobs are still printed on paper when they come from an automated workstation to a non-automated workstation. This slows down the production. This also makes flexibility more difficult if, for example, a job that has to be processed particularly quickly, with several process steps at several workstations, should be processed within a short time. A manufacturing company that can ensure this smoothly has advantages over its competitors who can not. With the image picker based tracking of workpieces and the linkage of the positional information obtained with the tracking to the manufacturing control, the concepts disclosed herein can enable flexible and fast manufacturing of end products.
Basierend auf den hierin offenbarten Konzepten können intelligente Assistenzsysteme in Fertigungshallen eine 2D- oder 3D-Positionsbestimmung von Werkstücken (allgemein Material) und optional Personen, (z. B. Bearbeitern), Transportmedien, Maschinen, Werkzeugen und vielem mehr zur Unterstützung von Fertigungsprozessen nutzen. Dadurch wird es möglich, 2D- oder 3D-Positionen als Information, die zusätzlich zu weiteren Sensorinformationen vorliegen kann und gemäß den hierin offenbarten Konzepten bestimmt wurde, im Rahmen einer gesamtheitlichen Fertigungssteuerung und Digitalisierung von Fabriken zu verwenden. Based on the concepts disclosed herein, intelligent assistance systems in manufacturing halls can provide 2D or 3D position determination of workpieces (generally material) and optionally persons, (eg, operators), transport media, machines, tools, and much more to support manufacturing processes. This makes it possible to use 2D or 3D positions as information, which may be in addition to other sensor information and determined according to the concepts disclosed herein, in the context of overall manufacturing control and digitization of factories.
Es wurde erkannt, dass der Einsatz derartiger Bildaufnahmevorrichtung-basierter Nachverfolgungssysteme gerade bei Berücksichtigung der zu erwartenden Prozessvorgänge in einer Fertigungshalle im speziellen Umfeld einer metall- und/oder blechverarbeitenden Industriefertigung möglich ist. Entsprechend können derartige Bildaufnahmevorrichtung-basierte Nachver- folgungssysteme in ein Fertigungssteuerungssystem (hierin auch als MES (Manufacturing Execution System - Maschinensteuerungssystem) bezeichnet) integriert werden. It has been recognized that the use of such image capture device-based tracking systems is possible precisely in view of the expected process operations in a production hall in the specific environment of a metal and / or sheet metal processing industrial production. Accordingly, such imager-based tracking systems can be integrated into a shop floor control system (also referred to herein as MES (Manufacturing Execution System)).
Bezugnehmend auf die eingangs erwähnte Verbuchung von physischem Materialfluss und Bearbeitungsschritten kann beim Einsatz des Bildaufnahmevorrichtung-basierten Nachverfol- gungssystems eine Komplexität bei der aufwandsarmen, dynamischen Zuordnung von gewonnener Ortsinformation zu physischen Komponenten entstehen. Die hierin offenbarten Konzepte adressieren diese Komplexität und erlauben es beispielsweise, Produktionsaufträgen mit zugeordneter Kennung ohne aufwändige Interaktion eine Positionsinformation zuzuordnen. With reference to the above-mentioned accounting of physical material flow and processing steps, the use of the image acquisition device-based tracking system can result in complexity in the low-cost, dynamic assignment of acquired location information to physical components. The concepts disclosed herein address this complexity and allow, for example, position information to be assigned to production orders with an assigned identifier without complex interaction.
Bildaufnahmevomchtung-basierte Nachverfolgungssysteme können die detaillierte Abbildung von Materialflüssen in der Fertigung innerhalb einer Fertigungshalle in die digitale Prozessverarbeitung erlauben. Die Nachverfolgungssysteme können dabei die Lokalisierung der an der Fertigung teilnehmenden Objekte/Personen im Produktionsumfeld vereinfachen. Werden Werkzeuge, Betriebsmittel oder Ladungsträger initial einmal in das Bildaufnahmevorrichtung- basierte Nachverfolgungssystem aufgenommen, können diese im digitalen Steuerungssystem eingebunden werden. Dies bezieht sich auch auf temporär an der Fertigung beteiligte Objekte wie beispielsweise Produktionsaufträge oder Servicepersonal. Temporär benötigte dynamische Nachverfolgungen können immer wieder neu entstehen und werden nur wenige Stunden, Tage oder Wochen in der Fertigungshalle benötigt. Imaging device-based tracking systems can allow detailed mapping of material flows in manufacturing within a manufacturing shop into digital process processing. The tracking systems can thereby simplify the localization of the objects / persons participating in the production in the production environment. If tools, operating resources or charge carriers are initially recorded once in the image pickup device-based tracking system, they can be integrated in the digital control system. This also applies to objects that are temporarily involved in production, such as production orders or service personnel. Temporarily required dynamic follow-ups can always arise again and are required only a few hours, days or weeks in the production hall.
Die hierin offenbarten Ausführungsformen der Integration einer derartigen Nachverfolgung in die Prozesse der Metallverarbeitung können u. a. folgende Verfahrensschritte, Verwendungen und Vorteile aufweisen: - Abbildung der wechselnden Zuordnung von Aufträgen. The embodiments of the integration of such tracking into the processes of metal processing disclosed herein may include the following method steps, uses and advantages: - Illustration of the changing assignment of orders.
- Abbildung einer Assistenz für eine Person, z. B. Bearbeiter, mit Hilfe des Nachverfolgungssystems und weiterer Sensorik, insbesondere bei der Lokalisierung von Werkstücken und Werkzeugen.  - Illustration of an assistant to a person, eg. As agents, using the tracking system and other sensors, especially in the localization of workpieces and tools.
- Gewährleisten einer prozesssicheren und aufwandsarmen Fertigung durch automatisierte Abläufe mit geringen Freiheitsgraden für den Bearbeiter.  - Ensuring a process-reliable and low-effort production by automated processes with low degrees of freedom for the operator.
- Intuitiver Fertigungsablauf ohne aufwändige Informationsbeschaffung für den Bearbeiter.  - Intuitive production process without time-consuming information gathering for the processor.
Bei der Nachverfolgung von Werkstücken, Aufträgen, Personen (z. B. Bearbeitern) und/oder Werkzeug sind viele Anforderungen zu berücksichtigen. Es wurde erkannt, dass sich die industrielle Fertigung mehr und mehr auf Fertigung von Kleinserien mit vielen einzelnen Arbeitsschritten (Fertigungsprozesse wie z. B. Schneiden, Biegen, Schleifen, Oberflächenbehandlung) an unterschiedlichen Arbeitsplätzen wie Maschinenarbeitsplätze und manuelle Arbeitsplätze einrichtet. So sind oftmals mehrere hundert unterschiedliche Aufträge an einem Tag zu erledigen, die alle unterschiedliche Arbeitsschritte erfordern. When tracking workpieces, jobs, people (eg, operators) and / or tools, many requirements must be considered. It has been recognized that industrial manufacturing is becoming more and more focused on producing small batches with many individual operations (manufacturing processes such as cutting, bending, grinding, surface treatment) at different workplaces such as machine workstations and manual workplaces. So often several hundred different jobs are done in one day, which all require different steps.
Sobald nur eine Störung auftritt, kann die Fertigungssteuerung sehr schnell sehr unübersichtlich werden. Zeitaufwändig werden halb oder noch gar nicht bearbeitete Aufträge in der Fertigungshalle durch einzelne Personen gesucht und deren Status ermittelt. Dieser wird dann an die Fertigungssteuerung übermittelt. Das kann zu einem erheblichen Zeitverlust bei der eigentlichen Fertigung führen. As soon as only a fault occurs, the production control can very quickly become very confusing. Time-consuming, semi-finished or not yet processed orders are searched in the production hall by individual persons and their status is determined. This is then transmitted to the production control. This can lead to a considerable loss of time in the actual production.
Durch die immer schneller werdenden Verarbeitungsschritte bei der produktiven Bearbeitung und bei der Erhöhung der Anzahl unterschiedlicher Aufträge mit immer kleinerer Anzahl von Gleichteilen, können derartige Ausfälle immer häufiger auftreten. Die dadurch verursachten Zeitausfälle reduzieren die produktive Zeit. Sollen Aufträge, Werkstücke, Personen, z. B. Bearbeiter, und Werkzeuge schnell aufgefunden werden, ist die hierin offenbarte Ortung zumindest einzelner dieser Einheiten hilfreich, Fehlzeiten zu reduzieren. Insbesondere erfüllt sie die sehr hohen Anforderungen für eine Industriefertigung. Due to the ever faster processing steps in productive processing and the increase in the number of different orders with ever smaller number of identical parts, such failures can occur more frequently. The resulting downtime reduces the productive time. If jobs, workpieces, persons, z. As agents, and tools are quickly found, the location of at least some of these units disclosed herein is helpful in reducing absences. In particular, it meets the very high requirements for industrial production.
Bei der Industriefertigung ist eine Positionsabfrage in Echtzeit angestrebt. Sie soll örtlich so genau sein, dass Werkstücke sicher gefunden und/oder den Bearbeitungsschritten zugeordnet werden können. Die Nachverfolgung soll zudem flexibel sein, mehrere Aufträge sollten zu einem Auftrag zusammenfassbar sein, ein Auftrag sollte aufteilbar in mehrere Aufträge sein etc. Die Nachverfolgung sollte einfach zu bedienen sein und sie sollte ausfallsicher sein. In industrial production, a position inquiry in real time is desired. It should be locally so accurate that workpieces can be safely found and / or assigned to the processing steps. The tracking should also be flexible, several orders should be An order should be groupable into multiple orders, etc. Tracking should be easy to use and it should be failsafe.
Allgemein können die hierin offenbarten Konzepte eine Erhöhung der Prozesssicherheit, eine Optimierung von Durchlaufzeiten und entsprechend eine Kostenoptimierung der Produktion ermöglichen. Im Speziellen können die hierin offenbarten Konzepte eine z. T. erhebliche Zeiteinsparung im Fertigungsprozess bewirken, wobei sich der Fertigungsprozess z. B. von der Herstellung einer erforderlichen Stückzahl von Teilen bis zur korrekten Weitergabe an einen Nachfolgeprozess (z. B. einen nachfolgenden Metallbearbeitungsschritt) erstreckt. Mehrere Aufträge können ferner quasi gleichzeitig prozesssicher umgesetzt werden. Die hierin offenbarten Konzepte erlauben ferner eine einfache Zuordnung von Werkstücken im Rahmen des Bildaufnahmevorrichtung-basierten Nachverfolgungssystems. So können offene Aufträge trotz der Komplexität von mehreren gleichzeitig zu bearbeitenden Aufträgen optimiert werden. In general, the concepts disclosed herein may allow for increased process reliability, optimization of cycle times, and, correspondingly, cost optimization of production. In particular, the concepts disclosed herein may be e.g. T. cause significant time savings in the manufacturing process, with the manufacturing process z. From the production of a required number of parts to the correct transfer to a subsequent process (eg, a subsequent metal working step). Several orders can also be implemented at the same time process reliable. The concepts disclosed herein further allow easy assignment of workpieces within the scope of the imager-based tracking system. This allows open jobs to be optimized despite the complexity of multiple jobs to be processed simultaneously.
Ferner kann eine flexible Abarbeitung verschiedener Prozessabläufe mit der begleitenden Zeiteinsparung erfolgen, wenn Maschinen wie Laserschneidmaschinen und/oder Stanzmaschinen in den teilautomatisierten Herstellungsprozess eingebunden werden. Ferner kann die Fehlervermeidung und die automatische, korrekte Verbuchung von Werkstücken, Bearbei- tungsschritten etc. die Basis für eine datenbasierte Echtzeitsteuerung der Metallverarbeitung (z. B. der Stahl- und Blechfertigung) legen. Entsprechend werden auch Werkzeugmaschinen, die bei der Erstellung von kleinen Losgrößen von Werkstücken eingesetzt werden, in eine von einem MES im Rahmen der Industrie 4.0 gesteuerte Fertigung einbindbar. Im Vergleich zu einer Objektidentifizierung und Lokalisierung über Funktechnologien (z. B. Bluetooth LE) oder optische Verfahren (BarCodes, DotMatrixCodes) an definierten Stellen wie Passierstellen ("gates") in der Fertigungshalle kann das hierin vorgeschlagene Konzept der Nachverfolgung u. a. folgende Vorteile aufweisen: Furthermore, flexible processing of various process sequences can be carried out with the concomitant saving of time when machines such as laser cutting machines and / or punching machines are integrated into the partially automated production process. Furthermore, the avoidance of errors and the automatic, correct booking of workpieces, processing steps, etc. can lay the foundation for a data-based real-time control of metalworking (eg steel and sheet metal fabrication). Accordingly, machine tools used in the production of small batches of workpieces can also be integrated into a production controlled by an MES in the context of Industry 4.0. Compared to object identification and localization via radio technologies (eg Bluetooth LE) or optical methods (BarCodes, DotMatrixCodes) at defined locations such as gates in the production hall, the concept of tracking and the like proposed herein may be used. a. have the following advantages:
- Zu verfolgenden Objekte müssen nicht modifiziert werden (keine Beschriftung oder Anbringung von Elektronik notwendig).  - Objects to be tracked do not need to be modified (no labeling or attachment of electronics necessary).
- Bei fehlender Modifikation eines Objekts muss nicht auf dessen Identifikation über einen Ladungsträger (Wagen, Palette, etc.), auf dem das Objekt abgelegt wird, zurückgegriffen werden. - Die zur Verfügung stehende Positionsinformation ist nicht nur zu bestimmten Zeitpunkten und an definierten Orten verfügbar. - If there is no modification of an object, it is not necessary to fall back on its identification via a load carrier (carriage, pallet, etc.) on which the object is stored. - The available position information is not only available at certain times and at defined locations.
- Es ist keine Energieversorgung wie bei aktiven und mobilen Funktechnologien notwendig.  - There is no energy supply necessary as with active and mobile radio technologies.
Wie nachfolgend erläutert kann eine z. B. in der eingangs angegebenen DE 10 2017 120 358.8 offenbarte Innenraum-Ortung-basierte Steuerung mit dem Bildaufnahmevomchtung-basierte Verfolgungssystem kombiniert werden. Die Kombinierbarkeit umfasst dabei die Einbindung der Innenraum-Ortung in die Identifikation eines Objekts in einem Bild (Bestimmung einer Pixelstruktur) sowie die gemeinsame Verwendung für eine umfassende und sich ergänzende Bereitstellung von Positionsinformation von an der Fertigung beteiligten Objekten und Personen. Dabei kann eine Mobileinheit eines Innenraum-Ortungssystems selbst ein mittels der Bildsequenzen zu verfolgendes Objekt sein. Ferner können so zwei Verfahren / Systeme zur Lokalisierung eingesetzt werden, die sich abgleichen und voneinander lernen können. As explained below, a z. B. in the aforementioned DE 10 2017 120 358.8 combined indoor-location-based control with the Bildaufnahmevomchtung-based tracking system. The combinability encompasses the integration of the interior location in the identification of an object in an image (determination of a pixel structure) and the common use for a comprehensive and complementary provision of position information of objects involved in the production and people. In this case, a mobile unit of an indoor location system itself may be an object to be tracked by means of the image sequences. Furthermore, two methods / systems can be used for localization, which can align and learn from each other.
Hierin werden Konzepte offenbart, die es erlauben, zumindest teilweise Aspekte aus dem Stand der Technik zu verbessern. Insbesondere ergeben sich weitere Merkmale und deren Zweckmäßigkeiten aus der folgenden Beschreibung von Ausführungsformen anhand der Figuren. Von den Figuren zeigen: Herein, concepts are disclosed that allow to at least partially improve aspects of the prior art. In particular, further features and their expediencies emerge from the following description of embodiments with reference to the figures. From the figures show:
Fig. 1 eine beispielhafte schematische Darstellung eines Fertigungssteuerungssystems mit einem Bildaufnahmevorrichtung-basierten Nachverfolgungssystem, 1 is an exemplary schematic illustration of a production control system with an image picker based tracking system;
Fig. 2 eine Darstellung eines beispielhaften Transportwagens für Werkstücke, 2 shows a representation of an exemplary transport carriage for workpieces,
Fig. 3 einen beispielhaften digitalen Lageplan einer Fertigungshalle, 3 shows an exemplary digital site plan of a production hall,
Fig. 4 einen weiteren beispielhaften digitalen Lageplan, 4 shows another exemplary digital site plan,
Fig. 5 eine beispielhafte Darstellung einer Werkzeugmaschine, die in ein Bildaufnahmevor- richtung-basiertes Nachverfolgungssystem eingebunden ist,  5 shows an exemplary representation of a machine tool that is integrated in an image acquisition device-based tracking system,
Fig. 6 ein Flussdiagramm zur Verdeutlichung einer mit einem Bildaufnahmevorrichtung- basierten Nachverfolgungssystem unterstützten Fertigung und  FIG. 6 is a flowchart illustrating a manufacture supported by an image pickup device based tracking system; and FIG
Fig. 7 ein Flussdiagramm zur Verdeutlichung von Verfahrensschritten zur industriellen Fertigung eines Endprodukts.  7 shows a flow chart to illustrate process steps for the industrial production of a final product.
Hierin beschriebene Aspekte basieren zum Teil auf der Erkenntnis, dass mit der Genauigkeit und der Zuverlässigkeit Bildaufnahmevorrichtung-basierter Nachverfolgungssysteme, bei- spielsweise mit einer Genauigkeit in der Positionsbestimmung von kleiner 30 cm, insbesondere kleiner 10 cm, der Einsatz von Bildaufnahmevorrichtung-basierten Nachverfolgungssystem im Rahmen der industriellen Fertigung sinnvoll möglich wird. Das hierin offenbarte Konzept der Bild-basierten Nachverfolgung erlaubt eine durchgängige Objektverfolgung während eines mehrstufigen Fertigungsprozesses innerhalb einer Fertigungshalle und kann somit leicht in Intralogistik- Anwendungen eingesetzt werden. Dabei wird insbesondere vorgeschlagen, eine bildsequenzbasierte Objektverfolgung einzusetzen, die ohne optische Geometrie-Erkennung mit Hilfe von Smart Data- Anwendungen (Maschine - Learning, Künstliche Intelligenz, ...) eine Objektverfolgung ermöglicht. Aspects described herein are based, in part, on the recognition that with the accuracy and reliability of imager-based tracking systems, For example, with an accuracy in the position determination of less than 30 cm, in particular less than 10 cm, the use of image pickup-based tracking system in the context of industrial production makes sense. The image-based tracking concept disclosed herein allows for consistent object tracking during a multi-level manufacturing process within a manufacturing shop, and thus is easily deployed in intralogistics applications. In particular, it is proposed to use image sequence-based object tracking, which enables object tracking without optical geometry recognition with the aid of smart data applications (machine learning, artificial intelligence, etc.).
Eine beispielhafte Umsetzung des Konzepts zur Objektverfolgung umfasst z. B. die folgenden Schritte: An exemplary implementation of the concept for object tracking comprises z. For example, the following steps:
- Die Fertigungshalle, zumindest der für die Objektverfolgung relevante Bereich, wird überlappend mit mehreren Bildaufnahmevorrichtungen überwacht. Die Bildaufnahmevorrichtungen stellen dem Fertigungssteuerungssystem Video-Streams (Bild-Sequenzen) in zeitlich ausreichend hoher Bildwiederholungsfrequenz und Pixel-Auflösung zur Verfügung.  The production hall, at least the area relevant for object tracking, is monitored overlapping with several image acquisition devices. The image capture devices provide the production control system with video streams (image sequences) at sufficiently high frame rate and pixel resolution.
- Ein Objekt wird im Rahmen der Fertigungssteuerung selektiert. Die Position des selektierten Objekts wird in der Fertigungshalle festgestellt und bleibt nachfolgend trotz Positions- änderungen in der Fertigungshalle, die sich aufgrund des Fertigungsprozesses ergeben, im Fertigungssteuerungssystem aktuell abrufbar.  - An object is selected as part of the production control. The position of the selected object is determined in the production hall and remains subsequently available in the production control system despite position changes in the production hall, which arise as a result of the manufacturing process.
- Mit Hilfe eines geeigneten Objekt-Erkennungsverfahrens wird das zu verfolgende Objekt zu einem bestimmten Zeitpunkt an einem Ort lokalisiert. Dies ist z. B. eine Entladestation einer Werkzeugmaschine, wie ein Absortiertisch. Die Lokalisierung erfolgt eindeutig über ein von überlagerten Systemen bereitgestelltes Software (SW)-System.  With the aid of a suitable object recognition method, the object to be tracked is localized at one point in time at one location. This is z. B. an unloading station of a machine tool, such as a sorting table. The localization is clearly via a software (SW) system provided by superordinate systems.
- Eine Bildsequenz -Analyse-SW verfolgt das Objekt innerhalb der bereitgestellten Bildsequenz ausschließlich anhand von typischen Pixeländerungen (Bewegung), ohne dass dabei das eigentliche Objekt als solches eindeutig zu identifizieren ist. D. h., es ist keine Objekterkennung notwendig, die über die Bildsequenzen läuft. Im Bereich der Bild- Analyse-SW und Bildsequenz- Analyse-SW wird auf bekannte Verfahren zur echtzeitfähigen Bildanalyse verwiesen.  An image sequence analysis SW tracks the object within the provided image sequence exclusively on the basis of typical pixel changes (movement), without the actual object as such being uniquely identifiable. This means that no object recognition is necessary, which runs over the image sequences. In the field of image analysis software and image sequence analysis software, reference is made to known methods for real-time capable image analysis.
Die beispielhafte Umsetzung kann ferner den Aspekt der Nachverfolgung mit mehreren Bildaufnahmevorrichtungen umfassen, d.h., verlässt das zu verfolgende Objekt den Beobach- tungsbereich einer ersten Bildaufnahmevorrichtung, erfolgt eine Übergabe der Nachverfolgung an eine zweite Bildaufnahmevorrichtung. The exemplary implementation may further comprise the aspect of tracking with multiple image capture devices, ie, the object to be traversed leaves the observer. tion range of a first image pickup device, a transfer of tracking to a second image pickup device takes place.
Wenn sich die Bilder der ersten Bildaufnahmevorrichtung und der zweiten Bildaufnahmevor- richtung (leicht) überlappen, kann das zu verfolgende Objekt beim Wechsel in den erfassten Bereich der zweiten Bildaufnahmevorrichtung eindeutig identifiziert werden und nachfolgend in der Bildsequenz der zweiten Bildaufnahmevorrichtung nachverfolgt werden. When the images of the first image pickup device and the second image pickup device overlap (slightly), the object to be tracked can be uniquely identified when changing to the detected area of the second image pickup device and subsequently tracked in the image sequence of the second image pickup device.
Liegt keine räumliche Überlappung der Beobachtungsbereiche der ersten Bildaufnahmevor- richtung und der zweiten Bildaufnahmevorrichtung vor (nicht überlappende Bildsequenzen), können basierend auf der ersten Bildsequenz mit analytischen Verfahren der in der ersten Bildsequenz bekannten Orte Geschwindigkeits- und/oder Richtungsvektoren des zu verfolgenden Objektes bestimmt werden. Diese erlauben es, das zu verfolgende Objekt einem in der zweiten Bildsequenz auftauchenden Objekt zuzuordnen. Die Identifizierung kann in der Regel mit ausreichend hoher Wahrscheinlichkeit erfolgen, da die geeigneten Bildsequenz -Merkmale (Objekt-Merkmalsvektoren wie Richtungs- und/oder Geschwindigkeitsvektoren, Objektmerkmale wie Farben, Objektgrößen, ...) eine passende Zuordnung ermöglichen. If there is no spatial overlapping of the observation areas of the first image recording device and the second image recording device (non-overlapping image sequences), speed and / or direction vectors of the object to be tracked can be determined based on the first image sequence with analytical methods of the locations known in the first image sequence , These allow the object to be tracked to be assigned to an object appearing in the second picture sequence. As a rule, the identification can be carried out with sufficiently high probability, since the suitable image sequence features (object feature vectors such as directional and / or velocity vectors, object features such as colors, object sizes, etc.) make an appropriate assignment possible.
Die beispielhafte Umsetzung kann ferner den Aspekt umfassen, dass mit Hilfe von Maschine- Learning-Algorithmen die Wahrscheinlichkeit bei der Zuordnung von Objekten zu einer nachfolgenden Bildsequenz weiter verbessert wird. The exemplary implementation may further include the aspect that the probability of assigning objects to a subsequent image sequence is further improved with the aid of machine learning algorithms.
Voll- oder teilautomatisierte Bearbeitungsplan-Zuordnungen verbinden beispielsweise einen Produktionsauftrag mit einer spezifischen Mobileinheit eines z. B. UWB-Ortungssystems. Sie können beispielsweise durch einen kombinierten Einsatz eines Assistenzsystems im Umfeld des Bedieners, des Bildaufnahmevorrichtung-basierten Nachverfolgungssystem und eines z. B. UWB-Ortungssystems durchgeführt werden. Fully or partially automated processing plan assignments connect, for example, a production order with a specific mobile unit of a z. B. UWB location system. You can, for example, by a combined use of an assistance system in the environment of the operator, the image pickup-based tracking system and a z. B. UWB location system can be performed.
Neben der vorzunehmenden Zuordnung z. B. eines Werkstücks zu einer ersten Bildsequenz kann ferner eine Zuordnung des Objekts (z. B. des zugeordneten Werkstücks) zu einem zugehörigen Produktionsauftrag (z. B. dem Produktionsauftrag des Werkstücks) vorgenommen werden. Derartige voll- oder teilautomatisierte Bearbeitungsplan-Zuordnungen verbinden beispielsweise einen Produktionsauftrag mit einem spezifischen nachverfolgten Objekt. In addition to the assignment to be made z. In addition, an assignment of the object (eg the assigned workpiece) to an associated production order (eg the production order of the workpiece) can be carried out. Such fully or partially automated machining plan assignments, for example, connect a production job to a specific tracked object.
Ein System, das die obige beispielhafte Umsetzung des Konzepts erlaubt, umfasst z. B.: A system that allows the above exemplary implementation of the concept includes, for. B .:
- Eine Überwachung der Fertigungshalle mit mehreren Bildaufhahmevorrichtungen. - A monitoring of the production hall with several image recording devices.
- Die Bereitstellung von Bildsequenzen mit eindeutigem Zeitbezug innerhalb einer Analyse-Umgebung in Echtzeit. - The provision of image sequences with a clear time reference within an analysis environment in real time.
- Eine Ersterkennung (Bildsequenz-Frame-Objekt-Zuordnung) eines zu verfolgenden Objekts mit Hilfe von geeigneter Bilderkennung in einem Frame einer Bildsequenz zur Be- reitstellung von Objekt-Position, Objekt-Identität, mindestens einem Objekt-Merkmal, dem ein Objekt-Merkmalsvektor in einer Bildsequenz zugeordnet werden kann (Objekt- Merkmals vektor-Zuordnung) .  An initial recognition (image sequence-frame-object assignment) of an object to be tracked with the aid of suitable image recognition in a frame of an image sequence for the provision of object position, object identity, at least one object feature, which is an object feature vector can be assigned in a picture sequence (object feature vector assignment).
- Objektverfolgung mit geeigneten Streaming-Tools und Algorithmen innerhalb einer Bildsequenz.  - Object tracking with appropriate streaming tools and algorithms within a sequence of images.
- Beim Verlassen des Objektes eines der Bildsequenz zugeordneten Bereichs in der Fertigungshalle prüfen (mit Hilfe von geeigneten Bildauswertemittel und Bildauswerte- Verfahren/Programme, auch bekannt als Analytics-Tools und Routinen), ob ein dem Objekt- Merkmalsvektor entsprechendes Objekt in einem passenden Ort-/Zeitfenster einer weiteren Bildsequenz mit ausreichend hoher Wahrscheinlichkeit identifizierbar ist.  When checking the object of an area assigned to the image sequence in the production hall (using suitable image evaluation means and image evaluation methods / programs, also known as analytics tools and routines), check whether an object corresponding to the object feature vector is located in a suitable location. / Time window of another image sequence with sufficiently high probability is identifiable.
- Verbesserung der Objekterkennung mit Hilfe von Maschine-Learning- Verfahren, so dass die Objektgeometrie nicht mehr durch optische Verfahren erkannt werden muss.  - Improvement of the object recognition with the help of machine learning procedures, so that the object geometry no longer has to be recognized by optical methods.
- Berechnung eines genauen Ort-/Raum-Zeitpunkts des Objektes anhand von Referenzpunkten sowie Aufzeichnen und/oder Bereitstellen desselben über eine geeignete Schnittstelle. Ein Beispiel eines Assistenzsystems für die Ersterkennung ist z. B. ein optisches Assistenzsystem, bei dem mit optischen Sensoren vom Bediener ergriffene Werkstücke oder Werkzeuge erkannt und im Kontext der zur Verfügung stehenden Produktionsdaten aus den Produktionsaufträgen (bevorzugt) eindeutig für die Bearbeitungsplan-Zuordnung identifiziert werden. Ein beispielhaftes Assistenzsystem ist in der eingangs aufgeführten DE 10 2016 120 131.6 offen- bart. Derartige Assistenzsysteme können ferner für die Bearbeitungsplan-Zuordnung eingesetzt werden, wenn beispielsweise Bilddaten das Werkstück und den Bearbeitungsplan betreffen. Die Bearbeitungsplan-Zuordnung kann dann die weitere Verfolgung des Objekts während des nachfolgenden Fertigungsprozesses unterstützen. Dabei stellt die enge Verzahnung des Prozessablaufs die Prozesssicherheit im manuellen Umfeld sicher. Bei der digitalen Bearbeitungsplan-Zuordnung können die Objekte mit Produktionsaufträgen verknüpft werden. Die Produktionsaufträge betreffen Bearbeitungsprozesse an verschiedenen Fertigungsstationen, beispielsweise an einer Laserschneidmaschine oder an einer Stanzmaschine sowie z. B. an einem Kommissionierplatz. Die digitale Zuordnung kann beispielsweise dadurch erfolgen, dass ein Objekt in einer geometrisch definierten Zone abgelegt wird. Dabei können Informationen zu diesem Auftrag hinsichtlich der Nachverfolgung geladen werden oder je nach Bedarf auf diese immer aktuell geladen werden. - Calculation of a precise location / space time of the object based on reference points and recording and / or providing the same via a suitable interface. An example of an assistance system for the first detection is z. As an optical assistance system, detected in the optical sensors used by the operator workpieces or tools and in the context of the available production data from the production orders (preferred) are clearly identified for the processing plan assignment. An exemplary assistance system is disclosed in the initially cited DE 10 2016 120 131.6. Such assistance systems can also be used for the processing plan assignment, if, for example, image data relate to the workpiece and the processing plan. The machining plan assignment can then support the further tracking of the object during the subsequent manufacturing process. The close integration of the process sequence ensures process reliability in the manual environment. With the digital processing plan assignment, the objects can be linked to production orders. The production orders relate to machining processes at various production stations, for example on a laser cutting machine or on a punching machine and z. B. at a picking station. The digital assignment can be done, for example, by placing an object in a geometrically defined zone. In this case, information about this order can be loaded with regard to the follow-up or, depending on requirements, always be loaded up-to-date.
Die digital zugeordneten Objekte können z. B. Werkstücksammelstellen wie Wagen oder Paletten, allgemein Ladungsträger, sein, auf denen während der Fertigung die Werkstücke even- tuell Bildaufnahmevorrichtung-assistiert abgelegt werden. Ebenso können Werkzeuge als Objekt digital zugeordnet werden. The digitally assigned objects can, for. B. workpiece collection points such as carts or pallets, generally load carriers, on which the workpieces are possibly stored during production image-picking device assisted. Similarly, tools can be digitally assigned as an object.
Alternativ oder zusätzlich zum Bildaufnahmevorrichtung-basierten Assistenzsystem kann die dynamische Bearbeitungsplan-Zuordnung erfolgen, indem z. B. Auftragspapiere und/oder ein Code (z. B. Barcode, QR-Code etc.) gescannt werden. Alternativ oder zusätzlich zur Verarbeitung der Information auf Auftragspapieren kann die Sollgeometrie des Werkstücks herangezogen werden. Nach einem Abgleich der beispielsweise mit dem Bildaufnahmevorrichtung- basierten Assistenzsystem erfassten Geometrie des Werkstücks mit der Sollgeometrie können Informationen aus dem zentralen Produktionsdatensystem nachgeladen und bei der Nachver- folgung eingesetzt werden. Alternatively or in addition to the image pickup device-based assistance system, the dynamic processing plan assignment can be done by z. B. order papers and / or a code (eg barcode, QR code, etc.) are scanned. Alternatively or in addition to the processing of the information on order papers, the desired geometry of the workpiece can be used. After a comparison of the geometry of the workpiece, for example with the imaging device-based assistance system, with the desired geometry, information from the central production data system can be reloaded and used during follow-up.
Falls die Bildverarbeitung der Erstzuordnung keine eindeutige Identifikation zulässt, kann dem Bediener eine Teilmenge der aktiven Produktionsaufträge aufgelistet werden, welche für die erfasste Geometrie in Frage kommen. Der Bediener trifft dann die finale Auswahl und stellt die digitale Zuordnung her. So lässt sich die Prozesssicherheit verbessern. Insbesondere ähnlich wirkende Werkstücke/Werkzeuge können als Objekt nachverfolgt werden, ohne dass sie durch den Bearbeiter beispielsweise verwechselt, entsprechend falsch zugeordnet und fehlerhaft bearbeitet werden. Nachfolgend werden in Verbindung mit den Figuren Bild-basierte Nachverfolgungskonzepte beispielhaft erläutert. If the first allocation image processing does not allow unambiguous identification, the operator may be presented with a subset of the active production orders that are eligible for the acquired geometry. The operator then makes the final selection and makes the digital assignment. This improves process reliability. Particularly similar workpieces / tools can be tracked as an object, without them being confused by the operator, for example, correspondingly assigned incorrectly and processed incorrectly. In the following, image-based tracking concepts will be exemplified in connection with the figures.
Fig. 1 zeit schematisch ein Fertigungssteuerungssystem 1, das ein MES (Manufacturing Execution System) 3 und ein Bildaufhahmevorrichtung-basiertes Nachverfolgungssystem 5 (hierin auch kurz Nachverfolgungssystem) umfasst. 1 schematically shows a production control system 1 comprising an MES (Manufacturing Execution System) 3 and an image capture device-based tracking system 5 (also referred to here as a short tracking system).
Das MES 3 ist mit einer oder mehreren in einer Fertigungshalle positionierten Werkzeugmaschinen 7 über kabellose oder kabelgebundene Kommunikationsverbindungen 9 verbunden. Allgemein dient das MES 3 der Steuerung von Prozessabläufen/Fertigungsschritten bei der industriellen Fertigung von Werkstücken mit den Werkzeugmaschinen 7. Es dient damit insbesondere der Steuerung der Werkzeugmaschinen 7. Dazu empfängt das MES 3 Informationen über die Prozessabläufe/Fertigungsschritte sowie Statusinformation der Werkzeugmaschinen 7. Das MES 3 stellt ein Datenverarbeitungssystem oder allgemein ein Datenverarbeitungsver- fahren dar, das in einer Datenverarbeitungsvorrichtung implementiert sein kann. Bei dieser kann es sich um eine einzelne elektronische Datenverarbeitungsvorrichtung (Server) oder um einen Verbund von mehreren Datenverarbeitungsvorrichtungen (Serververbund/Cloud) handeln. Die Datenverarbeitungsvorrichtung oder der Verbund kann örtlich in der Fertigungsstätte vorgesehen werden oder außerhalb dezentral aufgebaut werden. The MES 3 is connected to one or more machine tools 7 located in a production hall via wireless or wired communication links 9. In general, the MES 3 is used to control process sequences / manufacturing steps in the industrial production of workpieces with the machine tools 7. It thus serves in particular to control the machine tools 7. For this purpose, the MES 3 receives information about the process sequences / production steps and status information of the machine tools MES 3 represents a data processing system or generally a data processing method that may be implemented in a data processing device. This can be a single electronic data processing device (server) or a combination of several data processing devices (server network / cloud). The data processing device or the composite may be provided locally in the manufacturing facility or may be set up remotely.
Eine Plattform, auf der die Datenverarbeitungsvorrichtungen zur Verfügung stehen können - z. B., auf der das MES 3 implementiert werden kann, kann eine sogenannte Cloud sein. Die Cloud umfasst z. B. einen externen Server mit Rechen- und Speicherkapazität, den mehrere Produkthersteller gleichzeitig nutzen können. Dabei kann durch Zugangsauthentifizierungen, Passwörter etc. sicher gestellt werden, dass kein Hersteller auf die Daten eines anderen Herstellers oder des Betreibers der Fertigungsanlage zugreifen kann. Es kann sichergestellt werden, dass kein außenstehender Dritter auf die gespeicherten Daten zugreifen kann. Ein Schutz vor ungewolltem Zugriff kann dadurch gewährleistet werden, dass diejenigen Daten, die in der Cloud gespeichert sind, auch dort verarbeitet werden, und der Hersteller oder Betreiber der Fertigungsanlage, der die Daten nutzen möchte, seinerseits die Daten nur in der Cloud verarbeitet. Derartige Cloud-Nutzungen können zu einer bedeutenden Vereinfachung von Systemkonfigurationen und einer begleitenden Kostenersparnis führen. Die Datenverarbeitungsvorrichtung kann eine Benutzer-Oberfläche (GUI = Graphical User Interface) mit verschiedenen Anwendungsprogrammen (APPs) aufweisen. Mit der Bereitstellung verschiedener APPs, die ein bestimmtes Anwendungsprogramm ausfuhren können, kann die Fertigungssoftware, die ein Unternehmen benötigt, segmentiert aufgebaut werden, sodass sie je nach Bedarf - wie bei Nutzung einer spezifischen APP - nur dann abgerufen werden muss, wenn sie benutzt werden soll. Dies ermöglicht, dass eine Nutzung an den Provider, der die Fertigungssoftware bereitstellt, je nach Bedarf vergütet werden kann. A platform on which the data processing devices can be available - eg. B. on which the MES 3 can be implemented, may be a so-called cloud. The cloud includes z. For example, an external server with computing and storage capacity that multiple product manufacturers can use simultaneously. Access authorizations, passwords, etc. can ensure that no manufacturer can access the data of another manufacturer or the operator of the production facility. It can be ensured that no outside third party can access the stored data. Protection against unintentional access can be ensured by the fact that the data stored in the cloud is also processed there, and the manufacturer or operator of the production plant who wishes to use the data, in turn, only processes the data in the cloud. Such cloud usages can lead to significant simplification of system configurations and concomitant cost savings. The data processing device may include a user interface (GUI) with various application programs (APPs). With the provision of various APPs that can run a particular application program, the manufacturing software that a business needs can be segmented so that it can only be accessed as needed, as with a specific APP, if it is to be used , This allows usage to the provider providing the manufacturing software to be remunerated as needed.
Das Nachverfolgungssystem 5 kann eine Analyseeinheit 11 und mehrere Bildaufhahmevor- richtungen 13 aufweisen, die zum Beobachten von Objekten 15 vorgesehen sind. Die Bildaufnahmevorrichtungen 13 können insbesondere Kameras sein. Das Nachverfolgungssystem 5 kann ferner mit dem MES 3 zusammenwirken. Beispielsweise kann das Nachverfolgungssystem 5 als ein Teil des MES 3 ausgebildet sein. Das Objekt 15 kann ein Werkstück, ein Transportmittel für Werkstücke, ein Werkzeug oder eine Person sein. Das Objekt 15 kann sich während der Fertigung in einem oder mehreren Beobachtungsbereichen 17 der Bildaufnahmevorrichtungen 13 befinden und wird somit in aufgenommenen, im MES 3 (oder der Analyseeinheit 11) abgelegten Bildern 39 der Bildaufnahmevorrichtungen 13 abgebildet, wobei die Bilder 39 (auch als Frames bezeichnet) einer Bildaufnahmevorrichtung 13 eine Bildsequenz 41 (auch als Video-Stream bezeichnet) bilden. The tracking system 5 may comprise an analysis unit 11 and a plurality of image recording devices 13, which are provided for observing objects 15. The image recording devices 13 may in particular be cameras. The tracking system 5 may also interact with the MES 3. For example, the tracking system 5 may be formed as a part of the MES 3. The object 15 may be a workpiece, a means of transport for workpieces, a tool or a person. The object 15 can be located during production in one or more observation areas 17 of the image recording devices 13 and is thus imaged in recorded images 39 of the image recording devices 13 stored in the MES 3 (or the analysis unit 11), the images 39 (also referred to as frames) ) of an image pickup device 13 form an image sequence 41 (also referred to as video stream).
Die Position des Objekts 15 kann im Beobachtungsbereich 17 einer Bildaufnahmevorrichtung 13 beispielsweise über Referenzpunkte 19, die ebenfalls abgebildet werden und in Fig. 1 schematisch angedeutet sind, bestimmt werden. The position of the object 15 can be determined in the observation area 17 of an image recording device 13, for example via reference points 19, which are also shown and are indicated schematically in FIG. 1.
Allgemein kann die Datenkommunikation einer Bildaufnahmevorrichtung 13 mit dem Ferti- gungssteuerungssystem 1, insbesondere mit dem MES 3, bidirektional möglich sein. Z. B. kann eine Bildaufnahmevorrichtung 13 vom MES 3 entsprechend ausgerichtet werden oder in den Betriebsparametern wie Frame-Rate, Belichtung etc. eingestellt werden. In general, the data communication of an image recording device 13 with the production control system 1, in particular with the MES 3, can be bidirectional. For example, an image pickup device 13 may be appropriately aligned by the MES 3 or set in the operating parameters such as frame rate, exposure, etc.
In einigen Ausführungsformen können WLAN-Sendestationen in eine Bildaufnahmevorrichtung 13 für einen Datenzugang in das Fertigungssteuerungssystem 1 integriert werden, sodass über diese Bildaufnahmevorrichtung 13 digitale Daten in der Fertigungshalle mobil z. B. über Smartphones oder Tablets zugänglich sind. Die Integration der WLAN- Sendestationen in die Bildaufnahmevorrichtung 13 kann die Installation und das Betreiben eines Datenkommunikationssystems in der Fertigungshalle vereinfachen. In some embodiments, WLAN senders may be integrated into an image capture device 13 for data access into the shop floor control system 1, such that via this image capture device 13, digital data may be mobilized in the shop floor, e.g. B. accessible via smartphones or tablets. The integration of the WLAN transmitter stations in the Image pickup device 13 can simplify the installation and operation of a data communication system in the shop floor.
Die Analyseeinheit 11 kann beispielsweise als eine zentrale Master-Positionsbestimmungs- einheit (hierin auch als "Server" bezeichnet) dienen. Sie definiert den Nachverfolgungsprozess und den Datenaustausch mit dem MES 3. For example, the analysis unit 11 may serve as a central master positioning unit (also referred to herein as a "server"). It defines the follow-up process and data exchange with the MES 3.
Eine Gruppe von Bildaufnahmevorrichtungen 13 kann einer Master-Positionsbestimmungseinheit zugeordnet werden und die Bildsequenzen können an diese übermittelt werden. Zur Erfassung von Positionen in großen Fertigungshallen oder über mehrere Gebäude oder Räume hinweg können mehrere Gruppen von Bildaufnahmevorrichtungen 13 vorgesehen werden, die jeweils einer eigenen Master-Positionsbestimmungseinheit zugeordnet sind. Diese Master- Positionsbestimmungseinheiten können wiederum untereinander kommunizieren. Je nach Position des zu verfolgenden Objekts 15 kann die Nachverfolgung von unterschiedlichen Mas- ter-Positionsbestimmungseinheiten (Server) erfolgen. A group of image capture devices 13 may be assigned to a master position determination unit and the image sequences may be transmitted to them. For capturing positions in large production halls or over several buildings or rooms, several groups of image capturing devices 13 can be provided, which are each assigned to a separate master position determination unit. These master position determination units can in turn communicate with each other. Depending on the position of the object 15 to be tracked, the tracking of different master position determination units (servers) can take place.
Fig. 1 zeigt ferner beispielhaft Bearbeitungspläne 37. Ein Bearbeitungsplan 37 kann einen Geometriedatensatz 37A und/oder einen das Werkstück identifizierenden Codierungsdatensatz 37B umfassen. Ferner kann der Bearbeitungsplan 37 einen oder mehrere Bearbeitungs- und Werkstückparameter 37C des entsprechenden Werkstücks 23 umfassen. FIG. 1 further shows, by way of example, machining plans 37. A machining plan 37 may comprise a geometry data record 37A and / or an encoding data record 37B identifying the workpiece. Further, the machining plan 37 may include one or more machining and workpiece parameters 37C of the corresponding workpiece 23.
Fig. 2 zeigt einen Transportwagen 21 mit einem Werkstück 23 sowie einer Mobileinheit 20. Der Transportwagen 21 umfasst einen Ablagebereich 24 für dieses oder mehrere Werkstücke 23, die im Rahmen eines Bearbeitungsplans 37 von einer Werkzeugmaschine 7 erzeugt wur- den. 2 shows a transporting carriage 21 with a workpiece 23 and a mobile unit 20. The transporting carriage 21 comprises a storage area 24 for this or a plurality of workpieces 23, which were generated by a machine tool 7 as part of a processing plan 37.
Die Mobileinheit 20 ist beispielhaft auf dem Transportwagen 21 abgelegt, kann aber auch in diese strukturell integriert sein. Zur Interaktion eines Bedieners mit der Mobileinheit 20 kann sie eine elektronisch ansteuerbare Anzeige 20A, beispielsweise ein E-Ink-Display (auch als elektronische Papier-Anzeige bezeichnet), und/oder eine oder mehrere Signalabgabevorrichtungen 20B (LEDs) zur Ausgabe von Informationen aufweisen. Die Anzeige 20A zeigt beispielsweise eine für diese Werkstücke 23 spezifische Information an. Dies kann z.B. sein: Art des aktuellen und des nächsten Bearbeitungsschritts, beispielsweise„Entgraten", oder„Biegen"; Name und /oder Identifizierung des Auftrags; Datum, beispielsweise das Datum der Fertigstellung oder des Beginns des Auftrags; Anzahl der zu fertigenden Teile; Name oder Identifizierung des Kunden oder Auftraggebers. The mobile unit 20 is stored by way of example on the transport vehicle 21, but can also be structurally integrated into it. For operator interaction with the mobile unit 20, it may include an electronically-drivable display 20A, such as an e-ink display (also referred to as electronic paper display), and / or one or more signal dispensers 20B (LEDs) for outputting information. The display 20A indicates, for example, information specific to these workpieces 23. This can be, for example: type of the current and the next processing step, for example "deburring", or "bending"; Name and / or identification of the contract; Date, for example, the date of Completion or commencement of the contract; Number of parts to be manufactured; Name or identification of the customer or client.
Auf der Anzeige 20A können z. B. Informationen zum Auftrag, lesbar für Mensch und/oder Maschine, codiert und/oder in Schriftform und/oder als Figur dargestellt werden. Die Anzeige 20A kann auch als Signalabgabevorrichtung für eine Rückmeldung an den Benutzer genutzt werden. Weitere Beispiele einer Signalabgabevorrichtung sind eine Vorrichtung zur Ausgabe von Schall, insbesondere im hörbaren Bereich, insbesondere zur Ausgabe von Sprachinformationen und eine Lampe wie eine LED, die in den Bildern (39) einer Bildaufnahmevorrichtung 13 als signifikante Objektmerkmale aufgenommen werden können. Die LED kann durch unterschiedliche Farben, Blinkfrequenzen und/oder Blinkmuster codierte Informationen visuell über die Bildaufnahmevorrichtung 13 an das MES 3 mitteilen. On the display 20A z. B. information on the order, readable for human and / or machine, coded and / or presented in writing and / or as a figure. The display 20A can also be used as a signal output device for a feedback to the user. Further examples of a signal output device are a device for outputting sound, in particular in the audible range, in particular for outputting speech information and a lamp such as an LED, which can be recorded in the images (39) of an image recording device 13 as significant object features. The LED can communicate information coded by different colors, flashing frequencies and / or flashing patterns visually via the image pickup device 13 to the MES 3.
Eine insbesondere blinkende LED kann ferner zur Positionsidentifikation eingesetzt werden, da sie auch auf große Entfernungen leichter zu erkennen ist als z. B eine spezifischer Text auf der Anzeige 20A. Deswegen hat eine Signalvorrichtung wie eine LED besondere Vorteile, wenn z. B. eine Mobileinheit 20 in einer Bildsequenz verfolgt werden soll oder die Mobileinheit 20 während des Fertigungsprozesses gesucht wird. Die LED kann von einem Bediener ferngesteuert adressiert werden und sich dann mit einem Signal bemerkbar machen. Eine sol- che ferngesteuerte Adressierung kann beispielsweise durch eine weitere Mobileinheit oder über eine sonstige insbesondere tragbare Vorrichtung, z. B. Smartphone, Tablet, oder über die Analyseeinheit 11 erfolgen. Sie kann aber auch direkt, z. B. über Nahfeldsender (z. B. Bluetooth, NFC, IR), erfolgen. Allgemein kann die Mobileinheit 20 eine modulierbare Signalquelle zum Erzeugen von modulierten Licht-, Schall- oder Vibrationssignalen als Signalabgabevorrichtung aufweisen. Sie kann dann - ähnlich dem in der deutschen Gebrauchsmusterschrift DE 20 2016 106 352 Ul beschriebenen Kommunikationsgerät - als Daten sendendes Kommunikationsgerät zur drahtlosen Übertragung von Daten eingesetzt werden. Dabei kann das Kommunikationsgerät min- destens einen Sensor zum Empfangen von Licht-, Schall- oder Vibrationssignalen aufweisen und die Signalverarbeitungseinheit kann derart programmiert sein, dass sie aus empfangenen, modulierten Signalen die darin enthaltenen Daten zurückgewinnt. Des Weiteren kann in die Mobileinheit 20 mindestens eine Signaleingabevorrichtung (beispielsweise eine Taste) zur Eingabe von Parametern integriert werden. Die Mobileinheit 20 kann ferner als Signaleingabevorrichtung einen einfachen Sensor zum Empfangen von Licht-, Schall- oder Vibrationssignalen insbesondere einen Helligkeitssensor aufweisen. Sie kann dann, wie beispielsweise in der zuvor erwähnten DE 20 2016 106 352 Ul beschrieben, als Daten empfangendes Kommunikationsgerät zur drahtlosen Übertragung von Daten, insbesondere von Zugangsdaten, von einer Werkzeugmaschine eingesetzt werden. A particular flashing LED can also be used for position identification, as it is easier to recognize even at long distances than z. B is a specific text on the display 20A. Therefore, a signaling device such as an LED has special advantages when z. For example, a mobile unit 20 is to be tracked in an image sequence, or the mobile unit 20 is searched during the manufacturing process. The LED can be remotely addressed by an operator and then make a signal. Such a remote-controlled addressing can be achieved, for example, by a further mobile unit or by another, in particular, portable device, eg. As smartphone, tablet, or via the analysis unit 11. But you can also directly, for. B. via near field transmitter (eg., Bluetooth, NFC, IR) done. In general, the mobile unit 20 may comprise a modulatable signal source for generating modulated light, sound or vibration signals as a signal output device. It can then - similar to the communication device described in the German Utility Model DE 20 2016 106 352 Ul - used as data transmitting communication device for the wireless transmission of data. In this case, the communication device can have at least one sensor for receiving light, sound or vibration signals and the signal processing unit can be programmed such that it recovers the data contained therein from received, modulated signals. Furthermore, at least one signal input device (for example a key) for inputting parameters can be integrated in the mobile unit 20. The mobile unit 20 may further comprise as a signal input device a simple sensor for receiving light, sound or vibration signals, in particular a brightness sensor. It can then, as described, for example, in the aforementioned DE 20 2016 106 352 U1, be used as a data-receiving communication device for the wireless transmission of data, in particular access data, from a machine tool.
Die Mobileinheit 20 kann ferner eine eigene Bildaufnahmevorrichtung aufweisen, die dazu ausgelegt ist, Bilder von Werkstücken und/oder von Codes (z. B. Barcodes oder QR-Codes) auf den Werkstücken oder auf anderen Dokumenten, Werkzeugen oder Produkten aufnehmen / scannen zu können. Auf diese Weise kann eine Zuordnung von Objekten (z. B. aufgenommenen Werkstücken) zu Aufträgen erfolgen. Zusätzlich kann die Mobileinheit eine Funktionalität zur Ermittlung, Verarbeitung und Übermittlung der Bildaufnahmevorrichtungs-Daten aufwei- sen. The mobile unit 20 may further include its own image pickup device configured to capture / scan images of workpieces and / or codes (eg, bar codes or QR codes) on the workpieces or on other documents, tools, or products , In this way, an assignment of objects (eg recorded workpieces) to orders can be made. In addition, the mobile unit may have functionality to detect, process and transmit the imager data.
Im Rahmen einer industriellen Fertigung von Werkstücken in der Metall- und/oder Blechverarbeitung werden die Mobileinheiten 20 üblicherweise Werkstücken zugeordnet. Optional können die Mobileinheiten 20 von Personen in der Fertigung getragen oder an Hilfsmittel wie Transportwagen, Maschinen und Werkzeugen angebracht werden, wodurch auch hier eine Zuordnung der Mobileinheit 20 zu einer Person, z. B. einem Arbeiter, oder einem Hilfsmittel vorgenommen werden kann, um die Nachverfolgung zu unterstützen. As part of an industrial production of workpieces in the metal and / or sheet metal processing, the mobile units 20 are usually assigned to workpieces. Optionally, the mobile units 20 may be carried by persons in the factory or attached to aids such as trolleys, machines, and tools, thereby again assigning the mobile unit 20 to a person, e.g. As a worker, or an aid can be made to assist the tracking.
Fig. 3 zeigt einen schematischen digitalen Lageplan 25 einer beispielhaften Fertigungshalle, die mit mehreren Werkzeugmaschinen 7 unterschiedlichen Typs ausgerüstet ist. Beispiele für Werkzeugmaschinen 7 in der Stahl-, Alu-, Kupferverarbeitung, allgemein in der Metallverarbeitung sind Schneid-, insbesondere Laserschneidmaschinen, Stanz-, Schleif-, Biegemaschinen etc. Gezeigt ist im Lageplan 25 auch ein zu einem sehr geringen Grad vernetzter Arbeitsplatz 26, wie beispielsweise ein Handarbeitsplatz mit einfachen Maschinen, z. B. zum Bohren, Sägen, Fräsen, Biegen, die keine Vernetzung oder nur eine Vernetzung über ein Überwachungssystem, wie es z. B. in DE 10 2016 220 015.1 beschrieben ist, aufweisen. Ferner erkennt man im Lageplan Zonen 27, 27' und Schranken 29. Die Zonen 27, 27' und Schranken 29 wurden von einem Bediener hinsichtlich der Benutzung der Werkzeugmaschinen 7 und zugehöriger Arbeitsabläufe definiert. Die Schranken 29 erstrecken sich räumlich (beispiels- weise linear) in der Fertigungshalle und definieren Grenzen, deren Übertreten durch eine Mobileinheit spezifische Aktionen auslösen kann. Den Zonen 27, 27' und Schranken 29 können allgemein Werkstück-spezifische bzw. Gegenstand/Bediener-spezifische Eigenschaften zugeordnet werden. FIG. 3 shows a schematic digital layout 25 of an exemplary production hall equipped with several machine tools 7 of different types. Examples of machine tools 7 in steel, aluminum, copper processing, generally in metalworking are cutting machines, in particular laser cutting machines, punching, grinding, bending machines, etc. Also shown in site plan 25 is a workstation 26 which is networked to a very low degree. such as a manual workstation with simple machines, eg. As for drilling, sawing, milling, bending, no networking or only a network via a monitoring system, such as. B. in DE 10 2016 220 015.1 described, have. Further, one recognizes in the site plan zones 27, 27 'and barriers 29. The zones 27, 27' and barriers 29 have been defined by an operator regarding the use of the machine tools 7 and associated operations. The barriers 29 extend spatially (for example wise linear) in the production hall and define boundaries whose violation by a mobile unit can trigger specific actions. The zones 27, 27 'and barriers 29 can generally be associated with workpiece-specific or object / operator-specific properties.
Eine wie in Fig. 3 dargestellte Ansicht kann z. B. auf einem Bildschirm (Monitor) einer Datenverarbeitungsvorrichtung (z. B. PC) schematisch dargestellt sein. Beim Aktivieren einzelner Zonen, Schranken oder nachverfolgter Objekte auf dem Monitor (z. B. mittels eines Cursors oder bei Touchpads mittels einer Berührung) können Statusinformationen angezeigt wer- den. Nach bestimmten Objekten kann gefiltert werden, z. B. alle Mobileinheiten/Werkstücke mit Zuordnung zu Aufträgen eines bestimmten Kunden. A view as shown in Fig. 3, z. On a screen (monitor) of a data processing device (eg PC). When activating individual zones, barriers or tracked objects on the monitor (eg by means of a cursor or touchpad by means of a touch) status information can be displayed. For certain objects can be filtered, z. B. all mobile units / workpieces with assignment to orders of a particular customer.
So können Aktionen unter Nutzung der räumlichen Positionsbestimmung im Fertigungssteue- rungssystem ausgelöst werden, wenn ein zu verfolgendes Objekt sich innerhalb einer spezifi- sehen Zone befindet oder eine spezifische Schranke überschreitet, wobei diese Aktionen in Abhängigkeit des zugehörigen Objekts, z. B. Werkstücks, und dessen Fertigungsrelevanz, Bearbeitung/Bearbeitungszustand, variieren können. Die Zonen 27, 27' und die Schranken 29 können ferner in der Fertigungshalle vor Ort farblich zur besseren Kenntlichmachung in den Bildsequenzen markiert werden. Thus, actions can be triggered using the spatial position determination in the production control system when an object to be tracked is within a specific zone or exceeds a specific barrier, these actions being dependent on the associated object, eg. B. workpiece, and its manufacturing relevance, processing / processing state, can vary. The zones 27, 27 'and the barriers 29 can also be marked in the production hall on site color for better identification in the image sequences.
Ferner erkennt man im Lageplan 25 schematisch Werkstücksammelstellen, beispielsweise Transportwagen 21 oder Teilbereiche von diesem, die sich beispielsweise nahe einer Werkzeugmaschine 7 oder in einer der Zonen 27 befinden. Ferner kennt man schematisch Bediener 31 , die die Werkzeugmaschinen 7 bedienen. Furthermore, it can be seen in the site plan 25 schematically workpiece collection points, such as trolley 21 or portions of this, for example, are located near a machine tool 7 or in one of the zones 27. Furthermore, one knows schematically operator 31, who operate the machine tools 7.
Im digitalen Lageplan 25 sind somit nicht nur stationäre Elemente (Werkzeugmaschinen), sondern auch bewegliche Elemente (Werkstücke, Transportwagen, Bediener) angezeigt. Die Integration von beweglichen Elementen in den Lageplan wird durch die Bildaufnahmevorrich- tung-basierte Positionsbestimmung möglich, indem zum Beispiel die Transportwägen 21, Werkstücke 23 und Bediener 31 als nachzuverfolgende Objekte vom Nachverfolgungssystem in ihrer Bewegung festgehalten werden. In the digital layout 25 not only stationary elements (machine tools), but also movable elements (workpieces, trolleys, operators) are displayed. The integration of movable elements into the floor plan is made possible by the image acquisition device-based position determination, for example, by the transport tracking 21, workpieces 23 and operator 31 as objects to be tracked by the tracking system in their movement.
Ferner erkennt man im digitalen Lageplan 25 beispielhafte Positionen mehrerer Bildaufhah- mevorrichtungen 13. Die Bildaufnahmevorrichtungen 13 liefern maschinenlesbare Bildinfor- mationen. Die Positionen der Bildaufnahmevorrichtungen 13 sind derart gewählt, dass eine 2D-Positionsbestimmtung oder eine 3D-Positionsbestimmtung in den zugeordneten Beobachtungsbereichen 17 in der Fertigungshalle vorgenommen werden kann. Beispielhaft werden Bildsequenz- Aufnahmen für zwei bewegliche Objekte 15 (beispielhafte Transportwägen 21) über Doppelpfeile 33 in Fig. 3 verdeutlicht. Furthermore, exemplary positions of a plurality of image recording devices 13 can be seen in the digital map 25. The image recording devices 13 provide machine-readable image information. mation. The positions of the image pickup devices 13 are selected such that a 2D position determination or a 3D position determination can be performed in the associated observation areas 17 in the production hall. By way of example, image sequence recordings for two movable objects 15 (exemplary transport carriages 21) are illustrated by means of double arrows 33 in FIG. 3.
Die primäre Anwendung des Bildaufnahmevorrichtung-basierten Nachverfolgungssystems 5 liegt in der Lokalisierung von Werkstücken 23, allgemein Material, sowie von bei der Fertigung eingesetzten mobilen Einheiten wie Transportwägen 21, Stapler, Werkzeuge und sonsti- ge mobile Vorrichtungen als auch von Personen. Dass diese Objekte unter Nutzung der gewonnenen Positionsinformation einfacher während der Fertigung lokalisiert werden können, reduziert bzw. vermeidet Suchzeiten. Die gewonnene räumliche Information über die Objekte erlaubt zusätzlich eine Analyse von Prozessabläufen und von einer (Aus-) Nutzung von z. B. Werkzeugen. The primary application of the imager-based tracking system 5 is locating workpieces 23, generally material, as well as mobile units used in manufacturing such as trolleys 21, stackers, tools, and other mobile devices, as well as people. The fact that these objects can be located more easily during production, using the position information obtained, reduces or avoids search times. The gained spatial information about the objects additionally allows an analysis of process flows and of an (exploitation) of z. B. tools.
Fig. 4 zeigt eine Aufsicht eines weiteren digitalen Lageplans 25' einer weiteren beispielhaften Fertigungshalle. Man erkennt mehrere Positionen von Bildaufnahmevorrichtungen 13 mit schematisch angedeuteten Beobachtungsbereichen 17. Ferner erkennt man wiederum mehrere Zonen 27 und Schranken 29. 4 shows a plan view of another digital layout plan 25 'of another exemplary production hall. It can be seen several positions of image pickup devices 13 with schematically indicated observation areas 17. Furthermore, one recognizes again several zones 27 and barriers 29th
Mit dem Nachverfolgungssystem können die Positionen von Objekten 15 im Lageplan 25' angezeigt werden und ihre Lage bezüglich der Zonen 27 und der Schranken 29 zu Steuerungszwecken bei der Fertigungssteuerung, insbesondere bei der Bearbeitung von Werkstücken genutzt werden. Dazu ist es wiederum notwendig, dass ein Objekt 15, z. B. ein Werkstück (oder eine Gruppe von Werkstücken), ein Bediener, ein Transportmittel, ein Werkzeug etc. in den Beobachtungsbereichen in seiner Position, insbesondere seine Positionsänderung, bestimmt wird. With the tracking system, the positions of objects 15 in the site map 25 'can be displayed and their location relative to zones 27 and barriers 29 used for control purposes in shop floor control, particularly in the machining of workpieces. For this it is again necessary that an object 15, z. B. a workpiece (or a group of workpieces), an operator, a means of transport, a tool, etc. in the observation areas in its position, in particular its change in position, is determined.
Bildaufnahmevorrichtungen 13 sind beispielsweise ortsfest in der Fertigungshalle installiert oder sie können sich entlang Bewegungstrajektorien bewegen, um z. B. eine Zone mit einer Schwenkbewegung (siehe Beobachtungsbereich 17") zu erfassen oder eine Verfahrbewegung entlang einer Zone durchzuführen. Ferner können Bildaufnahmevorrichtungen an Drohnen vorgesehen werden, um flexibel in der Fertigungshalle eingesetzt zu werden. In einem Steuerungsbereich 30 ist die Lage einer Fertigungssteuerungseinrichtung des Ferti- gungssteuerungssystems 1 angedeutet. Hier kann sich die Analyseeinheit 11 befinden. Hier kann sich auch eine Datenverarbeitungsvorrichtung 30A (z. B. ein PC) mit einem Bildschirm (Monitor) befinden, auf dem z. B. der in Fig. 3 oder Fig. 4 dargestellte digitale Lageplan 25 oder 25 ' angezeigt wird. Image pickup devices 13 are installed, for example, stationary in the production hall or they can move along Bewegungsstrajektorien to z. For example, it is possible to detect a zone with a pivoting movement (see observation area 17 ") or to perform a movement movement along a zone Furthermore, image recording devices can be provided on drones in order to be used flexibly in the production hall. In a control area 30, the position of a production control device of the production control system 1 is indicated. Here, the analysis unit 11 may be located. Here also a data processing device 30A (eg a PC) with a screen (monitor) can be located on the z. B. the illustrated in Fig. 3 or Fig. 4 digital map 25 or 25 'is displayed.
Insbesondere die Zuordnung eines Objekts zu einem Pixelbereich in einem Bild einer aufgenommenen Bildsequenz kann durch verschiedene Interaktionen mit dem Fertigungssteue- rungssystem 1 (nachfolgend auch kurz der Fertigungssteuerung) erfolgen. Beispielsweise kann in einem Bediener-Interface der Fertigungssteuerung, das zum Beispiel auf einemIn particular, the assignment of an object to a pixel area in an image of a recorded image sequence can be effected by various interactions with the production control system 1 (hereinafter also briefly the production control). For example, in an operator interface, the production control, which may be on a
Smartphone oder Tablet bereitgestellt wird, das jeweilige Werkstück/der jeweilige Gegenstand ausgewählt und einem Pixel (Pixelbereich) eines angezeigten Bildes einer Bildaufnahmevorrichtung durch Eingabe beispielsweise einer zugehörigen Referenznummer zugeordnet werden. Smartphone or tablet is provided, the respective workpiece / the respective object selected and assigned to a pixel (pixel area) of a displayed image of an image pickup device by entering, for example, an associated reference number.
Anstelle einer manuellen Eingabe kann beispielsweise alternativ automatisiert oder teilautomatisiert eine Aktivierung der Anzeige 20A oder LED 20B der Mobileinheit 20 die Zuordnung unterstützen. Ferner kann beispielsweise mittels Bildverarbeitung eines Bildes des Objekts, das beispielsweise mit einer Kennzeichnung wie einem Barcode versehen ist (siehe Anzeige 20A in Fig. 2), die Zuordnung vorgenommen werden. Des Weiteren kann eine grafische Zuordnung über einen am Bediener-Interface dargestellten Dialog vorgenommen werden. Des Weiteren kann die Zuordnung unter Einbezug von Ortsinformation eines UWB-Ortungssystems erfolgen. Instead of a manual input, for example, alternatively automated or semi-automated activation of the display 20A or LED 20B of the mobile unit 20 support the assignment. Furthermore, for example, by means of image processing of an image of the object, which is provided, for example, with a marking such as a bar code (see display 20A in FIG. 2), the assignment can be made. Furthermore, a graphical assignment can be made via a dialog displayed on the user interface. Furthermore, the assignment can take place with reference to location information of a UWB location system.
In einem Nutzungsszenario soll eine Person, z. B. ein Bearbeiter, gemäß einem Auftrag Werkstücke 23 biegen. Hierzu greift er auf Daten aus dem Fertigungssteuerungssystem (MES; Produktionsleitsystem) zu und öffnet beispielsweise den digitalen Lageplan 25, 25' der Fertigungshalle. Unterlagen die Werkstücke der Nachverfolgung, wird dem Bediener der Ort der zu biegenden Werkstücke 23 im Lageplan 25, 25' angezeigt,. Beispielsweise wurde eine Mobileinheit 20 und Werkstücke 23 auf einem Transportwagen 21 abgelegt wie in Fig. 2 gezeigt und über die Bildaufnahmevorrichtungen 15 gemäß dem zuvor beschriebenen Vorgehen in den verschiedenen Bildsequenzen verfolgt. Entsprechend kann im Lageplan das Symbol Transportwagen z. B. zusammen mit einer schematischen Form des Werkstücks angezeigt werden. Zur Verdeutlichung des ersten Zuordnens zeigt Fig. 5 einen Absortiervorgang, bei dem ein Bediener 31 der Schnittgut einer Laserschneidmaschine 7 auf den Transportwagen 21 sortiert/ablegt. Eine Mobileinheit 20 wurde gemäß einem spezifischen Auftrag aktiviert (Bearbei- tungsplan-Zuordnung) und den Werkstücken 23 räumlich zugeordnet. Nach dem erfolgten Absortiervorgang hat der Bediener 31 beispielsweise eine Taste der Mobileinheit 20 aktiviert, sodass das Fertigungssteuerungssystem vom Abschluss des Absortiervorgangs informiert wird. In einem Bild der Bildaufnahmevorrichtung 13 wird nun ein Objekt-Merkmal für ein zu verfolgendes Objekt festgelegt, z. B. eine spezifische Form des Werkstücks 23 oder eine spe- zifische Farbe einer LED an der Mobileinheit 20. In a usage scenario, a person, for. B. a processor, according to an order workpieces 23 bend. For this purpose, he accesses data from the production control system (MES) and opens, for example, the digital site plan 25, 25 'of the production hall. Documents the workpieces of the tracking, the operator of the location of the workpieces to be bent 23 in the site plan 25, 25 'is displayed. For example, a mobile unit 20 and workpieces 23 were placed on a trolley 21 as shown in FIG. 2 and tracked via the image capture devices 15 according to the procedure described above in the various image sequences. Accordingly, in the site map, the symbol trolley z. B. displayed together with a schematic shape of the workpiece. To clarify the first assignment, FIG. 5 shows a sorting process in which an operator 31 sorts / deposits the cut material of a laser cutting machine 7 onto the transport carriage 21. A mobile unit 20 has been activated in accordance with a specific order (machining plan assignment) and assigned spatially to the workpieces 23. For example, after the sorting operation, the operator 31 has activated a key of the mobile unit 20 so that the shop floor control system is informed of completion of the sorting operation. In an image of the image recording device 13, an object feature for an object to be traced is now determined, for. For example, a specific shape of the workpiece 23 or a specific color of an LED on the mobile unit 20.
Damit weiß die Analyseeinheit 11 , an welcher Lage im Bild das Objekt (Transportwagen/Werkstück) zu finden ist. Bewegt sich das Objekt über mehrere Beobachtungszonen hinweg, kann eine Übergabe beispielsweise gemäß den hierin offenbarten Konzepten durchge- führt werden. Thus, the analysis unit 11 knows at which position in the picture the object (transport carriage / workpiece) can be found. If the object moves across a plurality of observation zones, a transfer can be carried out, for example, according to the concepts disclosed herein.
Ist der Absortiervorgang abgeschlossen und werden die Werkstücke zum nächsten Bearbei- tungsprozess geschoben, kann dies mithilfe eines Passierens einer Schranke 29' erkannt und an das Fertigungssteuerungssystem weitergeleitet werden. If the sorting process is completed and the workpieces are pushed to the next processing process, this can be detected by passing a barrier 29 'and forwarded to the production control system.
Das erste Zuordnen kann von einem Assistenzsystem 38, das bei einer Werkezugmaschine 7 oder allgemein an einem Arbeitsplatz vorgesehen ist, unterstützt werden. The first assignment may be assisted by an assistance system 38 provided on an equipment tractor 7 or generally at a work station.
Fig. 5 zeigt hierzu eine Werkzeugmaschine 7 mit einem optischen Assistenzsystem 38, das auf einer Bilddatenerfassung mit einer Bildaufnahmevorrichtung 13 basiert und die Zuordnung eines Werkstücks als zu verfolgendes Objekt unterstützt. For this purpose, FIG. 5 shows a machine tool 7 with an optical assistance system 38, which is based on image data acquisition with an image recording device 13 and supports the assignment of a workpiece as an object to be tracked.
Bei der assistierten räumlichen Zuordnung erkennt die Bildaufnahmevorrichtung 13 ein absortiertes Werkstück 23 und erzeugt hierzu einen Mess-Assistenz- Werkstückdatensatz 38A (siehe auch Fig. 1). Der Mess-Assistenz- Werkstückdatensatz 38A wird mit Geometriedatensätzen 37 A der Bearbeitungspläne 37 im Fertigungssteuerungssystem 1 abgeglichen, um den Bearbeitungsplan 37 zu identifizieren, der zum erfassten Werkstück gehört. Die Einbindung der hierin beschriebenen mit einem Bildaufnahmevorrichtung-basierten Verfolgungssystem unterstützten Fertigung wird zusammenfassend in Verbindung mit Fig. 6 erläutert. Hierbei wird ergänzend auf die Figuren 1 bis 5 verwiesen. Fig. 6 zeigt beispielhaft Verfahrensschritte eines Verfahrens zur Fertigungssteuerung von Prozessabläufen bei der industriellen Bearbeitung von Werkstücken 23, wobei das Verfahren durch ein Bildaufnahmevorrichtung-basiertes Verfolgungssystem unterstützt wird. Für das Verfahren werden Bildaufnahmevorrichtungen für ein Bildaufnahmevorrichtung-basiertes Verfolgungssystem bereitgestellt (Schritt 51). Jede Bildaufnahmevorrichtung ist einem Beo- bachtungsbereich zugeordnet und liefert bevorzugt kontinuierlich Bildsequenzen an eine gemeinsame Analyseeinheit. Beispielhaft werden eine erste Bildaufnahmevorrichtung mit einer ersten Bildsequenz (Schritt 51A) und eine zweite Bildaufnahmevorrichtung mit einer zweiten Bildsequenz (Schritt 51 B) in Fig. 6 angedeutet. Zur Verdeutlichung eines modularen Aufbaus können weitere Bildsequenzen erzeugt werden, die einer gleichen oder einer anderen Analyseeinheit zugeordnet sind (Schritt 5 mit Schritten 51A, 51B'). In the assisted spatial assignment, the image acquisition device 13 recognizes a rejected workpiece 23 and for this purpose generates a measurement assistance workpiece data set 38A (see also FIG. 1). The measurement assist workpiece data set 38A is compared with geometry data sets 37A of the machining plans 37 in the production control system 1 to identify the machining plan 37 that belongs to the detected workpiece. The incorporation of the fabrication supported by an imager-based tracking system described herein will be discussed in conjunction with FIG. 6. Reference is additionally made to FIGS. 1 to 5. 6 shows by way of example method steps of a method for production control of process sequences in the industrial machining of workpieces 23, the method being assisted by an image acquisition device-based tracking system. For the method, image pickup devices are provided for an imager-based tracking system (step 51). Each image acquisition device is assigned to a viewing area and preferably continuously delivers image sequences to a common analysis unit. By way of example, a first image recording device with a first image sequence (step 51A) and a second image recording device with a second image sequence (step 51 B) in FIG. 6 are indicated. To clarify a modular structure, further image sequences can be generated, which are assigned to the same or another analysis unit (step 5 with steps 51A, 51B ').
Basierend auf einem Bild einer der Bildsequenzen wird ein Zuordnungsvorgang vorgenom- men, bei dem für ein zu verfolgendes Objekt eine Pixelstruktur im Bild bestimmt wird (Schritt 53). Hierzu wird das zu verfolgende Objekt z. B. im ersten Bild anhand mindestens eines Objekt-Merkmals, das als Pixelstruktur in den Pixeln des ersten Bildes vorliegt, identifiziert. Beispielsweise erfolgt ein Identifizieren des zu verfolgenden Objekts in einem ersten Bild der ersten Bildsequenz, deren Beobachtungsbereich einem Absortiervorgang zugeordnet ist. Based on an image of one of the image sequences, an association process is carried out in which a pixel structure in the image is determined for an object to be tracked (step 53). For this purpose, the object to be tracked z. B. identified in the first image based on at least one object feature that exists as a pixel structure in the pixels of the first image. By way of example, the object to be tracked is identified in a first image of the first image sequence whose observation region is assigned to a sorting process.
Die Wahl des Objekt-Merkmals, das als Pixelstruktur der Verfolgung der Bewegung des Objekts in der Fertigungshalle eingesetzt werden soll, kann z. B. die Farbe und/oder geometrische Formen, die z. B. in einem Bearbeitungsplan eines Werkstücks hinterlegt sind, berücksichtigen. Das Objekt-Merkmal kann ferner ein Lichtsignal einer LED oder eine Ausdehnung eines homogenen Pixelwert-Bereichs im Bild sein. Das Identifizieren des zu verfolgenden Objekts im ersten Bild kann mit einem Software-System erfolgen, das Information über die Lage des Objekts im ersten Bild bereitstellt, insbesondere mittels eines dem Beobachtungsbereich überlagerten Objekt-Informationsbereichs. Für das zu verfolgende Objekt wird ferner der dazugehörende Bearbeitungsplan bestimmt (Schritt 55). The choice of the object feature to be used as the pixel structure of tracking the movement of the object in the shop floor may be e.g. B. the color and / or geometric shapes, z. B. are stored in a machining plan of a workpiece, take into account. The object feature may further be a light signal of an LED or an extent of a homogeneous pixel value area in the image. The identification of the object to be tracked in the first image can take place with a software system which provides information about the position of the object in the first image, in particular by means of an object information area superimposed on the observation area. For the object to be tracked, the associated processing plan is also determined (step 55).
Die Verfolgung (Schritt 57) der Pixelstruktur in Bildern 39 der Bildsequenzen 41 kann nun mittels einfachen Algorithmen und ohne aufwändige Objekterkennung durchgeführt werden. Dabei werden vorerst die Lagen des Objekt-Merkmals in Bildern 39 der ersten Bildsequenz 41, die dem ersten Bild zeitlich nachfolgend aufgenommen wurden, bestimmt (Schritt 57A). The tracking (step 57) of the pixel structure in pictures 39 of the picture sequences 41 can now be carried out by means of simple algorithms and without elaborate object recognition. In this case, firstly the positions of the object feature in pictures 39 of the first picture sequence 41, which were recorded temporally following the first picture, are determined (step 57A).
Ein nachzuverfolgendes Objekt kann den Beobachtungsbereich der ersten Bildaufnahmevor- richtung verlassen. In diesem Fall werden in einem Schritt 57B die Lagen des Objekt- Merkmals in Bildern der zweiten Bildsequenz bestimmt. Das Lokalisieren des Objekt- Merkmals umfasst dabei z. B. ein Bestimmen eines Objekt-Merkmalsvektors, der die Bewegung des Objekt-Merkmals zwischen Bildern der ersten der Bildsequenzen beschreibt. Der Objekt-Merkmalsvektor kann ein Richtungs- oder Geschwindigkeitsvektor der Pixelstruktur sein. Diese können sich auf die Bewegung im Bild oder auf die Bewegung im Raum, d. h., der Fertigungshalle, beziehen. Der Objekt-Merkmalsvektor kann in ein Bild der zweiten der Bildsequenzen projiziert werden, um dort die Nachverfolgung der Pixelstruktur, die eventuell für die zweite Bildsequenz aufgrund von Beobachtungsrichtung etc. anzupassen ist, fortzusetzen. Allgemein wird, wenn ein Objekt-Merkmal einen der Bildsequenz 39 zugeordneten Beobachtungsbereich in der Fertigungshalle verlässt, insbesondere mit Hilfe von geeigneten Analytics- Tools und Routinen geprüft, ob ein dem Objekt-Merkmal und/oder Objekt-Merkmalsvektor entsprechendes Objekt-Merkmal in einem passenden Ort-/Zeitfenster einer weiteren Bildsequenz, insbesondere mit ausreichend hoher Wahrscheinlichkeit, identifizierbar ist. An object to be tracked can leave the observation area of the first image acquisition device. In this case, in a step 57B, the positions of the object feature are determined in images of the second image sequence. The localization of the object feature includes z. B. determining an object feature vector describing the motion of the object feature between images of the first of the image sequences. The object feature vector may be a directional or velocity vector of the pixel structure. These can affect the movement in the picture or the movement in the room, d. h., the production hall, relate. The object feature vector may be projected into an image of the second of the image sequences to continue tracking the pixel structure which may be to be adjusted for the second image sequence due to the viewing direction, etc. In general, when an object feature leaves an observation area associated with the image sequence 39 in the production hall, it is checked, in particular with the aid of suitable analytics tools and routines, whether an object feature corresponding to the object feature and / or object feature vector is in an appropriate one Place / time window of another image sequence, in particular with sufficiently high probability, is identifiable.
Wie in Fig. 4 angedeutet können sich Beobachtungsbereiche von Bildsequenzen 39 überlappen (Überlappungsbereich 17') und eine Übergabe der Objekt-Merkmale von der ersten Bildsequenz in die zweiten Bildsequenz kann anhand von Pixelwerten im Überlappungsbereich 17' im Wesentlichen zeitgleicher Bilder erfolgen. As indicated in FIG. 4, observation regions of image sequences 39 may overlap (overlap region 17 '), and a transfer of the object features from the first image sequence to the second image sequence may be based on pixel values in the overlap region 17' of substantially simultaneous images.
Soll eine genaue Position des zu verfolgenden Objekts ausgegeben werden (Schritt 59), wird die Lage der Pixelstruktur in einem aktuellen Bild auf den zugeordneten Beobachtungsbereich projiziert. Hierzu kann beispielsweise ein Vergleich mit Referenzpunkten vorgenommen werden (Schritt 59A), oder eine entsprechende Größe der Pixelstruktur berücksichtigt werden (Schritt 59B) etc. Dabei kann ferner auf Daten aus dem Bearbeitungsplan, der zu dem Objekt gehört, zugegriffen werden. If an exact position of the object to be tracked is to be output (step 59), the position of the pixel structure in a current image is projected onto the associated observation area. For this purpose, for example, a comparison with reference points can be made (step 59A), or a corresponding size of the pixel structure can be taken into account (Step 59B) etc. In this case, data from the processing plan that belongs to the object can also be accessed.
Information aus dem Prozess der Bestimmung der aktuellen Position kann im Rahmen von selbstlernenden Maschinen (maschinelles Lernen) in die Verfolgung der Pixelstruktur einfließen (gestrichelter Pfeil 61). Information from the process of determining the current position can be used in the context of self-learning machines (machine learning) in the tracking of the pixel structure (dashed arrow 61).
Die bestimmte Position des Objekts wird nun in die Steuerung der Industriefertigungsanlage zur Fertigung des Endprodukts eingebunden (Schritt 63). Je nach Objekt steht somit Positions- Information eines Werkzeugs, einer Person, eines Transportmittels, einer Werkzeugmaschine und/oder einer Werkstücksammelstelleneinheit für die Steuerung der Industriefertigungsanlage zur Verfügung. The particular position of the object is now incorporated into the control of the industrial plant for manufacturing the final product (step 63). Depending on the object, position information of a tool, a person, a means of transport, a machine tool and / or a workpiece collection unit is thus available for the control of the industrial production plant.
Die Einbindung in die Steuerung der Industriefertigungsanlage kann beispielsweise ein Defi- nieren (Schritt 63 A) von Zonen 27 und/oder räumlichen Schranken 29 in der Fertigungshalle, insbesondere in einem Lageplan 25, 25' der Fertigungshalle, und ein Abgleichen (Schritt 63B) der bestimmten Position hinsichtlich der Zonen 27 und/oder der räumlichen Schranken 29 umfassen. Im Lageplan der Fertigungshalle kann im Schritt 63A z. B. eine Zone (Werkzeugmaschinen- Zone) um Werkzeugmaschinen/ Bearbeitungsplätze, beispielsweise um die Biegemaschine, erstellt werden. Dabei kann diese Zone als Volumenkörper (3D-Zone) definiert werden, der beispielsweise bis zu einer Höhe von 1,5 m über dem Hallenboden reicht. Wird ein Transportwagen mit Werkstücken als zu verfolgende Objekte, die zu einem Auftrag gehören, in die- se Zone geschoben, registriert das Fertigungssteuerungssystem im Schritt 63B dies. The integration into the control of the industrial production plant can, for example, define (step 63A) zones 23 and / or physical barriers 29 in the production hall, in particular in a site plan 25, 25 'of the production hall, and a comparison (step 63B) of FIG certain position with regard to the zones 27 and / or the spatial barriers 29. In the floor plan of the production hall can be found in step 63A z. B. a zone (machine tool zone) to machine tools / processing stations, for example, to the bending machine created. In this case, this zone can be defined as a solid (3D zone), which extends, for example, up to a height of 1.5 m above the hall floor. If a trolley with workpieces as objects to be tracked, which belong to a job, is pushed into this zone, the production control system registers this in step 63B.
Die Unterstützung der Fertigungssteuerung von Prozessabläufen kann dabei die hierin diskutierten Einbindungsmöglichkeiten umfassen. Z. B. können Signale von einer Signalabgabevorrichtung der Mobileinheit 20 - z. B. eine Anzeigeneinheit 17, eine LED oder ein Lautsprecher - erzeugt werden. The support of the production control of process sequences may include the integration possibilities discussed herein. For example, signals from a mobile unit 20 signal output device - e.g. As a display unit 17, an LED or a speaker - are generated.
Ferner kann die Unterstützung der Fertigungssteuerung von Prozessabläufen über das Fertigungssteuerungssystem 1 Bearbeitungsparameter auf den Werkzeugmaschinen 7 ansteuern oder allgemein Fertigungsparameter einstellen (Schritt 63C), die sich z. B. auch auf die Fertigungshalle oder auf eine nachfolgende Datenanalyse beziehen können. Furthermore, the support of the production control of process sequences via the production control system 1 can control processing parameters on the machine tools 7 or generally set manufacturing parameters (step 63C), the z. B. can also refer to the production hall or to a subsequent data analysis.
Als weiteres Beispiel für die Einbindung in die Fertigungssteuerung kann unter Nutzung der digitalen Zuordnung des Schritts 55 das Fertigungssteuerungssystem den zugehörigen Bearbeitungsauftrag am Bearbeitungsplatz (beispielsweise an der Biegemaschine) anmelden. Ferner können weitere Sekundäraktionen automatisch initiiert werden. So kann ein zugehöriges Bearbeitungsprogramm in der Werkzeugmaschine automatisch geladen werden. Dies kann es erlauben, dass die Werkzeugmaschine (beispielsweise eine Biegemaschine) über einen Tool- Master automatisch gerüstet wird. Auf einem zugeordneten Bildschirm können einem Bedie- ner für den nun anstehenden Bearbeitungsvorgang (Arbeitsgang) notwendige Informationen angezeigt werden. Beispielsweise können eine Abbildung der ursprünglichen Form des Werkstücks sowie die gebogene Form des Werkstücks, die Anzahl der zu biegenden Werkstücke und/oder der anschließend nachfolgende Bearbeitungsvorgang etc. angezeigt werden. As a further example of the integration into the production control, using the digital assignment of step 55, the production control system can register the associated processing order at the processing station (for example on the bending machine). Furthermore, additional secondary actions can be initiated automatically. Thus, an associated machining program can be loaded automatically in the machine tool. This may allow the machine tool (for example, a bending machine) to be automatically prepared via a tool master. On an assigned screen, information can be displayed to an operator for the pending machining process (operation). For example, an image of the original shape of the workpiece as well as the curved shape of the workpiece, the number of workpieces to be bent and / or the subsequent subsequent machining operation, etc. can be displayed.
Ein Vorteil bei der Bearbeitung in Zusammenhang mit definierten Zonen und Schranken liegt darin, dass der Bearbeiter nichts weiter machen muss, als die nachverfolgten Objekte in eine Werkzeugmaschinen-Zone zu bringen, wodurch die verschiedenen vorbereitenden Maßnahmen automatisiert veranlasst wurden. Wie erwähnt kann die Werkzeugmaschine z. B. sofort automatisch auf den neu zu bearbeitenden Auftrag eingestellt werden. Dadurch kann erheblich Zeit eingespart werden und Fehler können vermieden werden. An advantage of working with defined zones and barriers is that the operator has nothing more to do than to bring the tracked objects into a machine tool zone, whereby the various preparatory measures were automatically initiated. As mentioned, the machine tool z. B. automatically be set immediately to the new job to be processed. This can save considerable time and mistakes can be avoided.
Interagiert ferner eine Mobileinheit mit dem Fertigungssteuerungssystem oder betätigt ein Bediener Zusatzfunktionen (Eingabetasten etc.) einer Mobileinheit, kann der Bediener von den Mobileinheiten Feedback oder Mitteilungen über Ausgabemittel wie RGB-LED, Vibration, angezeigten Text oder Ton erhalten. So kann beispielsweise der Status eines Auftrags vi- sualisiert werden, beispielsweise indem eine LED grün leuchtet, solange sich der Auftrag im Zustand der Bearbeitung befindet. Ferner kann Feedback oder eine Mitteilung an nachfolgende Bearbeitungsplätze gegeben werden. So kann die automatische Buchung eines abgeschlos- senen Bearbeitungsvorgangs den nachfolgenden Prozess darauf aufmerksam machen, dass die Teile nun bereit stehen und wo sie sich befinden. Allgemein kann eine Auslösung von Aktionen wie das Buchen über Zonen noch weiter angereichert werden, sodass beispielsweise Werkstücke während der verschiedenen Bearbeitungsvorgänge zeitlich überwacht werden können. Mobileinheiten können ferner Teil eines Innenraum-Ortungssystems sein, dass die Bildbasierte Nachverfolgung unterstützt. In Figur 6 wird dies durch die Schritte 71 bis 75 verdeutlicht: Further, when a mobile unit interacts with the shop floor control system, or an operator operates additional functions (input keys, etc.) of a mobile unit, the operator can obtain feedback or notifications from the mobile units about output means such as RGB LED, vibration, displayed text or sound. For example, the status of an order can be visualized, for example, by an LED glows green, as long as the order is in the state of processing. Furthermore, feedback or a message to subsequent processing stations can be given. For example, automatically posting a completed edit can alert the subsequent process that the parts are now ready and where they are. In general, a triggering of actions such as booking over zones can be further enriched so that, for example, workpieces can be monitored over time during the various processing operations. Mobile units may also be part of an indoor location system that supports image-based tracking. In FIG. 6, this is illustrated by the steps 71 to 75:
- Bereitstellen (Schritt 71) des Innenraum-Ortungssystems mit mehreren fest in der - Providing (step 71) of the indoor location system with several fixed in the
Fertigungshalle installierten Sende-Empfangseinheiten, mindestens einer Mobileinheit und einer Analyseeinheit, wobei die Sende-Empfangseinheiten und die Mobileinheit zum Aussenden und Empfangen von elektromagnetischen Signalen ausgebildet ist und die Analyseeinheit ausgebildet ist, aus Laufzeiten der elektromagnetischen Signale zwischen den Sende- Empfangseinheiten und der Mobileinheit die Positionen der Mobileinheit in der Fertigungshalle zu bestimmen. Production hall installed transceiver units, at least one mobile unit and an analysis unit, wherein the transceiver units and the mobile unit is designed for transmitting and receiving electromagnetic signals and the analysis unit is formed, from running times of the electromagnetic signals between the transceiver units and the mobile unit To determine positions of the mobile unit in the production hall.
- Zuordnen (Schritt 73) der Mobileinheit zu mindestens einem, insbesondere nachzuverfolgendem Objekt (15, 21, 23, 31).  - associating (step 73) the mobile unit to at least one, in particular traceable object (15, 21, 23, 31).
- Bestimmen (Schritt 75) der Position des mindestens einen zugeordneten Objekts (15, 21, 23, 31) durch Lokalisierung der zugeordneten Mobileinheit mit dem Innenraum- Ortungssystem.  - determining (step 75) the position of the at least one associated object (15, 21, 23, 31) by locating the associated mobile unit with the indoor location system.
- Einbinden (Schritt 63) der bestimmten Position in den Zuordnungsvorgang, bei dem für ein zu verfolgendes Objekt eine Pixelstruktur im Bild bestimmt wird (Schritt 53), und/oder in die Fertigungssteuerung der Industriefertigungsanlage zur Fertigung des Endprodukts, ins- besondere in die Bildaufnahmevorrichtung-basierte Nachverfolgung.  - integrating (step 63) the determined position into the assignment process in which an object to be tracked determines a pixel structure in the image (step 53) and / or in the manufacturing control of the industrial production facility for manufacturing the final product, in particular into the image acquisition device -based tracking.
Zu den Details eines z. B. UWB-basierten Ortungssystems wird auf die eingangs erwähnten Patentanmeldungen verwiesen. Die hierin offenbarten, für die Integration in die industrielle Fertigung vorgesehenen UWB- basierten Ortungssysteme basieren z. B. auf Mobileinheiten (oft auch als "Tags" bezeichnet) und stationären Sende -Empfangseinrichtungen (oft auch als "Anker" oder "Anchors" bezeichnet). Bei der Integration in die industrielle Fertigung kann zur Positionsbestimmung eines Werkstücks, allgemein eines Gegenstands ("Assets"), dieses jeweils mit mindestens einer Mobileinheit versehen werden bzw. mit dieser funktionell oder räumlich in Bezug gesetzt werden (hierin auch als physische oder räumliche Zuordnung bezeichnet). Die Mobileinheiten sind allgemein elektronische Bauteile, die dazu in der Lage sind, mit den Sende- Empfangseinrichtungen, insbesondere mittels UWB-Kommunikationstechnologie, zu kom- munizieren. Jede Mobileinheit kann zur Feststellung von Laufzeiten über eine eigene Zeitbestimmungseinheit ("Clock") verfügen. To the details of a z. B. UWB-based positioning system is referred to the patent applications mentioned above. The UWB based location systems disclosed herein for integration into industrial manufacturing are based e.g. On mobile units (often referred to as "tags") and stationary transmit receivers (often referred to as "anchors" or "anchors"). In integration into industrial manufacturing, to position a workpiece, generally an asset, it may each be provided with, or functionally or spatially referenced with, at least one mobile unit (also referred to herein as physical or spatial association) ). The mobile units are generally electronic components which are capable of being combined with the transceivers, in particular by means of UWB communication technology. cate. Each mobile unit can have its own time determination unit ("clock") to determine runtimes.
Eine räumliche Zuordnung kann dadurch durchgeführt werden, dass eine Mobileinheit nahe eines zugeordneten Werkstücks oder am Werkstück selbst positioniert wird oder das Werkstück auf einer Werkstücksammelstelleneinheit, an der eine Mobileinheit vorgesehen ist, beispielsweise ein Transportwagen, ein Sammelbehälter oder eine Palette abgelegt wird. Die Mobileinheit kann dort (oder auch an einer Person) fest angebracht sein oder an dem Werkstück/der Werkstücksammelstelleneinheit anheftbar oder auf ihr abgelegt werden. Für ein An- heften kann die Mobileinheit z. B. über einen Haltemechanismus verfügen, beispielsweise ein Magnet oder eine Klemm-, Schraub-, Klipp-, Bajonett- oder Saugvorrichtung, mit dem sie an dem Werkstück oder an der Werkstücksammelstelleneinheit derart verbunden werden kann, dass sie sich nicht unkontrolliert von dieser lösen kann. Neben der vorzunehmenden räumlichen Zuordnung eines z. B. Werkstücks zur Mobileinheit kann ferner eine Zuordnung der Mobileinheit (und damit des räumlich zugeordneten Werkstücks) zu dem zugehörigen Produktionsauftrag des Werkstücks vorgenommen werden (hierin auch als digitale Zuordnung des Fertigungsprozesses oder kurz Bearbeitungsplan-Zuordnung bezeichnet). Spatial allocation may be performed by positioning a mobile unit near an associated workpiece or on the workpiece itself, or by placing the workpiece on a workpiece collection unit on which a mobile unit is provided, such as a trolley, sump, or pallet. The mobile unit may be fixedly mounted there (or even to a person) or attached to or deposited on the workpiece / workpiece collection unit. For an attachment, the mobile unit may, for. Example, have a holding mechanism, such as a magnet or a clamping, screw, clip, bayonet or suction device, with which it can be connected to the workpiece or on the workpiece collection unit so that they can not solve uncontrollably from this , In addition to the spatial assignment of a z. B. workpiece to the mobile unit can also be made an assignment of the mobile unit (and thus the spatially associated workpiece) to the associated production order of the workpiece (also referred to herein as digital allocation of the manufacturing process or short processing plan assignment).
Die Verwendung eines UWB-basierten Ortungssystems kann Ausgangsbasis für die ortsabhängige Informationsverarbeitung. Das Ortungssystem kann optional mit weiterer Sensorik, zum Beispiel mit Beschleunigungs- und/oder Lagesensoren, ausgestattet sein und so ferner als Ausgangsbasis für eine lageabhängige Informationsverarbeitung dienen. Dadurch wird insbe- sondere eine orts- (und gegebenenfalls läge-) abhängige Interaktion im Rahmen des UWB- basierten Ortungssystems bei der Fertigungssteuerung sowie eine Optimierung von Fertigungsvorgängen möglich. Beispielsweise können auch hier die virtuelle Schranken (Gates) und Zonen eingesetzt werden, um einen Fertigungsprozess und nachfolgende Produktionsschritte automatisiert zu überwachen und zu steuern. Dies kann insbesondere in Echtzeit er- folgen. The use of a UWB-based location system can be the starting point for location-dependent information processing. The positioning system can optionally be equipped with further sensors, for example with acceleration and / or position sensors, and thus also serve as the basis for position-dependent information processing. As a result, in particular a location-dependent (and event-dependent) interaction in the context of the UWB-based location system in production control as well as an optimization of production processes becomes possible. For example, the virtual gates and zones can also be used here in order to automatically monitor and control a production process and subsequent production steps. This can be done in particular in real time.
Das UWB-basierten Ortungssystem kann mehrere Sende-Empfangseinheiten und mindestens eine Mobileinheit aufweisen. Das Ortungssystem kann ferner mit dem MES 3 zusammenwir- ken. Beispielsweise kann eine UWB-Analyseeinheit des UWB-basierten Ortungssystems als ein Teil des MES 3 ausgebildet sein. The UWB-based location system may include multiple transceiver units and at least one mobile unit. The location system can also be combined with the MES 3. ken. For example, a UWB analysis unit of the UWB-based location system may be formed as part of the MES 3.
Die Sende-Empfangseinheiten können dazu eingerichtet sein, an die Mobileinheiten UWB- Radiosignale zu senden und von diesen UWB-Radiosignale zu empfangen. Die Sende- Empfangseinheiten können für eine ausreichende Abdeckjung der Fertigungshalle - beispielsweise ähnlich wie die Bildaufnahmevorrichtungen 13 - in der Fertigungshalle verteilt angeordnet werden. Der Abstand zwischen einer örtlich beweglichen Mobileinheit und einer z. B. fest installierten Sende-Empfangseinheit, kann durch die Zeit bestimmt werden, die das Signal zum Überwinden der Distanz zwischen den beiden Einheiten benötigt. Werden die Distanzen von mehreren Sende-Empfangseinheiten ermittelt, deren Ort jeweils bekannt ist, kann der räumliche Ort der Mobileinheit in Bezug zu den Sende-Empfangseinheiten z. B. durch Triangulation bestimmt werden. The transceiver units may be configured to transmit to the mobile units UWB radio signals and to receive from these UWB radio signals. The transceiver units can be distributed in the production hall for a sufficient coverage of the production hall, for example similar to the image capturing devices 13. The distance between a locally movable mobile unit and a z. B. permanently installed transceiver unit, can be determined by the time required for the signal to overcome the distance between the two units. If the distances are determined by a plurality of transceiver units whose location is known in each case, the spatial location of the mobile unit can be compared with the transceiver units z. B. be determined by triangulation.
Für eine Laufzeitbestimmung können die Sende-Empfangseinheit und die Mobileinheit(en) über hochgenaue Uhren verfügen, die die Zeit auf wenige oder sogar nur Bruchteile von ns genau bestimmen können. Auch wenn die Uhren in der Sende-Empfangseinheit und in der Mobileinheit hochgenau sind, so sind die Uhren noch nicht zwingend synchronisiert. Es können unterschiedliche Verfahren der Synchronisation von Uhren oder der Elimination von Fehlern folgend aus dem asynchronen Uhrenverlauf eingesetzt werden. So kann beispielsweise eine der Sende-Empfangseinheiten ein Signal zu einer ersten Zeit Tl versenden und ein zweites Signal zu einer zweiten Zeit T2. Der Mobileinheit kann der Zeitunterschied T2-T1 bekannt sein oder zusammen mit den Signalen übermittelt werden, so dass sie sich auf die Zeit der Sende-Empfangseinheiten synchronisieren kann. Alternativ kann die Mobileinheit zwei Signale in einem vorbekannten zeitlichen Abstand Ta senden. In diesem Fall kann die Sende- Empfangseinheit anhand ihrer eigenen Zeitmessung mit ihrer eigenen Uhr vom Empfang des ersten Signals bis zum Empfang des zweiten Signals die Synchronisationsabweichung ermit- teln und aus der Distanzmessung herausrechnen. Der zeitliche Abstand zwischen dem ersten Signal und dem zweiten Signal sollte gering sein, sodass sich die Mobileinheit in dieser Zeit nicht örtlich wesentlich bewegt hat. Der zeitliche Abstand kann von der Mobileinheit so gewählt werden, dass er ein vorgegebenes Vielfaches oder ein vorgegebener Bruchteil der Zeit ist, die die Mobileinheit benötigt vom Empfang eines Signals, auf das es antworten soll, bis zur Ausgabe des ersten Signals. For transit time determination, the transceiver and the mobile unit (s) may have high precision clocks that can accurately determine the time to a few or even fractions of ns. Even if the clocks in the transceiver unit and in the mobile unit are highly accurate, the clocks are not necessarily synchronized. Different methods of synchronization of clocks or the elimination of errors following from the asynchronous clock history can be used. For example, one of the transceiver units can send a signal at a first time T1 and a second signal at a second time T2. The mobile unit may be aware of the time difference T2-T1 or transmitted along with the signals so that it can synchronize to the time of the transceiver units. Alternatively, the mobile unit may transmit two signals at a known time interval Ta. In this case, the sender-receiver unit can determine the synchronization deviation based on its own time measurement with its own clock from the reception of the first signal to the reception of the second signal and calculate out of the distance measurement. The time interval between the first signal and the second signal should be low, so that the mobile unit has not moved significantly locally during this time. The time interval may be selected by the mobile unit to be a predetermined multiple or a predetermined fraction of the time is that the mobile unit requires from receiving a signal to respond to until the first signal is output.
Bei der kombinierten Nutzung der hierin offenbarten Bild-basierten Nachverfolgung und eines z. B. UWB-basierten Innenraum-Ortungssystems können die Nachverfolgung und die Ortung in einem fließenden Übergang eingesetzt werden. Z. B. kann bei einem fließenden Übergang zwischen UWB-Ortung (Tracking) und Bild-basierter Nachverfolgung (Kamera-Tracking) ein für ein optisches System schwer zugänglicher Bereich (z. B. aufgrund von ungünstigen Lichtverhältnissen, verwinkeltem Bau etc.) oder ein sensibler Bereich (z. B. aufgrund von Perso- nenüberwachung unzulässig) mit UWB-Technologie erfolgen. In geeigneten Räumen der Fertigungsanlage mit guten optischen Bedingungen, beispielsweise im Bereich der Ausgangstore und Eingangstore z.B. für Wareneingang kann die Bild-basierte Nachverfolgung vorgesehen werden. Überdies kann die Fertigungssteuerung Zusatzinformationen bereitstellen, die in der Bild- basierten Nachverfolgung berücksichtigt werden. Wenn sich z. B. ein Halbzeug während eines Fertigungsprozesses verändert, z. B. von einer 2D-Form, zu einem Biegeteil und zu einer Schweißbaugruppe, kann aufgrund von Bearbeitungsplandaten diese Information der Bildbasierte Nachverfolgung bereitgestellt werden. Dadurch kann die optische Detektion erleich- tert werden. Ferner kann die Bild-basierte Nachverfolgung Zusatzinformationen bereitstellen, die in der Fertigungssteuerung berücksichtigt werden können. Dies kann insbesondere in der Qualitätssicherung eingesetzt werden. Angenommen, eine resultierende Bauform eines Werkstücks weicht stark von der erwartenden Form ab oder es fehlen offensichtlich Merkmale, kann dies optisch erkannt und der Fertigungssteuerungssystem mitgeteilt werden. Ferner kann im Rahmen der Bild-basierten Nachverfolgung ermittelt werden, ob ein Werkstück oder eine Baugruppe grundiert oder lackiert ist oder eine sonstige (z. B. im sichtbaren Frequenzbereich) erkennbare Oberflächen-Bearbeitung durchlaufen hat. Ebenso kann bei einer Bilderkennung im IR-Frequenzberiech z. B. eine spezifische Temperaturverteilung oder ein zeitlicher Temperaturverlauf erfasst und dem Fertigungssteuerungssystem mitgeteilt werden. In the combined use of the image-based tracking disclosed herein and a z. B. UWB-based indoor location system tracking and tracking can be used in a smooth transition. For example, in a fluid transition between UWB tracking and image-based tracking (camera tracking), an area that is difficult to access for an optical system (eg due to unfavorable lighting conditions, angled buildings, etc.) or a sensitive area (eg due to person monitoring not permitted) with UWB technology. In suitable areas of the manufacturing plant with good optical conditions, for example in the area of the exit gates and entrance gates, e.g. for goods receipt, the image-based tracking can be provided. In addition, the production control can provide additional information that is taken into account in the image-based tracking. If z. B. a semi-finished during a manufacturing process, z. For example, from a 2D shape to a bent part and to a weld assembly, this image-based tracking information may be provided based on machining plan data. As a result, the optical detection can be facilitated. Furthermore, the image-based tracking can provide additional information that can be considered in the production control. This can be used in particular in quality assurance. Assuming that a resulting design of a workpiece deviates greatly from the expected shape or obviously lacking features, this can be visually recognized and communicated to the production control system. Furthermore, it can be determined as part of image-based tracking whether a workpiece or an assembly is primed or painted or has undergone another (eg in the visible frequency range) recognizable surface treatment. Likewise, in an image recognition in the IR Frequenzberiech z. B. a specific temperature distribution or a temporal temperature profile is detected and communicated to the production control system.
Ferner ist es möglich, basierend auf der Anzahl der sich in einer oder mehreren Zonen befindenden nachverfolgten Objekte Ereignisse auszulösen oder bevorstehende Ereignisse anzuzeigen. Beispielsweise können Kommissioniervorgänge oder Transportaufgaben ausgelöst werden. Neben stationären Zonen können zusätzlich Zonen dynamisch mit einem oder mehreren Objekten mitwandern. Dies erlaubt beispielsweise den Transport mehrerer Ladungsträger (Transportwägen), und die mitgeführten Aufträge können gemeinsam als Cluster vom Fertigungs- Steuerungssystem behandelt werden. Further, it is possible to trigger events or indicate upcoming events based on the number of tracked objects located in one or more zones. For example, picking operations or transport tasks can be triggered. In addition to stationary zones, additional zones can migrate dynamically with one or more objects. This allows, for example, the transport of multiple carriers (transport trucks), and the entrained orders can be treated together as clusters from the manufacturing control system.
Ferner kann ein Objekt zum Beispiel an einem Handarbeitswerkzeug bearbeitet werden und mithilfe der Bildaumahmevomchtung-basierten Nachverfolgung kann ermittelt werden, wann und/oder wie das Handarbeitswerkzeug genutzt wird. Further, an object may, for example, be manipulated on a hand tool, and with the help of the frame grabber-based tracking, it may be determined when and / or how the hand tool is being used.
Durch die Nachverfolgung von Werkzeugen ist es ferner möglich, die Bewegung des Werkzeugs zu erkennen. Hierdurch können Informationen darüber generiert werden, wie viele Bauteile bearbeitet wurden oder ob ein Bearbeitungsschritt vergessen wurde etc. Ferner können weitere Daten über das Bildaufnahmevorrichtung-basierte Nachverfolgungssystem übermittelt werden, beispielsweise Fehlermeldungen durch entsprechende Bewegungsmuster eines Objekts z. B. in einer definierten Fehler-Zone. By tracking tools, it is also possible to detect the movement of the tool. In this way, information can be generated on how many components have been processed or whether a processing step has been forgotten etc. Furthermore, further data can be transmitted via the image capture device-based tracking system, for example, error messages by corresponding movement pattern of an object z. In a defined error zone.
Ein weiteres Nutzungsszenario betrifft die Erfassung von Prozesszuständen, die durch die Po- sitionen von Werkstücken, Menschen, Maschinen und anderen Betriebsmitteln gekennzeichnet sind und die durch eine kognitive Auswertung dieser gemessenen Positionen erfasst werden können. Allgemein lassen die Bildaufnahmevorrichtung-basierten Nachverfolgungsdaten sowie die Informationen bezüglich Zonen und Schranken eine Vielzahl an Auswertemöglichkeiten zu. So ist es beispielsweise möglich, mittels derartiger Rohdaten Kennzahlen wie Key- Performance-Indikatoren (KPIs) zu erzeugen und detaillierte Analysen zu Optimierung der Fertigungsvorgänge durchzuführen. Diese Analysen (z. B. KPIs) können beispielsweise in Form von„heat maps", als Live- Ansicht oder aggregiert dargestellt werden. Weitere Auswertungsdiagramme wie Spagetti-Diagramme sind so für verschiedene Bearbeitungsvorgänge sofort abrufbar. Dies erlaubt es, Standardkennzahlen, die oft einen großen Aufwand bei der Erhebung erzeugen, auf Knopfdruck verfügbar zu machen, wie z. B. Durchlaufzeit, Wertstromanalyse etc. Zudem können die Abläufe in der Produktion auf Basis der gewonnen Ortungsinformationen mit Hilfe von numerischen Optimierungsverfahren verbessert werden. Die Nutzung des Bildaufnahmevorrichtung-basierten Nachverfolgungssystems erlaubt es auch Personen oder Körperteile von Personen zu orten, wenn diese als nachzuverfolgendes Objekt bestimmt werden. Neben Werkstücken und Werkzeugen gibt die Ortung von Personen (als Ganzes oder auch lokale Ortungen von Bein, Arm und Hand) wertvolle Information über Ab- läufe in der Produktion. Nutzungsszenarien hierzu betreffen beispielsweise die Überwachung sicherheitskritischer Bereiche zum Schutze von Personen, insbesondere der Bearbeiter. Ferner können Bewegungsmuster generiert werden, die wiederum z. B. zur Prozess- oder Ergonomie- Verbesserung von Arbeitsplätzen der Bediener ausgewertet werden können. Insbesondere über die synchrone Auswertung beider Hände einer Person, insbesondere eines Bedieners oder Be- arbeiters, können detaillierte Informationen über den Fertigungsvorgang und das Werkstück erfasst werden. So kann erfasst werden, dass Another usage scenario relates to the recording of process states which are characterized by the positions of workpieces, people, machines and other equipment and which can be detected by a cognitive evaluation of these measured positions. In general, the image acquisition device-based tracking data as well as the information regarding zones and barriers allow for a variety of evaluation options. It is thus possible, for example, to generate key figures such as key performance indicators (KPIs) using such raw data and to carry out detailed analyzes to optimize production processes. These analyzes (eg KPIs) can be displayed in the form of "heat maps", as a live view or aggregated, so further evaluation diagrams such as spaghetti diagrams can be called up immediately for different processing operations generate a large effort in the survey, make it available at the touch of a button, such as throughput time, value stream analysis, etc. In addition, the processes in production based on the obtained location information can be improved using numerical optimization methods. The use of the imaging device-based tracking system also allows people or body parts of people to be located when they are determined to be tracked. In addition to workpieces and tools, the locating of persons (as a whole or even local location of leg, arm and hand) provides valuable information about processes in production. Usage scenarios for this concern, for example, the monitoring of security-critical areas for the protection of persons, in particular the processor. Furthermore, motion patterns can be generated, which in turn z. B. for process or Ergonomie- improvement of jobs the operator can be evaluated. In particular, the synchronous evaluation of both hands of a person, in particular an operator or a worker, detailed information about the manufacturing process and the workpiece can be detected. So can be detected that
- ein Bearbeiter an einer Position X zugegriffen hat;  - an editor has accessed at a position X;
- ein Bearbeiter ein spezifisches Werkstück von A nach B transportiert hat;  - An operator has transported a specific workpiece from A to B;
- ein Bearbeiter ein spezifisches Werkstück an einer Position Y abgesetzt hat;  an operator has deposited a specific workpiece at a position Y;
- ein Fertigungsvorgang wie Bohren, Einpressen, ... x-Mal ausgeführt wurde;  - a manufacturing process such as drilling, pressing, ... was performed x times;
- ein Fertigungsvorgang wie Entgraten, Schweißen, ... auf einer spezifischen Trajekto- rie an einem Werkstück ausgeführt wurde;  - a manufacturing process such as deburring, welding, ... was performed on a specific trajektory on a workpiece;
- ein Fügeprozess an einer spezifischen Position durchgeführt wurde. Verschiedene nachzuverfolgende Objekte können in spezifischen Beziehungsverhältnissen zueinander stehen. Beispielsweise können sie im Rahmen eines spezifischen Fertigungsprozesses in Familien gruppiert werden, um grundlegende (Verhaltens-/Bewegungs-) Muster zu definieren. Familien können beispielsweise einem Auftrag, einer Baugruppe, einem Folgepro- zess von Werkstücken oder einem zugehörigen Ladungsträger (Transportwagen, Palette, Sammelbehälter) zugeordnet sein. Die Familienzugehörigkeit kann dabei dynamisch im laufenden Bearbeitungsvorgang geändert werden. Objekte können dabei verschiedenen Familien gleichzeitig angehören. Ferner können Familien von Objekten eine spezifische Verknüpfung betreffen, beispielsweise alle Ladungsträger, alle Transportmittel, alle Bearbeiter, alle Werkstücke, alle Maschinen etc., oder eine Familie von Objekten kann einen spezifischen Status des Objekts betreffen, beispielsweise einen Ladungsstatus der Mobileinheiten.  - a joining process has been carried out at a specific position. Different objects to follow can have specific relationships to each other. For example, within a specific manufacturing process, they can be grouped into families to define basic (behavior / movement) patterns. For example, families can be assigned to a job, an assembly, a subsequent process of workpieces or an associated load carrier (transport cart, pallet, collection container). The family affiliation can be changed dynamically in the current editing process. Objects can belong to different families at the same time. Furthermore, families of objects may relate to a specific link, for example all carriers, all means of transport, all agents, all workpieces, all machines, etc., or a family of objects may relate to a specific status of the object, for example a charge status of the mobile units.
Entsprechend kann die Analyse wie die Erfassung von Prozesszuständen auf der Auswertung von derartigen Familien basieren. Über die hierin offenbarte Erweiterung einer Fertigungsanlage mit einer Bildaufnahmevor- richtung-basierten Nachverfolgung und Schnittstellen zum Fertigungssteuerungssystem kann die Position einer Werkstücksammelstelleneinheiten festgestellt und/oder die Bewegung der Hand eines Bedieners beispielsweise mit Infrarot-Bildgebung festgehalten werden. Accordingly, the analysis, like the detection of process states, may be based on the evaluation of such families. Through the enhancement of a manufacturing facility with imager-based tracking and interfaces to the production control system disclosed herein, the location of a workpiece collection unit can be determined and / or the movement of an operator's hand captured, for example, by infrared imaging.
Ein Bediener, der in einer Schaltzentrale den Bearbeitungsvorgang überwacht und steuert, kann auf seinem Überwachungsmonitor sehen, wo ein spezifischer Auftrag gerade in der Prozesskette steht und wie sein Status gerade ist. Entsprechend kann er auch direkt auf eine Anzeigeeinheit zugreifen, um angezeigte Daten (Werkstückinformation) wie Präferenzen, Ar- beitsschritte etc. anzupassen und einem Bearbeiter vor Ort anzuzeigen. Alternativ oder ergänzend kann dies auch vor Ort mit einer Eingabevorrichtung an der Werkstücksammelstelleneinheit (z. B. Taster, Schalter, Touchpad) erfolgen oder über eine Datenschnittstelle, die einer externen z. B. mobilen Eingabeeinheit Zugang verschafft (Smartphone, Ipad, Smartwatch etc.). Entsprechend kann die Werkstücksammelstelleneinheit z. B. ein Nahfeldfunknetz (Blue- tooth, NFC) aufweisen. Beispielsweise wird die Werkstücksammelstelleneinheit gezielt angesteuert, damit die Signalvorrichtung (z. B. eine hell leuchtende LED) aktiviert wird. An operator who monitors and controls the machining process in a control center can see on his monitoring monitor where a specific job is currently in the process chain and how its status is currently. Accordingly, it can also access a display unit directly in order to adapt displayed data (workpiece information) such as preferences, work steps, etc., and display it to a processor on site. Alternatively or additionally, this can also be done locally with an input device on the workpiece collection point unit (eg, push button, switch, touchpad) or via a data interface which is connected to an external z. B. mobile input unit provides access (smartphone, ipad, smartwatch, etc.). Accordingly, the workpiece collection unit z. B. have a near field radio network (Bluetooth, NFC). For example, the workpiece collection unit is selectively controlled so that the signaling device (eg a bright LED) is activated.
Die Bild-basierte Nachverfolgung kann ferner beispielsweise beim Absortieren eingesetzt werden, indem z. B. der Ort einer Hand (insbesondere eines in Bildern deutlich sichtbaren Handschuhs) nachverfolgt wird. Entnimmt die„Hand" eines Bedieners ein Bauteil vom Restgitter, wird der Bauteilort im MES vom Restgitter auf die Hand gebucht. Bewegt sich die Hand in die Nähe einer Werkstücksammelstelleneinheit, wird im MES gebucht, dass dieses Teil an der zugehörigen Werkstücksammelstelleneinheit abgelegt wurde. Zum einen kann das Nachverfolgungssystem erkennen, dass die Hand mit dem Werkstück in die Nähe kam. Zum anderen kann ein übergeordnetes System (z. B. das MES) die Werkstücksammelstelleneinheit und die Handposition verknüpfen. The image-based tracking can also be used for example in the sorting by z. B. the location of a hand (especially a clearly visible in pictures glove) is traced. If the "hand" of an operator removes a component from the skeleton, the component location in the MES is posted from the skeleton to the hand If the hand moves near a workpiece collection unit, the MES posts that this part has been deposited on the associated workpiece collection unit On the one hand, the tracking system can see that the hand came close to the workpiece, and on the other hand, a higher level system (eg, the MES) can link the workpiece collection unit and the hand position.
In Fig. 7 sind beispielhaft Verfahrensschritte einer industriellen Fertigung eines Endprodukts gezeigt, die mit einem hierin offenbarten Fertigungssteuerungssystem, insbesondere dem MES 3 durchgeführt werden kann. FIG. 7 shows by way of example process steps of an industrial production of a final product which can be carried out with a production control system, in particular the MES 3, disclosed herein.
In einem ersten Schritt 80 erfolgt die Entgegennahme eines Fertigungsauftrags (mit einem Bearbeitungsplan 37) zur Fertigung eines Endprodukts aus einem Werkstück 23 mit dem MES 3, das z. B. in einer Datenverarbeitungsvorrichtung 30A implementiert ist. In einem folgenden Schritt 81 erfolgt die Auswahl einzelner Bearbeitungsschritte mittels des MES 3. In einem weiteren Schritt 82 erfolgt die Auswahl einer Reihenfolge vom MES 3 (oder einem Bediener), in der die Bearbeitungsschritte durchgeführt werden sollen. Die Bearbeitungsschritte können dabei einzelne oder mehrere der folgenden Vorgänge sein: Schneiden, insbesondere Laser- schneiden, Stanzen, Biegen, Bohren, Gewindeschneiden, Schleifen, Zusammenfügen, Schweißen, Nieten, Schrauben, Pressen, Behandeln der Kanten und Oberflächen. In a first step 80, the receipt of a production order (with a processing plan 37) for the production of a final product from a workpiece 23 with the MES 3, the z. In a data processing device 30A. In a following Step 81, the selection of individual processing steps by means of the MES 3. In a further step 82, the selection of an order from the MES 3 (or an operator), in which the processing steps are to be performed. The processing steps can be one or more of the following operations: cutting, in particular laser cutting, punching, bending, drilling, tapping, grinding, joining, welding, riveting, screwing, pressing, treating the edges and surfaces.
In einem weiteren Schritt 83 erfolgt die datentechnische Zuordnung jedes der Bearbeitungsschritte zu einer Maschine 7 oder einem Arbeitsplatzeinheit. Die Arbeitsplatzeinheit kann ein wie oben beschriebener Arbeitsplatz 26, insbesondere ein Handarbeitsplatz sein. In a further step 83, the data assignment of each of the processing steps to a machine 7 or a workstation unit takes place. The workstation unit may be a workstation 26 as described above, in particular a manual workstation.
In einem weiteren Schritt 84 erfolgt die datentechnische Zuordnung des Fertigungsauftrags zu einem nachzuverfolgenden Objektdatensatz, der in der MES 3 für eine Mobileinheit abgelegt ist. Dieser Schritt 84 kann dem in Fig. 6 gezeigten Schritt 53 entsprechen. Schritt 84 kann ins- besondere auch schon früher, z. B. nach einem oder mehreren der zuvor beschriebenen Verfahrensschritte, erfolgen. In a further step 84, the data assignment of the production order to a tracked object data record is stored in the MES 3 for a mobile unit. This step 84 may correspond to step 53 shown in FIG. Step 84 can in particular also earlier, z. B. after one or more of the method steps described above, take place.
In einem weiteren Schritt 85 erfolgt die Fertigung eines Werkstücks 23, das zumindest teilweise ein Teil des Endprodukts ist, insbesondere nach einem ersten der Bearbeitungsschritte an der diesem Bearbeitungsschritt zugewiesenen Maschine 7 oder Arbeitsplatzeinheit. Z. B. wird hier ein Teil des Fertigungsauftrags aus einem Blech geschnitten. Da als nachfolgender Bearbeitungsschritt auch noch ein Fräsen oder Stanzen notwendig sein kann, kann dieses Werkstück 23 noch mehr Material als das Endprodukt, also nur teilweise das Endprodukt bilden bzw. ein Teil von diesem sein. In a further step 85, the production of a workpiece 23, which is at least partially a part of the final product, in particular after a first of the processing steps at the machine 7 assigned this processing step or workstation unit. For example, part of the production order is cut from a sheet metal here. Since milling or punching may also be necessary as a subsequent processing step, this workpiece 23 can form even more material than the end product, ie only partially the end product or be part of it.
In einem weiteren Schritt 86 erfolgt die räumliche Zuordnung des gefertigten Werkstücks 23 einer Position in einem Beobachtungsbereich. Dieser Schritt 86 kann dem in Fig. 6 gezeigtem Schritt 59 entsprechen. In einem weiteren Schritt 87 erfolgt das Speichern einer Änderung des Status des Fertigungsauftrags in dem MES 3. In a further step 86, the spatial assignment of the manufactured workpiece 23 to a position in an observation area takes place. This step 86 may correspond to step 59 shown in FIG. In a further step 87, a change is made to the status of the production order in the MES 3.
In einem optionalen Schritt 88 erfolgt das Speichern der Position des Werkstücks / nachverfolgten Objekts zu dem Fertigungsauftrag. In einem weiteren Schritt 89 erfolgt der Transport des Werkstücks 23 gemäß dem Fertigungsauftrag zu der nächsten Maschine 7 oder der nächsten Arbeitsplatzeinheit in der vorbestimmten Reihenfolge. Dies kann in Folge einer Anweisung des MES 3 durch eine Person oder durch einen automatisierten Transportprozess erfolgen. In an optional step 88, the position of the workpiece / tracked object is stored to the production order. In a further step 89, the transport of the workpiece 23 according to the production order to the next machine 7 or the next workstation unit in the predetermined order. This can be done as a result of an instruction of the MES 3 by a person or by an automated transport process.
In einem weiteren Schritt 90 wird dieser Bearbeitungsschritt an der ihm zugewiesenen Maschine 7 oder Arbeitsplatzeinheit durchgeführt. In a further step 90, this processing step is carried out on the machine 7 or workstation unit assigned to it.
In einem optionalen Schritt 91 erfolgt das Speichern der Position des Werk- stücks/nachverfolgten Objekts für diesen Fertigungsschritt im Fertigungsauftrag. In an optional step 91, the position of the workpiece / tracked object is stored for this production step in the production order.
In einem weiteren Schritt 92 erfolgt das erneute Speichern einer Änderung des Status des Fertigungsauftrags im MES 3. In einem weiteren Schritt 93 wird entschieden, ob mit dem Verfahrensschritt 89, d. h., einem Transport zu einem weiteren Bearbeitungsschritt, fortgefahren werden soll oder ob die Fertigung beendet ist. In a further step 92, the renewed storage of a change in the status of the production order in the MES 3 takes place. In a further step 93, a decision is made as to whether the method step 89, d. h., a transport to another processing step, to continue or whether the production is completed.
Während dieser Fertigungsschritte ist stets eine Positionsbestimmung von nachverfolgten Ob- jekten durch das MES 3 möglich. Damit kann das MES 3 zu jeder Zeit über Daten wie aktuelle Statusdaten und aktuelle Positionsdaten des Werkstücks 23 verfügen. MES 3 und das Bild- aufnahmevorrichtung-basierte Nachverfolgungssystem 5 können insbesondere wie zuvor beschrieben ausgebildet sein. Alle zuvor beschriebenen Verfahrensschritte, die von einer Fertigungssteuerung, einem Ferti- gungssteuerungssystem, einem Bildaufnahmevorrichtung-basierten Nachverfolgungssystem oder vom MES 3 ausgeführt werden, können auch mittels einer oder mehrerer Datenverarbeitungsvorrichtungen, die Mittel zur Durchführung der Verfahrensschritte aufweisen, realisiert sein. During these production steps, it is always possible to determine the position of tracked objects by the MES 3. Thus, the MES 3 can at any time have data such as current status data and current position data of the workpiece 23. In particular, MES 3 and the imaging device-based tracking system 5 may be designed as described above. All the above-described method steps carried out by a production control, a production control system, an image acquisition device-based tracking system or by the MES 3 can also be implemented by means of one or more data processing devices having means for performing the method steps.
Es wird explizit betont, dass alle in der Beschreibung und/oder den Ansprüchen offenbarten Merkmale als getrennt und unabhängig voneinander zum Zweck der ursprünglichen Offenbarung ebenso wie zum Zweck des Einschränkens der beanspruchten Erfindung unabhängig von den Merkmalskombinationen in den Ausführungsformen und/oder den Ansprüchen angesehen werden sollen. Es wird explizit festgehalten, dass alle Bereichsangaben oder Angaben von Gruppen von Einheiten jeden möglichen Zwischenwert oder jede mögliche Untergruppe von Einheiten zum Zweck der ursprünglichen Offenbarung ebenso wie zum Zweck des Einschränkens der beanspruchten Erfindung offenbaren, insbesondere auch als Grenze einer Bereichs- angäbe. It is explicitly stated that all features disclosed in the description and / or the claims are considered separate and independent of each other for the purpose of original disclosure as well as for the purpose of limiting the claimed invention independently of the feature combinations in the embodiments and / or the claims should be. It is explicitly stated that all ranges or indications of groups of units disclose every possible intermediate value or subgroup of units for the purpose of original disclosure as well as for the purpose of limiting the claimed invention, in particular as a limit of range.

Claims

Patentansprüche claims
1. Verfahren zur Fertigungssteuerung von Prozessabläufen bei der industriellen Bearbeitung von Werkstücken (23) gemäß Bearbeitungsplänen (37), insbesondere in der Metall- und/oder Blechverarbeitung, in einer Fertigungshalle zur Fertigung eines Endprodukts mit den Schritten: A method for manufacturing control of process sequences in the industrial machining of workpieces (23) according to machining plans (37), in particular in the metal and / or sheet metal processing, in a production hall for producing a final product, comprising the steps:
Bereitstellen (Schritt 51) mehrerer in der Fertigungshalle angeordneter Bildaufnahmevorrichtungen (13), die zum Aufnehmen von Bildsequenzen (41) von zugeordneten Beobachtungsbereichen (17) in der Fertigungshalle ausgebildet sind,  Providing (step 51) a plurality of image pickup devices (13) arranged in the production hall and designed to record image sequences (41) of assigned observation areas (17) in the production hall,
- Identifizieren (Schritt 53) eines zu verfolgenden Objekts (15, 21, 23, 31) in einem ersten Bild einer ersten der Bildsequenzen (41) anhand mindestens eines Objekt-Merkmals, das als Pixelstruktur in den Pixeln des ersten Bildes vorliegt, Identifying (step 53) an object to be tracked (15, 21, 23, 31) in a first image of a first one of the image sequences (41) using at least one object feature which is present as a pixel structure in the pixels of the first image,
Bestimmen (Schritt 55) des Bearbeitungsplans, der sich auf das zu verfolgende Objekt (15, 21, 23, 31) bezieht,  Determining (step 55) the machining plan relating to the object to be tracked (15, 21, 23, 31),
- Bestimmen (Schritt 55A) der Lagen des Objekt-Merkmals in Bildern der ersten der Bildsequenzen (41), die dem ersten Bild zeitlich nachfolgend erfasst wurden, Determining (step 55A) the positions of the object feature in pictures of the first of the picture sequences (41) which have been subsequently recorded in the first picture,
Bestimmen (Schritt 57) einer aktuellen Position des zu verfolgenden Objekts (15, 21, 23, 31) durch Lokalisieren des Objekt-Merkmals in einem zeitlich aktuellen Bild einer der Bildsequenzen (41) und Zuordnen (Schritt 59) der Lage des Objekt-Merkmals im zeitlich ak- tuellen Bild zu einer aktuellen Position im Beobachtungsbereich der Bildsequenz (41), die das zeitlich aktuelle Bild umfasst, und  Determining (step 57) a current position of the object to be tracked (15, 21, 23, 31) by locating the object feature in a temporally current image of one of the image sequences (41) and associating (step 59) the location of the object feature in a temporally current image to a current position in the observation region of the image sequence (41), which includes the temporally current image, and
Einbinden (Schritt 63) der bestimmten aktuellen Position des zu verfolgenden Objekts (15, 21, 23, 31) in die Fertigungssteuerung der Industriefertigungsanlage zur Fertigung des Endprodukts.  Incorporating (step 63) the determined current position of the object to be tracked (15, 21, 23, 31) into the manufacturing control of the industrial production facility for manufacturing the final product.
2. Verfahren nach Anspruch 1 , wobei das zu verfolgende Obj ekt (15, 21, 23, 31) innerhalb der bereitgestellten Bilder (39) ausschließlich anhand von typischen Pixeländerungen, die einem Objekt-Merkmal zugeordnet sind, verfolgt wird. 3. Verfahren nach Anspruch 1 oder 2, wobei das Identifizieren des zu verfolgenden Objekts (15, 21, 23, 31) im ersten Bild (39) mit einem Software-System erfolgt, das Information über die Lage des Objekts (15, 21, 23, 31) im ersten Bild (39) bereitstellt. 2. The method of claim 1, wherein the object to be tracked (15, 21, 23, 31) within the provided images (39) is tracked solely by means of typical pixel changes associated with an object feature. 3. The method of claim 1 or 2, wherein the identification of the object to be tracked (15, 21, 23, 31) in the first image (39) is carried out with a software system, the information about the position of the object (15, 21, 23, 31) in the first image (39).
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Lokalisieren des Objekt-Merkmals umfasst: 4. The method of claim 1, wherein locating the object feature comprises:
Bestimmen eines Objekt-Merkmalsvektors, der die Bewegung des Objekt-Merkmals zwischen Bildern (39) der ersten der Bildsequenzen (41) beschreibt, und  Determining an object feature vector describing the motion of the object feature between images (39) of the first of the image sequences (41), and
Projizieren des Objekt-Merkmalsvektors in ein Bild (39) einer zweiten der Bildsequenzen (41).  Projecting the object feature vector into an image (39) of a second one of the image sequences (41).
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei beim Verlassen des Objekt-Merkmals eines der Bildsequenz (41) zugeordneten Beobachtungsbereichs (17) in der Fertigungshalle geprüft wird, insbesondere mit Hilfe von geeigneten Bildauswertemittel und Bildauswerte- Verfahren/Programme, ob ein dem Objekt-Merkmal und/oder Objekt- Merkmalsvektor entsprechendes Objekt-Merkmal in einem passenden Ort-/Zeitfenster einer weiteren Bildsequenz (41), insbesondere mit ausreichend hoher Wahrscheinlichkeit, identifizierbar ist. 5. The method according to any one of the preceding claims, wherein when leaving the object feature of the image sequence (41) associated observation area (17) is checked in the production hall, in particular with the help of suitable image evaluation and Bildauswerte- procedures / programs, whether the object Feature and / or object feature vector corresponding object feature in a suitable place / time window of another image sequence (41), in particular with sufficiently high probability, is identifiable.
6. Verfahren nach einem der vorhergehenden Ansprüche, wobei das zu verfolgende Objekt (15, 21, 23, 31) ein Werkstück (23), einem Transportmittel (21), ein Werkzeug, eine Mobileinheit (15) oder eine Person (31) ist und/oder 6. The method according to any one of the preceding claims, wherein the object to be tracked (15, 21, 23, 31) is a workpiece (23), a transport (21), a tool, a mobile unit (15) or a person (31) and or
wobei die Bildsequenzen (41) der Bildaufnahmevorrichtungen (13) einen eindeutigen Zeitbezug zur Positionsbestimmung und untereinander aufweisen.  wherein the image sequences (41) of the image recording devices (13) have a unique time reference for position determination and with one another.
7. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Objekt-Merkmal eine spezifische geometrische Form, eine Farbe, ein Lichtsignal einer LED, oder eine Ausdehnung eines Bereichs im Bild (39) umfasst, und/oder A method according to any one of the preceding claims, wherein the object feature comprises a specific geometric shape, a color, a light signal of an LED, or an extent of a region in the image (39), and / or
wobei ein Objekt-Merkmalsvektor ein Richtungs- oder Geschwindigkeitsvektor ist.  wherein an object feature vector is a direction or velocity vector.
8. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Beobachtungsbereiche (17) der ersten Bildsequenz (41) und einer zweiten Bildsequenz (41) einen Überlappungsbereich (17') aufweisen und eine Übergabe der Objekt-Merkmale von der ersten Bildsequenz (41) in die zweiten Bildsequenz (41) anhand von Pixelwerten im Überlappungsbereich (17') im Wesentlichen zeitgleicher Bilder (39) erfolgt. 8. The method according to any one of the preceding claims, wherein the observation areas (17) of the first image sequence (41) and a second image sequence (41) have an overlap area (17 ') and a transfer of the object features of the first image sequence (41) in the second image sequence (41) takes place on the basis of pixel values in the overlapping region (17 ') of substantially simultaneous images (39).
9. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Zuordnen der Lage des Objekt-Merkmals im zeitlich aktuellen Bild (39) zu einer aktuellen Position im Beobachtungsbereich (17) der Bildsequenz (41) umfasst: Bereitstellen von Referenzpunkten (19) in den Beobachtungsbereichen (17), und Berechnen eines genauen Ort-/Raum-Zeitpunkts des zu verfolgenden Objektes (15, 21, 23, 31) anhand mindestens eines Referenzpunkts (19). 9. Method according to one of the preceding claims, wherein the assignment of the position of the object feature in the temporally current image (39) to a current position in the observation area (17) of the image sequence (41) comprises: Providing reference points (19) in the observation areas (17), and calculating an exact location / space time of the object to be tracked (15, 21, 23, 31) based on at least one reference point (19).
10. Verfahren nach einem der vorhergehenden Ansprüche, ferner mit 10. The method according to any one of the preceding claims, further with
Aufzeichnen und/oder Bereitstellen der bestimmten Position über eine geeignete Record and / or provide the specific position via an appropriate
Schnittstelle und/oder Interface and / or
Einbinden der bestimmten Position in eine Bewegungsanalyse des zu verfolgenden Objekts (15, 21, 23, 31).  Incorporating the determined position in a motion analysis of the object to be tracked (15, 21, 23, 31).
11. Verfahren nach einem der vorhergehenden Ansprüche, ferner mit 11. The method according to any one of the preceding claims, further with
Definieren von Zonen (27) und/oder räumlichen Schranken (29) in der Fertigungshalle, insbesondere in einem Lageplan (25) der Fertigungshalle, und  Defining zones (27) and / or physical barriers (29) in the production hall, in particular in a site plan (25) of the production hall, and
Abgleichen der bestimmten Position des zu verfolgenden Objekts (15, 21, 23, 31) hinsichtlich der Zonen (27) und/oder der räumlichen Schranken (29) und Steuern der Fertigung basierend auf dem Abgleich.  Matching the determined position of the object to be tracked (15, 21, 23, 31) with respect to the zones (27) and / or the spatial barriers (29) and controlling the manufacturing based on the alignment.
12. Verfahren nach Einspruch 11 , wobei das Abgleichen der bestimmten Position ergibt, dass sich das zu verfolgende Objekt (15, 21, 23, 31) in einer Zone (7) befindet oder diese verlassen hat oder dass das zu verfolgende Objekt (15, 21, 23, 31) eine räumliche Schranke (29) passiert hat, und/oder 12. The method according to claim 11, wherein the matching of the determined position shows that the object to be tracked (15, 21, 23, 31) is located in or has left a zone (7) or that the object to be tracked (15, 21, 23, 31) has passed through a spatial barrier (29), and / or
wobei die Zonen (27) und/oder die räumlichen Schranken (29) in zwei oder drei Dimensionen definiert werden.  wherein the zones (27) and / or the spatial barriers (29) are defined in two or three dimensions.
13. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Einbinden der bestimmten Position des zu verfolgenden Objekts (15, 21, 23, 31) in die Steuerung zur Fertigung eines Endprodukts einen oder mehrere der folgenden Schritte umfasst: 13. The method according to any one of the preceding claims, wherein the incorporation of the particular position of the object to be tracked (15, 21, 23, 31) in the control for manufacturing a final product comprises one or more of the following steps:
Abgeben von Signalen zur Unterstützung der Ortung des zu verfolgenden Objekts (15, 21, 23, 31);  Outputting signals in support of locating the object to be tracked (15, 21, 23, 31);
Anzeigen von Information zu der Position und/oder dem Fertigungszustand des zu verfolgenden Objekts (15, 21, 23, 31), insbesondere auf einem mobilen Ausgabegerät wie einem Tablett, Smartphone oder einem Überwachungsmonitor;  Displaying information on the position and / or the manufacturing state of the object to be tracked (15, 21, 23, 31), in particular on a mobile output device such as a tablet, smartphone or a monitoring monitor;
Einstellen von Betriebsparametern einer Werkzeugmaschine (7); Aktualisieren eines Protokolls, das die Fertigung, insbesondere Bearbeitungsschritte, protokolliert; Setting operating parameters of a machine tool (7); Updating a log that logs the manufacturing, in particular processing steps;
Zuordnen des zu verfolgenden Obj ekts (15, 21, 23, 31) zu einem Auftrag zur Fertigung eines oder mehrerer Endprodukte in mehreren unterschiedlichen Arbeitsschritten.  Assigning the obj ect to be followed (15, 21, 23, 31) to a contract for the manufacture of one or more end products in several different steps.
14. Verfahren nach einem der vorhergehenden Ansprüche, wobei, wenn das zu verfolgende Objekt (15, 21, 23, 31) ein Werkstück (23) ist, das Einbinden der bestimmten Position des zu verfolgenden Objekts (15, 21, 23, 31) in die Steuerung zur Fertigung eines Endprodukts ein Steuern und/oder Überwachen 14. The method according to any one of the preceding claims, wherein, if the object to be tracked (15, 21, 23, 31) is a workpiece (23), the incorporation of the specific position of the object to be tracked (15, 21, 23, 31) controlling and / or monitoring in the controller for manufacturing a final product
- einer Bearbeitung des Werkstücks (23) in mehreren unterschiedlichen Arbeitsschritten, die an unterschiedlichen Orten, insbesondere aber innerhalb der Fertigungshalle, durchgeführt werden; - A processing of the workpiece (23) in several different steps, which are performed at different locations, but especially within the production hall;
eines Transports des Werkstücks (23) zwischen unterschiedlichen Arbeitsschritten, die an unterschiedlichen Orten, insbesondere aber innerhalb der Fertigungshalle, durchgeführt werden;  a transport of the workpiece (23) between different steps, which are carried out at different locations, but in particular within the production hall;
einer Bearbeitung des Werkstücks (23) an Arbeitsplätzen, die mit der Fertigungssteuerung vernetzt oder in diese integriert sind; und/oder  machining the workpiece (23) at workplaces that are networked or integrated with the production control; and or
einer Bearbeitung des Werkstücks (23) an Arbeitsplätzen, die mit der Fertigungssteuerung nicht vernetzt oder in diese nicht integriert sind  a machining of the workpiece (23) at workplaces that are not networked with the production control or not integrated into this
umfasst. includes.
15. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Fertigungssteuerung durch eine Innenraum-Ortung unterstützt wird, mittels der folgenden Schritte: 15. The method according to any one of the preceding claims, wherein the production control is supported by an indoor location, by means of the following steps:
Bereitstellen (Schritt 71) eines Innenraum-Ortungssystems mit mehreren fest in der Fertigungshalle installierten Sende-Empfangseinheiten, mindestens einer Mobileinheit (20) und einer Ortungsanalyseeinheit, wobei die Sende-Empfangseinheiten und die Mobileinheit (20) zum Aussenden und Empfangen von elektromagnetischen Signalen ausgebildet ist und die Ortungsanalyseeinheit ausgebildet ist, aus Laufzeiten der elektromagnetischen Signale zwischen den Sende-Empfangseinheiten und der Mobileinheit (20) die Positionen der Mobil- einheit (20) in der Fertigungshalle zu bestimmen,  Providing (step 71) an indoor location system having a plurality of transceiver units fixedly installed in the production hall, at least one mobile unit (20) and a location analysis unit, wherein the transceiver units and the mobile unit (20) are adapted to transmit and receive electromagnetic signals and the location analysis unit is designed to determine the positions of the mobile unit (20) in the production hall from transit times of the electromagnetic signals between the transceiver units and the mobile unit (20);
Zuordnen (Schritt 73) der Mobileinheit (20) zu mindestens einem, insbesondere nachzuverfolgendem Objekt (15, 21, 23, 31), Bestimmen (Schritt 75) der Position des mindestens einen zugeordneten Objekts (15, 21, 23, 31) durch Lokalisierung der zugeordneten Mobileinheit (20) mit dem Innenraum- Ortungssystem und Assigning (step 73) the mobile unit (20) to at least one object, in particular to be tracked (15, 21, 23, 31), Determining (step 75) the position of the at least one associated object (15, 21, 23, 31) by locating the associated mobile unit (20) with the indoor location system and
Einbinden (Schritt 63) der bestimmten Position in den Zuordnungsvorgang, bei dem für ein zu verfolgendes Objekt eine Pixelstruktur im Bild bestimmt wird (Schritt 53), und/oder in die Fertigungssteuerung (Schritt 63) der Industriefertigungsanlage zur Fertigung des Endprodukts, insbesondere in die Bild-basierte Nachverfolgung.  Incorporating (step 63) the determined position in the mapping process, wherein a pixel structure in the image is determined for an object to be tracked (step 53), and / or in the manufacturing control (step 63) of the industrial manufacturing facility for manufacturing the final product, in particular Image-based tracking.
16. Fertigungssteuerungssy stem (1) zur Steuerung von Fertigungsprozessen in einer Ferti- gungshalle, insbesondere einer metall- und/oder blechverarbeitenden Industriefertigungsanlage, mit 16. Fertigungssteuerungssy system (1) for controlling manufacturing processes in a production hall, in particular a metal and / or sheet metal processing industrial production plant, with
mehreren fest in der Fertigungshalle angeordneten Bildaufnahmevorrichtungen (13), wobei die Beobachtungsbereiche (17) mindestens zweier Bildaufnahmevorrichtungen (13) sich überlappen und/oder wobei die Beobachtungsbereiche (17) mindestens zweier Bildauf- nahmevorrichtungen (13) räumlich voneinander beabstandet sind, und  a plurality of image acquisition devices (13) arranged fixedly in the production hall, wherein the observation regions (17) of at least two image acquisition devices (13) overlap and / or wherein the observation regions (17) of at least two image acquisition devices (13) are spaced apart spatially, and
einer Analyseeinheit (11), die zum Bestimmen, Austausch und Bereitstellen von Daten zur Position von einem zu verfolgenden Objekt (15, 21, 23, 31) in der Fertigungshalle und zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche ausgebildet ist. 17. Fertigungssteuerungssystem (1) nach Anspruch 16, ferner mit  an analysis unit (11), which is designed to determine, exchange and provide data for the position of an object to be tracked (15, 21, 23, 31) in the production hall and for carrying out a method according to one of the preceding claims. 17. A production control system (1) according to claim 16, further comprising
einer Anzeigeeinheit, die zum Anzeigen der Beobachtungsbereiche und/oder eine Position eines zu verfolgenden Objekt (15, 21, 23, 31) und/oder mindestens einer Mobileinheit (20) in einem Lageplan (25) der Fertigungshalle ausgebildet ist, und/oder  a display unit which is designed to display the observation areas and / or a position of an object to be tracked (15, 21, 23, 31) and / or at least one mobile unit (20) in a site plan (25) of the production hall, and / or
wobei mindestens eine der Bildaufnahmevorrichtungen (13) ortsfest installiert und/oder beweglich, insbesondere frei um eine Schwenkachse und/oder entlang einer Verschiebeachse beweglich, installiert und/oder von einer Drohne getragen wird, und/oder  wherein at least one of the image pickup devices (13) is fixedly installed and / or movable, in particular freely movable about a pivot axis and / or along a displacement axis, and / or carried by a drone, and / or
wobei mindestens eine der Bildaufnahmevorrichtungen (13) im für den Menschen sichtbaren Bereich des Lichts und/oder im nichtsichtbaren Bereich wie im IR- oder UV- Bereich Bilder aufnimmt und optional zusätzlich eine eigenen Lichtquellen zur zusätzlichen Be- leuchtung aufweist.  wherein at least one of the image recording devices (13) records images in the visible region of the light and / or in the non-visible region as in the IR or UV region and optionally additionally has its own light sources for additional illumination.
18. Fertigungssteuerungssystem (1) nach einem der Ansprüche 16 oder 17, ferner mit einem Innenraum-Ortungssystem mit mehreren fest in der Fertigungshalle installierten Sende-Empfangseinheiten, mindestens einer Mobileinheit und einer Analyseeinheit, wobei die Sende-Empfangseinheiten und die Mobileinheit zum Aussenden und Empfangen von elektromagnetischen Signalen ausgebildet ist und die Analyseeinheit ausgebildet ist, aus Laufzeiten der elektromagnetischen Signale zwischen den Sende-Empfangseinheiten und der Mobileinheit die Positionen der Mobileinheit und somit die Position eines der Mobileinheit zugeordne- ten nachzuverfolgenden Objekts (15, 21, 23, 31) in der Fertigungshalle zu bestimmen. 18. A production control system (1) according to any one of claims 16 or 17, further comprising an indoor location system with a plurality of permanently installed in the production hall transceiver units, at least one mobile unit and an analysis unit, wherein the Transceiver units and the mobile unit for transmitting and receiving electromagnetic signals is formed and the analysis unit is formed, from running times of the electromagnetic signals between the transceiver units and the mobile unit, the positions of the mobile unit and thus the position of a mobile unit associated nachzusfolgenden object (15, 21, 23, 31) in the production hall.
19. Verfahren zur industriellen Fertigung eines Endprodukts mittels eines Fertigungssteue- rungssystems (1), mit den Schritten: 19. A method for the industrial production of a final product by means of a production control system (1), comprising the steps of:
Entgegennehmen eines Fertigungsauftrags zur Fertigung des Endprodukts aus einem Werkstück (23) mit einem in einer Datenverarbeitungsvorrichtung implementierten MES (3) des Fertigungssteuerungssystems (1),  Receiving a production order for manufacturing the end product from a workpiece (23) with an MES (3) of the production control system (1) implemented in a data processing device,
Auswählen einzelner Bearbeitungsschritte mit dem MES (3),  Selecting individual processing steps with the MES (3),
Bestimmen einer Reihenfolge der Bearbeitungsschritte mit dem MES (3), wobei die Bearbeitungsschritte einzelne oder mehrere der folgenden Vorgänge umfassen: Schneiden, insbesondere Laserschneiden, Stanzen, Biegen, Bohren, Gewindeschneiden, Schleifen, Zusammenfügen, Schweißen, Nieten, Schrauben, Pressen, Behandeln der Kanten und Oberflächen;  Determining an order of the processing steps with the MES (3), wherein the processing steps comprise one or more of the following operations: cutting, in particular laser cutting, punching, bending, drilling, tapping, grinding, joining, welding, riveting, screwing, pressing, treating the Edges and surfaces;
Datentechnisches Zuordnen der Bearbeitungsschritte zu einer Maschine (7) oder einer Arbeitsplatzeinheit (26),  Data-technical assignment of the processing steps to a machine (7) or a workstation unit (26),
- Datentechnisches Zuordnen des Fertigungsauftrags zu einem zu verfolgenden Objekt (15, 21, 23, 31) in dem MES (3), - data-technical assignment of the production order to an object to be tracked (15, 21, 23, 31) in the MES (3),
Fertigen eines Werkstücks (23) für das Endprodukt, wobei es insbesondere zu einem Teil des Endprodukts nach einem ersten der Bearbeitungsschritte an der dem Bearbeitungsschritt zugewiesenen Maschine (7) oder Arbeitsplatzeinheit (26) bearbeitet wird,  Manufacturing a workpiece (23) for the end product, wherein it is processed in particular to a part of the final product after a first of the processing steps at the machine (7) or workstation unit (26) assigned to the processing step,
- Optionales räumliches Zuordnen einer dem Fertigungsauftrag zugeordneten Mobileinheit (20) zu dem gefertigten Werkstück (23), Optional spatial assignment of a mobile unit (20) assigned to the production order to the finished workpiece (23),
Speichern einer Statusänderung des Fertigungsauftrags im MES (3),  Saving a status change of the production order in the MES (3),
Transport des gefertigten Werkstücks (23), optional zusammen mit der Mobileinheit (20), gemäß dem Fertigungsauftrag zu der nächsten Maschine (7) oder Arbeitsplatzeinheit (26) in der vorbestimmten Reihenfolge,  Transporting the finished workpiece (23), optionally together with the mobile unit (20), according to the production order to the next machine (7) or workstation unit (26) in the predetermined order,
Durchführen des Bearbeitungsschritts an dieser Maschine (7) oder Arbeitsplatzeinheit Perform the machining step on this machine (7) or workstation unit
(26), (26)
Speichern einer Statusänderung des Fertigungsauftrags im MES (3) und  Saving a status change of the production order in the MES (3) and
Durchführen der Bearbeitungsschritte des Fertigungsauftrags mit dem MES (3), wobei die Position des zu verfolgende Objekts (15, 21, 23, 31) durch das MES (3) gemäß dem Verfahren nach einem der Ansprüche 1 bis 15 bestimmbar ist und das MES (3) zu jeder Zeit über Daten zum aktuellen Status und zur aktuellen Position des zu verfolgenden Objekt (15, 21, 23, 31) verfügt. Performing the processing steps of the production order with the MES (3), wherein the position of the object to be tracked (15, 21, 23, 31) is determinable by the MES (3) according to the method of any one of claims 1 to 15 and the MES (3) at any time via data on the current status and current position of the object to be tracked (15, 21, 23, 31) has.
EP18752130.7A 2017-09-12 2018-08-03 Method for production control of production processes in the metalworking industry by means of image-capturing devices Pending EP3682303A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017121098.9A DE102017121098A1 (en) 2017-09-12 2017-09-12 OBJECT PURSUIT-BASED MANAGEMENT OF MANUFACTURING PROCESSES IN THE METAL-PROCESSING INDUSTRY
PCT/EP2018/071161 WO2019052742A1 (en) 2017-09-12 2018-08-03 Method for production control of production processes in the metalworking industry by means of image-capturing devices

Publications (1)

Publication Number Publication Date
EP3682303A1 true EP3682303A1 (en) 2020-07-22

Family

ID=63143133

Family Applications (1)

Application Number Title Priority Date Filing Date
EP18752130.7A Pending EP3682303A1 (en) 2017-09-12 2018-08-03 Method for production control of production processes in the metalworking industry by means of image-capturing devices

Country Status (4)

Country Link
US (1) US11460832B2 (en)
EP (1) EP3682303A1 (en)
DE (1) DE102017121098A1 (en)
WO (1) WO2019052742A1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018127518A1 (en) * 2018-11-05 2020-05-07 Advanced Realtime Tracking Gmbh Device and method for processing at least one work area with a processing tool
US20220210607A1 (en) 2019-04-19 2022-06-30 Be Spoon Ultra-wideband location systems and methods
DE102019112781B4 (en) 2019-05-15 2022-12-15 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Method of coupling coordinate systems and computerized system
DE102019119989A1 (en) * 2019-07-24 2021-01-28 Aktien-Gesellschaft der Dillinger Hüttenwerke Device and method for monitoring and / or controlling an industrial method for manufacturing a steel product
DE102019214853A1 (en) 2019-09-27 2021-04-01 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Method for assigning a marker of a position determination system to a production order by means of the identification of a workpiece and device for carrying out the method
EP3825789A1 (en) * 2019-11-20 2021-05-26 Primetals Technologies Germany GmbH Remote control of a plant for producing and / or treating a metal rolled product
DE102019135755A1 (en) * 2019-12-23 2021-06-24 Airbus Operations Gmbh Assembly and maintenance support system and procedures therefor
DE102021201799A1 (en) 2021-02-25 2022-08-25 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Optics-based correction of a mobile unit's position
DE102021112052A1 (en) 2021-05-07 2022-11-10 abaut GmbH System for monitoring the processes executed by at least one machine and the process environment
DE102021130517A1 (en) * 2021-11-22 2023-05-25 Rittal Gmbh & Co. Kg Process for the manufacture of an electrical switchgear or control system
EP4198662A1 (en) * 2021-12-16 2023-06-21 Maschinenfabrik Rieter AG An electronic device for keeping track of assembly parameters of transportable textile assemblies of a spinning mill and a method for keeping track of the same
DE102022123924A1 (en) 2022-09-19 2024-03-21 TRUMPF Werkzeugmaschinen SE + Co. KG Method and device for intelligent field of view selection of cameras on a machine tool
CN117270484B (en) * 2023-11-23 2024-02-02 山东焱鑫矿用材料加工有限公司 Production equipment management system of hot-rolled fine tooth anchor rod steel

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19843602A1 (en) * 1997-11-13 1999-05-20 Werner Wolfrum Processing unit movement detection for manufacturing process
US9377778B2 (en) * 2010-02-17 2016-06-28 The Boeing Company Integration of manufacturing control functions using a multi-functional vision system
DE102010017857B4 (en) * 2010-04-22 2019-08-08 Sick Ag 3D security device and method for securing and operating at least one machine
DE102011011930A1 (en) * 2011-02-18 2012-08-23 Hella Kgaa Hueck & Co. Method and system for determining a number of transition objects
DE102014218096A1 (en) 2014-09-10 2016-03-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and device for monitoring a production and / or assembly process
DE102016220015A1 (en) 2016-10-13 2018-04-19 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Manual workstation, off-line data processing device, manual workstation system, manual workstation operating method, and manual workstation deployment method
DE102016120132A1 (en) 2016-10-21 2018-04-26 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Workpiece collection unit and method for supporting the machining of workpieces
DE102017120378A1 (en) 2017-09-05 2019-03-07 Trumpf Werkzeugmaschinen Gmbh + Co. Kg INTERIOR-LOCATION-BASED CONTROL OF MANUFACTURING PROCESSES IN THE METAL-PROCESSING INDUSTRY
DE102017120383A1 (en) 2017-09-05 2019-03-07 Trumpf Werkzeugmaschinen Gmbh + Co. Kg INDOOR PERSONAL RANGE-BASED MANUFACTURING MANAGEMENT IN THE METAL-PROCESSING INDUSTRY
DE102016120131B4 (en) 2016-10-21 2020-08-06 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Sorting support method and flatbed machine tool
DE102017107357A1 (en) 2016-10-21 2018-04-26 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Absortierunterstützungsverfahren, Absortiersystem and flatbed machine tool
DE202016106352U1 (en) 2016-11-14 2016-12-08 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Data transmission system for the wireless transmission of data from a machine tool to a camera-less, mobile communication device
DE102017120382B3 (en) 2017-09-05 2018-10-18 Trumpf Werkzeugmaschinen Gmbh + Co. Kg IMAGE-ASSISTED ASSIGNMENT OF A PROCESSING PLAN TO A MOBILE UNIT RECORD OF A MOBILE UNIT OF A INTERIOR POSITIONING SYSTEM
DE102017120358A1 (en) 2017-09-05 2019-03-07 HELLA GmbH & Co. KGaA Method for controlling a light module of a lighting unit of a vehicle, lighting unit, computer program product and computer-readable medium
DE102017120381A1 (en) 2017-09-05 2019-03-07 Trumpf Werkzeugmaschinen Gmbh + Co. Kg ASSIGNING A WORKPIECE TO A MOBILE UNIT OF AN INTERIOR LOCATION SYSTEM

Also Published As

Publication number Publication date
WO2019052742A1 (en) 2019-03-21
US20200209836A1 (en) 2020-07-02
US11460832B2 (en) 2022-10-04
DE102017121098A1 (en) 2019-03-14

Similar Documents

Publication Publication Date Title
WO2019052742A1 (en) Method for production control of production processes in the metalworking industry by means of image-capturing devices
EP3529675B1 (en) Interior person-tracking-based control of manufacturing in the metalworking industry
DE102017120382B3 (en) IMAGE-ASSISTED ASSIGNMENT OF A PROCESSING PLAN TO A MOBILE UNIT RECORD OF A MOBILE UNIT OF A INTERIOR POSITIONING SYSTEM
EP3529178B1 (en) Method for assisting with sorting, sorting system and flatbed machine tool
EP3529001B1 (en) Sorting support method and flat bed machine tool
DE102017120381A1 (en) ASSIGNING A WORKPIECE TO A MOBILE UNIT OF AN INTERIOR LOCATION SYSTEM
DE102017120378A1 (en) INTERIOR-LOCATION-BASED CONTROL OF MANUFACTURING PROCESSES IN THE METAL-PROCESSING INDUSTRY
DE102017120383A1 (en) INDOOR PERSONAL RANGE-BASED MANUFACTURING MANAGEMENT IN THE METAL-PROCESSING INDUSTRY
DE102017107357A1 (en) Absortierunterstützungsverfahren, Absortiersystem and flatbed machine tool
WO2018073421A2 (en) Interior tracking system-based control of manufacturing processes in the metalworking industry
WO2019048149A1 (en) Production system and production control method for controlling a production system
WO2019048260A1 (en) Interior locating system having energy-consumption-controlled mobile transmitting-receiving units
DE102018110145A1 (en) INTERIOR LOCATION SYSTEM FOR INDUSTRIAL MANUFACTURING
DE102016206781A1 (en) A method of controlling a plurality of mobile driverless manipulator systems
DE102018110074B4 (en) ASSIGN A MOBILE LOCATION UNIT OF AN INTERIOR LOCATION SYSTEM TO A PROCESSING PLAN
DE102018110150A1 (en) INTERIOR LOCATION SYSTEM WITH ENERGY CONSUMPTION-CONTROLLED MOBILE TRANSMIT RECEIVERS
EP2703920B1 (en) Method for teaching a machine controller
EP3058428B1 (en) Mobile system controller
DE102022104945A1 (en) Procedure for tracking a device, device as well as working system
WO2022233410A1 (en) Method and system for determining the location of shelf-edge equipment
EP3839687A2 (en) Method of operating an automated industrial vehicle, and intralogistics system and industrial vehicle for carrying out the method
DE202021004393U1 (en) System for determining the location of shelf rail equipment
EP4186651A1 (en) System and method with a system

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20200124

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

RIN1 Information on inventor provided before grant (corrected)

Inventor name: BOSSERT, DANIEL

Inventor name: BEUTTLER, MANUEL

Inventor name: PERDANA, FRANK

Inventor name: WAHL, EBERHARD

Inventor name: GOERG, CHRISTIAN

Inventor name: LARSEN-VEFRING, THORSTEN

Inventor name: ELY GOMES, MARCEL

Inventor name: FISCHER, STEPHAN

Inventor name: BAUER, KLAUS

Inventor name: BOCK, HANS-PETER

Inventor name: SIDDIQUI, ZAIGHAM FARAZ

Inventor name: BAUER, CHRISTIAN

Inventor name: KIEFER, MANUEL

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20211123

RAP3 Party data changed (applicant data changed or rights of an application transferred)

Owner name: TRUMPF WERKZEUGMASCHINEN SE + CO. KG