DE102018204704A1 - System for monitoring a surveillance area - Google Patents

System for monitoring a surveillance area Download PDF

Info

Publication number
DE102018204704A1
DE102018204704A1 DE102018204704.9A DE102018204704A DE102018204704A1 DE 102018204704 A1 DE102018204704 A1 DE 102018204704A1 DE 102018204704 A DE102018204704 A DE 102018204704A DE 102018204704 A1 DE102018204704 A1 DE 102018204704A1
Authority
DE
Germany
Prior art keywords
trajectory
movement behavior
monitoring
movable object
mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018204704.9A
Other languages
German (de)
Inventor
Daniel Wolf
Bastian Volpert
Marton Kurucz
Manuel Goetz
Carolin Heller
Markus Birk
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102018204704.9A priority Critical patent/DE102018204704A1/en
Publication of DE102018204704A1 publication Critical patent/DE102018204704A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • G05D1/0282Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal generated in a local control room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders

Abstract

Ein System und ein Verfahren zum Überwachen eines Überwachungsbereichs weist eine Vielzahl von bildgebenden Sensoren zum Erfassen eines Bewegungsverhaltens von mindestens einem bewegbaren Objekt im Überwachungsbereich, eine Auswerteeinrichtung zum Berechnen einer Trajektorie des mindestens einen bewegbaren Objekts in Abhängigkeit des erfassten Bewegungsverhaltens und eine Schnittstelle zum Verfügbarmachen der berechneten Trajektorie für eine Steuerung eines Betriebsablaufs im Überwachungsbereich auf, wobei mindestens ein bildgebender Sensor der Vielzahl von bildgebenden Sensoren auf einem mobilen Sensorträger angeordnet ist.A system and a method for monitoring a monitoring area include a plurality of imaging sensors for detecting a movement behavior of at least one movable object in the surveillance area, an evaluation device for calculating a trajectory of the at least one movable object as a function of the detected movement behavior and an interface for making available the calculated Trajectory for controlling an operation in the surveillance area, wherein at least one imaging sensor of the plurality of imaging sensors is arranged on a mobile sensor carrier.

Description

Technischer BereichTechnical part

Die Erfindung betrifft ein System zum Überwachen eines Überwachungsbereichs und ein zugehöriges Verfahren. Insbesondere betrifft die Erfindung ein System und ein Verfahren, bei dem mehrere bildgebende Sensoren verwendet werden, um ein Bewegungsverhalten von mindestens einem bewegbaren Objekt im Überwachungsbereich zu erfassen.The invention relates to a system for monitoring a monitoring area and an associated method. In particular, the invention relates to a system and a method in which a plurality of imaging sensors are used to detect a movement behavior of at least one movable object in the surveillance area.

Stand der TechnikState of the art

Systeme mit bildgebenden Sensoren zum Erfassen von Objekten in einem Überwachungsbereich sind bekannt, wobei mit derartigen Systemen Aufenthaltsorte von Objekten festgestellt werden können.Systems with imaging sensors for detecting objects in a surveillance area are known, and with such systems, locations of objects can be determined.

In der US 2015/0012396 A1 ist für die Überwachung eines Lagerbestands ein stationäres Bilderfassungssystem beschrieben. Mit dem Bilderfassungssystem wird festgestellt, ob ein Lagerarbeiter ein gelagertes Objekt von einem überwachten Lagerort genommen oder ein Objekt an einem Lagerort abgelegt hat. Ein betriebsrelevanter Lagerumschlag kann so temporär festgestellt und ausgewertet werden.In the US 2015/0012396 A1 For example, a stationary imaging system is described for monitoring inventory. The imaging system determines whether a warehouse worker has taken a stored object from a monitored storage location or has placed an object in a storage location. An operationally relevant inventory turnover can thus be determined and evaluated temporarily.

Betriebsabläufe werden jedoch nicht nur von betriebsrelevanten Aufenthaltsorten von Objekten beeinflusst oder auf diese abgestimmt, sondern werden zudem von Objektbewegungen innerhalb eines für die Betriebsabläufe relevanten Bereichs dynamisch beeinflusst.However, operations are not only impacted or reconciled with operational locations of objects, but are also dynamically affected by object movement within an area relevant to operations.

Zusammenfassung der ErfindungSummary of the invention

Die Erfindung stellt daher Lösungen bereit, um Objektbewegungen in einem zu überwachenden Bereich effizient zu erfassen, damit Betriebsabläufe dynamisch optimiert werden können.The invention therefore provides solutions for efficiently detecting object movements in a region to be monitored in order to dynamically optimize operations.

Eine derartige Lösung für ein System zum Überwachen eines Überwachungsbereichs weist eine Vielzahl von bildgebenden Sensoren zum Erfassen eines Bewegungsverhaltens von mindestens einem bewegbaren Objekt im Überwachungsbereich, eine Auswerteeinrichtung zum Berechnen einer Trajektorie des mindestens einen bewegbaren Objekts in Abhängigkeit des erfassten Bewegungsverhaltens und eine Schnittstelle zum Verfügbarmachen der berechneten Trajektorie für eine Steuerung eines Betriebsablaufs im Überwachungsbereich auf, wobei mindestens ein bildgebender Sensor zum Erfassen des Bewegungsverhaltens von dem mindestens einen bewegbaren Objekt auf einem mobilen Sensorträger angeordnet ist.Such a solution for a system for monitoring a monitoring area has a plurality of imaging sensors for detecting a movement behavior of at least one movable object in the surveillance area, an evaluation device for calculating a trajectory of the at least one movable object as a function of the detected movement behavior and an interface for making available calculated trajectory for controlling an operating sequence in the surveillance area, wherein at least one imaging sensor for detecting the movement behavior of the at least one movable object is arranged on a mobile sensor carrier.

Das System kann ausgebildet sein, die berechnete Objekttrajektorie mit statischen und georeferenzierten Kartendaten zu kombinieren, um für das Steuern eines Betriebsablaufs eine dynamische Karte oder ein dynamisches Geoinformationssystem bereitzustellen. Die berechnete Objekttrajektorie kann hierfür in ein Koordinatensystem der Karte oder des Geoinformationssystems transformiert werden.The system may be configured to combine the calculated object trajectory with static and georeferenced map data to provide a dynamic map or dynamic geographic information system for controlling an operation. For this purpose, the calculated object trajectory can be transformed into a coordinate system of the map or the geoinformation system.

Ein Überwachungsbereich kann eine Fabrik, eine Produktionsstätte oder ein Lager sein, welche sich jeweils insbesondere in einer Halle finden können.A monitoring area can be a factory, a production facility or a warehouse, which can each be found in particular in a hall.

Bei einem in dem Überwachungsbereich befindlichen und zu überwachenden Objekt kann es sich um einen Gegenstand, ein Material oder um eine Person handeln, wobei das Bewegungsverhalten des Objekts eine Bewegung des Gegenstands, eine Materialbewegung oder eine Personenbewegung oder ein entsprechender Fluss oder Strom sein kann. Das Bewegungsverhalten kann Objektpositionen, eine Objektgeschwindigkeit, eine Objektbeschleunigung und/oder eine Aufenthaltszeit des Objekts an einer Objektposition aufweisen.An object located in the surveillance area and to be monitored may be an object, a material or a person, wherein the movement behavior of the object may be a movement of the object, a material movement or a person movement or a corresponding flow or current. The movement behavior may include object positions, an object speed, an object acceleration, and / or a residence time of the object at an object position.

Ein bildgebender Sensor kann jeder Sensor sein, welcher dazu eingerichtet ist, zweidimensionale oder dreidimensionale Bildinformation oder Bilddaten zu erfassen, wobei es sich bei der erfassten Bildinformation um pixel- oder voxelbasierter Information handeln kann, welche einerseits Koordinaten und andererseits farbcodierte Information aufweisen kann. Der bildgebende Sensor kann ferner ein photogrammetrischer Sensor, insbesondere eine Kamera, ein optischer Sensor und/oder ein scannender Sensor sein. Neben einem oder mehreren mobilen bildgebenden Sensoren kann insbesondere mindestens ein stationärer bildgebender Sensor vorgesehen sein.An imaging sensor may be any sensor that is configured to acquire two-dimensional or three-dimensional image information or image data, wherein the acquired image information may be pixel- or voxel-based information that may have coordinates on the one hand and color-coded information on the other. The imaging sensor can also be a photogrammetric sensor, in particular a camera, an optical sensor and / or a scanning sensor. In addition to one or more mobile imaging sensors, in particular at least one stationary imaging sensor can be provided.

Der mobile Sensorträger kann ein Fahrzeug, eine Anlage, ein Roboter oder ein von einer Person mitführbarer Träger sein. Das Fahrzeug kann ein personengeführtes oder ein autonomes Fahrzeug, beispielsweise ein Flurförderfahrzeug, sein. Die Anlage kann eine stationäre oder mobile Betriebsanlage, beispielsweise ein Kran, sein.The mobile sensor carrier may be a vehicle, a facility, a robot, or a person-carried carrier. The vehicle may be a person-operated or autonomous vehicle, for example an industrial truck. The system can be a stationary or mobile operating system, for example a crane.

Die Trajektorie des Objekts kann ortsbezogene Informationen aufweisen, welche es ermöglichen, eine Objektbewegung oder eine Positionsänderung des Objekts zu beschreiben. Dabei können bereits zwei Positionen oder ein Vektor die Objektbewegung beschreiben. Die Trajektorie kann auch mehrere Objektpositionen aufweisen oder auf diesen basieren, wobei die einzelnen Positionen linear oder gekrümmt verbunden oder mittels Interpolation bestimmt sein können.The trajectory of the object can have location-related information which makes it possible to describe an object movement or a change in position of the object. Two positions or a vector can already describe the object movement. The trajectory can also have or be based on several object positions, wherein the individual positions can be connected in a linear or curved manner or determined by means of interpolation.

Die Schnittstelle kann für einen Datentransfer der berechneten Trajektorie vorgesehen sein, wobei die ortsbezogenen und/oder geometrischen Informationen der Trajektorie beim Steuern eines Betriebsablaufs berücksichtigt werden können. Bei dem zu steuernden Betriebsablauf kann es sich beispielsweise um materialbasierte, logistische, produktionsabhängige, gebäudetechnische oder personelle Abläufe für den Betrieb einer Produktionsstätte, einer Fabrik oder eines Lagers, handeln. The interface can be provided for a data transfer of the calculated trajectory, wherein the location-related and / or geometric information of the trajectory can be taken into account when controlling an operating procedure. The operating process to be controlled can be, for example, material-based, logistical, production-dependent, building-technical or personnel processes for the operation of a production facility, a factory or a warehouse.

Die an der Schnittstelle bereitgestellte Trajektorie hat den Effekt, dass beim Steuern eines Betriebsablaufs nicht nur auf statische Objektinformationen, sondern auch auf dynamische Objektinformationen zugegriffen werden kann, um erfolgte, aktuelle oder zukünftige Objektbewegungen zu berücksichtigen und damit den Betriebsablauf zu optimieren. Die dynamischen Objektinformationen können temporäre und kinematische Informationen aufweisen. So kann das Bewegungsverhalten von überwachten Objekten in einem vorhandenen Materialflusssystem oder Logistiksystem, in einer Produktionssteuerung, in einer Gebäudesteuerung oder in einem Personalmanagementsystem berücksichtigt werden.The trajectory provided at the interface has the effect that when controlling an operation, not only static object information but also dynamic object information can be accessed to take account of recent, current, or future object movement, and thus optimize operation. The dynamic object information may include temporary and kinematic information. Thus, the movement behavior of monitored objects in an existing material flow system or logistics system, in a production control, in a building control or in a personnel management system can be taken into account.

Ein Kerngedanke der Erfindung kann darin gesehen werden, dass Bewegungen von Objekten mit einer Vielzahl von bildgebenden Sensoren, das heißt mindestens mit zwei derartiger Sensoren, welche mitunter oder überwiegend auf mobilen Sensorträgern angeordnet sind, erfasst werden, um eine Objektüberwachung mit hoher Überwachungsabdeckung in naher Echtzeit zu realisieren. Das Vorsehen eines mobilen bildgebenden Sensors kann für eine im Wesentlichen lückenlose Bereichsüberwachung vorteilhaft sein, da der Erfassungsbereich eines derartigen Sensors gegenüber einem stationären bildgebenden Sensor variabler und größer sein kann und somit die erforderliche Anzahl an bildgebenden Sensoren reduziert werden kann.A core idea of the invention can be seen in that movements of objects with a multiplicity of imaging sensors, that is to say with at least two such sensors, which are sometimes or predominantly arranged on mobile sensor carriers, are detected in the near real time with high monitoring coverage to realize. The provision of a mobile imaging sensor may be advantageous for substantially gap-free area monitoring because the detection range of such a sensor may be more variable and larger than a stationary imaging sensor, and thus the required number of imaging sensors may be reduced.

Der Erfindung liegt zudem das Konzept zugrunde, dass das Bewegungsverhalten dynamischer Objekte durch den Einsatz mobiler Bilderfassungssysteme kontinuierlich überwacht oder getrackt werden kann, ohne dass hierfür die dynamischen Objekte mit eigener Sensorik oder Objektbestandteilen, welche mit einer Sensorik aktiv kommunizieren, ausgestattet sein müssen.The invention is also based on the concept that the movement behavior of dynamic objects can be continuously monitored or tracked by the use of mobile image acquisition systems, without the dynamic objects having their own sensors or object components, which actively communicate with a sensor system, being equipped for this purpose.

In einer Ausführungsform weist die Vielzahl von bildgebenden Sensoren eine Vielzahl von Kameras zum kontinuierlichen Erfassen von Bildinformationen auf, wobei mindestens eine Kamera der Vielzahl von Kameras auf einem mobilen Kameraträger angeordnet ist. Eine Kamera kann eine Digitalkamera zum Erfassen statischer oder bewegter Bilder sein, wobei es sich um eine Videokamera handeln kann. Kontinuierlich erfasste Bildinformationen können in bestimmten Zeitabständen erfasste Einzelbilder sein. In den Bildinformationen der Einzelbilder kann das zu überwachende Objekt abgebildet sein, wobei aus einem Vergleich mehrerer Einzelbilder mittels eines Differenzbilds eine Objektbewegung erkannt und berechnet werden kann. Für ein Berechnen von relativen oder absoluten Objektkoordinaten oder Objektbewegungen kann es erforderlich sein, eine Position, eine Orientierung und eine Kalibrierung der Kamera zu bestimmen. Ein kontinuierliches Bestimmen einer Kameraposition und einer Kameraorientierung kann erforderlich sein, wenn sich die Kamera auf dem mobilen Kameraträger befindet. Ferner kann es erforderlich sein, eine Objektbewegung in Bildkoordinaten in eine absolute Objektbewegung in einem übergeordneten Koordinatensystem zu transformieren.In one embodiment, the plurality of imaging sensors comprise a plurality of cameras for continuously acquiring image information, wherein at least one camera of the plurality of cameras is disposed on a mobile camera carrier. A camera may be a digital camera for capturing static or moving images, which may be a video camera. Continuously acquired image information may be captured at specific intervals. The object to be monitored can be imaged in the image information of the individual images, it being possible to detect and calculate an object movement from a comparison of a plurality of individual images by means of a difference image. For calculating relative or absolute object coordinates or object motions, it may be necessary to determine a position, orientation and calibration of the camera. Continuously determining a camera position and a camera orientation may be required when the camera is on the mobile camera carrier. Furthermore, it may be necessary to transform an object movement in image coordinates into an absolute object movement in a superordinate coordinate system.

Ein Erkennen des zu überwachenden Objekts in den erfassten Bildinformationen kann mit bekannten automatischen Verfahren der Bildauswertung erfolgen, wobei ein Matching mit bekannten Templates durchgeführt werden kann, um das Bewegungsverhalten vordefinierter Objekte zu überwachen. Ein automatisch erkanntes Objekt kann so einem vordefinierten oder bekannten Objekt zugeordnet werden.Recognition of the object to be monitored in the acquired image information can take place with known automatic methods of image analysis, wherein matching with known templates can be carried out in order to monitor the movement behavior of predefined objects. An automatically recognized object can thus be assigned to a predefined or known object.

In einer weiteren Ausführungsform ist der mobile Sensorträger zum Tragen des mindestens einen bildgebenden Sensors und des bewegbaren Objekts ausgebildet. Der mobile Sensorträger kann auch ein mobiler Objektträger sein. Befindet sich das bewegbare Objekt auf dem mobilen Sensorträger, wobei das bewegbare Objekt von dem mobilen Sensorträger getragen und bewegt werden kann, kann der bildgebende Sensor Bildinformationen des Objektumfelds kontinuierlich erfassen. In den Bildinformationen kann das Objekt selbst nicht dargestellt sein. Aus mehreren Einzelbildern des Umfelds und aus einem Vergleich der Einzelbilder kann die Bewegung des mobilen Sensorträgers berechnet werden, woraus auch die Trajektorie des von dem Sensorträger bewegten Objekts berechnet werden kann. Die Trajektorie des Objekts kann somit mittelbar aus Bildinformationen seines Umfelds, welche von verschiedenen Objektpositionen erfasst werden, bestimmen werden.In a further embodiment, the mobile sensor carrier is designed to carry the at least one imaging sensor and the movable object. The mobile sensor carrier may also be a mobile slide. If the moveable object is located on the mobile sensor carrier, wherein the moveable object can be carried and moved by the mobile sensor carrier, the imaging sensor can continuously acquire image information of the object environment. The object itself can not be displayed in the image information. From several individual images of the environment and from a comparison of the individual images, the movement of the mobile sensor carrier can be calculated, from which also the trajectory of the object moved by the sensor carrier can be calculated. The trajectory of the object can thus be determined indirectly from image information of its surroundings, which are acquired by different object positions.

In einer weiteren Ausführungsform ist der mobile Sensorträger ein autonomes Fahrzeug. Auf dem autonomen Fahrzeug kann ein Umfelderfassungssystem angeordnet sein, welches den mindestens einen mobilen bildgebenden Sensor zum Erfassen des Bewegungsverhaltens des Objekts aufweisen kann. Bei dem autonomen Fahrzeug kann es sich um ein Überwachungsfahrzeug handeln, welches zum Überwachen des Überwachungsbereichs vorgesehen ist. Ferner kann es sich bei dem autonomen Fahrzeug um ein Fahrzeug handeln, welches zum Transportieren von Objekten im Überwachungsbereich vorgesehen ist. Alternativ oder zusätzlich kann das Fahrzeug auch andere Arbeiten, insbesondere Arbeiten, welche in einem Zusammenhang mit dem zu steuernden Betriebsablauf im Überwachungsbereich stehen, ausführen. Basierend auf der berechneten Trajektorie von Objekten im Umfeld des Fahrzeugs kann auch in die Steuerung des Fahrzeugs eingegriffen werden und beispielsweise eine Fahrzeugbewegung zu stoppen oder abzuändern, um eine Kollision mit dem überwachten Objekt zu vermeiden.In a further embodiment, the mobile sensor carrier is an autonomous vehicle. On the autonomous vehicle, an environment detection system may be arranged, which may have the at least one mobile imaging sensor for detecting the movement behavior of the object. The autonomous vehicle may be a surveillance vehicle intended to monitor the surveillance area. Furthermore, the autonomous vehicle may be a vehicle used to transport objects in the surveillance area is provided. Alternatively or additionally, the vehicle can also carry out other work, in particular work, which are related to the operating procedure to be controlled in the monitoring area. Based on the calculated trajectory of objects in the vicinity of the vehicle can also be intervened in the control of the vehicle and, for example, to stop or modify a vehicle movement in order to avoid a collision with the monitored object.

In einer weiteren Ausführungsform ist der mobile Sensorträger von einer Person mitführbar. Die Person kann eine tragbare Kamera an einem Kleidungsstück, einem Arbeitsmittel oder an einem Helm mitführen. Die Kamera kann eine Body-Cam sein, welche am Körper oder auf einem getragenen Arbeitsmittel angeordnet sein kann. Ferner kann ein zu überwachendes Objekt auch von einer Person im Überwachungsbereich bewegt werden.In a further embodiment, the mobile sensor carrier is carried by a person. The person may carry a portable camera on a garment, work equipment or helmet. The camera can be a body cam, which can be arranged on the body or on a worn work equipment. Furthermore, an object to be monitored can also be moved by a person in the surveillance area.

In einer weiteren Ausführungsform ist die Auswerteeinrichtung zum Transformieren der berechneten Trajektorie in eine dynamische Karte eingerichtet und ein auf der dynamischen Karte basierendes Informationssystem weist die Schnittstelle auf, welche zum Verfügbarmachen der transformierten Trajektorie für die Steuerung eines Betriebsablaufs im Überwachungsbereich eingerichtet ist. Die dynamische Karte kann auf einer statischen Karte basieren, welche mit dynamischen Karteninformationen überlagert werden kann. Eine derartige dynamische Karte kann Informationen über das Bewegungsverhalten der zu überwachenden Objekte aufweisen und anzeigen. Die überwachten Objekte können somit als dynamische Objekte in der Karte dargestellt werden. Mit der in die Karte transformierten Trajektorie können vergangene, aktuelle und zukünftige Lageinformationen der Objekte visualisiert und analysiert werden.In a further embodiment, the evaluation device is configured to transform the calculated trajectory into a dynamic map, and an information system based on the dynamic map has the interface that is set up to make available the transformed trajectory for controlling an operating procedure in the surveillance area. The dynamic map may be based on a static map that can be overlaid with dynamic map information. Such a dynamic map may include and display information about the movement behavior of the objects to be monitored. The monitored objects can thus be displayed as dynamic objects in the map. With the trajectory transformed into the map, past, current and future position information of the objects can be visualized and analyzed.

Von den bildgebenden Sensoren erfasste Bilder können auch verwendet werden, um statische Kartendaten der dynamischen Karte zu erzeugen. Hierfür können mehrere erfasste Einzelbilder fusioniert, das heißt miteinander kombiniert, werden. Ein Kombinieren mehrerer Einzelbilder kann mittels Bild-Stiching erfolgen. Das Ergebnis kann eine fotorealistische Darstellung oder Karte des Überwachungsbereichs sein, in welcher sich bewegende Objekte dynamisch angezeigt werden können.Images captured by the imaging sensors can also be used to generate static map data of the dynamic map. For this purpose, several captured individual images can be merged, that is, combined with each other. Combining multiple frames can be done by image stitching. The result may be a photorealistic representation or map of the surveillance area in which moving objects can be dynamically displayed.

Ein auf der dynamischen Karte basierendes Informationssystem kann ein eigenständiges oder ein einem System zur Steuerung eines Betriebsablaufs zugeordnetes dynamisches Geoinformationssystem (GIS) sein, welches basierend auf georefererenzierten statischen Kartendaten auch dynamische Kartendaten über Objektbewegungen vorhalten kann. Hierbei kann es sich beispielsweise um ein Fabrikinformationssystem handeln, welches Bewegungsdaten von zu verarbeitendem Material und Arbeitern eigenständig oder anderen Systemen für eine Fabriksteuerung, beispielsweise einem Shop-Floor-Managementsystem, bereitstellen kann.A dynamic map based information system may be a standalone or dynamic geographical information system (GIS) associated with a system for controlling an operation, which may also maintain dynamic map data about object motion based on geo-referenced static map data. This may be, for example, a factory information system, which can provide movement data of material to be processed and workers independently or other systems for factory control, for example a shop floor management system.

Die berechnete Trajektorie kann beispielsweise auch direkt in die Steuerung eines fahrerlosen Transportsystems (FTS) integriert werden. Dies hat den vorteilhaften Effekt, dass das Überwachen von Objektbewegungen und deren Trajektorie im Betrieb fahrerloser Transportsysteme Kollisionen der Transportsysteme mit den überwachten Objekten vermeiden kann und eine Routenneuplanung ermöglichen kann.The calculated trajectory can, for example, also be integrated directly into the control of an automated guided vehicle system (AGV). This has the advantageous effect that the monitoring of object movements and their trajectory in the operation of driverless transport systems can avoid collisions of the transport systems with the monitored objects and can enable route re-planning.

In einem weiteren Ausführungsbeispiel befindet sich mindestens ein bildgebender Sensor der Vielzahl von bildgebenden Sensoren in einem Teilbereich des Überwachungsbereichs, welcher in Abhängigkeit eines modellierten Bewegungsverhaltens des Objekts den potentiellen Aufenthaltsort des Objekts darstellt. Für das Vorhandensein des Sensors in dem Teilbereich kann der mobile Sensorträger, auf welchem der Sensor angeordnet sein kann, hierfür in den Teilbereich bewegt werden. Das zukünftig wahrscheinliche Bewegungsverhalten des Objekts kann mittels Extrapolation einer bereits berechneten Trajektorie oder mittels Wahrscheinlichkeitsrechnung prognostiziert werden. Hierfür kann das Bewegungsverhalten von Objekten auch mittels physikalischer oder statischer Modelle oder mittels eines Neuronalen Netzes eingelernt und abgebildet werden.In a further exemplary embodiment, at least one imaging sensor of the plurality of imaging sensors is located in a partial area of the monitoring area, which represents the potential location of the object as a function of a modeled movement behavior of the object. For the presence of the sensor in the subarea, the mobile sensor carrier, on which the sensor can be arranged, can be moved into the subarea for this purpose. The future probable movement behavior of the object can be predicted by extrapolation of an already calculated trajectory or by probability calculation. For this purpose, the movement behavior of objects can also be learned and imaged by means of physical or static models or by means of a neural network.

In einem weiteren Ausführungsbeispiel ist eine Datenquelle für Metadaten des bewegbaren Objekts vorgesehen, wobei die Metadaten der Trajektorie des Objekts zuordbar sind. Die Metadaten können zusätzliche Objektdaten oder Daten über die Trajektorie des Objekts aufweisen.In a further embodiment, a data source for metadata of the movable object is provided, wherein the metadata of the trajectory of the object are assignable. The metadata may include additional object data or data about the trajectory of the object.

In einer weiteren Ausführungsform befinden sich die Vielzahl von bildgebenden Sensoren im Umfeld des bewegbaren Objekts. Die bildgebenden Sensoren können sich alle oder teilweise in dem Überwachungsbereich befinden. Mit anderen Worten kann sich kein bildgebender Sensor oder ein mit einem Sensor aktiv kommunizierendes Element auf dem zu überwachenden Objekt selbst befinden. Das Objekt kann sich somit beim Erfassen seines Bewegungsverhaltens passiv verhalten. Dabei beteiligt es sich nicht aktiv durch ein direktes Bereitstellen von Informationen an der Erfassung seines Bewegungsverhaltens.In a further embodiment, the plurality of imaging sensors are in the vicinity of the movable object. The imaging sensors may be all or part of the surveillance area. In other words, no imaging sensor or an element actively communicating with a sensor can be located on the object to be monitored itself. The object can thus behave passively when detecting its movement behavior. It does not actively participate by directly providing information on the detection of its movement behavior.

In einer weiteren Ausführungsform weist der mobile Sensorträger zusätzliche nicht bildgebende Sensoren zum Erfassen eines Bewegungsverhaltens des bewegbaren Objekts auf. Befindet sich das zu überwachende Objekt auf dem Sensorträger, kann eine Trajektorie des Objekts optional zu einer bildbasierten Auswertung durch Sensoren auf dem mobilen Sensorträger ermittelt werden, welche eine Position, eine Orientierung, eine Wegstrecke, eine Geschwindigkeit oder eine Beschleunigung des mobilen Sensorträgers erfassen. Von der Trajektorie des mobilen Sensorträgers kann so auch auf die Trajektorie des zu überwachenden Objekts geschlossen werden, wenn das Objekt vom mobilen Sensorträger bewegt wird.In a further embodiment, the mobile sensor carrier has additional non-imaging sensors for detecting a movement behavior of the movable object. Is the object to be monitored on the sensor carrier, can a trajectory of the object are optionally determined for an image-based evaluation by sensors on the mobile sensor carrier, which detect a position, an orientation, a distance, a speed or an acceleration of the mobile sensor carrier. The trajectory of the mobile sensor carrier can thus also be used to deduce the trajectory of the object to be monitored if the object is moved by the mobile sensor carrier.

Alternativ oder zusätzlich kann zur Positionsbestimmung des mobilen Sensorträgers auch auf mehrere Referenzpunkte zugegriffen werden, zu welchen die Entfernung vom Sensorträger messtechnisch bestimmt werden kann, um die Position beispielsweise mittels eines räumlichen Rückwärtsschnitts zu bestimmen.Alternatively or additionally, for determining the position of the mobile sensor carrier, several reference points can also be accessed, to which the distance from the sensor carrier can be determined by measurement, in order to determine the position, for example, by means of a spatial rearward section.

Eine weitere Lösung ist ein Verfahren zum Überwachen eines Überwachungsbereichs, welches ein Erfassen eines Bewegungsverhaltens von mindestens einem bewegbaren Objekt im Überwachungsbereich mit einer Vielzahl von bildgebenden Sensoren, ein Berechnen einer Trajektorie des mindestens einen bewegbaren Objekts in Abhängigkeit des erfassten Bewegungsverhaltens und ein Verfügbarmachen der berechneten Trajektorie für ein Steuern eines Betriebsablaufs im Überwachungsbereich aufweist, wobei das Erfassen des Bewegungsverhaltens des mindestens einen bewegbaren Objekts von mindestens einem bildgebenden Sensor, welcher auf einem mobilen Sensorträger angeordnet ist, durchgeführt wird.Another solution is a method for monitoring a surveillance area, which comprises detecting a movement behavior of at least one movable object in the surveillance area with a multiplicity of imaging sensors, calculating a trajectory of the at least one movable object depending on the detected motion behavior and making the calculated trajectory available for controlling an operating sequence in the monitoring area, wherein the detection of the movement behavior of the at least one movable object is carried out by at least one imaging sensor which is arranged on a mobile sensor carrier.

Die Erfindung und ihre Ausführungsformen werden in den beiliegenden schematischen Figuren weiter erläutert.The invention and its embodiments are further explained in the attached schematic figures.

Figurenlistelist of figures

  • 1 zeigt ein Ausführungsbeispiel des Systems zum Überwachen eines Überwachungsbereichs. 1 shows an embodiment of the system for monitoring a surveillance area.
  • 2 ist eine Darstellung zur Erläuterung eines Erfassens eines Bewegungsverhaltens eines Objekts mit einem Umfelderfassungssystem eines Fahrzeugs beim Überwachen des Überwachungsbereichs. 2 FIG. 13 is a diagram for explaining detection of a movement behavior of an object with an surroundings detection system of a vehicle when monitoring the surveillance area. FIG.
  • 3 ist eine weitere Darstellung zur Erläuterung eines Erfassens eines Bewegungsverhaltens eines Objekts mit einem Umfelderfassungssystem eines Fahrzeugs beim Überwachen des Überwachungsbereichs. 3 is another illustration for explaining a detection of a movement behavior of an object with an environment detection system of a vehicle when monitoring the monitoring area.
  • 4 ist eine Darstellung zur Erläuterung eines Erfassens eines Bewegungsverhaltens eines von einem Fahrzeug bewegten Objekts mit einem Umfelderfassungssystem des Fahrzeugs beim Überwachen des Überwachungsbereichs. 4 FIG. 10 is a diagram for explaining detection of a movement behavior of a vehicle moving object with an surroundings detection system of the vehicle in monitoring the surveillance area. FIG.
  • 5 ist eine weitere Darstellung zur Erläuterung eines Erfassens eines Bewegungsverhaltens eines von einem Fahrzeug bewegten Objekts mit einem Umfelderfassungssystem des Fahrzeugs beim Überwachen des Überwachungsbereichs. 5 FIG. 8 is another diagram for explaining detection of a movement behavior of a vehicle moving object with an surroundings detection system of the vehicle in monitoring the surveillance area. FIG.
  • 6 ist eine Darstellung zur Erläuterung einer kontinuierlichen Umfelderfassung entlang einer Fahrzeugtrajektorie. 6 is a representation for explaining a continuous Umweisfassung along a vehicle trajectory.
  • 7 zeigt ein Ablaufdiagramm von Verfahrensschritten eines Ausführungsbeispiels eines Verfahrens zum Überwachen eines Überwachungsbereichs. 7 FIG. 10 is a flowchart of method steps of one embodiment of a method for monitoring a monitored area. FIG.

Detaillierte Beschreibung von AusführungsformenDetailed description of embodiments

In 1 ist ein Überwachungssystem 200 zum Überwachen eines Objekts 4 in einem Überwachungsbereich 6 dargestellt. Systemkomponenten für eine Objektüberwachung sind eine Vielzahl von sich im Überwachungsbereich 6 befindender Kameras 10, 20, ein autonomes Fahrzeug 22 als mobiler Kameraträger für eine mobile Kamera 20, eine Auswerteeinrichtung 40 zum Berechnen einer Objekttrajektorie aus von den Kameras 10, 20 erfassten Bildinformationen und Schnittstellen 210 zum Bereitstellen der berechneten Objekttrajektorie für weitere Systeme 212, 214, 216, 218.In 1 is a surveillance system 200 to monitor an object 4 in a surveillance area 6 shown. System components for object monitoring are a variety of themselves in the surveillance area 6 located cameras 10 . 20 , an autonomous vehicle 22 as a mobile camera carrier for a mobile camera 20 , an evaluation device 40 for calculating an object trajectory from the cameras 10 . 20 captured image information and interfaces 210 to provide the calculated object trajectory for other systems 212 . 214 . 216 . 218 ,

Im Überwachungsbereich 6 sind neben der auf dem autonomen Fahrzeug 22 angeordneten mobilen Kamera 20 weitere mobile Kameras 20 auf einer Person 24 und eine mobile Kamera 20 auf einem Hallenkran als eine mobile Anlage 28 vorgesehen. Die mobilen Kameras 20 auf der Person 24 sind als Body-Cam am Körper und als Helm-Cam auf dem Helm vorgesehen. Zusätzlich zu den mobilen Kameras 20 ist auch eine stationäre Kamera 10 im Überwachungsbereich 6 fest angeordnet. Die Kameras 10, 20 erfassen Bildinformationen 8 in ihrem jeweiligen Erfassungsbereich, welcher durch den festen Blickwinkel der stationären Kamera 10 und den variablen Blickwinkeln der mobilen Kameras 20 festgelegt ist.In the surveillance area 6 are next to the on the autonomous vehicle 22 arranged mobile camera 20 more mobile cameras 20 on a person 24 and a mobile camera 20 on a hall crane as a mobile plant 28 intended. The mobile cameras 20 on the person 24 are provided as a body cam on the body and as a helmet cam on the helmet. In addition to the mobile cameras 20 is also a stationary camera 10 in the surveillance area 6 firmly arranged. The cameras 10 . 20 capture image information 8th in their respective detection area, which by the fixed angle of the stationary camera 10 and the variable viewing angles of the mobile cameras 20 is fixed.

Die Kameras 10, 20 sind über eine stationäre Sende- und Empfangseinheit 34 mit den Schnittstellen 210 drahtlos mittels WLAN oder drahtgebunden mittels LAN verbunden und kommunizieren entsprechend mit diesen (Verbindung teilweise nicht gezeigt). Die mobile Kamera 20 auf dem autonomen Fahrzeug 22 ist mit einer mobilen Sende- und Empfangseinheit 32 auf dem autonomen Fahrzeug 22 verbunden, welche mit der stationären Sende- und Empfangseinheit 34 drahtlos verbunden ist. Von den Kameras 10, 20 erfasste Bildinformation 8 wird über die Sende- und Empfangseinheiten 32, 34 so an die Auswerteeinheit 40 übertragen.The cameras 10 . 20 are via a stationary transmitting and receiving unit 34 with the interfaces 210 wirelessly connected via WLAN or wired via LAN and communicate with them accordingly (connection partially not shown). The mobile camera 20 on the autonomous vehicle 22 is with a mobile sending and receiving unit 32 on the autonomous vehicle 22 connected to the stationary transmitting and receiving unit 34 wirelessly connected. From the cameras 10 . 20 captured image information 8th is via the transmitting and receiving units 32 . 34 so to the evaluation unit 40 transfer.

Als überwachte Objekte 4 sind in 1 auf dem autonomen Fahrzeug 22 transportierte Objekte 4 gezeigt, deren Bewegungsverhalten sich zumindest aus der von der auf dem autonomen Fahrzeug 22 angeordneten Kamera 20 erfassten Bildinformation 8 berechnen lässt, in dem eine Trajektorie 5 des autonomen Fahrzeugs 22 mittels der erfassten Bildinformation 8 und/oder mittels einem Umfelderfassungssystems 30, welches zumindest einen weiteren Umfelderfassungssensor 36 aufweist, berechnet wird. Der zumindest eine weitere Umfelderfassungssensor 36 kann beispielhaft als Radar-Sensor, Lidar-Sensor, Infrarot-Sensor oder Ultraschall-Sensor ausgebildet sein. Die Berechnung der Trajektorie 5 erfolgt mit der Auswerteeinrichtung 40. As monitored objects 4 are in 1 on the autonomous vehicle 22 transported objects 4 shown, whose movement behavior is at least from that of the on the autonomous vehicle 22 arranged camera 20 captured image information 8th lets calculate in which a trajectory 5 of the autonomous vehicle 22 by means of the captured image information 8th and / or by means of an environment detection system 30 which includes at least one further environment detection sensor 36 has calculated. The at least one further environment detection sensor 36 may be exemplified as a radar sensor, lidar sensor, infrared sensor or ultrasonic sensor. The calculation of the trajectory 5 done with the evaluation 40 ,

Die berechnete Trajektorie 5 wird über die Schnittstellen 210 den Systemen 212, 214, 216, 218 bereitgestellt, auf welche Systemnutzer 202 zugreifen um Informationen über das Bewegungsverhalten der Objekte 4 zu erhalten oder um das Bewegungsverhalten der Objekte 4 weiter auszuwerten. Als weitere Systeme sind ein Logistiksystem 212, ein Produktionssteuerungssystem 214, ein Steuerungssystem für fahrerlose Transportsysteme 216 und/oder ein Facilitymanagementsystem 218 vorgesehen.The calculated trajectory 5 is over the interfaces 210 the systems 212 . 214 . 216 . 218 provided to which system users 202 access information about the movement behavior of the objects 4 to preserve or to the movement behavior of the objects 4 continue to evaluate. As other systems are a logistics system 212 , a production control system 214 , a control system for driverless transport systems 216 and / or a facility management system 218 intended.

Die weiteren Systeme binden die von der Auswerteinheit 40 berechnete Trajektorie 5 der Objekte 4 und des autonomen Fahrzeugs 22 in von Ihnen gesteuerte Betriebsabläufe ein. Steuerbare Betriebsabläufe des Logistiksystems 212 sind ein Verwalten von Logistikaufträgen, ein Steuern des autonomen Fahrzeugs 22, eine Statuserfassen der Objekte 4 entlang einer Logistikkette und/oder ein Eingangs- und Ausgangserfassen von Objekten 4 oder von Personen 24. Steuerbare Betriebsabläufe des Produktionssteuerungssystem 214 sind ein Steuern von Werkzeugmaschinen oder sonstigen Anlagen und/oder ein Durchführen einer Qualitätsprüfung hinsichtlich zu verarbeitender Objekte 4. Steuerbare Betriebsabläufe des Steuerungssystems für fahrerlose Transportsysteme 216 sind Navigieren von autonomen Fahrzeugen 22 sowie ein Beladen und Entladen der autonomen Fahrzeugen 22 mit Objekten 4, wobei auch ein Kollisionsvermeiden mit Personen 24 steuerbar ist. Steuerbare Betriebsabläufe des Facilitymanagementsystem 218 sind ein Steuern einer Lüftung, einer Klimatisierung, einer Beleuchtung, einer Zugangskontrolle und einer Zeiterfassung in Abhängigkeit des überwachten Bewegungsverhaltens von Objekten 4 im Überwachungsbereich 6.The other systems bind the from the evaluation unit 40 calculated trajectory 5 the objects 4 and the autonomous vehicle 22 in operations that you control. Controllable operations of the logistics system 212 are managing logistics orders, controlling the autonomous vehicle 22 , a status capture of the objects 4 along a logistics chain and / or inbound and outbound coverage of objects 4 or of persons 24 , Controllable operations of the production control system 214 are a control of machine tools or other equipment and / or performing a quality inspection for objects to be processed 4 , Controllable operations of the control system for automated guided vehicles 216 are navigating autonomous vehicles 22 as well as a loading and unloading of the autonomous vehicles 22 with objects 4 , whereby also a Kollisionsvermeiden with persons 24 is controllable. Controllable operations of the facility management system 218 are a control of ventilation, air conditioning, lighting, access control and time detection depending on the monitored movement behavior of objects 4 in the surveillance area 6 ,

In den 2 bis 5 ist eine dynamische Karte 100 eines Lagers als Überwachungsbereich 6 gezeigt. Die dynamische Karte weist eine statische Kartierung 110 des Lagers auf. Im Überwachungsbereich 6 befindet sich ein Objekt 2, beispielsweise ein Arbeiter oder eine Palette, und ein Lagerobjekt 4 deren Bewegungsverhalten vom Überwachungssystem 200 überwacht wird.In the 2 to 5 is a dynamic map 100 a warehouse as a surveillance area 6 shown. The dynamic map has static mapping 110 of the camp. In the surveillance area 6 there is an object 2 for example, a worker or a pallet, and a storage object 4 their movement behavior from the monitoring system 200 is monitored.

Wie in 2 dargestellt ist, wird Bildinformation 8 in der Umgebung des Objekts 2 erfasst, wobei in der erfassten Bildinformation 8 das Objekt 2 dargestellt ist. Die erfasste Bildinformation 8 wird beispielhaft mit der mobilen Kamera 20 auf dem autonomen Fahrzeug 22 erfasst. Wie in 3 dargestellt ist, wird weitere Bildinformation 8 in der Umgebung des Objekts 2 erfasst, wobei das Objekt 2 wiederum in der erfassten Bildinformation 8 dargestellt ist. Eine Trajektorie 5 als Bewegungsverhalten des Objekts 2 wird aus den Bildinformationen 8 berechnet und als dynamische Karteninformation 120 in der dynamischen Karte 100 dargestellt.As in 2 is shown, image information 8th in the environment of the object 2 detected, wherein in the captured image information 8th the object 2 is shown. The captured image information 8th becomes exemplary with the mobile camera 20 on the autonomous vehicle 22 detected. As in 3 is shown, further image information 8th in the environment of the object 2 captured, with the object 2 again in the captured image information 8th is shown. A trajectory 5 as movement behavior of the object 2 gets out of the picture information 8th calculated and as dynamic map information 120 in the dynamic map 100 shown.

Liegt das Objekt 2 für eine vorbestimmte Zeitdauer nicht mehr im Erfassungsbereich der mobilen Kamera 20 des autonomen Fahrzeugs 22, dann wird die zuletzt erfasste Position des Objekts 2, wie in 4 dargestellt, als statische Karteninformation 122 dargestellt. Gemäß 4 wurde das Lagerobjekt 4 bereits von seinem Lagerort genommen und auf dem autonomen Fahrzeug 22 abgelegt. Dann wird Bildinformation 8 in der Umgebung des Lagerobjekts 4 erfasst, wobei in der erfassten Bildinformation 8 nicht das Lagerobjekt 4 selbst dargestellt ist, sondern sein Umfeld. Die erfasste Bildinformation 8 wird mit der mobilen Kamera 20 auf dem autonomen Fahrzeug 22 erfasst, nachdem das Lagerobjekt 4 sich auf dem autonomen Fahrzeug 22 befindet und von diesem bewegt wird. Bewegt sich das autonome Fahrzeug 22 jedoch noch auf das Lagerobjekt 4 zu, dann wird das Lagerobjekt 4 von der mobilen Kamera 20 des autonomen Fahrzeugs 22 erfasst. Über die erfasste Bildinformation 8 wird auch eine am Lagerobjekt 4 angebrachte Kennzeichnung des Lagerobjekts 4, wie beispielsweise ein Label, eine Nummer oder ein Bar-Code erfasst, über welche weitere Objektdaten oder Objektinformationen des Lagerobjekts 4 verfügbar werden. Diese das Lagerobjekt 4 kennzeichnenden Objektdaten oder Objektinformationen können an die Auswerteeinheit 40 übertragen und mit vorhandenen Objektdaten oder Objektinformationen in den Systemen 212, 214, 216, 218 durch Vergleich auf Übereinstimmung geprüft werden. Bei Vorliegen einer Abweichung zwischen den erfassten und den vorhandenen Objektdaten oder Objektinformationen können die in den Systemen 212, 214, 216, 218 vorhandenen Objektdaten über die Schnittstellen 210 entsprechend aktualisiert oder ergänzt werden.Is the object lying 2 no longer in the detection range of the mobile camera for a predetermined period of time 20 of the autonomous vehicle 22 , then the last detected position of the object 2 , as in 4 represented as static map information 122 shown. According to 4 became the storage object 4 already taken from its storage location and on the autonomous vehicle 22 stored. Then picture information 8th in the environment of the storage object 4 detected, wherein in the captured image information 8th not the storage object 4 himself, but his environment. The captured image information 8th is with the mobile camera 20 on the autonomous vehicle 22 captured after the warehouse object 4 on the autonomous vehicle 22 is located and moved by this. Moves the autonomous vehicle 22 but still on the storage object 4 to, then becomes the storage object 4 from the mobile camera 20 of the autonomous vehicle 22 detected. About the captured image information 8th will also be on stock object 4 attached identification of the storage object 4 , such as a label, a number or a bar code, via which further object data or object information of the storage object 4 become available. This the warehouse object 4 characterizing object data or object information can be sent to the evaluation unit 40 transmitted and with existing object data or object information in the systems 212 . 214 . 216 . 218 be checked for consistency by comparison. If there is a discrepancy between the captured and existing object data or object information, those in the systems 212 . 214 . 216 . 218 existing object data via the interfaces 210 be updated or supplemented accordingly.

In 5 wird weitere Bildinformation 8 des Umfelds des Lagerobjekts 4 erfasst, wobei das Objekt 4 wiederum nicht in der erfassten Bildinformation 8 dargestellt ist. Eine Trajektorie 5 als Bewegungsverhalten des Lagerobjekts 4 wird aus den Bildinformationen 8 des Umfelds entlang der von dem autonomen Fahrzeug 22 abgefahrenen Trajektorie 5 berechnet und als dynamische Karteninformation 120 in der dynamischen Karte 100 dargestellt.In 5 will be more picture information 8th the environment of the storage object 4 captured, with the object 4 again not in the captured image information 8th is shown. A trajectory 5 as movement behavior of the bearing object 4 gets out of the picture information 8th of the environment along that of the autonomous vehicle 22 crazy trajectory 5 calculated and as dynamic map information 120 in the dynamic map 100 shown.

Eines der Systeme 212, 214, 216, 218 kann so über die aktuellen Positionen und Trajektorien 5 der Objekte 2, 4 informiert werden, wobei beispielsweise eine Ankunftszeit eines der Objekte 2, 4 oder ein Aufenthaltsort der Objekte 2, 4 zum Steuern eines Betriebsablaufs verwendet wird.One of the systems 212 . 214 . 216 . 218 so can about the current positions and trajectories 5 the objects 2 . 4 being informed, for example, an arrival time of one of the objects 2 . 4 or a location of the objects 2 . 4 is used to control an operation.

In 6 ist eine kontinuierliche Umfelderfassung entlang einer Trajektorie 5 eines autonomen Fahrzeugs 22 gezeigt. Mit einem Umfelderfassungssystem 30, welches mehrere Kameras 20 aufweist, werden Umgebungsbilder 60 erfasst, welche mittels in den Umgebungsbildern erkannten Merkmalen 61 zu einem Gesamtbild 62 fusioniert werden. Das Gesamtbild 62 kann als statische Kartierung 110 und/oder zum Berechnen dynamischer Karteninformation 120 in der dynamischen Karte 100 verwendet werden. Aus der Fusion der Umgebungsbilder 60 ist auch die Trajektorie 5 des autonomen Fahrzeugs 22 oder von Objekten 4, welche sich auf dem autonomen Fahrzeug 22 befinden berechenbar. Die Trajektorie 5 ist optional auch aus weiteren Sensoren (nicht gezeigt), beispielweise einem Odometer oder Beschleunigungssensoren, auf dem autonomen Fahrzeug 22 berechenbar oder die Ableitung der Trajektorie 5 aus den Umgebungsbildern 60 ist mit Messdaten solcher Sensoren beispielsweise mittels SLAM-Verfahren stützbar.In 6 is a continuous environment detection along a trajectory 5 an autonomous vehicle 22 shown. With an environment detection system 30 which has several cameras 20 has surrounding images 60 detected by means of features recognized in the environment images 61 to an overall picture 62 be merged. The overall picture 62 can be called static mapping 110 and / or for calculating dynamic map information 120 in the dynamic map 100 be used. From the fusion of environmental images 60 is also the trajectory 5 of the autonomous vehicle 22 or objects 4 , which is based on the autonomous vehicle 22 are calculable. The trajectory 5 is optionally also from other sensors (not shown), for example an odometer or acceleration sensors, on the autonomous vehicle 22 calculable or the derivative of the trajectory 5 from the environment pictures 60 is sustainable with measurement data of such sensors, for example by means of SLAM method.

Mit dem in 1 gezeigten Überwachungssystem 200 und den in den 2 bis 6 gezeigten automatischen Umfelderfassungsmethoden wird das Bewegungsverhalten von Objekten 2, 4 berechnet und weiteren Systemen 212, 214, 216, 218 zum Steuern von Betriebsabläufen in einem Überwachungsbereich 6 bereitgestellt.With the in 1 shown monitoring system 200 and in the 2 to 6 The automatic surrounding detection methods shown become the movement behavior of objects 2 . 4 calculated and other systems 212 . 214 . 216 . 218 for controlling operations in a surveillance area 6 provided.

In 7 sind in einem Ablaufdiagramm zum Überwachen eines Überwachungsbereichs 6 als Verfahrensschritte ein erster Schritt S1, welcher ein Erfassen eines Bewegungsverhaltens eines Objekts 2, 4 aufweist, ein zweiter Schritt S2, welcher ein Berechnen einer Trajektorie 5 des Objekts 2, 4 aufweist, und ein dritter Schritt S3, welcher ein Verfügbarmachen der Trajektorie 5 für weitere Systeme 212, 214, 216, 218 aufweist, dargestellt.In 7 are a flow chart for monitoring a monitored area 6 as process steps a first step S1 which detects a movement behavior of an object 2 . 4 has a second step S2 which calculates a trajectory 5 of the object 2 . 4 and a third step S3 which makes the trajectory available 5 for other systems 212 . 214 . 216 . 218 has shown.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

22
Objektobject
44
Lagerobjektwarehouse
55
Trajektorietrajectory
66
Überwachungsbereichmonitoring area
88th
Bildinformationimage information
1010
stationäre Kamerastationary camera
2020
mobile Kameramobile camera
2222
autonomes Fahrzeugautonomous vehicle
2424
Personperson
2828
mobile Anlagemobile plant
3030
UmfelderfassungssystemEnvironmental detection system
3232
mobile Sende- und Empfangseinheitmobile transmitting and receiving unit
3434
stationäre Sende- und Empfangseinheitstationary transmitting and receiving unit
3636
UmfelderfassungssensorEnvironment detection sensor
4040
Auswerteeinrichtungevaluation
6060
UmgebungsbildUmgebungsbild
6161
Merkmalfeature
6262
Gesamtbildoverall picture
100100
dynamische Kartedynamic map
110110
statische Kartierungstatic mapping
120120
dynamische Karteninformationdynamic map information
122122
statische Karteninformationstatic map information
200200
Überwachungssystemmonitoring system
202202
Systemnutzersystem users
210210
Schnittstelleinterface
212212
Logistiksystemlogistics system
214214
ProduktionssteuerungssystemProduction control system
216216
Steuerungssystem fahrerloser TransportsystemeControl system of driverless transport systems
218218
FacilitymanagementsystemFacilities Management System
S1S1
Erfassen BewegungsverhaltenCapture movement behavior
S2S2
Berechnen TrajektorieCalculate trajectory
S3S3
Verfügbarmachen TrajektorieExposing trajectory

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 2015/0012396 A1 [0003]US 2015/0012396 A1 [0003]

Claims (11)

System zum Überwachen eines Überwachungsbereichs (6), mit einer Vielzahl von bildgebenden Sensoren zum Erfassen eines Bewegungsverhaltens von mindestens einem bewegbaren Objekt (2, 4) im Überwachungsbereich (6), einer Auswerteeinrichtung (40) zum Berechnen einer Trajektorie (5) des mindestens einen bewegbaren Objekts (2, 4) in Abhängigkeit des erfassten Bewegungsverhaltens und einer Schnittstelle (210) zum Verfügbarmachen der berechneten Trajektorie (5) für eine Steuerung eines Betriebsablaufs im Überwachungsbereich (6), dadurch gekennzeichnet, dass mindestens ein bildgebender Sensor zum Erfassen des Bewegungsverhaltens von dem mindestens einen bewegbaren Objekt (2, 4) auf einem mobilen Sensorträger angeordnet ist.A system for monitoring a surveillance area (6), comprising a plurality of imaging sensors for detecting a movement behavior of at least one movable object (2, 4) in the surveillance area (6), an evaluation device (40) for calculating a trajectory (5) of the at least one movable object (2, 4) as a function of the detected movement behavior and an interface (210) for making available the calculated trajectory (5) for controlling an operating sequence in the monitoring area (6), characterized in that at least one imaging sensor for detecting the movement behavior of the at least one movable object (2, 4) is arranged on a mobile sensor carrier. System nach Anspruch 1, dadurch gekennzeichnet, dass die Vielzahl von bildgebenden Sensoren eine Vielzahl von Kameras (10, 20) zum kontinuierlichen Erfassen von Bildinformationen aufweist und mindestens eine Kamera (20) der Vielzahl von Kameras (10, 20) auf einem mobilen Kameraträger angeordnet ist.System after Claim 1 characterized in that the plurality of imaging sensors comprises a plurality of cameras (10, 20) for continuously acquiring image information and at least one camera (20) of the plurality of cameras (10, 20) is disposed on a mobile camera carrier. System nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der mobile Sensorträger zum Tragen des mindestens einen bildgebenden Sensors und des bewegbaren Objekts (2, 4) ausgebildet ist.System after Claim 1 or 2 , characterized in that the mobile sensor carrier for carrying the at least one imaging sensor and the movable object (2, 4) is formed. System nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der mobile Sensorträger ein autonomes Fahrzeug (22) ist.System according to one of the preceding claims, characterized in that the mobile sensor carrier is an autonomous vehicle (22). System nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der mobile Sensorträger von einer Person (24) mitführbar ist.System according to one of the preceding claims, characterized in that the mobile sensor carrier by a person (24) is carried. System nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Auswerteeinrichtung zum Transformieren der berechneten Trajektorie in eine dynamische Karte (100) eingerichtet ist und ein auf der dynamischen Karte (100) basierendes Informationssystem die Schnittstelle (210) aufweist, welche zum Verfügbarmachen der transformierten Trajektorie für die Steuerung eines Betriebsablaufs im Überwachungsbereich eingerichtet ist.System according to one of the preceding claims, characterized in that the evaluation device is arranged to transform the calculated trajectory into a dynamic map (100) and an information system based on the dynamic map (100) has the interface (210) which makes available the transformed map Trajectory is set up for the control of an operation in the monitoring area. System nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass sich mindestens ein bildgebender Sensor der Vielzahl von bildgebenden Sensoren in einem Teilbereich des Überwachungsbereichs befindet, welcher in Abhängigkeit eines modellierten Bewegungsverhaltens des Objekts einen potentiellen Aufenthaltsort des Objekts (2, 4) darstellt.System according to one of the preceding claims, characterized in that there is at least one imaging sensor of the plurality of imaging sensors in a partial area of the monitoring area, which represents a potential location of the object (2, 4) depending on a modeled movement behavior of the object. System nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass eine Datenquelle für Metadaten des bewegbaren Objekts vorgesehen ist, wobei die Metadaten der Trajektorie (5) des Objekts (2, 4) zuordbar sind.System according to one of the preceding claims, characterized in that a data source is provided for metadata of the movable object, wherein the metadata of the trajectory (5) of the object (2, 4) are assignable. System nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass sich die Vielzahl von bildgebenden Sensoren im Umfeld des bewegbaren Objekts (2, 4) befinden.System according to one of the preceding claims, characterized in that the plurality of imaging sensors in the environment of the movable object (2, 4) are located. System nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der mobile Sensorträger zusätzliche nicht bildgebende Sensoren zum Erfassen eines Bewegungsverhaltens des bewegbaren Objekts (2, 4) aufweist.System according to one of the preceding claims, characterized in that the mobile sensor carrier additional non-imaging sensors for detecting a movement behavior of the movable object (2, 4). Verfahren zum Überwachen eines Überwachungsbereichs, mit den Schritten Erfassen (S1) eines Bewegungsverhaltens von mindestens einem bewegbaren Objekt (2, 4) im Überwachungsbereich (6) mit einer Vielzahl von bildgebenden Sensoren, Berechnen (S2) einer Trajektorie (5) des mindestens einen bewegbaren Objekts in Abhängigkeit des erfassten Bewegungsverhaltens und Verfügbarmachen (S3) der berechneten Trajektorie (5) für ein Steuern eines Betriebsablaufs im Überwachungsbereich, dadurch gekennzeichnet, dass das Erfassen (S1) des Bewegungsverhaltens des mindestens einen bewegbaren Objekts von mindestens einem bildgebenden Sensor, welcher auf einem mobilen Sensorträger angeordnet ist, durchgeführt wird.A method for monitoring a surveillance area, comprising the steps of detecting (S1) a movement behavior of at least one movable object (2, 4) in the surveillance area (6) with a plurality of imaging sensors, calculating (S2) a trajectory (5) of the at least one movable one Object as a function of the detected movement behavior and making available (S3) the calculated trajectory (5) for controlling an operation in the surveillance area, characterized in that detecting (S1) the movement behavior of the at least one movable object of at least one imaging sensor, which on a is arranged mobile sensor carrier is performed.
DE102018204704.9A 2018-03-28 2018-03-28 System for monitoring a surveillance area Pending DE102018204704A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018204704.9A DE102018204704A1 (en) 2018-03-28 2018-03-28 System for monitoring a surveillance area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018204704.9A DE102018204704A1 (en) 2018-03-28 2018-03-28 System for monitoring a surveillance area

Publications (1)

Publication Number Publication Date
DE102018204704A1 true DE102018204704A1 (en) 2019-10-02

Family

ID=67910054

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018204704.9A Pending DE102018204704A1 (en) 2018-03-28 2018-03-28 System for monitoring a surveillance area

Country Status (1)

Country Link
DE (1) DE102018204704A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111857131A (en) * 2020-06-19 2020-10-30 深圳宏芯宇电子股份有限公司 Global automatic driving method and system and vehicle-mounted terminal
DE202021104688U1 (en) 2021-09-01 2022-12-02 Starrag Gmbh Device for process monitoring in a machine tool

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60011674T2 (en) * 1999-11-24 2005-07-14 Vision Robotics Corp., San Diego AUTONOMOUS MULTIPLE PLATFORM ROBOT SYSTEM
US20150012396A1 (en) 2013-06-26 2015-01-08 Amazon Technologies, Inc. Transitioning items from a materials handling facility

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60011674T2 (en) * 1999-11-24 2005-07-14 Vision Robotics Corp., San Diego AUTONOMOUS MULTIPLE PLATFORM ROBOT SYSTEM
US20150012396A1 (en) 2013-06-26 2015-01-08 Amazon Technologies, Inc. Transitioning items from a materials handling facility

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111857131A (en) * 2020-06-19 2020-10-30 深圳宏芯宇电子股份有限公司 Global automatic driving method and system and vehicle-mounted terminal
CN111857131B (en) * 2020-06-19 2024-01-12 深圳宏芯宇电子股份有限公司 Global automatic driving method, system and vehicle-mounted terminal
DE202021104688U1 (en) 2021-09-01 2022-12-02 Starrag Gmbh Device for process monitoring in a machine tool

Similar Documents

Publication Publication Date Title
EP3105547B1 (en) Method for determining the absolute position of a mobile unit, and mobile unit
DE102017128543B4 (en) NOISE ZONE ADJUSTMENT DEVICE FOR A MOBILE ROBOT
CN106020210A (en) Wireless-terminal-based automatically guided vehicle control method and system
DE102014106211A1 (en) Vision-based multi-camera factory monitoring with dynamic integrity assessment
EP2837985A2 (en) Autonomous transport vehicle and method for operating an autonomous transport vehicle
DE102018205964A1 (en) Method and control device for navigating an autonomous industrial truck
EP3445538B1 (en) Method for controlling a plurality of mobile driverless manipulator systems
DE10216023A1 (en) A method for controlling the interface between a robot movement and a person within the working area has the operator fitted with transmitting units to establish a pattern of movements.
DE10220936A1 (en) Localization device with fixed and / or variable landmarks
DE102018116065A1 (en) Method for operating a self-propelled service device
DE102018204704A1 (en) System for monitoring a surveillance area
WO2020074722A1 (en) Method and robot system for inputting a work area
EP3974936B1 (en) Configuration of a visualisation device for a machine area
EP3977225B1 (en) Method for creating an environment map for use in the autonomous navigation of a mobile robot
CN111975776A (en) Robot movement tracking system and method based on deep learning and Kalman filtering
EP0411498A2 (en) System for manipulation in non-accessible work rooms
DE102020213111A1 (en) Method and system for determining a pose or position of a mobile device
DE102015210757A1 (en) logistics system
EP2703920B1 (en) Method for teaching a machine controller
DE102017220634B4 (en) Arrangement and procedure
DE102019007091A1 (en) Robotic control device
DE102006014546B4 (en) Method and device for sensor-based monitoring of an environment
EP3183717B1 (en) Apparatus and method for presenting structure information about a technical object
DE102022201799B3 (en) Method and control device for monitoring a working environment of a work machine and work machine
DE102018109845A1 (en) mapping method

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication