BE1027102B1 - Verfahren und Einrichtung zur automatisierbaren Personenzugangskontrolle zu einem im Freien befindlichen Anlagengelände - Google Patents

Verfahren und Einrichtung zur automatisierbaren Personenzugangskontrolle zu einem im Freien befindlichen Anlagengelände Download PDF

Info

Publication number
BE1027102B1
BE1027102B1 BE20195488A BE201905488A BE1027102B1 BE 1027102 B1 BE1027102 B1 BE 1027102B1 BE 20195488 A BE20195488 A BE 20195488A BE 201905488 A BE201905488 A BE 201905488A BE 1027102 B1 BE1027102 B1 BE 1027102B1
Authority
BE
Belgium
Prior art keywords
image data
persons
autonomous vehicle
plant
data
Prior art date
Application number
BE20195488A
Other languages
English (en)
Inventor
Martin Krex
Philipp Esser
Original Assignee
Thyssenkrupp Ag
Thyssenkrupp Ind Solutions Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thyssenkrupp Ag, Thyssenkrupp Ind Solutions Ag filed Critical Thyssenkrupp Ag
Priority to BE20195488A priority Critical patent/BE1027102B1/de
Application granted granted Critical
Publication of BE1027102B1 publication Critical patent/BE1027102B1/de

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/28Individual registration on entry or exit involving the use of a pass the pass enabling tracking or indicating presence

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und eine Einrichtung zur automatisierbaren Personenzugangskontrolle zu einem Anlagengelände (175), auf dem sich wenigstens ein Anlagenteil (100, 105 - 120) befindet, wobei ein stationäres Positionierungssystem (180, 185, 190) zum berührungslosen Lokalisieren und Identifizieren von Personen mittels von den Personen mitgeführter elektronischer Kennzeichen vorgesehen ist, und wobei insbesondere wenigstens ein autonomes, unbemanntes Fahrzeug (200), insbesondere ein Fluggerät, mit wenigstens einer bildgebenden Sensorik (205) vorgesehen ist, mittels dessen das Anlagengelände (175) sensorisch erfassbar ist, wobei erfasste Bilddaten (218) drahtlos an eine stationäre Steuereinheit (103) übertragen werden (218), um durch Auswerten der erfassten Bilddaten (218) auf dem Anlagengelände (175) befindliche Personen (124, 126, 127, 128) zu erkennen, wobei das wenigstens eine autonome Fahrzeug (200) eine GPS-Sensorik (215) zur Erfassung einer jeweiligen, geografischen Position des autonomen Fahrzeugs (200) aufweist, um anhand der übertragenen Bilddaten (218) und der erfassten geografischen Position des autonomen Fahrzeugs (200) die Positionen von erkannten Personen (124, 126, 127, 128) auf dem Anlagengelände (175) zu ermitteln, und wobei durch einen Abgleich von durch das stationäre Positionierungssystem (180, 185, 190) bereitgestellten Daten und den von dem mittels des autonomen Fahrzeugs (200) ermittelten Positionsdaten von erkannten Personen (124, 126, 127, 128) zwischen befugten (360) und nicht befugten (365) Personen unterschieden wird.

Description

Beschreibung Verfahren und Einrichtung zur automatisierbaren Personenzugangskontrolle zu einem im Freien befindlichen Anlagengelände
Die Erfindung betrifft ein Verfahren und eine Einrichtung zur automatisierbaren Personenzu- gangskontrolle bei einem vorzugsweise im Freien befindlichen, d.h. bevorzugt aus der Luft frei zugänglichen Anlagengelände, gemäß dem Oberbegriff des Anspruchs 1. Gegenstand der vorliegenden Erfindung sind auch ein Computerprogramm, ein maschinenlesbarer Da- tenträger zur Speicherung des Computerprogramms.
Stand der Technik Im Bereich von Industrieanlagen stellt die Personenzugangskontrolle generell ein an sich be- kanntes Problem dar.
Dies betrifft insbesondere auch solche Anlagengelände mit aus der Luft zugänglichen Bereichen, z.B.
Anlagengelände von Tagebauminen, Bergbauminen oder Zementanlagen.
Denn in solchen Industrieanlagen kommt es immer wieder zu Situationen, in denen unbefugte Personen das Anlagengelände betreten.
So kann das Eindringen von un- befugten Personen zu Sicherheitsbeeinträchtigungen oder sogar zu Betriebsstörungen füh- ren.
Vor allem bei größeren, unübersichtlichen und/oder zeitlich sich stark verändernden Ge- länden, z.B. bei genannten Minengeländen, lässt sich eine rein statische Kameraüberwa- chung nur schwierig bzw. nicht mit ausreichender Sicherheit umsetzen.
Aus US 2018/0217591 A1 geht ein Verfahren zum Betreiben eines Sicherheits- und Unter- haltungssystems für eine (Flug-)Drohne hervor, bei dem eine Drohne mit einer Basisstation zusammenarbeitet.
Dabei werden Signale von mindestens einem Sensor, der von der Droh- ne und der Basisstation entfernt, empfangen.
Sobald eine Aktivität erkannt wird, wird die Drohne von der Basis gelöst und in einen Flugbetrieb versetzt, bei dem Daten erfasst wer- den, z.B.
Video-, Audio- und Sensordaten.
Die so erfassten Daten werden an die Basisstati- on übertragen.
Das Sicherheitssystem umfasst somit eine Basisstation zum Unterbringen und Laden einer Drohne sowie eine einsprechende Drohne bzw. ein Drohnenfahrzeug, wel- ches mit der Basisstation zusammenarbeitet und wenigstens mit einem genannten Sensor elektrisch kommuniziert.
Ferner gehen aus WO 2016/209504 A1 ein System und ein Verfahren zum Betrieb einer per- sonenbezogenen, sensorischen Drohne hervor.
Ein solches Drohnensystem umfasst ein Drohnenfernsteuerungssystem mit einem Aufgabenmodul zum Übertragen einer Aufgabe aneinen Drohnenschwarm, um den Drohnenschwarm entsprechend zu betreiben, wobei der Drohnenschwarm mindestens zwei Drohnen umfasst. Zudem umfasst das System einen Transceiver zum Empfangen von Informationen von dem Drohnenschwarm sowie ein Benut- zerschnittstellenmodul, um eine Benutzerschnittstelle basierend auf den von dem Drohnen- schwarm erhaltenen Informationen bereitzustellen.
Offenbarung der Erfindung Der Erfindung liegt der Gedanke zugrunde, bei einem hier betroffenen Anlagengelände eine möglichst automatisierbare und dennoch sichere Personenzugangskontrolle, d.h. eine Kon- trolle des Zutritts zu dem Gelände ausschließlich durch entsprechend autorisierte bzw. zu- trittsberechtigte Personen, bereitzustellen. Dabei soll eine diesbezügliche Einrichtung alle auf dem Gelände befindlichen Personen erkennen und eine Unterscheidung zwischen entspre- chend befugten und nicht befugten Personen automatisiert durchführen können.
Gemäß einem ersten Aspekt des vorgeschlagenen Verfahrens bzw. der vorgeschlagenen Einrichtung kommen für die Zugangskontrolle eine oder mehrere autonom oder ferngesteuert agierende Drohnenfahrzeuge (im folgenden ,Drohnen”), insbesondere Flugdrohnen, zum Einsatz. Die Drohnen sind dabei mit visuell oder thermografisch erfassenden bildgebenden Sensoren (Fotokameras, Laserscanner oder IR-Sensor) sowie mit Positionssensoren, z.B. Sensoren zur Satellitenpositionierung („SPS“) oder Sensoren zur Positionierung auf der Ba- sis lokaler Systeme („Local GPS“) ausgestattet. Durch die Kombination der sensorisch er- fassten Bildinformationen und der jeweils erfassten Drohnenpositionen kann, z.B. in an sich bekannter Weise mittels Trigonometrie, die genaue Position eines erfassten Objekts, insbe- sondere einer Person, ermittelt werden. Es ist hierbei anzumerken, dass eine solche Drohne automatisiert und bevorzugt dauerhaft betrieben werden bzw. agieren soll. So soll der Einsatz der Drohne nicht nur durch ein Ereig- nis getriggert werden. Vielmehr soll die Drohne fortwährend im Einsatz sein, d.h. im Falle einer Flugdrohne soll diese fortwährend bzw. möglichst ununterbrochen in der Luft sein. Die- ses Erfordernis kann entweder durch den Einsatz mehrerer Flugdrohnen oder durch eine einzelne, solarbetriebene Flugdrohne (z.B. einen Fluggleiter mit entsprechenden Tragflä- chen) erfüllt werden.
Gemäß einem weiteren Aspekt des Verfahrens und der Einrichtung werden die seitens der Drohne ermittelten Positionsdaten mit von einem lokalen bzw. stationären Positionierungs- system bereitgestellten Positionsdaten abgeglichen. Das lokale Positionierungssystem weistbevorzugt auf dem Anlagengelände stationär angeordnete Antennen auf, welche mit von au- torisierten bzw. zutrittsberechtigten Personen mitgeführten elektronischen Kennzeichen (so- genannten „tags“) drahtlos kommunizieren.
Es ist hierbei anzumerken, dass die Erkennung einer Zutrittsberechtigung, anstelle der Erfas- sung mittels eines genannten lokalen Positionierungssystems, auch GPS-basiert erfolgen kann. So kann z.B. vorgesehen sein, dass zutrittsberechtigte Personen ein mobiles Kommu- nikationsgerät (z.B. Smartphone) mit sich führen, auf dem eine GPS-Daten erfassende bzw. verarbeitende Anwendung („App“) eingerichtet ist, mittels der fortwährend die Position der jeweiligen Person an ein Lokalisierungssystem des jeweiligen Betreibers der Anlage gesen- det wird.
Durch den Abgleich bzw. Vergleich dieser beiden Informationen können somit noch zuverläs- siger solche Personen erfasst bzw. ermittelt werden, die nicht befugt sind, das Anlagenge- lände zu betreten. Bevorzugt werden dabei durch Vergleich oder Differenzbildung solche Personen ermittelt, welche zwar von dem Drohnenfahrzeug erfasst werden, jedoch von dem lokalen Positionierungssystem nicht erkannt werden, da sie kein elektronisches Kennzeichen mit sich führen. Solche Personen werden somit als nicht zutrittsberechtigt erkannt und z.B. geeignete Maßnahmen durchgeführt, damit die(se) Person(en) das Anlagengelände sicher verlassen kann.
Es ist anzumerken, dass es sich bei dem Drohnenfahrzeug um wenigstens ein nicht be- manntes, autonomes Fahrzeug handelt, welches eigenständig operiert oder ferngesteuert betrieben wird. Bei dem autonomen Fahrzeug handelt es sich bevorzugt um ein Luftfahrzeug bzw. Fluggerät, welches eigenständig agiert bzw. operiert und mit einer genannten Sensorik ausgestattet ist, welche ebenfalls eigenständig (sensorisch) agiert. Es ist ferner anzumerken, dass es sich bei dem Drohnenfahrzeug auch um ein auf dem Boden fahrendes, entspre- chend sensorisch agierendes Kraftfahrzeug bzw. fahrbares Zusatzgerät handeln kann.
Da die Zugangskontrolle bei einer hier betroffenen Anlage bzw. eines entsprechenden Anla- gengeländes im Wesentlichen auf die Datenerfassung mittels wenigstens einer Drohne zu- rückgreift, kann eine solche Drohne als fester und integrativer Bestandteil der betroffenen Anlage verstanden werden. Dadurch kann auf ein zur Zugangskontrolle der Anlage erforder- liches, aufwändiges stationäres Kontrollsystem zumindest teilweise verzichtet werden.
Darüber hinaus kann mittels der Drohne auch ein räumlich sehr ausgedehntes Anlagenge- lände einfach und kostengünstig überwacht werden, da eine Vielzahl von stationären, an je-
dem Zugang zu dem Gelände erforderliche Zugangskontrolleinrichtungen durch eine oder mehrere Drohnen ersetzt werden kann. Es ist zudem anzumerken, dass als an der Drohne angeordnetes Sensorsystem jegliche Sensorik gemäß dem Stand der Technik einsetzbar ist, welche an der Drohne angebracht bzw. eingerichtet werden kann. So können alternativ oder zusätzlich eine laserbasierte Sen- sorik, eine radarbasierte Sensorik, ein Näherungssensor, oder eine IR-Kamera zur Ermögli- chung von Nachtflügen des Fahrzeugs bzw. Fluggerätes, vorgesehen sein.
Gemäß einem weiteren Aspekt kann die wenigstens eine Drohne entweder den jeweils zu überwachenden Geländebereich raster- oder zeilenförmig (d.h. zyklisch) abfliegen oder aber in einer empirisch vorgebbaren Flughöhe stationär betrieben werden. Ein stationärer Betrieb bietet sich insbesondere dann an, wenn es dadurch nicht zu unerwünschten Abschattungsef- fekten z.B. durch Gebäude oder die Geländetopografie kommen kann.
Aufgrund von erforderlichen Ausfallzeiten der Drohne insbesondere im Falle eines autonom betriebenen Fluggerätes, z.B. für die Batterieaufladung oder Betankung sowie den Aus- tausch bzw. die Reparatur von defekten Bauteilen, können wenigstens zwei Drohnen vorge- sehen sein, so dass bei einem vorübergehenden Ausfall der einen Drohne die kontinuierliche Überwachung des Anlagengeländes durch die wenigstens zweite Drohne sichergestellt wer- den kann.
Gemäß einem noch weiteren Aspekt kann die als Flugdrohne ausgebildete Drohne entweder in einer konstanten Flughöhe oder mittels einer Näherungssensorik in einer im Wesentlichen konstanten Flughöhe gegenüber Anlagenteilen oder dem Geländeboden bewegt werden. Dadurch kann sichergestellt werden, dass die Drohne stets einen optimalen Abstand zu den jeweils überwachten Geländebereichen einhält.
Zur sicheren Erkennung von Personen, d.h. zur Unterscheidung von Personen und anderen Objekten anhand der mittels der Drohne erfassten Bilddaten, kann gemäß einem weiteren Aspekt eine Bilderkennung vorgesehen sein, welche entweder an der Drohne oder in einem stationären, bodengebundenen Steuergerät der jeweiligen Anlage bzw. in einer entsprechen- den zentralen Steuereinheit eingerichtet sein kann. Die Bilderkennung ermöglicht es, anhand von empirisch vorgebbaren, typischen Bilddarstellungen von Personen, in den erfassten Bild- daten Personen bzw. die entsprechenden Bilddarstellungen zu erkennen.
Die Bilderkennung kann mittels maschinellem Lernen („Machine Learning“), mittels künstli- cher Intelligenz bzw. entsprechender neuronaler Netze durchgeführt werden. So kann ein Al- gorithmus auf der Basis künstlicher Intelligenz, Machine Learning und/oder neuronaler Netze Objekte, z.B. Menschen oder Fahrzeuge) eigenständig erkennen. 5 Die Bestimmung der jeweiligen Position eines durch Bilderkennung erkannten Objektes er- folgt bevorzugt mittels trigonometrischer Triangulierung, wobei z.B. die folgenden Implemen- tierungsansätze in Betracht kommen:
1. An der Drohne sind zwei Kameras mit einem leichten Abstand zueinander angeord- net, wobei aus so gleichzeitig erfassten zwei Bildern die Positionen von in den Bildda- ten dargestellten Objekten in an sich bekannter Weise trigonometrisch trianguliert werden können.
2. Es werden wenigstens zwei Drohnen mit jeweils einer Kamera eingesetzt, wobei die wenigstens zwei Drohnen gleichzeitig dasselbe Objekt erfassen. Aus den so gewon- nenen Bildpaaren kann dann die Position des erfassten Objektes durch Triangulie- rung ermittelt werden.
3. Es wird eine einzige Drohne mit einer Kamera eingesetzt, welche während einer (Flug-)Bewegung durch zeitlichen Versatz zwei Bilder aufnimmt, welche wiederum entsprechend trianguliert werden können. Dieser Ansatz liefert etwas ungenauere Po- sitionsdaten, da sich das jeweilige Objekt bzw. die Person während des Zeitraums des Zeitversatzes bewegt haben kann. Daher sollte ein möglichst geringer Zeitversatz vorgegeben bzw. eingestellt werden.
4. Mittels einer laserbasierten Objekterkennung können die Entfernung und die Position eines erfassten Objekts sogar direkt ermittelt werden.
Gemäß einem noch weiteren Aspekt werden sämtliche, mittels der Drohne sensorisch er- fassten Daten bevorzugt fortwährend an eine genannte zentrale Steuereinheit bzw. ein ent- sprechendes Steuergerät der Anlage drahtlos übermittelt, und zwar bevorzugt über eine si- chere Wireless-Verbindung gegenüber einem anlagengebundenen „Access-Point“. Das Steuergerät wertet die von der Drohne empfangenen Bilddaten und Positionsdaten sowie die von genannten, von zutrittsberechtigten Personen mitgeführten elektronischen Kennzeichen („tags“) drahtlos z.B. an das Steuergerät übermittelten Informationen in Echtzeit aus. Die Auswertung kann ggf. erst nach einem erfolgten Abgleich bzw. Vergleich der jeweiligen Posi-
tionsdaten mit genannten, von einem lokalen bzw. stationären Positionierungssystem bereit- gestellten Positionsdaten, durchgeführt werden, um damit auf dem Anlagengelände befindli- che, nicht zugangsberechtigte Personen sicher erfassen bzw. ermitteln zu können.
Die Erfindung kann insbesondere bei industriellen Großanlagen mit einer relativ großen Flä- chenausdehnung eines jeweiligen Anlagengeländes, z.B. bei Anlagen zur Materialgewinnung im Übertage- und Untertagebau, z.B. bei Minenanlagen zur Braunkohle-, Steinkohle- oder Erzgewinnung, aber auch bei anderen industriellen Anlagen, z.B. Zementproduktionsanla- gen, zur Anwendung kommen.
Es ist dabei hervorzuheben, dass die Erfindung im Falle einer Flugdrohne auch in Innenräu- men von Industriegebäuden angewendet werden kann, sofern die Flugeigenschaften der Drohne bzw. die Drohnentechnologie eine solche Flugweise zulassen.
Das erfindungsgemäße Computerprogramm ist eingerichtet, jeden Schritt des Verfahrens durchzuführen, insbesondere wenn es auf einem Rechengerät oder einem Steuergerät ab- läuft. Es ermöglicht die Implementierung des erfindungsgemäßen Verfahrens auf einem elek- tronischen Steuergerät einer hier betroffenen Anlage bzw. entsprechenden Drohne, ohne an dem Steuergerät bauliche Veränderungen vornehmen zu müssen. Hierzu ist der maschinen- lesbare Datenträger vorgesehen, auf welchem das erfindungsgemäße Computerprogramm gespeichert ist. Durch Aufspielen des erfindungsgemäßen Computerprogramms auf eine Einrichtung bzw. ein entsprechendes elektronisches Steuergerät wird die erfindungsgemäße Einrichtung erhalten, welches eingerichtet ist, um eine hier betroffene Zugangskontrolle zu einem hier betroffenen Anlagengelände mittels des erfindungsgemäßen Verfahrens automa- tisiert und dennoch zuverlässig durchzuführen.
Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und den beiliegenden Zeichnungen. In den Zeichnungen sind identische oder funktional gleich- wirkende Elemente bzw. Merkmale mit übereinstimmenden Bezugszeichen versehen.
Es versteht sich, dass die voranstehend genannten und die nachstehend noch zu erläutern- den Merkmale nicht nur in der jeweiligen angegebenen Kombination, sondern auch in ande- ren Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegen- den Erfindung zu verlassen.
Kurze Beschreibung der Zeichnungen
Figur 1 zeigt schematisch eine beispielhafte Industrieanlage mit einem räumlich aus- gedehnten Anlagengelände, zur Illustration der erfindungsgemäßen Einrich- tung und des Verfahrens. Figur 2 zeigt ein erstes Ausführungsbeispiel des erfindungsgemäßen Verfahrens und der Einrichtung anhand eines kombinierten Fluss-/Blockdiagramms. Figur 3 zeigt ein zweites Ausführungsbeispiel des erfindungsgemäßen Verfahrens und der Einrichtung anhand eines kombinierten Fluss-/Blockdiagramms.
Beschreibung von Ausführungsbeispielen In Fig. 1 ist ein Anwendungsszenario der vorliegenden Erfindung am Beispiel eines Anlagen- geländes einer Erzgewinnungsanlage, welche keine durchgehende bzw. vollständige Um- zäunung aufweist, in einer schematischen Draufsicht dargestellt. Trotz möglicherweise vor- gesehener offizieller Zugangs- bzw. Zutrittsbereiche (z.B. Ein-/Ausfahrtstüren bzw. -tore) ist daher der Zutritt zu der Anlage auch Personen ohne Zutrittsberechtigung ohne weiteres möglich.
Auf dem dargestellten Gelände befinden sich in dem vorliegenden Beispielszenario ein Schaufelradbagger 100 zusammen mit entsprechenden Fördergeräten 105 - 120, welche gemeinsam an einer Abbaufront bzw. Abbaukante 130 eines angenommenen Erzlagers be- trieben werden. Somit ist der größte Teil der für Personen zugänglichen Freifläche des ge- samten, zu überwachenden Anlagengeländes aus der Luft optisch einsehbar.
Auch sind beispielhaft eine sich im Arbeitsbereich des Schaufelradbaggers aufhaltende Per- son 124 sowie ein dort ebenfalls angeordnetes, z.B. aus einem Findling gebildetes Hindernis 125 schematisch eingezeichnet. Anstelle des Hindernisses kann aber auch ein vorüberge- hend im Bereich der Abbaukante 130 befindliches Fahrzeug, ein größeres Gewächs oder dergleichen in Betracht kommen. Zusätzlich sind weitere drei, sich auf dem Gelände eben- falls aufhaltende Personen 126, 127, 128 eingezeichnet.
Zur Erfassung bzw. Ermittlung von sich auf dem Anlagengelände befindlichen, nicht zu- gangsberechtigten Personen ist es somit erforderlich, bei einer sensorischen und/oder bild- gebenden Erfassung zwischen Personen und genannten Objekten sicher bzw. zuverlässig unterscheiden zu können. So muss in dem in Fig. 1 gezeigten Szenario unter anderem zwi- schen der Person 124 und dem Findling 125 zuverlässig unterschieden werden können.
Der Schaufelradbagger 100 weist ein in der horizontalen Bodenebene (= Zeichenebene) so- wie meist auch senkrecht dazu drehbar gelagertes Schaufelrad 135 auf. Durch eine Drehbe- wegung des Schaufelrads 135, insbesondere in der Bodenebene entsprechend einer ersten Pfeilrichtung 140, und einen sukzessiven Vorschub des Schaufelrades 135, bzw. entspre- chend des Abbau- bzw. Abraumbaggers 100, in einer zweiten Pfeilrichtung 145 zur Abraum- kante 130 hin wird schüttfähiges Material abgebaut bzw. abgeräumt. Trotz dieser Bewegung des Schaufelrads 135 ist der Abbau- bzw. Wirkungsbereich des Abbaubaggers 100 an der Abbaukante 130 von oben bzw. aus der Luft im Wesentlichen vollständig einsehbar.
Es ist hierbei hervorzuheben, dass es bei einem unberechtigten Zutritt einer oder mehrerer Personen zu dem in Fig. 1 gezeigten Anlagengelände zudem zu kritischen bzw. bedrohli- chen Kollisionen insbesondere zwischen solchen Personen und den dort agierenden Gerä- ten, Maschinen oder Fahrzeugen, kommen kann, die wirksam zu verhindern sind. Als Bei- spiel wird die Person 124 genannt, welche sich insbesondere bei einem unberechtigten Zu- tritt durch die Bewegung des Schaufelrads 135 erhebliche Verletzungen zuziehen kann. Auch solche kritischen Situationen können mittels der Erfindung wirksam verhindert werden. Die Automatisierung der Zugangskontrolle zu dem in Fig. 1 gezeigten Anlagengelände er- folgt in dem vorliegenden Ausführungsbeispiel mittels eines im Wesentlichen autonom bzw. selbständig agierenden (in Fig. 1 nicht gezeigten) Fluggerätes, d.h. einer Flugdrohne (im Fol- genden abgekürzt ,Drohne”). Es ist hierbei allerdings hervorzuheben, dass anstelle der (Flug-)Drohne oder zusätzlich zu dieser, je nach Beschaffenheit des Untergrundes des Anla- gengeländes, auch ein bodengebundenes autonomes Fahrzeug vorgesehen sein kann.
Die hier nicht gezeigte Drohne kann das in Fig. 1 gezeigte Anlagengelände auf dem durch die Strichelung 175 eingegrenzten Raumbereich in der Weise überfliegen, Dass der Raum- bereich 175 bei einem Vorschub 145 der Anlage entsprechend „mitwandert“, damit das sich so ständig erweiternde Anlagengelände sowie die dort befindlichen Abbau- und Fördergeräte fortwährend von der drohen sensorisch abgedeckt sind. Der gezeigte, im Wesentlichen qua- dratisch oder rechteckförmig ausgebildete Raumbereich 175 kann von der Drohne zeilenwei- se in der gezeigten X- oder Y-Richtung abgetastet bzw. gerastert werden. Alternativ kann die Drohne zunächst als besonders kritisch eingestufte bzw. priorisierte Überwachungsbereiche des Geländes anfliegen, z.B. den gezeigten Schwenkbereich des Schaufelrads 135, und erst danach die übrigen Bereiche des Geländes sensorisch abdecken.
In der zusätzlich angedeuteten, senkrecht zur Papierebene liegenden Z-Richtung kann die Drohne sich entweder in einer konstanten Flughöhe gegenüber dem Boden bewegen oder sich mittels einer Näherungssensorik, z.B. einem Radarsensor oder einem Ultraschallsensor, in einer im Wesentlichen konstanten Flughöhe gegenüber den Anlagenteilen, Geräten und auch den freien Bodenbereichen des in Fig. 1 gezeigten Anlagengeländes bewegen. In der zuletzt genannten Ausgestaltung kann somit sichergestellt werden, dass die Drohne stets einen für die an Bord der Drohne angeordnete Sensorik optimalen Abstand zu den über- wachten Geländebereichen bzw. Maschinen und Geräten einhält.
Alternativ kann vorgesehen sein, dass die Drohne in einer empirisch vorgebbaren Flughöhe in Bezug auf die X- und Y-Richtung stationär betrieben wird, d.h. nicht den zu überwachen- den Flächen- bzw. Raumbereich in der X- und Y-Richtung z.B. rasterförmig überfliegen muss. Ein solcher, stationärer Betrieb bietet sich insbesondere dann an, wenn es dadurch nicht zu unerwünschten Abschattungseffekten kommt, d.h. die an der Drohne angeordnete Sensorik die zu überwachenden Bereiche jederzeit in direkter Sichtlinie erfassen kann. So kann in dem vorliegenden Szenario bei einer entsprechend ausreichenden Flughöhe der Drohne sichergestellt werden, dass es durch den Schaufelradbagger 100 und die Förderge- räte 105 - 120 nicht zu solchen Abschattungseffekten kommen kann.
Die genannte, an Bord der Drohne angeordnete Sensorik weist in dem vorliegenden Ausfüh- rungsbeispiel eine monoskopisch oder stereoskopisch erfassende Fotokamera, einen Radar- sensor und/oder einen thermografischen Sensor, auf. Die Drohne übermittelt die gewonne- nen Daten fortwährend drahtlos an ein bei einem möglichst zentralen Anlagenteil, und zwar vorliegend an dem Schaufelradbagger 100, angeordnetes Steuergerät 103. Das Steuergerät 103 wertet die empfangenen Bilddaten und Sensordaten in Echtzeit aus und ermittelt daraus automatisch, und zwar in der nachfolgend noch detaillierter beschriebenen Weise, innerhalb des Anlagengeländes sich aufhaltende, nicht zutrittsberechtigte Personen. Die Sensordaten umfassen von einem an der drohen angeordneten GPS-Sensor gelieferte GPS-Positionsda- ten, um die bei der Erstellung der Bilddaten jeweils vorliegende Position der Drohne berück- — sichtigen zu können. Durch die Kombination der erfassten Bilddaten und der jeweils vorlie- genden Drohnenpositionen wird in an sich bekannter Weise anhand einer trigonometrischen Berechnung die genaue Position eines erfassten Objekts, insbesondere einer Person, ermit- telt.
Um zutrittsberechtigte von nicht zutrittsberechtigten Personen zuverlässig unterscheiden zu können, ist in dem vorliegenden Ausführungsbeispiel ferner vorgesehen, dass alle zu Perso- nen mit einer Zutrittsberechtigung ein elektronisches Kennzeichen („tag“) mit sich führen. Da-
bei werden die mit der Drohne ermittelten Positionsdaten eines Objektes mit von einem loka- len bzw. stationären Positionierungssystem bereitgestellten Positionsdaten abgeglichen. Das lokale Positionierungssystem ist in dem vorliegenden Ausführungsbeispiel in dem Steuerge- rät 103 eingerichtet und weist vorliegend drei auf dem Anlagengelände stationär angeordne- te Sende-/Empfangsantennen 180, 185, 190 auf, welche mit den jeweiligen elektronischen Kennzeichen drahtlos kommunizieren. Die Positionsbestimmung einer Person erfolgt mittels der Antennen 180 - 190 in an sich bekannter Weise entweder durch (trigonometrische) Trila- teration basierend auf der Vermessung dreier Winkel oder durch Trilateration, welche auf Entfernungs- bzw. Abstandsmessungen zu drei Punkten beruht. Durch den genannten Ab- gleich der beiden Informationen können dann Personen erfasst bzw. ermittelt werden, die nicht befugt sind, das Anlagengelände zu betreten.
Die erfindungsgemäße Einrichtung bzw. Steuereinrichtung sowie das erfindungsgemäße Verfahren zur automatisierten Überwachung der Zugangsberechtigung von auf einem in Fig.
1 gezeigten Anlagengelände werden nachfolgend an zwei Ausführungsbeispielen beschrie- ben. Es ist allerdings anzumerken, dass das Verfahren und die Einrichtung auch bei anderen Industrieanlagen, welche entweder (räumlich) relativ weitläufige Anlagen- bzw. Geländeteile aufweisen, entsprechend eingesetzt werden können.
Die Fig. 2 zeigt ein erstes Ausführungsbeispiel des erfindungsgemäßen Verfahrens bzw. der Einrichtung anhand eines kombinierten Block-/Flussdiagramms. Das gezeigte Verfahren ba- siert in dem vorliegenden Ausführungsbeispiel auf einem Fluggerät 200, z.B. einer Flugdroh- ne, welche die jeweils zu überwachende Industrieanlage, z.B. eine in Fig. 1 gezeigte Erzge- winnungsanlage, in der vorbeschriebenen Weise ständig überfliegt oder an einem geeigne- ten X/Y-Ort in einer vorgegebenen Flughöhe stationär gehalten wird.
Das Fluggerät 200 weist eine aus zwei physikalisch unterschiedlich erfassenden Sensoren, und zwar in dem vorliegenden Ausführungsbeispiel einer optischen Kamera und einem Infra- rotsender/-empfänger, gebildete Sensorik 205 auf. Mittels der beiden unterschiedlichen Sen- soren wird insbesondere sowohl eine Maschinenzustandsüberwachung als auch eine Pro- zessüberwachung der Anlage ermöglicht. Die von den beiden Sensoren gelieferten Daten werden mittels eines ersten Funkmoduls 210 an die Anlage übertragen 218.
Bei einem nicht stationären Betrieb des Fluggerätes 200 ist an dem Fluggerät zusätzlich ein GPS-Sensor 215 angeordnet. Bei einem genannten Betrieb des Fluggerätes 200 mit variie- render Flughöhe ist an dem Fluggerät zudem ein (nicht gezeigter) Näherungssensor vorge- sehen.
In einem bodennahen Bereich der Anlage ist eine Maschinensteuerung (siehe z.B. Fig. 1, Bezugszeichen 103) angeordnet. Diese umfasst in dem vorliegenden Ausführungsbeispiel ein zweites Funkmodul 220, welches sich im Betrieb des Fluggerätes 200 in einer ständigen Kommunikationsverbindung mit dem ersten Funkmodul befindet. Das zweite Funkmodul 220 empfängt zudem von den vorliegend drei Antennen 180 - 190 eines stationären Positionie- rungssystems drahtlos übertragene Daten. Die von dem zweiten Funkmodul 220 von dem Fluggerät 200 und von den Antennen 180 - 190 empfangenen Daten 219 werden mittels einer vorliegend in der Maschinensteuerung implementierten Datenverarbeitungseinrichtung 225 ausgewertet. Dabei wird anhand der von dem Fluggerät 200 sensorisch erfassten Bilddaten zunächst eine Personenerkennung 230 durchgeführt, um auf dem Anlagengelände etwa befindliche Personen von anderen Objek- ten, z.B. den Fig. 1 gezeigten Findling 125, oder anderen (Arbeits-)Geräten bzw. Maschinen, einer örtlichen, topografischen Erhebung bzw. Struktur oder einem Vegetationsobjekt sicher unterscheiden zu können.
Nach erfolgter Erkennung einer Person wird zusätzlich anhand der per GPS erfassten Positi- onsdaten des Fluggerätes 200 mittels Trigonometrie die genaue Position der jeweils erfass- ten Person ermittelt 235. Die so ermittelten Positionsdaten werden mit von einem lokalen bzw. stationären Positionierungssystem bereitgestellten Positionsdaten abgeglichen 240. Zusätzlich wird mittels des stationären Positionierungssystems ermittelt 245, ob die jeweils erfasste Person anhand eines mitgeführten „tags“ als autorisiert bzw. zutrittsberechtigt er- kannt wurde.
Durch das Zusammenführen der seitens des Fluggerätes und des stationären Positionie- rungssystems gewonnenen Daten, einschließlich des genannten Abgleichs, können für einen Zutritt zu dem Gelände nicht befugte Personen zuverlässig erfasst bzw. ermittelt werden.
In der Fig. 3 ist ein noch eingehender beschriebenes, zweites Ausführungsbeispiel des erfin- dungsgemäBen Verfahrens bzw. der Einrichtung wiederum anhand eines kombinierten Block-/Flussdiagramms dargestellt. Auch hier wird angenommen, dass ein hier betroffenes Fluggerät 300 eine Erzgewinnungsanlage fortwährend überfliegt bzw. an einem geeigneten X/Y-Ort in einer vorgegebenen Flughöhe stationär gehalten wird.
Die Sensorik des Fluggerätes 300 umfasst auch hier wenigstens zwei Sensoren, und zwar vorliegend eine Fotokamera 305 und einen GPS-Sensor 310. Zusätzlich ist ein in dem Steu-
ergerät 103 eingerichtetes, stationäres Positionierungssystem 315 mit einer beschriebenen „tag“-Erkennung vorgesehen.
Auf der Grundlage der von dem Fluggerät 300 übertragenen ersten Bilddaten 322 wird mit- tels eines künstlichen neuronalen Netzes (KNN) 325 eine Personenerfassung bzw.
Persone- nerkennung durchgeführt.
Dabei werden Personen aus bzw. in einer Vielzahl von auf dem überwachten Gelände vorhandenen Objekten, z.B.
Maschinenteilen, Geräten, Bäumen, Sträuchern, Findlingen oder dergleichen, erkannt.
Die vorliegenden Bilddaten 322, welche sich vorliegend im Wesentlichen an der in Fig. 1 gezeigten Betriebssituation orientieren, wer- den vor der Personenerfassung justiert bzw. normiert, um z.B. etwaige fotografisch bedingte Verkippungen und/oder Verzerrungen von nachfolgend aufgenommenen Fotografien relativ zueinander auszugleichen.
Dadurch ist es möglich, mittels des KNN 325 möglichst úberein- stimmende Bildausschnitte auszuwerten, um z.B.
Personen durch eine vergleichende Bild- analyse erfassen zu können.
Bei der Justierung bzw.
Normierung können die vorliegenden Bilddaten zusätzlich mit Koordinaten versehen werden, um aus diesen die örtliche Position erfasster Personen einfach bestimmen zu können.
Hierbei ist anzumerken, dass die genannte Normierung der Bilddaten dadurch erheblich ver- einfacht werden kann, dass das Fluggerät 300 entweder jeweils ein im Wesentlichen über- einstimmendes Anlagengelände abfliegt oder in der genannten Weise stationär betrieben wird.
Dadurch liegen bereits im Wesentlichen übereinstimmende Bildausschnitte vor.
Die vergleichende Bildanalyse kann alternativ oder zusätzlich auf der Grundlage von Refe- renzbildern erfolgen, wobei als Referenzfotografien des hier betroffenen Anlagenteils bzw. des entsprechenden Geländes herangezogen werden, welche z.B. in einer anfänglichen Be- triebssituation, d.h. noch ohne auf dem Gelände befindliche Personen, mittels des Fluggerä- tes 300 aufgenommen wurden.
Die Personenerkennung erfolgt in dem vorliegenden Ausführungsbeispiel sowohl anhand einer genannten, vergleichenden Bildanalyse als auch mittels Erkennung von typischen, bei Personen aus der Sicht von oben bzw. schräg oben sich ergebenden strukturellen Merkma- len.
Als Strukturmerkmal bei der Sicht im Wesentlichen von zentral oben kann dabei das ty- pische, im Wesentlichen symmetrische Erscheinungsbild von Personen mit zentralem Kopf und den beiden seitlichen Schultern dienen.
Als Strukturmerkmal bei der Sicht von schräg oben kann dabei das typische, der mit Kopf, Oberkörper und den Beinen sich ergebenden im Wesentlichen länglichen bzw. vertikalen Silhouette von Personen herangezogen werden.
In dem vorliegenden Ausführungsbeispiel wird das KNN 325 mit genannten Strukturmerkma- len antrainiert, und zwar anhand von beispielhaften Fotografien, in denen Personen bevor- zugt in unterschiedlichen Posen dargestellt sind. Zudem sind bevorzugt Personen sowohl aus der Sicht von oben als auch aus der Sicht von schräg oben, wenn möglich unter ver- schiedenen Betrachtungswinkeln, dargestellt.
Es ist anzumerken, dass beim Antrainieren im Falle eines in der Mitte des Geländes statio- när betriebenen Fluggerätes zusätzlich zu berücksichtigen ist, dass die jeweilige Sichtlinie auf eine Person von der jeweiligen Position der Person auf dem erfassten Bildausschnitt ab- hängt. So sind in einem zentralen Bereich des gesamten Bildausschnitts befindliche Perso- nen im Wesentlichen von oben sichtbar und weiter außen befindliche Personen von schräg oben. Am Ausgang des KNN 325 liegen in dem vorliegenden Ausführungsbeispiel dann zweite Bilddaten 330 vor, in denen die Positionen von den vorliegend erfassten vier Personen mar- kiert sind, und zwar vorliegend durch entsprechende Kreuze (‚X‘). Bei der Berechnung 335 entsprechender, geografischer Positionsdaten für die jeweils erfassten Personen werden die von dem GPS-Sensor 310 des Fluggerätes 300 bereitgestellten GPS-Daten 340 zugrunde gelegt. Zusätzlich werden die von dem stationären Positionierungssystem 315 bereitgestell- ten Daten 350 in Verarbeitungsschritt 345 verarbeitet, um mittels der somit vorliegenden „tag“-Daten für die jeweils erfassten Personen deren jeweilige Zutrittsberechtigung zu dem überwachten Gelände festzustellen. So ergeben sich in dem vorliegenden Szenario dritte Bilddaten 355, in denen drei 360 der vier erfassten Personen einen „tag“ mit sich führen und somit als zutrittsberechtigt erkannt werden und nur die vierte Person 365 keinen „tag“ mit sich führt und somit als offenbar nicht zutrittsberechtigt erkannt wird. Es ist hierbei anzumerken, dass die in Fig. 3 gezeigten Bilddaten nur beispielhaft sind bzw. zu Illustrationszwecken dienen und die beschriebenen Datenverarbeitungsschritte auch an rein numerischen bzw. alphanumerischen Daten durchgeführt werden können.

Claims (16)

Patentansprüche
1. Verfahren zur automatisierbaren Personenzugangskontrolle zu einem Anlagengelän- de (175), auf dem sich wenigstens ein Anlagenteil (100, 105 - 120) befindet, wobei ein stationäres Positionierungssystem (180, 185, 190) zum berührungslosen Lokali- sieren und Identifizieren von Personen mittels von den Personen mitgeführter elektro- nischer Kennzeichen vorgesehen ist, dadurch gekennzeichnet, dass wenigstens ein autonomes, unbemanntes Fahrzeug (200), insbesondere ein Fluggerät, mit wenigs- tens einer bildgebenden Sensorik (205) vorgesehen ist, mittels dessen Bilddaten (218) des Anlagengeländes (175) sensorisch erfassbar sind, wobei erfasste Bilddaten (218) ausgewertet werden, um auf dem Anlagengelände (175) befindliche Personen (124, 126, 127, 128) zu erkennen, dass das wenigstens eine autonome Fahrzeug (200) eine GPS-Sensorik (215) zur Erfassung einer jeweiligen, geografischen Positi- on des autonomen Fahrzeugs (200) aufweist, um anhand der übertragenen Bilddaten (218) und der erfassten geografischen Position des autonomen Fahrzeugs (200) die Positionen von erkannten Personen (124, 126, 127, 128) auf dem Anlagengelände (175) zu ermitteln, und dass durch einen Vergleich von durch das stationäre Positio- nierungssystem (180, 185, 190) bereitgestellten Daten und den von dem mittels des autonomen Fahrzeugs (200) ermittelten Positionsdaten von erkannten Personen (124, 126, 127, 128) zwischen befugten Personen (360) und nicht befugten Personen (365) unterschieden wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass anhand der mittels des autonomen Fahrzeugs (200) sensorisch erfassten Bilddaten (218) und anhand der je- weils erfassten geografischen Position des autonomen Fahrzeugs (200) durch trigo- nometrische Berechnung die genaue Position eines erfassten Objekts, insbesondere einer Person (124, 126, 127, 128), auf dem Anlagengelände (175) ermittelt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass erfasste Bilddaten (218) drahtlos an eine stationäre Steuereinheit (103) übertragen werden, um durch Auswerten (325, 335) der erfassten Bilddaten (218, 322) auf dem Anlagengelände (175) befindliche Personen (124, 126, 127, 128) zu erkennen.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die erfassten Bilddaten (218, 322) vor der Personenerkennung normiert werden.
5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die erfassten Bild- daten (218, 322) anhand von Referenzbildern ausgewertet werden (325, 335).
6. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass bei der Auswertung (325, 335) der Bilddaten (218, 322) jeweilige, perspektivische Sichtlinien auf erfasste Objekte berücksichtigt werden.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auswertung (325, 335) der erfassten Bilddaten (218, 322) mittels eines künstlichen neuronalen Netzwerks (325) erfolgt, wobei das Netzwerk (325) mit bei- spielhaften Strukturmerkmalen von Personen antrainiert wird.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die Strukturmerkmale in unterschiedlichen Posen und/oder unter verschiedenen Betrachtungswinkeln bild- technisch erfasste Darstellungen von Personen umfassen.
9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass anhand der erfassten Bilddaten (218, 322) auf dem Anlagengelände (175) be- findliche Personen (124, 126, 127, 128) erkannt werden, dass anhand der bei der Er- fassung der Bilddaten (218, 322) vorliegenden geografischen Position des autono- men Fahrzeugs (200) die jeweiligen Positionen der erkannten Personen (124, 126, 127, 128) auf dem Anlagengelände (175) ermittelt werden, dass die von dem statio- nären Positionierungssystem (315) bereitgestellten Positionsdaten (350) mit den je- weiligen Positionen der sensorisch erkannten Personen (124, 126, 127, 128) vergli- chen werden (345), und dass als Ergebnis der Vergleichs (345) auf die Zutrittsbe- rechtigung einer jeweiligen, sensorisch erkannten Person (124, 126, 127, 128) ge- schlossen wird.
10. Computerprogramm, welches eingerichtet ist, jeden Schritt eines Verfahrens gemäß einem der Ansprüche 1 bis 9 auszuführen
11. Einrichtung zur automatischen Personenzugangskontrolle zu einem Anlagengelände (175), auf dem sich wenigstens ein Anlagenteil (100, 105 - 120) befindet, wobei ein stationäres Positionierungssystem (180, 185, 190) zum berührungslosen Lokalisieren und Identifizieren von Personen (124, 126, 127, 128) mittels von den Personen mit- geführter elektronischer Kennzeichen vorgesehen ist, gekennzeichnet durch wenigs- tens ein autonomes, unbemanntes Fahrzeug (200), insbesondere ein Fluggerät, mit wenigstens einer bildgebenden Sensorik (205), mittels dessen das Anlagengelände (175) sensorisch erfassbar ist, an dem autonomen Fahrzeug (200) angeordnete Da-
tenübertragungsmittel (210) zur drahtlosen Übertragung erfasster Bilddaten (218) an eine stationäre Steuereinheit (103), in der stationären Steuereinheit (103) vorgesehe- ne Datenverarbeitungsmittel zur Auswertung der erfassten Bilddaten (218), um auf dem Anlagengelände (175) befindliche Personen zu erkennen, eine an dem autono- men Fahrzeug (200) vorgesehene GPS-Sensorik (215) zur Erfassung einer jeweili- gen, geografischen Position des autonomen Fahrzeugs (200), um anhand der über- tragenen Bilddaten (218) und der erfassten geografischen Position des autonomen Fahrzeugs (200) die Positionen von erkannten Personen auf dem Anlagengelände (175) zu ermitteln, wobei die in der stationären Steuereinheit (103) vorgesehenen Da- tenverarbeitungsmittel (225) so eingerichtet sind, dass durch einen Vergleich von durch das stationäre Positionierungssystem (180, 185, 190) bereitgestellten Daten und den von dem mittels des autonomen Fahrzeugs (200) ermittelten Positionsdaten von erkannten Personen zwischen befugten und nicht befugten Personen unterschie- den werden kann.
12. Einrichtung nach Anspruch 11, dadurch gekennzeichnet, dass wenigstens zwei auto- nome, unbemannte Fahrzeuge (200) vorgesehen sind, wobei mögliche Ruhe- oder Ausfallzeiten eines der wenigstens zwei unbemannten Fahrzeuge von einem anderen unbemannten Fahrzeug überbrückt werden.
13. Einrichtung nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass das wenigs- tens eine, autonome Fahrzeug (200) einen vorgebbaren, zu überwachenden Bereich des Anlagengeländes (175) rasterförmig zyklisch abfährt bzw. überfliegt.
14. Einrichtung nach einem der Ansprüche 11 bis 13, wobei das autonome Fahrzeug (200) als autonomes Fluggerät ausgebildet ist, dadurch gekennzeichnet, dass das wenigstens eine, autonome Fluggerät (200) mittels einer Näherungssensorik in einer im Wesentlichen konstanten Flughöhe gegenüber den Anlagenteilen (100, 105 - 120) des Anlagengeländes (175) und dem Boden bewegt wird.
15. Einrichtung nach einem der Ansprüche 11 bis 14, wobei das unbemannte Fahrzeug (200) als Fluggerät ausgebildet ist, dadurch gekennzeichnet, dass das wenigstens ei- ne, autonome Fluggerät (200) in einer empirisch vorgebbaren Flughöhe stationär be- trieben wird, wobei die Sensorik (205) an dem Fluggerät (200) motorisch beweglich betrieben wird, um den zu überwachenden Bereich des Anlagengeländes (175) sen- sorisch rasterförmig abzudecken.
16. Einrichtung nach einem der Ansprüche 11 bis 15, dadurch gekennzeichnet, dass die der stationären Steuereinheit (103) ein lernfähiges künstliches neuronales Netzwerk (325) aufweist, mittels dessen die sensorische Erkennung einer Person (124, 126, 127, 128) anhand der Bilddaten (218) erfolgt.
BE20195488A 2019-07-25 2019-07-25 Verfahren und Einrichtung zur automatisierbaren Personenzugangskontrolle zu einem im Freien befindlichen Anlagengelände BE1027102B1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BE20195488A BE1027102B1 (de) 2019-07-25 2019-07-25 Verfahren und Einrichtung zur automatisierbaren Personenzugangskontrolle zu einem im Freien befindlichen Anlagengelände

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BE20195488A BE1027102B1 (de) 2019-07-25 2019-07-25 Verfahren und Einrichtung zur automatisierbaren Personenzugangskontrolle zu einem im Freien befindlichen Anlagengelände

Publications (1)

Publication Number Publication Date
BE1027102B1 true BE1027102B1 (de) 2020-09-30

Family

ID=67688695

Family Applications (1)

Application Number Title Priority Date Filing Date
BE20195488A BE1027102B1 (de) 2019-07-25 2019-07-25 Verfahren und Einrichtung zur automatisierbaren Personenzugangskontrolle zu einem im Freien befindlichen Anlagengelände

Country Status (1)

Country Link
BE (1) BE1027102B1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050078006A1 (en) * 2001-11-20 2005-04-14 Hutchins J. Marc Facilities management system
WO2013033780A1 (en) * 2011-09-09 2013-03-14 Hildick-Pytte Margaret Emergency services system and method
US20180217591A1 (en) * 2017-02-02 2018-08-02 Bennett Aerospace, Inc. Drone security and entertainment system
EP3399377A1 (de) * 2017-05-02 2018-11-07 Gabriel Hassan Mohamad Verfahren zur überwachung mittels einer fernsteuerbaren drohne

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050078006A1 (en) * 2001-11-20 2005-04-14 Hutchins J. Marc Facilities management system
WO2013033780A1 (en) * 2011-09-09 2013-03-14 Hildick-Pytte Margaret Emergency services system and method
US20180217591A1 (en) * 2017-02-02 2018-08-02 Bennett Aerospace, Inc. Drone security and entertainment system
EP3399377A1 (de) * 2017-05-02 2018-11-07 Gabriel Hassan Mohamad Verfahren zur überwachung mittels einer fernsteuerbaren drohne

Similar Documents

Publication Publication Date Title
DE102005048269B4 (de) Sensor-Netzwerk sowie Verfahren zur Überwachung eines Geländes
EP3129931B1 (de) Verfahren zum überbringen einer sendung durch eine unbemannte transporteinrichtung
DE102015008768B4 (de) Verfahren zum Begutachten eines an einem Unfall beteiligten Kraftfahrzeugs und Kraftfahrzeug
DE102013019488A1 (de) Bilderfassung mit schutz der privatsphäre
DE102016004250A1 (de) Verfahren und Vorrichtung zum Steuern eines Krans, eines Baggers, einer Raupe oder einer ähnlichen Baumaschine
DE102015010726A1 (de) Verfahren zur Baustellenüberwachung, Arbeitsmaschine und System zur Baustellenüberwachung
EP3139125B1 (de) Drohnenabwehranlage zum abwehren von fremddrohnen
DE102016217950A1 (de) Verfahren und Anordnung zum Erkennen von Hindernissen auf Fluchtwegen, insbesondere in Gebäuden
WO2019081135A1 (de) Überwachungsvorrichtung, industrieanlage, verfahren zur überwachung sowie computerprogramm
DE102015006233B4 (de) Verfahren zur Bestimmung der Flugbahn einer Fremddrohne
DE102019211048A1 (de) Verfahren und Einrichtung zur automatisierbaren Personenzugangskontrolle zu einem im Freien befindlichen Anlagengelände
EP2813914A1 (de) Überwachung von technischen Anlagen mit einem unbemannten Flugobjekt
DE112014001069T5 (de) Steuerungssystem und -verfahren zur Steuerung eines Fahrzeugs im Zusammenhang mit der Erkennung eines Hindernisses
DE112018007184T5 (de) Steuervorrichtung, Arbeitsmaschine und Programm
DE102007062603B4 (de) Verfahren und Vorrichtung zur Detektion Daten sendender Fahrzeuge
EP3399377A1 (de) Verfahren zur überwachung mittels einer fernsteuerbaren drohne
WO2022038220A1 (de) Verfahren und fluggerät zur überwachung von betriebszuständen und zur ermittlung von ausfallwahrscheinlichkeiten von stromführenden leitungssystemen
BE1027102B1 (de) Verfahren und Einrichtung zur automatisierbaren Personenzugangskontrolle zu einem im Freien befindlichen Anlagengelände
DE102006042318B4 (de) Verfahren zum Betreiben mindestens einer Kamera
DE102017124583A1 (de) System zum Überwachen des Zutritts zu einem Fahrzeug
WO2018166836A1 (de) System und verfahren zur dokumentation von abkippvorgängen auf einer einlagerungsstätte
EP3236440B1 (de) Vorrichtung, system und verfahren zur markierungsfreien hangüberwachung und/oder bauüberwachung
DE102017109370A1 (de) Verfahren zur Überwachung mittels eines fernsteuerbaren Fahrzeugs, insbesondere einer Drohne
CN111145392B (zh) 一种用于智慧安防的移动式综合布控一体机及系统
DE102019204749A1 (de) Verfahren und Einrichtung zum automatisierten Betrieb einer vorwiegend im Tagebau einsetzbaren Materialgewinnungsanlage

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20200930

MM Lapsed because of non-payment of the annual fee

Effective date: 20210731