WO2001017838A1 - Verfahren zur überwachung eines gefahrenbereichs - Google Patents

Verfahren zur überwachung eines gefahrenbereichs Download PDF

Info

Publication number
WO2001017838A1
WO2001017838A1 PCT/EP2000/008483 EP0008483W WO0117838A1 WO 2001017838 A1 WO2001017838 A1 WO 2001017838A1 EP 0008483 W EP0008483 W EP 0008483W WO 0117838 A1 WO0117838 A1 WO 0117838A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixels
danger zone
recorded
recording
model
Prior art date
Application number
PCT/EP2000/008483
Other languages
English (en)
French (fr)
Inventor
Simon MUSÄUS
Lothar Koppers
Original Assignee
Tiefenbach Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tiefenbach Gmbh filed Critical Tiefenbach Gmbh
Publication of WO2001017838A1 publication Critical patent/WO2001017838A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L29/00Safety means for rail/road crossing traffic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the invention relates to a method for monitoring a danger zone for endangered and / or dangerous objects by means of an image reading device, by means of which the danger zone can be detected as an image.
  • This method according to the preamble of claim 1 is generally known. It has the disadvantage that it can only be monitored “by hand” for objects that have not been scheduled.
  • the object of the invention is to further develop the method for - more or less - automatic or automatable monitoring of the danger zone, as is desirable and necessary, for example, in railway traffic, in order to monitor the rail path, in particular in the area of road crossings, and to ensure that the safe passage of the train depends not only on the functioning and observance of warning lights or barriers and the attention of the train driver.
  • the image of the danger zone is recorded digitally by means of a suitable recording device, but in any case is digitally converted into individual pixels and stored. This image is compared with a previously recorded and digitally stored model image of the danger zone, which is known to be at the time of the recording when there were no endangered and / or dangerous objects in the danger zone.
  • a warning signal can be issued by which a supervisor, in train traffic, for example, the train driver is warned, or an automatic emergency measure, for example braking the train, is carried out. For example, by activating an inductive braking device that is fixed in front of the road crossing. Warning signals in particular come into consideration in the form of visualized images (models) of the object, the type of object, specifying the nature and / or the surface.
  • the pixels of the actual model and the target model are arranged and stored in a common reference and coordinate system. This ensures that the pixel parameters are comparable. (Claim 2).
  • the advantage of the method according to claim 4 is that objects in the danger zone are not only recognizable by their contours or their brightness but also by parameters which allow a three-dimensional reference of the recorded pixels.
  • This clearly defined spatial position of the image points facilitates the automatic image processing and the automatic image comparison of the images and the model images and eliminates the possibility of errors, uncertainties and the tolerance of the comparison and the resultant result.
  • a plane of the camera with two surface coordinates is used which is parallel to the recording surface.
  • the further development according to claim 5 serves to obtain the third coordinate.
  • the third dimension can be visualized by the proposal according to claim 6.
  • the visible spatiality of the recorded area is of particular importance for safe remote monitoring of the danger area by one person.
  • the method according to claim 6 consequently allows an easily analyzable visualization of the spatial position of the pixels.
  • the recording area of an image recording device such. B. a camera and the monitored danger zone are not identical. The recording area will generally be much larger.
  • the homologous points can be determined automatically by the image recording device or the computer. This bears the risk that non-identical pixels of the target model or actual model are accidentally recognized as homologous.
  • the image evaluation by comparing the models becomes more reliable if measurement marks or other reference points are real arranged in the danger area or in the recording area, outside the danger area, which are certainly recognized as homologous points in different recordings.
  • These reference points have a clearly known position and defined reflection properties. They can then be used to calibrate the reference systems of the recordings of the target model and also of the actual model, so that it is ensured that the pixels of successive recordings are always arranged and stored in the same reference system and can thus be compared with one another. This also increases the reliability of the comparison of the target model and the actual model.
  • the evaluation of the recorded models also includes errors in the recordings and / or the plausibility ity of the local and / or spatial position, distance, size and extent, movement of a predetermined reference point or another recorded object
  • Claims 16 to 18 given measuring methods for such checks on the digitally stored image of the danger zone is thus compared with these developments of the invention with a digitally stored image of the danger zone, which was previously or simultaneously either in an identical recording method with identical devices and recording parameters or in Another recording method and / or with different types of devices and recording parameters has been recorded, with deviations being examined for errors in the recording and / or plausibility, in particular with regard to the position, movement and brightness of the pixels
  • the recordings of the target model and the actual model can be made with any image recording device and image acquisition processes that allow digitization
  • the actual model and the target model of the danger zone be produced in recording processes which are identical in their technical configuration and preferably also in terms of the devices and / or recording parameters
  • the image is basically broken down into image points.
  • conventional recording methods in which natural or artificial light is used, the nature of the model taken depends on the illumination available, which the evaluation is based on The recording computer and recording device which work according to claim 22 are not recorded, avoid this disadvantage.
  • the position of the object, the plausibility of its position or movement, the type of its surface or the like can be determined from the correlation of the emitted light pulse and the brightness of the received retroreflective signal other information characterizing parameters
  • Claim 23 characterizes a laser scanner and the recording method to be carried out therewith.
  • the applied time-of-flight method means that the recorded image points are immediately recorded three-dimensionally, so that a direct evaluation of the image is possible within the meaning of this invention.
  • Claims 24 to 29 identify another device and recording method
  • a hand-readable image can also be output, which is also three-dimensional if the spatial position of the pixels is determined and visualized according to claim 24
  • the method according to claim serves to increase the security of the method and to reduce the detection tolerance 30
  • the method according to claim 30 offers particular security, since inadequacies of one or the other system can be recognized and eliminated by further iteration of the recordings and or the calculations.
  • Other sensors for other physical properties can also be switched on, for example gravimeters for determining the density magnetic Sensors, inductive loops, sensors for detecting heat rays (living objects). With these further sensors, further parameters of the detected objects can be checked. Using these parameters, it is possible to check the type of objects, their nature, location and size, but also the plausibility of the recorded models and the output signals if the target model and the actual model do not match.
  • Fig.1 the schematic representation of the recording devices
  • FIG. 2 shows the principle of recording a laser scanner 3 shows a block diagram with the data flow of the 3D laser scanner 4 shows the block diagram with the data flow of the stereo camera system 5 shows the warning image of a level crossing in a railway vehicle
  • Fig.1 shown schematically. It enables the detection of objects such as
  • Pedestrians, animals, vehicles, vehicle overhang, overhanging or lost cargo within an area of interest / danger area such as one
  • Objects are characterized by their location or spatial extent.
  • the measuring system consists of two fundamentally different measuring units, namely:
  • the 3D laser scanner is a high-speed rotation scanner in the near infrared range
  • the laser scanner 4 uses the measuring principle of coordinate measurement of each pixel according to distance and direction, starting from a known point and its coordinates. Accordingly, the laser scanner has the following characteristics. It works with near infrared wavelengths and has a transmitter, eg pulsed laser diodes. Transmitter (laser that 1) and a receiver, eg optical narrow-band receiver with single or multiple pulse signal detection.
  • a transmitter eg pulsed laser diodes.
  • Transmitter laser that 1
  • receiver eg optical narrow-band receiver with single or multiple pulse signal detection.
  • the assigned microprocessor is used to post-process the data by sending the laser pulse in a predetermined level 5 in a predetermined direction Reception of the reflection signal and measurement of the time period between transmission and reception (time-of-flight method) result from a combination of the known position of the scanner, the direction of the measurement and the distance to the target, which is determined from the duration between the pulse and reception any absolute position of each target or each targeted pixel to determine the entire image of the danger zone, the laser scanner is guided in several superimposed planes in incrementally small angular steps.
  • FIG. 3 shows a block diagram with the data flow of the 3D laser scanner
  • the 3D-CCD IR stereo camera system consists of the following individual modules
  • the measuring principle is based on the fact that the individual images are recorded simultaneously - trigger-controlled. After reading out using a high-speed frame grabber, the stereo image pair is made available to the evaluation software via a multiplexing DFU connection (eg highly reflective measuring marks) are selected and the parameters of the relative and external orientation of both images are calculated
  • the derived surface model is then compared to the following model images
  • a surface difference to the model images or to the previously recorded images of the same sensor can now be determined.
  • This surface difference can be determined as a distance difference or by comparing the volume of a large number of related pixels that result from each other allowable tolerances (given by the measurement uncertainty), a fault object can be concluded
  • Reliability can be further increased by comparison with a surface model that was derived from the previous measurement of the same sensor. Furthermore, by including the time component, conclusions can be drawn about the object behavior
  • the data flow within the system corresponds to that of the laser scanner subsystem
  • FIG. 4 A block diagram is shown in FIG. 4 with the following basic software components
  • IVEnt 3D Calculator LS IVEnt 3D Calculator CAM (3D calculation of the camera image)
  • IVEnt 3D Change Detector COMParison software for the detection of
  • the modules IVEnt 3D-Calculator LS and IVEnt 3D-Calculator CAM calculate the spatial information in the surveillance area and make it available to the IVEnt 3D-Change-Detector In the IVEnt 3D Change Detector, the data are first checked for errors and corrected where possible.
  • the spatial detection enables algorithms to detect changes down to the slightest system-related resolution in the area of interest
  • Fig. 5 is a control monitor represented in a railway vehicle
  • the vehicle driver Before the start of the journey, the vehicle driver must load a data record with all the keys of the level crossings that he crosses on his journey.
  • the software automatically establishes the communication link and informs the train driver about the safety status of diving obstacles Compassionate screen, for example, the image of the level crossing shown in Fig. 5 Otherwise, the switch-on can take place from outside or automatically, ie manually controlled, time-controlled, controlled by the monitoring system open, activate induction brake device, set stop signal It should be pointed out that the system can also be used for other areas, eg monitoring of high-security areas.
  • sensors for other physical properties can also be switched on, e.g. Gravimeter for determining the density, magnetic sensors, inductive loops, sensors for detecting heat rays (living objects). These additional sensors can be used to check further parameters that are useful for object recognition or for checking the plausibility of the recorded models.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Bei einem Verfahren zur Überwachung eines Gefahrenbereiches auf gefährdete und/oder gefährliche Gegenstände mittels eines Bildaufnahmegerätes, in dessen Aufnahmebereich der Gefahrenbereich liegt und durch welches der Gefahrenbereich erfassbar ist, wird das erfasste Bild des Gefahrenbereiches in eine Vielzahl von Bildpunkten zerlegt. Die Bildpunkte werden als Ist-Modell digital gespeichert und mit den Bildpunkten eines zuvor erfassten und gespeicherten Soll-Modells des Gefahrenbereiches ohne gefährdete und/oder gefährliche Gegenstände verglichen. Bei Abweichungen der Bildpunkte der beiden Modelle wird ein Signal, vorzugsweise ein Warnsignal ausgegeben. Zur Erhöhung der Zuverlässigkeit und Aussagefähigkeit des Vergleichs erfolgt die Bildaufnahme mit mehreren Sensoren.

Description

Verfahren zur Überwachung eines Gefahrenbereichs
Die Erfindung betrifft ein Verfahren zur Überwachung eines Gefahrenbereichs auf gefährdete und/oder gefährliche Gegenstände mittels eines Bildlesegeräts, durch welches der Gefahrenbereich als Bild erfaßbar ist.
Dieses Verfahren nach dem Oberbegriff des Anspruchs 1 ist allgemein bekannt. Es hat den Nachteil, daß es allenfalls „von Hand" auf vorhandene nicht eingeplante Gegenstände überwacht werden kann.
Aufgabe der Erfindung ist es, das Verfahren zur - mehr oder weniger - automatischen oder automatisierbaren Überwachung des Gefahrenbereichs weiterzubilden, wie es z.B. im Eisenbahnverkehr wünschenswert und erforderlich ist, um den Schienenweg insbesondere im Bereich von Straßenübergängen zu überwachen und zu sicherzustellen, daß die sichere Passage des Zuges nicht nur vom Funktionieren und der Beachtung der Warnlichter oder Schranken und der Aufmerksamkeit des Zugführer abhängt. In der Lösung nach Anspruch 1 wird das Bild des Gefahrenbereichs mittels eines geeigneten Aufnahmegeräts digital aufgenommen, jedenfalls aber digital in einzelne Bildpunkte umgewandelt und gespeichert. Dieses Bild wird mit einem zuvor aufgenommenen und digital gespeicherten Modellbild des Gefahrenbereichs verglichen, von dem bekannt ist, daß zum Zeitpunkt der Aufnahme keine gefährdeten und/oder gefährlichen Gegenstände in dem Gefahrenbereich vorhanden waren. Durch punktweises Abtasten des Bildes und des Modellbildes mittels eines Rechners, Microprocessors oder dergl. und eines Vergleichs der Bildparameter der Punkte können Abweichungen festgestellt werden. Vorzugsweise kann bei Abweichungen einer definierten Menge von Bildpunkten des Ist-Modells von denen des Soll-Modells ein Warnsignal ausgegeben werden, durch das eine Aufsichtsperson, im Eisenbahnverkehr z.B. der Zugführer gewarnt wird oder aber eine automatische Notfallmaßnahme , z.B. eine Bremsung des Zuges vorgenommen wird, z.B. durch Aktivierung einer induktiven Bremseinrichtung die vor dem Straßenübergang fest angeordnet ist. Als Signale kommen insbesondere Warnsignale in Betracht in Form von visualisierten Bildern (Modellen) des Objektes, der Objektart unter Angabe der Beschaffenheit und/oder der Oberfläche. Die Bildpunkte des Ist-Modells und des Soll-Modells werden in einem gemeinsamen Bezugs- und Koordinatensystem angeordnet und gespeichert. Auf diese Weise wird sichergestellt, daß die Bildpunkt-Parameter vergleichbar sind. (Anspruch 2).
Dabei ist durch Anspruch 3 die Möglichkeit gegeben, daß das Ist-Modell nicht nur mit anderen Geräten sondern auch von anderen Positionen und sonstigen anderen Parametern aufgenommen wird als das Soll-Modell.
Bei dem Verfahren nach Anspruch 4 ergibt sich der Vorteil, daß Gegenstände im Gefahrenbereich nicht nur durch ihre Umrisse oder ihre Helligkeit sondern auch mit Parametern kenntlich werden, welche einen dreidimensionalen Bezug der aufgenommenen Bildpunkte erlauben. Diese eindeutig definierte räumliche Lage der Bildpunkte erleichtert die automatische Bildverarbeitung und den automatischen Bildvergleich der Bilder und der Modellbilder und eliminiert Fehlermöglichkeiten, Unsicherheiten und die Toleranz des Vergleichs und der dadurch gewonnenen Aussage.
Zur Anordnung der Bildpunkte bzw. Modellpunkte in einem dreidimensionalen Koordinatensystem dient zum einen eine mit der Aufnahmefläche parallele Ebene der Kamera mit zwei Flächenkoordinaten. Zur Gewinnung der dritten Koordinate dient die Weiterbildung nach Anspruch 5. Die dritte Dimension kann dabei durch den Vorschlag nach Anspruch 6 visualisiert werden. Die sichtbare Räumlichkeit des aufgenommenen Bereichs ist für eine sichere Fernüberwachung des Gefahrenbereichs durch eine Person von besonderer Wichtigkeit. Das Verfahren nach Anspruch 6 erlaubt folglich eine leicht analysierbare Visualisierung der räumlichen Lage der Bildpunkte. Im Allgemeinen sind der Aufnahmebereich eines Bildaufnahmegerätes wie z. B. einer Kamera und der überwachte Gefahrenbereich nicht identisch. Der Aufnahmebereich wird im Allgemeinen wesentlich größer sein. Dadurch ergibt sich das Problem, dass Speicher- und Rechnerkapazität überflüssigerweise in Anspruch genommen wird und dass möglicherweise Signale, insbesondere Warnsignale bei Abweichungen von Soll- und Ist-Modell ausgegeben werden, obwohl die Abweichungen ungefährlich sind. Dieses Problem wird bei der Weiterbildung nach Anspruch 7 vermieden. Die Weiterbildung nach Anspruch 8 ist von besonderem Vorteil, wenn die Lage und Größe des Gefahrenbereiches nicht konstant ist oder wenn die Gerätschaften zur Durchführung des Verfahrens flexibel an unterschiedlichen Orten eingesetzt werden sollen. Die Gleichförmigkeit aller Bildpunkte des Soll-Modells einerseits und Ist-Modells andererseits erschwert die Analyse des Vergleichsergebnisses. Durch Messung der Lichtintensität und Speicherung eines die Lichtintensität repräsentierenden Signals für jeden Bildpunkt (Anspruch 9) wird sozusagen eine weitere Dimension gewonnen, die eine besondere Aussagekraft zur Identifikation von Bildpunkten besitzt, welche zu identischen Objekten gehören.
Hierdurch wird zum einen die Anpassung der Bezugssysteme des Ist-Modells einerseits und des Soll-Modells andererseits erleichtert bzw. ermöglicht, indem Punkte gleicher Helligkeit (homologe Punkte) des Ist-Modells und des Soll-Modells zur Deckung gebracht werden (Anspruch 10).
Dabei können die homologen Punkte durch das Bildaufnahmegerät bzw. den Rechner automatisch bestimmt werden. Das birgt das Risiko, dass nicht-identische Bildpunkte des Soll-Modells bzw. Ist-Modells zufälligerweise als homolog erkannt werden. Die Bildauswertung durch Vergleich der Modelle wird sicherer, wenn in dem Gefahrenbereich oder aber im Aufnahmebereich, außerhalb des Gefahrenbereiches Messmarken oder sonstige Referenzpunkte real angeordnet werden, die mit Sicherheit in unterschiedlichen Aufnahmen als homologe Punkte erkannt werden. Diese Referenzpunkte haben eine eindeutig bekannte Lage und definierte Reflektionseigenschaften. Sie können sodann benutzt werden, um die Bezugssysteme der Aufnahmen des Soll-Modells und genauso des Ist-Modells jeweils zu kalibrieren, so dass sichergestellt ist, dass die Bildpunkte aufeinander folgender Aufnahmen stets in demselben Bezugssystem eingeordnet und gespeichert und damit untereinander vergleichbar werden. Ebenso wird hierdurch auch die Sicherheit des Vergleichs von Soll-Modell und Ist-Modell erhöht.
Da Lage- und Reflektionseigenschaften der Referenzpunkte bekannt sind, lässt sich auf diese Weise auch automatisch überprüfen, ob das Überwachungssystem in allen seinen Funktionen noch im Sollbereich arbeitet oder ob Störungen vorliegen, die die Sicherheit der Überwachung in Frage stellen. Ebenso können hierdurch aber auch Umwelteinflüsse, z. B. starker Regen oder Nebel erkannt werden, welche eine Gefährdung darstellen (Anspruch 12).
Ein weiteres die Zuverlässigkeit des Überwachungssystems beeinträchtigendes Problem liegt in der zum Teil unvermeidlichen Drift des Betriebsbereichs elektrischer und mechanischer Komponenten Hierdurch können Verschiebungen der Modelle in ihren Bezugssystemen vorkommen, die die Vergleichbarkeit der Bildpunkte beeinträchtigen Diese Ungenauigkeiten können z B die Bezugssysteme und/oder der Orientierung der Bildaufnahmegerate und/oder die Helligkeitswerte betreffen Es können sich aber auch im Laufe der Zeit ungefährliche Änderungen innerhalb des Gefahrenbereichs ergeben, die in das Soll-Modell übernommen werden sollten Nach den Anspuchen 14 und 15 wird eine Kalibπerungsmessung zum Abgleich, zur Korrektur und zur Kalibrierung vorgeschlagen, welche vorzugsweise in Zeiten erfolgt, in denen Störungen im Gefahrenbereich nicht zu erwarten sind Die Zuverlässigkeit der Überwachung kann ebenso durch mehr oder weniger zufällige Störungen oder sonstige Fehler der Aufnahme beeinträchtigt werden Daher wird durch Anspruch 19 als Weiterbildung vorgeschlagen, daß die Auswertung der aufgenommenen Modelle auch Fehler der Aufnahmen und/oder die Plausibilitat der örtlichen und/oder räumlichen Lage, Entfernung, Große und Ausdehnung, Bewegung eines vorgegebenen Referenzpunktes oder eines anderen aufgenommenen Objekts betrifft
Die Ansprüche 16 bis 18 gegeben Meßverfahren für derartige Kontrollen an Das digital gespeicherte Bild des Gefahrenbereichs wird also bei diesen Weiterbildungen der Erfindung mit einem digital gespeicherten Bild des Gefahrenbereichs verglichen, welches kurz zuvor oder gleichzeitig entweder in einem identischen Aufnahmeverfahren mit identischen Geraten und Aufnahmeparametern oder in einem anderen Aufnahmeverfahren und/oder mit andersartigen Geraten und Aufnahmeparametern aufgenommenen worden ist, wobei Abweichungen auf Fehler der Aufnahme und/oder Plausibilitat insbesondere hinsichtlich der Lage, Bewegung Helligkeit der Bildpunkte untersucht werden
Zeigen sich auf einem solchen Bild Erscheinungen, die zuvor nicht vorhanden waren, kann zunächst eine Warnung erfolgen, bis durch weitere Aufnahmen die Aussage des ersten Bildvergleiches verifiziert oder widerlegt worden ist Grundsatzlich können die Aufnahmen des Soll-Modells und des Ist-Modells mit beliebigen Bildaufnahmegeraten und Bildaufnahmeverfahren, die die Digitalisierung zulassen, durchgeführt werden Bevorzugt wird jedoch vorgeschlagen daß die Herstellung des Ist-Modells und des Soll- Modells des Gefahrenbereiches in Aufnahmeverfahren erfolgt, die in ihrer technischen Ausgestaltung und vorzugsweise auch hinsichtlich der Gerate und/oder Aufnahmeparameter identisch sind
Zur Bildaufnahme stehen heute mehrere Gerate und Aufnahmeverfahren zur Verfugung Dabei erfolgt grundsatzlich eine Zerlegung des Bildes in Bildpunkte Bei üblichen Aufnahmeverfahren, bei denen naturliches oder kunstliches Licht genutzt wird, ist die Beschaffenheit des aufgenommenen Modells von der jeweils vorhandenen Ausleuchtung abhangig, die von dem die Auswertung vornehmenden Rechner nicht erfaßt wird Aufnahmeverfahren und Gerate, die nach Anspruch 22 arbeiten, vermeiden diesen Nachteil Aus der Korrelation des ausgesandten Lichtimpulses und der Helligkeit des empfangenen Ruckstrahlsignals kann dabei eine die Lage des Objekts, die Plausibilitat seiner Lage oder Bewegung, die Art seiner Oberflache oder sonstige Parameter kennzeichnende Information gewonnen werden
Die Anspruch 23 kennzeichnet einen Laser-Scanner und das damit durchzuführende Aufnahmeverfahren Durch die angewandte „Time-of flight-method" werden die aufgenommenen Bildpunkte unmittelbar dreidimensional aufgenommen, so daß eine direkte Auswertung des Bildes im Sinne dieser Erfindung möglich ist Die Ansprüche 24 bis 29 kennzeichnen ein anderes Gerat und Aufnahmeverfahren Hier kann zusätzlich ein von Hand lesbares Bild ausgegeben werden, das auch dreidimensional ist, wenn die Ermittlung und Sichtbarmachung der räumlichen Lage der Bildpunkte nach Anspruch 24 erfolgt
Wichtig ist dabei, daß die raumlichen Koordinaten der zwei Kameras unveränderlich und eindeutig sind, so daß sie dem Microprocessor eingespeichert werden können und bei der Erzeugung des dreidimensionalen Bildes zur Verfugung stehen Zur Erhöhung der Sicherheit des Verfahrens und zur Verminderung der Ermittlungstoleranz dient das Verfahren nach Anspruch 30
Im Eisenbahnverkehr bietet das Verfahren nach Anspruch 30 besondere Sicherheit, da Unzulänglichkeiten des einen oder anderen Systems erkannt und durch weitere Iteration der Aufnahmen und oder der Berechnungen beseitigt werden können Andere Sensoren für andere physikalische Eigenschaften können zusatzlich eingeschaltet werden, z B Gravimeter zur Feststellung der Dichte magnetische Sensoren, induktive Schleifen, Sensoren zur Erfassung von Wärmestrahlen (lebende Objekte). Mit diesen weiteren Sensoren können weitere Parameter der erfaßten Objekte überprüft werden. Anhand dieser Parameter ist es möglich, die Art der Objekte, ihre Beschaffenheit, Lage und Größe, aber auch die Plausibilitat der aufgenommenen Modelle und der ausgegebenen Signale bei Nicht-Übereinstimmung von Soll-Modell und Ist-Modell überprüfen.
Im folgenden werden Ausführungsbeispiele der Erfindung anhand der Zeichnung beschrieben. Es zeigen:
Fig.1 : die schematische Darstellung der Aufnahmeeinrichtungen eines
Gefahrenbereichs
Fig.2 das Aufnahmeprinzip eines Laser-Scanners Fig.3 ein Block Diagramm mit dem Datenfluß des 3D Laser-Scanners Fig.4 das Block Diagramm mit dem Datenfluß des Stereo-Kamera-Systems Fig.5 das Warnbild eines Bahnübergangs in einem Eisenbahnfahrzeug
Das gezeigte Ausführungsbeispiel der Erfindung basiert auf der Kombination der
Vorteile einer automatischen stereoskopischen Auswertung eines stereoskopischen
Bildpaares und der räumlichen Datengewinnung mit dreidimensionaler
Lasermeßtechnik. Diese optoelektronische Sensorkombination ist auf der Skizze nach
Fig.1 schematisch dargestellt. Sie ermöglicht die Detektion von Objekten, wie
Fußgängern, Tieren, Fahrzeugen, Überstand von Fahrzeugen, überhängender oder verlorener Ladung innerhalb eines Interessenraumes/Gefahrenbereichs wie z.B. einer
Kreuzung von Schienenweg und Straße (Bahnübergang).
Objekte sind charakterisiert durch ihre Lage oder räumliche Ausdehnung.
Das Meßsystem besteht aus zwei grundsätzlich verschiedenen Meßeinheiten, und zwar:
=> einem 3D-CCD IR Stereo-Kamera System
Dieses Kamerasystem hat zwei an einer Brücke 1 über dem Gefahrenbereich fest angebrachte CCD-Kameras 2 und 3 mit hoher spektraler Sensitivität im sichtbaren Licht und nahem Infrarot. => einem 3D Laser-Scanner 4
Der 3D Laser-Scanner ist ein Hochgeschwindigkeits-Rotationsscanner im nahen Infrarotbereich
Der Laser-Scanner 4 verwendet das Meßprinzip der Koordinatenmessung eines jeden Bildpunktes nach Entfernung und Richtung, ausgehend von einem bekannten Punkt und seinen Koordinaten Demnach hat der Laser-Scanner folgende Charakteπstika Er arbeitet mit nahen Infrarot Wellenlangen und besitzt einen Sender, z B gepulster Laserdioden-Transmitter (Laser dass 1) und einen Empfanger, z B Optischer schmal- bandiger Empfanger mit einfacher oder vielfacher Pulssignal-Erkennung Durch einen zugeordneten Microprocessor erfolgt die Nachbereitung der Daten, die durch Absendung des Laserimpulses in einer vorbestimmten Ebene 5 in einer vorbestimmten Richtung, durch Empfang des Reflektionssignals und durch die Messung der zwischen Sendung und Empfang liegende Zeitdauer (Time-of-flight Methode) entstehen Durch Kombination der bekannten Position des Scanners, der Richtung der Messung und der Entfernung zum Ziel, welche aus der Dauer zwischen Impuls und Empfang ermittelt wird, kann jede absolute Position jedes Zieles bzw jedes angepeilten Bildpunktes bestimmt werden Um das gesamte Bild des Gefahrenbereichs zu ermitteln, wird der Laser-Scanner in mehren ubereinander egenden Ebenen in incrementell kleinen Winkelschπtten gefuhrt Er ermittelt dabei die Entfernung jedes Bildpunktes der jeweiligen Ebene von dem Laser-Scanner Nach einem Durchlauf durch samtliche Ebenen ist der Rechner mit Software in der Lage, ein aus einer Vielzahl von Bildpunkten bestehendes dreidimensionales Bild des Gefahrenbereichs mit eventuell vorhandenen Gegenstanden zu speichern Durch den Rechner kann dieses digital gespeicherte Bild auch sichtbar gemacht werden, z B nach dem Verfahren des „color coded 3D picture" (farbcodiertes 3D-Bιld) Dieses Verfahren ist in Fig 2 schematisch dargestellt Fig 3 zeigt ein Block Diagramm mit dem Datenfluß des 3D Laser-Scanners
Das 3D-CCD IR Stereo-Kamerasystem besteht aus folgenden Einzelmodulen
=> zwei CCD-Kameras 2 und 3 mit mittlerer Auflosung und einer spektralen Sensitivität vom sichtbaren Licht bis ins nahe Infrarot => ein Trigger (zur synchronen Bildaufnahme) = eine Hochgeschwindigkeits-Bilderzeugung (Framegrabber) = eine zusätzliche Infrarotbeleuchtung => eine Schnittstelle zur Zentralen Prozessoreinheit
Das Meßprinzip beruht darauf, daß gleichzeitig - triggergesteuert - die Einzelbilder aufgenommen werden Nach Auslesen mittels eines Hochgeschwmdigkeits-Frame- grabbers stellt es das Stereobildpaar über eine Multiplexing-DFU-Verbmdung der Aus- wertungssoftware zur Verfugung Durch eine Bildvorverarbeitung werden automatisch in beiden Bilder aufgesuchte Paßpunkte (z B stark reflektierende Meßmarken) ausgesucht und die Parameter der relativen und der äußeren Orientierung beider Bilder berechnet
Durch die Fixierung der Kameras einerseits zueinander, andererseits bezüglich des Aufnahmebereiches, liegen sehr gute Näherungswerte vor, die in wenigen Rechenschritten (Iterationen) verbessert werden können
Sobald das auf diese Weise orientierte Stereobildpaar vorliegt, werden Zonen gleicher Grauwerte in beiden Bildern in Beziehung zueinander gesetzt Mittels einer Parallaxen- Messung in beiden Bildern kann nun zu jedem in beiden Bildern abgebildeten Bildpunkt und Objekt die raumliche Koordinate berechnet werden Aus allen gemessenen räumlichen Koordinaten wird die Oberflachenstruktur des Objektes abgeleitet Zur Visualisierung lassen sich sogenannte Tiefendarstellungen (depth Images) ableiten, in denen mittels Falschfarben die Objekte in Abhängigkeit von ihrer Entfernung zur Kamera eingefarbt werden
Das abgeleitete Oberflachenmodell wird danach mit den folgenden Modellbildern verglichen
=> einem Soll-Modell (Oberflache ohne Storobjekte), welches zuvor mit der gleichen oder einer anderen Konstellation von Bildaufnahmegeraten aufgenommen und gespeichert worden ist, => abgeleiteten Oberflachenmodellbildern anderer Sensoren, insbesondere des Laser- Scanners, => zuvor aufgenommenen Bildern derselben Sensoren Dieser Vergleich dient einerseits dem Auffinden störender Gegenstande, andererseits der Steigerung der Zuverlässigkeit durch Auffinden System- oder zufallsbedingter Fehlmessungen
Wenn solche Fehler nicht festgestellt werden, kann nunmehr eine Oberflachendifferenz zu den Modellbildern oder zu den vorher aufgenommenen Bildern des gleichen Sensors ermittelt werden Diese Oberflachendifferenz kann als Entfernungsdifferenz oder über Volumenvergleich einer Vielzahl zusammengehöriger, zusammenhangender Bildpunkte ermittelt werden Ergibt sich nun eine Differenz, die außerhalb der erlaubten (durch die Meßunsicherheit vorgegebenen) Toleranzen liegt, so kann auf ein Storobjekt geschlossen werden
Durch Vergleich mit einem Oberflachenmodell, das aus der vorherigen Messung des gleichen Sensors abgeleitet wurde, laßt sich die Zuverlässigkeit weiter steigern Des weiteren kann durch die Einbeziehung der Zeitkomponente auf das Objektverhalten geschlossen werden
Der Datenfluß innerhalb des Systems entspricht demjenigen des Laser-Scanner Subsystems
Die Kombination von 3D-Laser-Scanner und 3D CCD-IR-Stereo Kamera hat folgende Vorteile
Grundsätzlich sammeln die beiden Systeme 3D-Laser-Scanner und 3D CCD-IR-Stereo Kamera die gleiche Information auf unabhängige und unterschiedliche Art und Weise Dies hat in einer sicherheitstechnisch relevante Umgebung gute Grunde Die Redundanz der Messungen ist gewünscht und die Vorteile liegen auf der Hand Ein Block Diagramm ist in Fig 4 dargestellt mit folgenden prinzipiellen Softwarekomponenten
= IVEnt 3D-Calculator LS (3D Berechnung der Laseraufnahme) => IVEnt 3D-Calculator CAM (3D Berechnung der Kameraaufnahme) => IVEnt 3D-Change-Detector (Vergleichssoftware für die Feststellung von
Änderungen) Die Module IVEnt 3D-Calculator LS und IVEnt 3D-Calculator CAM berechnen die räumliche Information im Uberwachungsgebiet und stellen sie dem IVEnt 3D-Change- Detector zur Verfugung Im IVEnt 3D-Change-Detector werden die Daten zunächst auf Fehler geprüft und diese wo möglich bereinigt Durch die räumliche Erkennung ist die Algoπthmik in der Lage, Änderungen bis hin zur geringsten systembedingten Auflosung im Interessengebiet zu erkennen
Jede bleibende Änderung im beobachteten Interessenbereich, zum Beispiel neue Bauwerke, erfordern ein interaktives Update des Basismodells für den IVEnt 3D- Change-Detector In der Software ist eine solche automatisierte Möglichkeit vorgesehen Sie kann durch autorisierte Nutzer ausgelost werden In Fig 5 ist ein Kontroll-Monitor in einem Eisenbahnfahrzeug dargestellt Um die Sicherheit eines Bahnübergangs zu erhohen, wird die Möglichkeit einer integrierten telematischen Anwendung angeboten Das System besteht aus der => Controll Monitor Software = Controll Einheit mit Monitor und Kontrolleuchten => Kommunikations Hard- und Software und erfordert die Benutzung einer Kommunikationslinie über Funk zwischen Zug und Bahnübergang
Im folgenden wird dieses System naher erläutert Jeder Zug und jeder Bahnübergang hat einen eindeutigen digitalen Identifikationsschlussel
Vor Fahrtbeginn hat der Fahrzeugfuhrer einen Datensatz mit allen Schlüsseln der Bahnübergänge zu laden, die er auf seiner Fahrt quert Bei Annäherung an Bahnübergänge errichtet die Software automatisch die Kommunikationsverbindung und informiert den Zugführer über den Sicherheitszustand Tauchen Hindernisse auf, erhalt der Fahrzeugfuhrer über den in seinem Fahrzeug mitgefühlten Bildschirm z B das in Fig 5 dargestellte Bild des Bahnübergangs Im übrigen kann die Einschaltung von außen oder automatisch erfolgen, d h von Hand gesteuert, zeitgesteuert, von der Überwachung gesteuert Ebenso lasst sich mit dem System und dem Ausgangssignal eine Steuerkette auslosen, z B Ausfahrschranken offnen, Induktionsbremseinrichtung aktivieren, Haltesignal setzen Es ist darauf hinzuweisen, dass das System auch für andere Bereiche einsetzbar ist, z.B. Überwachung von Hochsicherheitsbereichen.
Andere Sensoren für andere physikalische Eigenschaften können zusätzlich eingeschaltet werden, z.B. Gravimeter zur Feststellung der Dichte, magnetische Sensoren, induktive Schleifen, Sensoren zur Erfassung von Wärmestrahlen (lebende Objekte). Mit diesen weiteren Sensoren können weitere Parameter überprüft werden, die für die Objekterkennung oder die Überprüfung der Plausibilitat der aufgenommenen Modelle nützlich sind.

Claims

ANSPRÜCHE
1. Verfahren zur Überwachung eines Gefahrenbereiches auf gefährdete und/oder gefährliche Gegenstände mittels eines Bildaufnahmegerätes, in dessen Aufnahmebereich der Gefahrenbereich liegt und durch welches der Gefahrenbereich erfassbar ist,
Kennzeichen:
Das erfaßte Bild des Gefahrenbereiches wird in eine Vielzahl von Bildpunkten zerlegt; die Bildpunkte werden als Ist-Modell digital gespeichert; die Bildpunkte des Ist-Modells werden mit den Bildpunkten eines zuvor erfaßten und gespeicherten Soll-Modells des Gefahrenbereiches ohne gefährdete und/oder gefährliche Gegenstände verglichen; bei Abweichungen der Bildpunkte der beiden Modelle wird ein Signal, vorzugsweise ein Warnsignal ausgegeben.
2. Verfahren nach Anspruch 1 Kennzeichen:
Die Bildpunkte des Ist-Modells und des Soll-Modells werden in einem gemeinsamen Bezugs- und Koordinatensystem angeordnet und gespeichert.
3. Verfahren nach Anspruch 1 Kennzeichen:
Die Bildpunkte des Ist-Modells und des Soll-Modells werden in unterschiedlichen Bezugs- und Koordinatensystemen aufgenommen; die Koordinatensysteme des Ist-Modells und des Soll-Modells werden durch vorgegebene Transformationsparameter aufeinander überführt werden.
4. Verfahren nach einem der vorangegangenen Ansprüche Kennzeichen: die Bildpunkte des Soll-Modells und des Ist-Modells des Gefahrenbereichs werden in einem dreidimensional Bezugs- und Koordinatensystem erfaßt und gespeichert
Verfahren nach Anspruch 4 Kennzeichen
Es wird die Entfernung der Bildpunkte erfasst
Verfahren nach Anspruch 4 oder 5 Kennzeichen die raumliche Lage der Bildpunkte wird durch Einfarbung der Bildpunkte in Abhängigkeit von ihrer Entfernung zu den Kameras an einem Bildschirm und/oder einem Ausdruck der Bildpunkte sichtbar gemacht
Verfahren nach einem der vorangegangenen Ansprüche
Kennzeichen
In dem Bezugssystem ist ein eindeutig bestimmter Bereich gespeichert, innerhalb dessen der Gefahrenbereich und die überwachten Bildpunkte des Gefahrenbereichs abgetastet werden
Verfahren nach Anspruch 7 Kennzeichen die Lage und Große des Gefahrenbereichs ist programmierbar und speicherbar
Verfahren nach einem der vorangegangenen Ansprüche Kennzeichen
Es wird die Lichtintensitat der Bildpunkte erfasst,
Verfahren nach Anspruch 9 Kennzeichen
Die Bezugssysteme des Soll-Modells und des Ist-Modells werden durch in dem Aufnahmebereich aufscheinende Punkte (Referenzpunkte) gleicher Helligkeit (homologe Punkte) aufeinander abgestimmt und automatisch kalibriert
1. Verfahren nach Anspruch 9 Kennzeichen:
In dem Aufnahmebereich ist eine Messmarke bekannter Lage- und Reflektionseigenschaften (Referenzpunkt) angeordnet; Die Lichtsignale der Messmarke werden zur räumlichen Kalibrierung des Bezugssystems benutzt
12. Verfahren nach Anspruch 9 Kennzeichen:
In dem Aufnahmebereich ist eine Messmarke bekannter Lage- und Reflektionseigenschaften (Referenzpunkt) angeordnet; Die Lichtsignale der Messmarke werden durch Vergleich mit der Soll- Rückstrahlintensität zur Überwachung der Systemintegrität benutzt.
13. Verfahren nach einem der Ansprüche 9 bis 12 Kennzeichen: die Referenzpunkte liegen außerhalb des Gefahrenbereichs.
14. Verfahren nach einem der Ansprüche 1 bis 13 Kennzeichen:
In Zeiten, in denen Störungen im Gefahrenbereich nicht zu erwarten sind, erfolgt eine Kalibrierungsmessung zum Abgleich der Bezugssysteme und/oder der Orientierung des Sensors zum Soll-Modell und/oder zum Abgleich der Helligkeitswerte.
15. Verfahren nach einem der Ansprüche 1 bis 14 Kennzeichen:
In Zeiten, in denen Störungen im Gefahrenbereich nicht zu erwarten sind, erfolgt eine Kontrollmessung und -falls erforderlich- Änderungen des Soll-Modells, wobei die Speicherung des Soll-Modells von Hand und/oder automatisch insbesondere dann erfolgen kann, wenn zwei Sensoren ein identisches Modell zeigen.
16. Verfahren nach einem der Ansprüche 1 bis 15 Kennzeichen: zur Verbesserung der Objekterkennung erfolgt ein Vergleich der mittels eines Sensors nacheinander aufgenommenen Ist-Modelle.
17. Verfahren nach einem der Ansprüche 1 bis 16 Kennzeichen: zur Verbesserung der Objekterkennung erfolgt ein Vergleich der durch zwei Sensoren gleichzeitig oder nacheinander aufgenommenen Ist-Modelle.
18. Verfahren nach einem der Ansprüche 16 oder 17 Kennzeichen das digital gespeicherte Bild des Gefahrenbereichs wird mit einem synchron oder kurz zuvor in einem anderen Aufnahmeverfahren und/oder mit andersartigen Geräten und Aufnahmeparametern aufgenommenen und digital gespeicherten Bild des Gefahrenbereichs verglichen
19. Verfahren nach einem der Ansprüche 16 -18 Kennzeichen
Die Auswertung der aufgenommenen Modelle betrifft Fehler der Aufnahme und/oder die Plausibilitat der örtlichen und/oder räumlichen Lage, Entfernung, Größe und Ausdehnung, Bewegung eines vorgegebenen Referenzpunktes oder eines anderen bestimmten Objekts
20. Verfahren nach einem der Ansprüche 1-19 Kennzeichen
Die Herstellung des Ist-Modells und des Soll-Modells des Gefahrenbereiches erfolgt in Aufnahmeverfahren, die in ihrer technischen Ausgestaltung und vorzugsweise auch hinsichtlich der Geräte und/oder Aufnahmeparameter identisch sind.
21. Verfahren nach einem der Ansprüche 1-20 Kennzeichen Die Aufnahme des Ist-Modells und/oder des Soll-Modells des Gefahrenbereiches erfolgt in einem Aufnahmeverfahren, welches mittels eines Strahlensende- und empfangssystems die Bildpunkte in vorgegebener Folge impulsweise abtastet, durch Messung von Parametern der emittierten und der empfangenen Strahlen, insbesondere der Laufzeit der ausgesandten Strahlen (Echolot- (Time of Flight)
Prinzip), des Dopplereffekts der emittierten und der empfangenen Strahlen oder der
Phasenverschiebung zwischen den Wellen der emittierten und der empfangenen
Strahlen ein die Entfernung des jeweiligen Bildpunktes von dem Aufnahmegerät repräsentierendes Signal erzeugt und dieses Singnal in das räumliche Bezugssystem einordnet und speichert.
22. Verfahren nach einem der Ansprüche 1-20 Kennzeichen
Die Aufnahme des Ist-Modells und/oder des Soll-Modells des Gefahrenbereiches erfolgt in einem Aufnahmeverfahren, welches mittels eines Strahlenempfangssystems die Bildpunkte in vorgegebener Folge impulsweise abtastet, durch Messung die Rückstrahlintensität für jeden Bildpunkt ein Signal erzeugt und mit einer Wertigkeit peichert, welche insbesondere Entfernung des Bildpunktes die Oberflächenbeschaffenheit des abgetasteten Gegenstandes, insbesondere hinsichtlich Dichte und Glätte oder sonstige Parameter der abgetasteten Oberfläche repräsentiert.
23. Verfahren nach einem der Ansprüche 1-22 Kennzeichen: als Aufnahmegerät wird ein Laser-Scanner; vorzugsweise Laser-Scanner verwandt, der aus Sender und Empfänger für Laserimpulse im Infrarotbereich besteht.
24. Verfahren nach einem der Ansprüche 1 bis 22 Kennzeichen: als Aufnahmegerät werden zwei Kameras verwandt, die an Positionen angebracht sind, welche relativ zum Gefahrenbereich und relativ zu dem gemeinsamen Bezugssystem geometrisch vorbestimmt sind, wobei vorzugsweise beide Kameras mit einem Microprocessor verbunden sind, in dem die aufgenommenen Bilder des Gefahrenbereichs gespeichert und in dem gemeinsamen Bezugssystem relativ zu einander in Beziehung gesetzt werden.
25. Verfahren nach Anspruch 24 Kennzeichen:
Die geometrischen Positionen der Aufhängung der Kameras und die Orientierung und Lage ihres CCD-Arrays erfolgt in einem übergeordneten Bezugssystem.
26. Verfahren nach Anspruch 24 oder 25 Kennzeichen: die beiden Kameras nehmen Bilder im Infrarotbereich auf und sind vorzugsweise mit einer Infrarot-Lichtquelle verbunden.
27. Verfahren nach Anspruch 24 Kennzeichen:
Die beiden Kameras nehmen Bilder im Sichtbereich des Lichts und vorzugsweise bis in den sichtnahen Infrarotbereich auf.
28. Verfahren nach einem der Ansprüche 24 bis 27 Kennzeichen:
Die Helligkeit der Bildpunkte wird erfasst in (z.B.) 256 Graustufen.
29. Verfahren nach einem der Ansprüche 24 bis 28 Kennzeichen:
Die räumliche Lage der Bildpunkte der im Wesentlichen synchron aufgenommenen Bilder wird mit Hilfe des Mikroprozessors ermittelt aus
- den geometrischen Daten der Aufhängung der Kameras sowie aus
- der Drehung und Verschiebung sowie gegebenenfalls Maßstabsänderung der aufgenommenen Bilder, die erforderlich ist, um identische Bildpunkte, insbesondere Bildpunkte identischer Helligkeit zur Deckung zu bringen;
30. Verfahren nach einem der Ansprüche 24 bis 29 Kennzeichen: es erfolgt ein Vergleich von Bildern des Gefahrenbereichs, die einerseits nach einem der Ansprüche 24 bis 29 sowie andererseits durch eine dritte Kamera nach einem der Ansprüche 1 bis 23 gleichzeitig bzw. nach einander aufgenommen worden sind, wobei die dritte Kamera vorzugsweise im Wesentlichen senkrecht über der Bildebene (Senkrecht zum Array) der beiden Kameras zur Erfassung des Gefahrenbereiches und Erzeugung eines Soll-Modells und/oder Ist-Modells und vorzugsweise auf der Seite des Gefahrenbereiches angeordnet ist, welche den beiden übrigen Kameras gegenüber liegt.
31. Verfahren nach Anspruch 30 Kennzeichen
Die dritte Kamera ist ein Laser-Scanner im Betrieb nach Anspruch 23.
32. Verfahren nach einem der Ansprüche 1 bis 31 Kennzeichen: durch andere Sensoren für andere physikalische Eigenschaften werden zusätzliche Oberflächenparameter der Objekte und Bildpunkte des Gefahrenbereichs bestimmt, insbesondere Gravimeter zur Feststellung der Dichte, magnetische Sensoren, induktive Schleifen, Sensoren zur Erfassung von Wärmestrahlen von insbesondere lebenden Objekten.
PCT/EP2000/008483 1999-09-09 2000-08-31 Verfahren zur überwachung eines gefahrenbereichs WO2001017838A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE19943193 1999-09-09
DE19943193.0 1999-09-09
DE10010166.6 2000-03-04
DE10010166 2000-03-04

Publications (1)

Publication Number Publication Date
WO2001017838A1 true WO2001017838A1 (de) 2001-03-15

Family

ID=26004641

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2000/008483 WO2001017838A1 (de) 1999-09-09 2000-08-31 Verfahren zur überwachung eines gefahrenbereichs

Country Status (1)

Country Link
WO (1) WO2001017838A1 (de)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005000659A1 (en) * 2003-06-30 2005-01-06 Fontes Joao Antonio Crespo System to determine the relative position between various vehicles
DE10341426A1 (de) * 2003-09-09 2005-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Raumüberwachung und Raumüberwachungsanlage
DE102007060303A1 (de) * 2007-12-12 2009-06-25 Simone Lorenz Verfahren und Vorrichtung zur Überwachung eines Gefahrenraumes an einem Bahnübergang
EP2332805A1 (de) * 2009-12-11 2011-06-15 Bea S.A. Abtastanordnung
DE102012102600B3 (de) * 2012-03-26 2013-08-14 Jenoptik Robot Gmbh Verfahren zur Verifizierung der Ausrichtung eines Verkehrsüberwachungsgerätes
US8525874B2 (en) 2006-08-15 2013-09-03 Koninklijke Philips N.V. Assistance system for visually handicapped persons
EP2803552A3 (de) * 2013-05-13 2015-06-03 China Engineering Consultants, Inc. Multi-rechner Computervision Erkennungssystem für Hindernisse auf Bahnübergänge
DE102014222486A1 (de) 2014-11-04 2016-05-04 Robert Bosch Gmbh Verfahren zur Überwachung einer induktiven Übertragungsstrecke und Ladesystem zum induktiven Laden eines Elektrofahrzeuges
DE102016211284A1 (de) * 2016-06-23 2017-12-28 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur Überwachung eines Gefahrenraumes an einem Bahnübergang
CN109410317A (zh) * 2018-09-28 2019-03-01 安捷睿(厦门)机器人有限公司 具备数据处理功能的激光三维扫描设备及其数据处理方法
DE102019209484A1 (de) * 2019-06-28 2020-12-31 Siemens Mobility GmbH Raumüberwachungsverfahren und Raumüberwachungsanlage zum Überwachen eines Verkehrsraumes
WO2021043535A1 (de) * 2019-09-02 2021-03-11 Siemens Mobility GmbH Zählsystem für ein schienenfahrzeug, verwendung und verfahren
WO2021048029A1 (de) 2019-09-11 2021-03-18 Robert Bosch Gmbh Optischer sensor
CN117041502A (zh) * 2023-10-10 2023-11-10 湖南睿图智能科技有限公司 一种基于机器视觉的危险场景分析监测系统及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5216476A (en) * 1991-10-15 1993-06-01 Synectics Corporation Photogrammetric laser system
US5331312A (en) * 1991-08-23 1994-07-19 Matsushita Electric Industrial Co., Ltd. Obstacle-detecting apparatus
DE19518978A1 (de) * 1994-05-26 1995-11-30 Mitsubishi Electric Corp Hinderniserfassungssystem für Kraftfahrzeuge
DE19525561A1 (de) * 1994-07-13 1996-01-25 Murata Machinery Ltd 3D-Meßvorrichtung
EP0749098A2 (de) * 1995-05-17 1996-12-18 Hitachi Denshi Kabushiki Kaisha Verfahren und Gerät zur Objekterkennung innerhalb des Gesichtfeldes eines Abbildungsgerätes
DE19621612A1 (de) * 1996-05-31 1997-12-11 C Vis Computer Vision Und Auto Verfahren und Vorrichtung zur optischen Freiraumüberwachung
DE19709799A1 (de) * 1997-03-10 1998-09-17 Bosch Gmbh Robert Einrichtung zur Videoüberwachung einer Fläche

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5331312A (en) * 1991-08-23 1994-07-19 Matsushita Electric Industrial Co., Ltd. Obstacle-detecting apparatus
US5216476A (en) * 1991-10-15 1993-06-01 Synectics Corporation Photogrammetric laser system
DE19518978A1 (de) * 1994-05-26 1995-11-30 Mitsubishi Electric Corp Hinderniserfassungssystem für Kraftfahrzeuge
DE19525561A1 (de) * 1994-07-13 1996-01-25 Murata Machinery Ltd 3D-Meßvorrichtung
EP0749098A2 (de) * 1995-05-17 1996-12-18 Hitachi Denshi Kabushiki Kaisha Verfahren und Gerät zur Objekterkennung innerhalb des Gesichtfeldes eines Abbildungsgerätes
DE19621612A1 (de) * 1996-05-31 1997-12-11 C Vis Computer Vision Und Auto Verfahren und Vorrichtung zur optischen Freiraumüberwachung
DE19709799A1 (de) * 1997-03-10 1998-09-17 Bosch Gmbh Robert Einrichtung zur Videoüberwachung einer Fläche

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005000659A1 (en) * 2003-06-30 2005-01-06 Fontes Joao Antonio Crespo System to determine the relative position between various vehicles
DE10341426A1 (de) * 2003-09-09 2005-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Raumüberwachung und Raumüberwachungsanlage
US9603769B2 (en) 2006-08-15 2017-03-28 Koninklijke Philips N.V. Assistance system for visually handicapped persons
US8525874B2 (en) 2006-08-15 2013-09-03 Koninklijke Philips N.V. Assistance system for visually handicapped persons
DE102007060303A1 (de) * 2007-12-12 2009-06-25 Simone Lorenz Verfahren und Vorrichtung zur Überwachung eines Gefahrenraumes an einem Bahnübergang
DE102007060303B4 (de) * 2007-12-12 2010-11-25 Simone Lorenz Verfahren und Vorrichtung zur Überwachung eines Gefahrenraumes an einem Bahnübergang
EP2332805A1 (de) * 2009-12-11 2011-06-15 Bea S.A. Abtastanordnung
US8536509B2 (en) 2009-12-11 2013-09-17 Bea Sa Scanner arrangement
DE102012102600B3 (de) * 2012-03-26 2013-08-14 Jenoptik Robot Gmbh Verfahren zur Verifizierung der Ausrichtung eines Verkehrsüberwachungsgerätes
EP2645331A1 (de) * 2012-03-26 2013-10-02 JENOPTIK Robot GmbH Verfahren zur Verifizierung der Ausrichtung eines Verkehrsüberwachungsgerätes
EP2803552A3 (de) * 2013-05-13 2015-06-03 China Engineering Consultants, Inc. Multi-rechner Computervision Erkennungssystem für Hindernisse auf Bahnübergänge
DE102014222486A1 (de) 2014-11-04 2016-05-04 Robert Bosch Gmbh Verfahren zur Überwachung einer induktiven Übertragungsstrecke und Ladesystem zum induktiven Laden eines Elektrofahrzeuges
DE102016211284A1 (de) * 2016-06-23 2017-12-28 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur Überwachung eines Gefahrenraumes an einem Bahnübergang
CN109410317A (zh) * 2018-09-28 2019-03-01 安捷睿(厦门)机器人有限公司 具备数据处理功能的激光三维扫描设备及其数据处理方法
CN109410317B (zh) * 2018-09-28 2023-05-26 安捷睿(厦门)机器人有限公司 具备数据处理功能的激光三维扫描设备及其数据处理方法
DE102019209484A1 (de) * 2019-06-28 2020-12-31 Siemens Mobility GmbH Raumüberwachungsverfahren und Raumüberwachungsanlage zum Überwachen eines Verkehrsraumes
WO2021043535A1 (de) * 2019-09-02 2021-03-11 Siemens Mobility GmbH Zählsystem für ein schienenfahrzeug, verwendung und verfahren
WO2021048029A1 (de) 2019-09-11 2021-03-18 Robert Bosch Gmbh Optischer sensor
CN117041502A (zh) * 2023-10-10 2023-11-10 湖南睿图智能科技有限公司 一种基于机器视觉的危险场景分析监测系统及方法
CN117041502B (zh) * 2023-10-10 2023-12-08 湖南睿图智能科技有限公司 一种基于机器视觉的危险场景分析监测系统及方法

Similar Documents

Publication Publication Date Title
DE4411448C5 (de) Verfahren und Vorrichtung zur Kontrolle eines vorgegebenen Überwachungsbereichs
EP1933167B1 (de) Optoelektronischer Sensor sowie Verfahren zur Erfassung und Abstandsbestimmung eines Objekts
EP1949143B1 (de) Vorrichtung und verfahren zum überwachen eines raumbereichs, insbesondere zum absichern eines gefahrenbereichs einer automatisiert arbeitenden anlage
EP1300691B1 (de) Überwachungsverfahren und optoelektronischer Sensor
WO2001017838A1 (de) Verfahren zur überwachung eines gefahrenbereichs
DE102010012811B4 (de) Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten
EP2616842A1 (de) Umfeld-überwachungssystem für ein fahrzeug
DE60006411T2 (de) Zählvorrichtung
EP2457217B1 (de) Verfahren und vorrichtung zum überwachen eines raumbereichs
EP1067399A2 (de) Verfahren zur Sichtweitenbestimmung
DE10155488A1 (de) Verfahren zur Erfassung der Oberfläche einer Fahrbahn
DE102009055626A1 (de) Optische Messeinrichtung und Verfahren zur optischen Vermessung eines Messobjekts
DE102009030644B4 (de) Berührungslose Erfassungseinrichtung
WO1998038616A1 (de) Vorrichtung und verfahren zum erfassen eines objekts in einem vorgegebenen raumbereich, insbesondere von fahrzeugen für die verke hrsüberwachung
DE102019215903A1 (de) Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern
DE19621612A1 (de) Verfahren und Vorrichtung zur optischen Freiraumüberwachung
DE10033608A1 (de) Verfahren und Vorrichtung zum Absichern eines Gefahrenbereichs, insbesondere des Gefahrenbereichs einer automatisiert arbeitenden Maschine
DE2830835A1 (de) Einrichtung zur ueberwachung der fehlerfreiheit
EP2453260B2 (de) Überwachungssensor mit Selbstprüfung
DE102016110514B4 (de) Vorrichtung und Verfahren zum Überwachen eines Raumbereichs, insbesondere zum Absichern eines Gefahrenbereichs einer automatisiert arbeitenden Anlage
DE102020110809B3 (de) Verfahren und Vorrichtung zum Erkennen von Blooming in einer Lidarmessung
DE60214278T2 (de) Verfahren zur Indentifizierung eines spezifischen Lichtsignals in einem Goniometer inmitten anderer möglicherweise störender Lichtsignale
DE102017100885B4 (de) Verfahren und vorrichtung zum erzeugen und projizieren eines 3d-thermogramms samt daten zu den aufnahmebedingungen
DE1946264B2 (de) Geraet zur messung der sichtweite bei nebel
EP2631668A1 (de) Optische Einrichtung und Prüfverfahren zur Prüfung der Funktionsfähigkeit einer optischen Einrichtung

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase