DE102007000344A1 - System for detection of sensor disturbances and for signal disturbances, has sensor for recording electromagnetic radiation and for generation of image sequences - Google Patents

System for detection of sensor disturbances and for signal disturbances, has sensor for recording electromagnetic radiation and for generation of image sequences Download PDF

Info

Publication number
DE102007000344A1
DE102007000344A1 DE102007000344A DE102007000344A DE102007000344A1 DE 102007000344 A1 DE102007000344 A1 DE 102007000344A1 DE 102007000344 A DE102007000344 A DE 102007000344A DE 102007000344 A DE102007000344 A DE 102007000344A DE 102007000344 A1 DE102007000344 A1 DE 102007000344A1
Authority
DE
Germany
Prior art keywords
sensor
signal
fault
unit
sensor signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007000344A
Other languages
German (de)
Inventor
Ivo Dr. Keller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VIS A PIX GmbH
Vis-A-Pix GmbH
Original Assignee
VIS A PIX GmbH
Vis-A-Pix GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VIS A PIX GmbH, Vis-A-Pix GmbH filed Critical VIS A PIX GmbH
Priority to DE102007000344A priority Critical patent/DE102007000344A1/en
Publication of DE102007000344A1 publication Critical patent/DE102007000344A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/02Monitoring continuously signalling or alarm systems
    • G08B29/04Monitoring of the detection circuits
    • G08B29/046Monitoring of the detection circuits prevention of tampering with detection circuits
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/20Calibration, including self-calibrating arrangements
    • G08B29/24Self-calibration, e.g. compensating for environmental drift or ageing of components
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/20Calibration, including self-calibrating arrangements
    • G08B29/24Self-calibration, e.g. compensating for environmental drift or ageing of components
    • G08B29/26Self-calibration, e.g. compensating for environmental drift or ageing of components by updating and storing reference thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)

Abstract

The system has a sensor (25) for the recording electromagnetic radiation and for the generation of image sequences. A memory unit (18) and an analysis unit (13) are formed for the analysis of the sensor signal (1). The sensor signal is analyzed for the detection of the sensor disturbances and the signal disturbances. An independent claim is also included for a method for the detection of sensor disturbances and for signal disturbances.

Description

Technisches GebietTechnical area

Die vorliegende Erfindung betrifft ein System zur Erkennung von Sensorstörungen und/oder von Signalstörungen, aufweisend mindestens einen Sensor zur Erfassung von elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen.The The present invention relates to a system for detecting sensor disturbances and / or of signal interference, comprising at least one sensor for detecting electromagnetic Radiation and to generate image sequences.

Die vorliegende Erfindung betrifft des Weiteren ein Verfahren zur Erkennung von Sensorstörungen und/oder von Signalstörungen mittels mindestens eines Sensors zur Erfassung von elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen.The The present invention further relates to a method of recognition of sensor disturbances and / or signal interference by means of at least one sensor for detecting electromagnetic Radiation and to generate image sequences.

Stand der TechnikState of the art

Systeme, in denen Sensoren zur Erfassung elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen eingesetzt werden, sind weit verbreitet. Angefangen bei Überwachungssystemen mit Videokameras, bei denen eine Situationsanalyse automatisch oder seitens eines menschlichen Beobachters stattfindet, über automatische Roboter-Vision-Systeme oder Fingerabdrucklesesysteme bis hin zu optischen Scanner können unterschiedliche Arten von Sensorstörungen oder von Signalstörungen auftreten, die sowohl durch zufällige Ereignisse, wie durch eine Verschmutzung der Sensoroberfläche, als auch durch gezielte Sabotageaktionen verursacht werden können.systems, in which sensors for detecting electromagnetic radiation and are used to generate image sequences are widely used. Starting with surveillance systems with video cameras where a situation analysis is automatic or on the part of a human observer, via automatic Robotic vision systems or fingerprint reading systems all the way to optical scanner can different types of sensor disturbances or signal interference occur, both by accidental Events, such as contamination of the sensor surface, as well can be caused by targeted sabotage actions.

Aus der Druckschrift EP 1 672 604 A1 aus dem Stand der Technik sind ein Verfahren sowie eine Einrichtung zur Detektion von Sabotage Sabotageversuchen oder an einer Überwachungskamera bekannt. Anhand der von der Kamera aufgenommenen Bilder wird jedes Bild mit einem früher aufgenommenen Referenzbild verglichen und daraus ein Korrelationswert gewonnen; dieser Korrelationswert wird mit einer Alarmschwelle verglichen.From the publication EP 1 672 604 A1 From the prior art, a method and a device for detecting sabotage sabotage attempts or on a surveillance camera are known. Based on the images taken by the camera, each image is compared with a previously recorded reference image and obtained therefrom a correlation value; this correlation value is compared with an alarm threshold.

Die Einrichtung zur Durchführung dieses bekannten Verfahrens enthält einen Prozessor für die Auswertung der aufgenommenen Bilder und ein auf diesem Prozessor implementiertes Programm für die Ausführung der genannten Verfahrensschritte.The Device for implementation contains this known method a processor for the evaluation of the captured images and one on this processor implemented program for execution the said process steps.

Mit dem Problem der Erkennung von Sabotage an einem Sensor beschäftigt sich zum Beispiel die Druckschrift WO 00/57381 A1 aus dem Stand der Technik, die ein Verfahren und eine Vorrichtung zur Erfassung eines Maskierungsvorgangs beim Einschalten eines Bewegungsdetektors mit Hilfe eines Infrarotsensors und eines Mikrowellen-Doppler-Sensors beschreibt.For example, the document deals with the problem of detecting sabotage on a sensor WO 00/57381 A1 from the prior art, which describes a method and a device for detecting a masking process when turning on a motion detector using an infrared sensor and a microwave Doppler sensor.

Der grundsätzliche Nachteil dieses bekannten Systems und ähnlicher Systeme zur Erkennung von Sabotage an einem Sensor ist deren Kostenintensität. Die hier realisierte grundsätzliche Idee besteht darin, einen Sensor mit Hilfe von anderen Sensoren abzusichern. Ein Beispiel dafür ist die Ausstattung einer Videokamera mit einer Vielzahl von Zusatzsensoren, wie Bewegungssensoren, Glasbruchsensoren, Drucksensoren oder dergleichen; dies ist zwar technisch möglich, bringt aber hohe Installations- und Wartungskosten mit sich.Of the fundamental Disadvantage of this known system and similar systems for the detection of Sabotage on a sensor is its cost intensity. This one realized fundamental Idea is to use a sensor with the help of other sensors secure. An example for is the equipment of a video camera with a variety of additional sensors, such as motion sensors, glass breakage sensors, pressure sensors or the like; this is technically possible But brings high installation and maintenance costs.

Aufgabe der ErfindungObject of the invention

Ausgehend von den vorstehend dargelegten Nachteilen und Unzulänglichkeiten sowie unter Würdigung des umrissenen Standes der Technik liegt der vorliegenden Erfindung die Aufgabe zugrunde, ein System der eingangs genannten Art sowie ein Verfahren der eingangs genannten Art so weiterzubilden, dass eine automatische Erkennung von Sensorstörungen und/oder von Signalstörungen, die ohne gezielten menschlichen Einfluss auftreten, gewährleistet ist.outgoing from the disadvantages and shortcomings set out above as well as in appreciation of the prior art is the present invention the task is based, a system of the type mentioned above as well a method of the type mentioned in such a way that automatic detection of sensor disturbances and / or signal interference, which occur without targeted human influence, guaranteed is.

Dies ist besonders für Systeme mit automatischer Signalauswertung zum Zwecke der Situationsanalyse wichtig. Die meisten konventionellen Analysesysteme können ohne menschliche Hilfe nicht erkennen, ob das empfangene Signal noch für die Analyse geeignet ist, und gehen einfach davon aus.This is especially for Systems with automatic signal evaluation for the purpose of situational analysis important. Most conventional analytical systems can do without human help does not realize if the received signal is still for the Analysis is appropriate and just assume.

Nach der ersten Kalibrierung der Sensoren (bei der Initialisierung) werden die ermittelten Kalibrierungsparameter beibehalten, unabhängig davon, ob sich die Lage inzwischen geändert hat oder nicht. Es können sich zum Beispiel die räumliche Lage oder die Fokussierungseinstellungen ändern, wie es zum Beispiel bei einer auf einem Bahnhof installierten Videokamera aufgrund der mechanischen Einflüsse vorbeifahrender Züge oft geschieht.To the first calibration of the sensors (at initialization) maintain the determined calibration parameters, regardless of whether the situation has changed in the meantime or not. It can for example, the spatial Location or the focus settings change, as is the case for example at a video camera installed on a railway station due to the mechanical influences passing by Trains often happens.

Darstellung der vorliegenden Erfindung: Lösung, VorteileIllustration of the present invention: Solution, advantages

Diese Aufgabe wird durch ein System mit den im Anspruch 1 angegebenen Merkmalen sowie durch ein Verfahren mit den im Anspruch 23 angegebenen Merkmalen gelöst. Vorteilhafte Ausgestaltungen und zweckmäßige Weiterbildungen der vorliegenden Erfindung sind in den jeweiligen Unteransprüchen gekennzeichnet.These Task is achieved by a system with the specified in claim 1 Characteristics and by a method with the specified in claim 23 Characteristics solved. Advantageous embodiments and expedient developments of the present Invention are characterized in the respective subclaims.

Eine Teillösung des vorstehend dargelegten technischen Problems bietet bereits die Druckschrift WO 01/60074 A1 aus dem Stand der Technik an, in der ein Verfahren und eine Vorrichtung zur Erkennung von Fehlern in Signalverarbeitungsanlagen der Sicherheitstechnik, und zwar von Übertragungsfehlern, beschrieben sind.A partial solution of the above-described technical problem already provides the document WO 01/60074 A1 in the prior art, in which a method and an apparatus for detecting errors in signal processing equipment security technology, namely transmission errors, are described.

Dieses bekannte Verfahren besteht im Wesentlichen darin, zusätzlich zum Kamerasignal ein veränderndes visuelles Signal zu erzeugen und in der Anzeigeeinheit anzuzeigen. Hierdurch ist es für einen Nutzer möglich zu erkennen, ob es sich beim aktuell dargestellten Signal um das von der Kameraeinheit aufgezeichnete Videosignal handelt. Weitere Arten von Sensorstörungen und/oder der Sabotage werden in der Druckschrift WO 01/60074 A1 aus dem Stand der Technik nicht behandelt.This known method essentially consists of generating a changing visual signal in addition to the camera signal and displaying it in the display unit. This makes it possible for a user to recognize whether the currently displayed signal is the video signal recorded by the camera unit. Other types of sensor interference and / or sabotage are in the document WO 01/60074 A1 not dealt with in the prior art.

Die vorliegende Erfindung beruht auf einem System und auf einem Verfahren zur Erkennung von Sensorstörungen und/oder von Signalstörungen in Anlagen, die mindestens einen Sensor zur Erfassung von elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen verwenden.The The present invention is based on a system and method to detect sensor interference and / or signal interference in plants that have at least one sensor for detecting electromagnetic Use radiation and to generate image sequences.

Das System weist mindestens eine Speichereinheit und mindestens eine Analyseeinheit zur Analyse des Sensorsignals auf und wird erfindungsgemäß so ausgeführt, dass die Erkennung von Sensorstörungen und/oder von Signalstörungen und von Sabotage aus dem Sensorsignal selbst durchgeführt wird, so dass die entsprechenden Gegenmaßnahmen durch das System selbst oder durch eine Meldung an einen Beobachter getroffen werden können.The System has at least one storage unit and at least one Analysis unit for analyzing the sensor signal and is inventively designed so that the detection of sensor interference and / or signal interference and sabotage from the sensor signal itself, so that the appropriate countermeasures through the system itself or by a message to an observer.

Die erfindungsgemäß vorgeschlagene Erkennung von Sabotage aus dem Sensorsignal selbst bedeutet eine hohe Kostenersparnis.The proposed according to the invention Detection of sabotage from the sensor signal itself means one high cost savings.

Bei einigen vorteilhaften Ausführungsformen der vorliegenden Erfindung erfolgt die Erkennung eines Signalausfalls, einer Veränderung der räumlichen Position des Sensors, einer Veränderung der Fokussierungseinstellungen des Sensors, einer Verdeckung und/oder einer Verunreinigung der Sensoroberfläche, von Beleuchtungsänderungen im Erfassungsbereich des Sensors, eines Ersetzens des Sensorsignals durch ein anderes Signal oder ähnlicher Vorgänge.at some advantageous embodiments of present invention, the detection of a signal failure, a change the spatial Position of the sensor, a change the focusing settings of the sensor, a masking and / or contamination of the sensor surface, changes in illumination in the detection range of the sensor, a replacement of the sensor signal by another signal or similar Operations.

Bei der vorliegenden Erfindung handelt es sich um ein System und um ein Verfahren, die die Erkennung von Sensorstörungen und/oder von Signalstörungen aus dem Sensorsignal selbst gewährleisten. Die Realisierung besteht in einer Installation neuer Module oder auch in einer Anpassung an neue Aufgaben der möglicherweise bereits bestehenden Module zur automatischen Auswertung des Sensorsignals. Diese Module sind mindestens eine Speichereinheit und mindestens eine Analyseeinheit zur Analyse des Sensorsignals.at The present invention is a system and a method that detects the detection of sensor interference and / or signal interference ensure the sensor signal itself. The realization consists in an installation of new modules or also in adaptation to new tasks of possibly existing modules for automatic evaluation of the sensor signal. These modules are at least one storage unit and at least one analysis unit for analyzing the sensor signal.

Das erfindungsgemäße System sowie das erfindungsgemäße Verfahren sind so ausgeführt, dass das Sensorsignal in kurzen Zeitabständen gemessen und in der Analyseeinheit mit Hilfe der in der Speichereinheit enthaltenen Methoden analysiert wird. Die zeitlichen Signaländerungen werden betrachtet und auf ihre Entsprechung mit den in der Speichereinheit enthaltenen Störungsszenarien untersucht.The inventive system as well as the method according to the invention are designed so that the sensor signal measured at short intervals and in the analysis unit is analyzed using the methods contained in the storage unit. The temporal signal changes are considered and their equivalent to those in the storage unit contained fault scenarios examined.

Bei den Systemen, die von dieser Erfindung besonders profitieren, handelt es sich um automatische videobasierte Systeme zur Sicherheitsüberwachung, zur Verkehrsüberwachung, zur Marktforschung, zur Fahrerassistenz und dergleichen.at the systems that benefit particularly from this invention these are automatic video-based systems for security surveillance, for traffic monitoring, for market research, driver assistance and the like.

Kurze Beschreibung der ZeichnungenBrief description of the drawings

Wie bereits vorstehend erörtert, gibt es verschiedene Möglichkeiten, die Lehre der vorliegenden Erfindung in vorteilhafter Weise auszugestalten und weiterzubilden. Hierzu wird einerseits auf die dem Anspruch 1 sowie dem Anspruch 23 jeweils nachgeordneten Ansprüche verwiesen, andererseits werden weitere Ausgestaltungen, Merkmale und Vorteile der vorliegenden Erfindung nachstehend anhand der durch 1 bis 12 veranschaulichten Ausführungsbeispiele näher erläutert.As already discussed above, there are various possibilities for embodying and developing the teaching of the present invention in an advantageous manner. For this purpose, on the one hand to the claim 1 and the claim 23 respectively subsequent claims referenced, on the other hand further embodiments, features and advantages of the present invention will be described below with reference to 1 to 12 illustrated embodiments explained in more detail.

Es zeigtIt shows

1 in schematischer Darstellung ein erstes Ausführungsbeispiel des erfindungsgemäßen Systems, das nach dem erfindungsgemäßen Verfahren arbeitet; 1 a schematic representation of a first embodiment of the system according to the invention, which operates according to the inventive method;

2 in schematischer Darstellung ein zweites Ausführungsbeispiel des erfindungsgemäßen Systems, das nach dem erfindungsgemäßen Verfahren arbeitet; 2 a schematic representation of a second embodiment of the system according to the invention, which operates according to the inventive method;

3 in schematischer Darstellung ein Ausführungsbeispiel für den Aufbau einer Einheit zur Entscheidung über das Vorliegen oder Nichtvorliegen und gegebenenfalls die Art einer Störung; 3 a schematic representation of an embodiment for the construction of a unit for deciding on the presence or absence and, if appropriate, the nature of a fault;

4 einen beispielhaften Ablauf der Verarbeitung des Sensorsignals; 4 an exemplary sequence of the processing of the sensor signal;

5 in schematischer Darstellung ein Ausführungsbeispiel für den Aufbau einer nach dem erfindungsgemäßen Verfahren arbeitenden Einheit zur Analyse des Sensorsignals; 5 a schematic representation of an embodiment of the construction of an operating according to the invention unit for analyzing the sensor signal;

6 in schematischer Darstellung ein Ausführungsbeispiel für den Aufbau des nach dem erfindungsgemäßen Verfahren arbeitenden Systems mit vorteilhaften Merkmalen; 6 a schematic representation of an embodiment of the structure of the method according to the invention operating system with advantageous features;

7 in schematischer Darstellung ein Ausführungsbeispiel für das Verfahren mit vorteilhaften Merkmalen; 7 a schematic representation of an embodiment of the method with advantageous features;

8 in schematischer Darstellung ein Ausführungsbeispiel für den Aufbau einer nach dem erfindungsgemäßen Verfahren arbeitenden sekundären Einheit zur Analyse des Sensorsignals; 8th in a schematic representation of an embodiment of the structure of an after he Working method according to the invention secondary unit for analyzing the sensor signal;

9 in schematischer Darstellung ein Ausführungsbeispiel für den Aufbau einer nach dem erfindungsgemäßen Verfahren arbeitenden Einheit zur Merkmalsextraktion; 9 a schematic representation of an embodiment of the construction of an operating according to the invention feature extraction unit;

10 in schematischer Darstellung ein Ausführungsbeispiel für die Detektoren für einzelne Störungsarten; 10 a schematic representation of an embodiment of the detectors for individual types of disorders;

11 in schematischer Darstellung sechs Ausführungsbeispiele für zweidimensionale Eichmuster; und 11 in schematic representation, six embodiments of two-dimensional calibration pattern; and

12 in schematischer Darstellung zwei Ausführungsbeispiele für dreidimensionale Eichobjekte. 12 schematic representation of two embodiments of three-dimensional calibration objects.

Gleiche oder ähnliche Ausgestaltungen, Elemente oder Merkmale sind in 1 bis 12 mit identischen Bezugszeichen versehenSame or similar embodiments, elements or features are in 1 to 12 provided with identical reference numerals

Bester Weg zur Ausführung der vorliegenden ErfindungBest way to execute the present invention

Als bevorzugtes Ausführungsbeispiel wird ein automatisches Überwachungssystem mit mindestens einer Videokamera beschrieben.When preferred embodiment becomes an automatic monitoring system described with at least one video camera.

Ein Beispielaufbau ist in 1 dargestellt. Das System weist mindestens einen einen Bereich der realen Welt 24 beobachtenden Sensor 25 zur Erfassung von elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen, mindestens eine Speichereinheit 18 und mindestens eine Analyseeinheit 13 zur Analyse des Sensorsignals 1 auf.An example structure is in 1 shown. The system has at least one area of the real world 24 observing sensor 25 for detecting electromagnetic radiation and for generating image sequences, at least one storage unit 18 and at least one analysis unit 13 for analyzing the sensor signal 1 on.

Das vom Sensor 25 erzeugte Signal 1 wird in der Analyseeinheit 13 mit Hilfe der aus der Speichereinheit 18 mittels Anforderungsnachricht 2 angeforderten Daten 3 analysiert. Die Analyseergebnisse 4 werden gespeichert und/oder weitergeleitet.That of the sensor 25 generated signal 1 will be in the analysis unit 13 with the help of the memory unit 18 by request message 2 requested data 3 analyzed. The analysis results 4 are stored and / or forwarded.

Bei einer in 2 dargestellten Weiterbildung des Systems und des Verfahrens enthält das System eine Nachrichteneinheit 17, die beim Erkennen einer Störung ein entsprechendes Signal 5 nachrichtentechnisch formulieren und an eine räumlich entfernte Empfängereinheit 28 schicken kann. Die Nachricht kann das Vorliegen einer Störung generell und/oder auch die Art der Störung anzeigen.At an in 2 illustrated development of the system and the method, the system includes a message unit 17 , which signals a fault when a fault is detected 5 in terms of telecommunications and to a remote receiver unit 28 can send. The message may indicate the presence of a fault in general and / or the nature of the fault.

In 4 wird ein beispielhafter Verfahrensablauf visualisiert:
Das Sensorsignal 1 zum Zeitpunkt t wird in der Analyseeinheit 13 mit seinen um einen Zeitabschnitt mT und um einen Zeitabschnitt (n + m)T zeitverzögerten Versionen 60 und 69 verglichen, wobei die Einheiten 22, 23 die entsprechenden Zeitverzögerungsglieder (Bereiche in der Speichereinheit 18 zur Zwischenspeicherung des Signals 1) repräsentieren.
In 4 an example procedure is visualized:
The sensor signal 1 at time t is in the analysis unit 13 with its time lags mT and time periods (n + m) T delayed versions 60 and 69 compared, the units 22 . 23 the corresponding time delay elements (areas in the memory unit 18 for buffering the signal 1 ).

Weiterhin ist es möglich, zusätzlich oder anstelle der Speicherung von zeitverzögerten Versionen des Signals 1 virtuelle Referenzbilder zu erzeugen und diese zu speichern. Ein Referenzbild kann zum Beispiel durch eine gewichtete Mittelung der ankommenden Bilder oder durch eine Mitspeicherung des ersten Bilds der Sequenz erzeugt werden.Furthermore, it is possible, in addition to or instead of the storage of time-delayed versions of the signal 1 create virtual reference images and save them. A reference image may be generated, for example, by a weighted averaging of the incoming images or by a caching of the first image of the sequence.

Außer der Speicherung des Signals 1 können die Analyseergebnisse 4 zusammen mit Merkmalsvektoren 12 zwischengespeichert werden, die der Analyse zugrunde liegen und aus dem eigentlichen Signal extrahiert werden (Darstellung in 1). Auf diese Weise wird nicht das Originalsignal selbst, sondern werden die gewonnenen Merkmale sowie deren zeitliche Veränderung der Analyse unterzogen.Save the storage of the signal 1 can the analysis results 4 together with feature vectors 12 be cached, which underlie the analysis and are extracted from the actual signal (shown in 1 ). In this way, not the original signal itself, but are subjected to the characteristics obtained and their temporal change of the analysis.

Die Merkmalsvektoren 12 können sowohl für einzelne Pixel als auch für Pixelgruppen (wie für Pixelblöcke) oder für das gesamte Bild erzeugt werden sowie eine Kombination von Beschreibungen der lokalen und globalen Eigenschaften aufweisen.The feature vectors 12 can be generated for individual pixels as well as for pixel groups (as for pixel blocks) or for the entire image, as well as having a combination of descriptions of the local and global properties.

Bei einer Weiterbildung des Systems findet ein Vergleich der extrahierten Merkmale und der Ergebniswerte der Merkmalsverarbeitung nicht bzw. nicht nur mit den aus der aktuellen Bildsequenz gewonnenen Merkmalsvektoren und Referenzwerten, sondern auch mit den vorher ermittelten empirischen Werten für einzelne Störungsszenarien statt. Dies können experimentell ermittelte Schwellenwerte, Verteilungen, Änderungsverläufe über die Zeit oder dergleichen sein.at a training of the system finds a comparison of the extracted Characteristics and the result values of the feature processing are not or not only with the feature vectors obtained from the current image sequence and reference values, but also with the previously determined empirical values for individual fault scenarios instead of. This can experimentally determined thresholds, distributions, change histories over the Time or the like.

Bei einer weiteren Ausprägung des Systems wird nach Erkennen einer Störung eine Änderung zumindest eines Teils der in der Speichereinheit 18 enthaltenen Daten veranlasst. Dies kann sich zum Beispiel in einer Neusetzung oder Anpassung der Schwellenwerte und Verteilungen, einer Speicherung neuer Referenzbilder oder dergleichen ausdrücken.In a further embodiment of the system, after detecting a fault, a change of at least a part of the one in the memory unit 18 data. This may be expressed, for example, in a resetting or adaptation of thresholds and distributions, storage of new reference images, or the like.

Bei einer Weiterbildung des Systems erfolgt zumindest eine Teiländerung der in der Speichereinheit 18 enthaltenen Daten in Abhängigkeit von der erkannten Störungsart. So kann zum Beispiel beim Erkennen der räumlichen Positionsänderung des Sensors 25 eine Neuspeicherung von Referenzbildern veranlasst werden.In a development of the system, at least a partial change takes place in the storage unit 18 contained data depending on the type of failure detected. For example, when detecting the spatial position change of the sensor 25 a re-storage of reference images are caused.

5 zeigt eine Variante der Realisierung des erfindungsgemäßen Systems und des entsprechenden Verfahrens:
Die Einheit 13 zur Analyse des Sensorsignals setzt sich aus einer Einheit 14 zur Bildsegmentierung, einer Einheit 15 zur Merkmalsextraktion und einer Entscheidungseinheit 16 zusammen. Für die in der Bildsegmentierungseinheit 14 gebildeten Pixelgruppen werden in der Merkmalsextraktionseinheit 15 Merkmalsvektoren 7 extrahiert.
5 shows a variant of the realization of the system according to the invention and the corresponding method:
The unit 13 to analyze the sensor signal is made up of a unit 14 for image segmentation, a unit 15 for feature extraction and an Ent decision unit 16 together. For those in the image segmentation unit 14 formed pixel groups are in the feature extraction unit 15 feature vectors 7 extracted.

Diese Merkmalsvektoren 7 werden zusammen mit den Segmentierungsinformationen 6 und mit dem Datensatz 3 in der Entscheidungseinheit 16 verarbeitet, wobei der Datensatz 3 mittels einer Nachricht 2 von der Speichereinheit 18 angefordert wird.These feature vectors 7 be together with the segmentation information 6 and with the record 3 in the decision-making unit 16 processed, the record 3 by means of a message 2 from the storage unit 18 is requested.

Die Entscheidungseinheit 16 entscheidet über das Vorliegen oder Nichtvorliegen einer Störung und gegebenenfalls über die Störungsart. Die Analyseergebnisse 4 werden bei positiver Entscheidung in der Nachrichteneinheit 17 nachrichtentechnisch formuliert und als Nachrichtensignal 5 weitergeschickt. Die Ergebnisse 6, 7, 4 werden in der Speichereinheit 18 gespeichert und im nächsten Arbeitszyklus verwendet.The decision-making unit 16 decides on the presence or absence of a fault and, if necessary, on the type of fault. The analysis results 4 become in positive message in the message unit 17 in terms of telecommunications and as a message signal 5 forwarded. The results 6 . 7 . 4 be in the storage unit 18 stored and used in the next work cycle.

Bei einer Weiterbildung des Systems kann das System zwischen mindestens zwei Arten von Störungen unterscheiden, so dass das generierte Nachrichtensignal nicht nur das Vorliegen einer Störung, sondern auch die Störungsart entsprechend dem Analysekatalog des Systems anzeigt.at One development of the system allows the system between at least two types of disorders so that the generated message signal is not only different the presence of a fault, but also the type of fault according to the analysis catalog of the system.

Zum Beispiel kann zwischen einer Veränderung der Fokussierungseinstellungen und einer Veränderung der räumlichen Position und/oder der Ausrichtung des Sensors unterschieden werden. Die entsprechende Entscheidung wird in der Entscheidungseinheit 16 getroffen.For example, a distinction can be made between a change in the focus settings and a change in the spatial position and / or the orientation of the sensor. The corresponding decision is made in the decision-making unit 16 met.

3 visualisiert ein Ausführungsbeispiel für den Aufbau und für die Arbeitsweise der Entscheidungseinheit 16: In den für unterschiedliche Arten der Sensorstörungen entwickelten Detektoren 41, 42, 43, 44, 45, 46, 47, 48 werden die Referenzwerte 51, 52, 53, 54, 55, 56, 57, 58 für das Vorhandensein einer Störungsart berechnet, die dann gewichtet und der Entscheidungsfunktion 29 zugeführt werden. 3 visualizes an embodiment of the structure and the operation of the decision unit 16 : In the detectors developed for different types of sensor disorders 41 . 42 . 43 . 44 . 45 . 46 . 47 . 48 become the reference values 51 . 52 . 53 . 54 . 55 . 56 . 57 . 58 calculated for the presence of a fault type, which is then weighted and the decision function 29 be supplied.

In 6 und in 7 sind weitere Ausführungsbeispiele für das System und das Verfahren visualisiert:
Das System übernimmt außer der Erkennung von Sensorstörungen und/oder von Signalstörungen, was in der primären Analyseeinheit 19 zur Analyse des Sensorsignals 1 realisiert wird, zusätzliche Aufgaben, die in der sekundären Analyseeinheit 20 zur Analyse des Sensorsignals 1 gelöst werden.
In 6 and in 7 Further exemplary embodiments for the system and the method are visualized:
The system does not only detect sensor disturbances and / or signal interferences, what happens in the primary analyzer 19 for analyzing the sensor signal 1 is realized additional tasks included in the secondary analysis unit 20 for analyzing the sensor signal 1 be solved.

Zu diesen Aufgaben können die Funktionalitäten eines automatischen Überwachungs- und Alarmsystems, eines Verkehrsüberwachungssystems, eines Systems zur Marktforschung oder eines Fahrerassistenzsystems gehören. In Abhängigkeit von der Gestaltung der sekundären Analyseeinheit 20 können insbesondere Systeme zur Einbruchssicherheit, zur Brandmeldung oder zu dergleichen realisiert werden.These tasks may include the functionality of an automatic monitoring and alarm system, a traffic monitoring system, a market research system or a driver assistance system. Depending on the design of the secondary analysis unit 20 In particular systems for burglary security, fire detection or the like can be realized.

In 8 ist eine vorteilhafte Ausführung einer sekundären Analyseeinheit 20 zur Analyse des Sensorsignals 1 dargestellt. Die sekundäre Analyseeinheit 20 weist eine Klassifizierungseinheit 34 zur Klassifizierung der segmentierten Pixelgruppen, ein Trackingmodul 35, eine Gruppierungseinheit 36 zur Gruppierung der segmentierten Pixelgruppen zu Objekten, eine Klassifizierungseinheit 37 zur Klassifizierung der Objekte sowie eine Klassifizierungseinheit 38 zur Klassifizierung von Aktionen auf.In 8th is an advantageous embodiment of a secondary analysis unit 20 for analyzing the sensor signal 1 shown. The secondary analysis unit 20 has a classification unit 34 for classifying the segmented pixel groups, a tracking module 35 , a grouping unit 36 for grouping the segmented pixel groups into objects, a classification unit 37 for classifying the objects and a classification unit 38 to classify actions.

Die beschriebenen Zusatzfunktionalitäten können über die entsprechenden Ausprägungen der Klassifizierungseinheit 38 realisiert werden. So werden Daten, wie die Anzahl und die Art der Objekte im Bild, die Objektgeschwindigkeiten, die Bewegungstrajektorien der Objekte, die mittlere Verweildauer in Bildbereichen und dergleichen, nach unterschiedlichen Gesichtspunkten ausgewertet.The described additional functionalities can be defined by the corresponding characteristics of the classification unit 38 will be realized. Thus, data, such as the number and type of objects in the image, the object speeds, the movement trajectories of the objects, the average residence time in image areas and the like, are evaluated according to different viewpoints.

Aus diesen Informationen kann zum Beispiel auf das Vorhandensein und gegebenenfalls auf das Verhalten von Personen im Erfassungsbereich des Sensors 25 geschlossen werden. Hinweise zu den Kundenströmen, dem Kundeninteresse für bestimmte Warenauslagen oder Werbepräsentationen können zwecks Marktforschung aus den Bewegungsdaten gewonnen werden. Vergessene Gegenstände im Erfassungsbereich des Sensors 25 können zum Zwecke einer Sicherheitsüberwachung detektiert werden.From this information, for example, the presence and possibly the behavior of persons in the detection range of the sensor 25 getting closed. Information about customer flows, customer interest in specific merchandise displays or advertising presentations can be obtained from the transaction data for the purposes of market research. Forgotten objects in the detection area of the sensor 25 can be detected for the purpose of security surveillance.

Bei einer Ausprägung des Systems als Verkehrsüberwachungssystem kann in der Klassifizierungseinheit 37 zur Klassifizierung der Objekte zum Beispiel die Unterscheidung zwischen Autos, Menschen und Tieren durchgeführt werden, so dass in der Klassifizierungseinheit 38 zur Klassifizierung von Aktionen zum Beispiel die Erkennung eines unerlaubten Parkens, der Überquerung einer Straße an einer unerlaubten Stelle oder dergleichen detektiert werden kann.In one embodiment of the system as a traffic monitoring system, in the classification unit 37 For the classification of objects for example the distinction between cars, humans and animals are carried out, so that in the classification unit 38 for the classification of actions, for example, the detection of unauthorized parking, the crossing of a road in an unauthorized place or the like can be detected.

In 9 ist ein Ausführungsbeispiel für einen möglichen Aufbau der Merkmalsextraktionseinheit 15 dargestellt:
Die Merkmalsextraktionseinheit 15 verarbeitet die segmentierten Pixelgruppen 6 und weist eine Berechnungseinheit 30 zur Berechnung von Texturinformationen, eine Berechnungseinheit 31 zur Berechnung der Relevanz von Texturinformationen, eine Berechnungseinheit 32 zur Berechnung von Helligkeitsverteilungen und eine Berechnungseinheit 33 zur Berechnung der Relevanz von Helligkeitsverteilungen auf.
In 9 is an embodiment of a possible structure of the feature extraction unit 15 shown:
The feature extraction unit 15 processes the segmented pixel groups 6 and has a calculation unit 30 for calculating texture information, a calculation unit 31 for calculating the relevance of texture information, a calculation unit 32 for calculating brightness distributions and a calculation unit 33 for calculating the relevance of brightness distributions.

Die für Pixelgruppen ermittelten Merkmale werden entsprechend zu Merkmalsvektoren 40 (= Texturhistogramm zum Zeitpunkt t), 50 (= Helligkeitshistogramm zum Zeitpunkt t) zusammengefasst.The features determined for pixel groups become corresponding feature vectors 40 (= Texture histogram at time t), 50 (= Brightness histogram at time t) summarized.

In der Berechnungseinheit 32 können zum Beispiel die konventionellen Helligkeitshistogramme berechnet werden. Die Anzahl von zugelassenen Helligkeitsstufen bei solchen Histogrammen wird typischerweise auf 256 gesetzt, so dass alle Helligkeitswerte im Bild entsprechend quantisiert werden.In the calculation unit 32 For example, the conventional brightness histograms can be calculated. The number of allowed brightness levels in such histograms is typically set to 256 so that all brightness values in the image are quantized accordingly.

Die Häufigkeit eines so quantisierten Helligkeitswerts in einer Pixelgruppe wird über eine Achse mit Werten von 0 bis 255 aufgetragen. In der Berechnungseinheit 33 werden die Homogenität, die mittlere Helligkeit und ähnliche Eigenschaften der einzelnen Pixelgruppen bestimmt und so ein Maß für die Relevanz der Helligkeitsinformationen für diese Pixelgruppen berechnet.The frequency of a quantized brightness value in a pixel group is plotted along an axis with values from 0 to 255. In the calculation unit 33 determine the homogeneity, the average brightness and similar properties of the individual pixel groups and thus calculate a measure of the relevance of the brightness information for these pixel groups.

Die Ermittlung von Texturinformationen kann in der Berechnungseinheit 30 über eine Ermittlung der Anzahl von Grauwertänderungen in der 3 × 3-Nachbarschaft eines jeden Pixels stattfinden. Die ermittelten Werte werden aufsummiert, wobei jede Kantenrichtung mit einer anderen Gewichtung, vorzugsweise einer Zweierpotenz, in die Summe eingeht.The determination of texture information may be in the calculation unit 30 via a determination of the number of gray level changes in the 3x3 neighborhood of each pixel. The determined values are summed up, with each edge direction entering into the sum with a different weighting, preferably a power of two.

Die berechneten Texturwerte können ähnlich dem Helligkeitshistogramm über eine Achse mit Werten von 0 bis 255 aufgetragen werden, so dass ein Texturhistogramm entsteht. In der Berechnungseinheit 31 wird die Homogenität der Pixelgruppen analysiert, was über die Auswertung der Anzahl der Pixel, die keine Grauwertänderungen zu ihren Nachbarn aufweisen, durchgeführt werden kann.The calculated texture values can be plotted along an axis with values from 0 to 255, similar to the brightness histogram, to produce a texture histogram. In the calculation unit 31 the homogeneity of the pixel groups is analyzed, which can be done by evaluating the number of pixels that have no gray value changes to their neighbors.

Hierzu wird die Anzahl der Pixel in jeder Pixelgruppe, die dem Wert 0 im Texturhistogramm zugeordnet wurden, mit einem Referenzwert verglichen. Der Referenzwert kann zum Beispiel auf die Hälfte der Anzahl der Pixel in einer Pixelgruppe gesetzt werden.For this is the number of pixels in each pixel group that is 0 in value Texture histogram were compared with a reference value. For example, the reference value may be at half the number of pixels in a pixel group.

Die Grundidee bei diesem Ausführungsbeispiel ist der Vergleich von Textureigenschaften und von Helligkeitseigenschaften von Pixelgruppen im aktuellen Bild und entsprechender Pixelgruppen in zeitlich zurückliegenden Bildern. Es wird unter anderem die Tatsache ausgenutzt, dass sich die Textur und die Helligkeit unterschiedlich bei den aufgezählten Störungsszenarien ändern, und zwar wie folgt:
Bei einer mäßigen Beleuchtungsänderung ändern sich die Helligkeitswerte in aufgenommenen Bildern stark, wohingegen sich die Textur nur schwach ändert.
The basic idea in this embodiment is the comparison of texture properties and brightness properties of pixel groups in the current image and corresponding pixel groups in past images. Among other things, it exploits the fact that the texture and the brightness change differently in the breakdown scenarios enumerated, as follows:
With a moderate change in illumination, the brightness values in recorded images change greatly, whereas the texture changes only slightly.

Bei einer Veränderung der Fokussierungseinstellungen des Sensors 25 werden die Texturen im aufgenommenen Bild stark verschmiert, wohingegen sich die Helligkeitswerte von Pixelgruppen nur schwach ändern.When changing the focus settings of the sensor 25 the textures in the captured image are heavily smeared, whereas the brightness values of pixel groups change only slightly.

Eine gleichzeitige Änderung von Texturen und Helligkeitsverteilungen im Bild liefert Hinweise auf eine Änderung der räumlichen Position und/oder der Ausrichtung des Sensors 25, auf eine Änderung der Szenerie im Erfassungsbereich des Sensors 25 oder auf eine Verdeckung oder Verschmutzung der Oberfläche des Sensors 25.A simultaneous change of textures and brightness distributions in the image provides indications of a change in the spatial position and / or the orientation of the sensor 25 , on a change of scenery in the detection range of the sensor 25 or on occlusion or contamination of the surface of the sensor 25 ,

Diese Fälle können zum Beispiel dadurch unterschieden werden, dass man in der Analyseeinheit 13 eine automatische Verfolgung von Bewegungen im Erfassungsbereich des Sensors 25 durchführt und geänderte Flächen im Bild sowie deren charakteristische Eigenschaften ermittelt.These cases can be distinguished, for example, by being in the analysis unit 13 an automatic tracking of movements in the detection range of the sensor 25 carried out and determined changed areas in the image and their characteristic properties.

Ein Beispiel für eine Anwendung der beschriebenen Ansätze ist in 10 visualisiert:
Die mit 40 und 50 bezeichneten, für Pixelgruppen im aktuellen Bild berechneten Merkmalsvektoren werden mit den entsprechenden Merkmalsvektoren 49 und 59 verglichen, die für ein zeitlich zurückliegendes Bild ermittelt wurden. in Abhängigkeit vom Ergebnis der einzelnen Auswertungen werden Nachrichten 51, 52, 53, 54, 55, 56, 57, 58 mit den entsprechenden Referenzwerten an die Entscheidungsfunktion 29 (vgl. 3) verschickt.
An example of an application of the described approaches is in 10 visualized:
With 40 and 50 designated feature vectors calculated for pixel groups in the current image are tagged with the corresponding feature vectors 49 and 59 compared to a past image. Depending on the result of the individual evaluations, messages are generated 51 . 52 . 53 . 54 . 55 . 56 . 57 . 58 with the corresponding reference values to the decision function 29 (see. 3 ).

In die Gesamtauswertung in der Entscheidungsfunktion 29 fließen bei diesem Ausführungsbeispiel Referenzwerte für folgende Störungsarten: Beleuchtungsänderung (= Nachricht 51); Verdeckung des Sensors 25 (= Nachricht 52); Veränderung der räumlichen Position und/oder der Ausrichtung des Sensors 25 (= Nachricht 53); Verschmutzung der Oberfläche des Sensors 25 (= Nachricht 54); Veränderung der Fokussierungseinstellungen des Sensors 25 (= Nachricht 55); Feuchtigkeit an der Oberfläche des Sensors 25 (= Nachricht 56); Objektbewegung im Erfassungsbereich des Sensors 25 (= Nachricht 57); Signalausfall (= Nachricht 58).In the overall evaluation in the decision function 29 In this exemplary embodiment, reference values flow for the following types of disturbance: change in illumination (= message 51 ); Cover the sensor 25 (= Message 52 ); Change in the spatial position and / or orientation of the sensor 25 (= Message 53 ); Contamination of the surface of the sensor 25 (= Message 54 ); Change the focus settings of the sensor 25 (= Message 55 ); Moisture on the surface of the sensor 25 (= Message 56 ); Object movement in the detection area of the sensor 25 (= Message 57 ); Signal failure (= message 58 ).

Die Textur- und Helligkeitshistogramme, die von der Merkmalsextraktionseinheit 15, wie vorstehend beschrieben, für jede Pixelgruppe berechnet werden, sind mehrdimensionale Matrizen. Die Dimensionalität der Matrizen ist M × N, wobei unter M die Anzahl der Pixelgruppen und unter N die Anzahl der Bins zu verstehen ist.The texture and brightness histograms obtained by the feature extraction unit 15 , as described above, for each pixel group, are multidimensional matrices. The dimensionality of the matrices is M × N, where M is the number of pixel groups and N is the number of bins.

Die in den Berechnungseinheiten 31, 33 berechneten Vektoren liefern Informationen über die Relevanz der einzelnen Pixelgruppen für die Vergleiche: Die texturreichen Regionen werden mit einer größeren Gewichtung als die texturarmen Regionen versehen; die überbelichteten Bereiche mit maximalen Helligkeitswerten bekommen kleinere Gewichtungen für weitere Berechnungen als die nichthomogenen Bereiche.The in the calculation units 31 . 33 calculated vectors provide information about the relevance of the individual pixel groups for the comparisons: the textur rich regions are given a greater weighting than the texturized regions; the overexposed areas with maxima Brightness values get smaller weights for further calculations than the non-homogeneous areas.

Die einzelnen Berechnungen laufen über die Bedingungsfunktionen 70, 71, 72, 73, 74, 75, 76, 77, 78, 79, 80 ab, die jeweils das Erfüllen von bestimmten Bedingungen überprüfen. Diese Funktionen liefern als Ergebnis Werte 0 oder 1 oder Nachrichten 51, 52, 53, 54, 55, 56, 57, 58, die den Wahrscheinlichkeiten für das Vorliegen einer Störungsart entsprechende Referenzwerte beinhalten.The individual calculations run on the condition functions 70 . 71 . 72 . 73 . 74 . 75 . 76 . 77 . 78 . 79 . 80 each checking the fulfillment of certain conditions. These functions return values of 0 or 1 or messages 51 . 52 . 53 . 54 . 55 . 56 . 57 . 58 which contain reference values corresponding to the probabilities of the existence of a fault type.

Im Weiteren werden die Bedingungsfunktionen 70, 71, 72, 73, 74, 75, 76, 77, 78, 79, 80 kurz beschrieben:
Die Bedingung 70 ist erfüllt, wenn die Summe über die M Pixelgruppen der mit Relevanzgewichtungen gewichteten Ergebnisse der Vergleichsfunktion Fkt 1 größer als ein Schwellenwert1 ist. Die Erfüllung der Bedingung 70 bedeutet, dass sich die Textureigenschaften der Pixelgruppen stark geändert haben. Die Vergleichsfunktion Fkt1 kann mit beliebigen Vergleichsfunktionen für Histogramme realisiert werden, wie zum Beispiel mit der bekannten Chi-Squared-Intersection.
Further below are the condition functions 70 . 71 . 72 . 73 . 74 . 75 . 76 . 77 . 78 . 79 . 80 briefly described:
The condition 70 is satisfied when the sum over the M pixel groups of the relevance weighted results of the comparison function Fkt 1 is greater than a threshold1. The fulfillment of the condition 70 means that the texture properties of the pixel groups have changed dramatically. The comparison function Fkt1 can be realized with arbitrary comparison functions for histograms, such as with the known chi-squared intersection.

Die Bedingung 71 ist erfüllt, wenn die Summe über die M Pixelgruppen der mit Relevanzgewichtungen gewichteten Ergebnisse der Vergleichsfunktion Fkt2 größer als ein Schwellenwert2 ist. Die Erfüllung der Bedingung 71 bedeutet, dass sich die Helligkeitseigenschaften der Pixelgruppen stark geändert haben. Die Vergleichsfunktion Fkt2 kann mit beliebigen Vergleichsfunktionen für Histogramme realisiert werden, wie zum Beispiel mit der bekannten Chi-Squared-Intersection.The condition 71 is satisfied when the sum over the M pixel groups of the relevance weighted results of the comparison function Fct2 is greater than a threshold2. The fulfillment of the condition 71 means that the brightness characteristics of the pixel groups have changed greatly. The comparison function Fct2 can be realized with arbitrary comparison functions for histograms, such as with the known Chi-Squared Intersection.

Die Bedingung 72 ist erfüllt, wenn sowohl die Bedingung 70 als auch die Bedingung 71 erfüllt ist und gleichzeitig die Gesamtfläche der geänderten Regionen größer als ein Schwellenwert3 ist.The condition 72 is met if both the condition 70 as well as the condition 71 is fulfilled and at the same time the total area of the changed regions is greater than a threshold3.

Die Bedingung 73 ist erfüllt, wenn die Bedingung 72 nicht erfüllt ist und sich gleichzeitig die Größe sowie die Lage der geänderten Regionen im Bild über eine längere Zeit, insbesondere mehr als eine festgelegte Anzahl der Bilder, nicht oder lediglich geringfügig verändert haben. Beim Nichterfüllen der Bedingung 73 wird der Referenzwert für eine Objektbewegung im Erfassungsbereich des Sensors 25 auf die dafür entsprechende Wahrscheinlichkeit gesetzt und mit der Nachricht 57 verschickt; ansonsten erhält der Referenzwert in der Nachricht 57 den Wert 0.The condition 73 is met if the condition 72 is not fulfilled and at the same time the size and location of the changed regions in the picture have not or only slightly changed over a longer period, in particular more than a fixed number of pictures. Failure to meet the condition 73 becomes the reference value for an object movement within the detection range of the sensor 25 set to the appropriate probability and with the message 57 sent; otherwise the reference value will be in the message 57 the value 0.

Die Bedingung 74 ist erfüllt, falls der geänderte Bereich homogen ist und die Bedingung 72 erfüllt ist.The condition 74 is satisfied if the changed range is homogeneous and the condition 72 is satisfied.

Beim Nichterfüllen der Bedingung 75 und wenn sich die berechneten Bewegungsvektoren im Bild ähneln (sind größer als 0 und die mittlere Abweichung ist kleiner als ein Schwellenwert4), wird der Referenzwert für die Änderung der räumlichen Position und/oder der Ausrichtung des Sensors 25 entsprechend dessen Wahrscheinlichkeit gesetzt und mit der Nachricht 53 verschickt; ansonsten erhält der Referenzwert in der Nachricht 53 den Wert 0.Failure to meet the condition 75 and if the calculated motion vectors in the image are similar (greater than 0 and the mean deviation is less than a threshold 4), the reference value for the change in the spatial position and / or the orientation of the sensor 25 according to its probability set and with the message 53 sent; otherwise the reference value will be in the message 53 the value 0.

In der Bedingung 76 wird eine Unterscheidung zwischen einem Signalausfall und einer Verdeckung des Sensors 25 durchgeführt. Falls die Bedingung 74 erfüllt ist und der Mittelwert der geänderten Fläche nahe 0 liegt (Bedingung 76), wird mit hoher Wahrscheinlichkeit ein Signalausfall detektiert, was mit der Nachricht 57 signalisiert wird; ansonsten wird der Referenzwert in der Nachricht 57 auf 0 gesetzt. Falls der Mittelwert der geänderten Fläche größer als die Summe aus 0 und einem Schwellenwert5 ist, wird mit Nachricht 52 eine Verdeckung der Linse signalisiert; ansonsten wird der Referenzwert in der Nachricht 52 auf 0 gesetzt.In the condition 76 becomes a distinction between a signal failure and a masking of the sensor 25 carried out. If the condition 74 is satisfied and the mean value of the changed area is close to 0 (condition 76 ), a high probability of a signal failure is detected, what with the message 57 is signaled; otherwise the reference value will be in the message 57 set to 0. If the mean of the changed area is greater than the sum of 0 and a threshold5, the message is 52 a masking of the lens signals; otherwise the reference value will be in the message 52 set to 0.

Bei der Bedingung 77 wird nach einer bestimmten Art der möglichen Änderung der Texturen im Bild, insbesondere nach einer Verschmierung der Texturen, gesucht. Diese Suche kann über einen einfachen Vergleich von Bins der Texturhistogramme für die einzelnen Pixelgruppen durchgeführt werden. Falls sich die Texturen soweit geändert haben, dass sich die Anzahl der den einzelnen Bins für die Werte 1 bis 255 im Gegensatz zum Anwachsen der dem Wert 0 zugeordneten Pixel verringert hat, und die Summe der Referenzwerte über alle Pixelgruppen größer als ein Schwellenwert6 ist, ist die Bedingung 77 erfüllt.At the condition 77 is searched for a certain type of possible change of textures in the image, especially after smearing the textures. This search can be performed by simply comparing bins of texture histograms for each pixel group. If the textures have changed so much that the number of individual bins for the values 1 to 255 has decreased in contrast to the increase in the value associated with 0, and the sum of the reference values across all pixel groups is greater than a threshold 6 the condition 77 Fulfills.

Die Bedingung 78 erfüllt sich, wenn gleichzeitig die Bedingung 77 erfüllt ist, die Bedingung 71 nicht erfüllt ist und eine Gleichmäßigkeit der Texturänderung erkannt wird. Diese Gleichmäßigkeit kann über die Berechnung des Mittelwerts der Veränderung über alle Pixelgruppen und der Varianzen der einzelnen Referenzwerte überprüft werden. Falls die Summe der Varianzen größer als ein vorgegebener Schwellenwert7 ist, wird mit großer Wahrscheinlichkeit Feuchtigkeit auf der Oberfläche des Sensors 25 oder auf anderen transparenten Flächen vor dem Sensor 25 (Glas) detektiert und mit der Nachricht 56 gemeldet; ansonsten wird der Referenzwert in der Nachricht 56 auf 0 gesetzt. Falls die Änderung als gleichmäßig eingestuft wird, wird eine Veränderung der Fokussierungseinstellungen des Sensors 25 erkannt und mit der Nachricht 55 signalisiert; ansonsten wird der Referenzwert in der Nachricht 55 auf 0 gesetzt.The condition 78 is fulfilled if at the same time the condition 77 is satisfied, the condition 71 is not satisfied and a uniformity of the texture change is detected. This uniformity can be checked by calculating the mean of the change across all pixel groups and the variances of the individual reference values. If the sum of the variances is greater than a predetermined threshold 7, moisture is likely to be on the surface of the sensor 25 or on other transparent surfaces in front of the sensor 25 (Glass) detected and with the message 56 reported; otherwise the reference value will be in the message 56 set to 0. If the change is judged to be even, it will change the focus settings of the sensor 25 recognized and with the message 55 signals; otherwise the reference value will be in the message 55 set to 0.

Die Bedingung 79 ist erfüllt, wenn gleichzeitig die Bedingung 71 erfüllt ist und die Bedingung 70 nicht erfüllt ist. Die Bedingung 79 zeigt auf, dass sich die Textureigenschaften wenig im Vergleich zu einer großen Änderung der Grauwerteigenschaften verändert haben. Falls dieser Fall auftritt, wird mit großer Wahrscheinlichkeit auf eine Beleuchtungsänderung geschlossen und mit der Nachricht 51 signalisiert; ansonsten wird der Referenzwert in der Nachricht 51 auf 0 gesetzt.The condition 79 is fulfilled if at the same time the condition 71 is met and the condition 70 is not fulfilled. The condition 79 shows that up the texture properties have changed little in comparison to a large change in gray scale properties. If this occurs, it is very likely that a change in illumination will be detected and the message 51 signals; otherwise the reference value will be in the message 51 set to 0.

Eine Verschmutzung der Linse wird beim Erfüllen der Bedingung 73 und beim Nichterfüllen der Bedingung 75 detektiert (Bedingung 80), woraufhin die Nachricht 54 verschickt wird.A contamination of the lens will be when fulfilling the condition 73 and failing to meet the condition 75 detected (condition 80 ), whereupon the message 54 is sent.

Die Entscheidung über das Vorliegen einer bestimmten Störungsart kann auch direkt über das Verschicken entsprechender Nachrichten getroffen werden, die dann nur die Werte 0 oder 1 beinhalten. Es sind aber Fälle nicht ausgeschlossen, bei denen mehrere Störungsarten gleichzeitig auftreten oder auch fehlerhaft erkannt werden. Daraufhin erscheint es sinnvoll, die entsprechenden Nachrichten immer zu verschicken und die endgültige Entscheidung zentral zu treffen.The Decision over the presence of a specific type of fault can also be directly via the sending corresponding messages are taken, which then only the values 0 or 1 include. But cases are not excluded which several types of errors occur simultaneously or be detected incorrectly. thereupon it makes sense to always send the corresponding messages and the final one Make a decision centrally.

Die Referenzwerte in den Nachrichten werden entsprechend den in den Bedingungsfunktionen berechneten Wahrscheinlichkeiten für das Vorliegen einzelner Störungsarten gesetzt. Diese Referenzwerte liegen im Wertebereich von 0 bis 1 und werden mit den Gewichtungswerten 61, 62, 63, 64, 65, 66, 67, 68 gewichtet, so dass die endgültige Entscheidung in einer gemeinsamen Kostenfunktion 29 getroffen wird. Die Vorgehensweise wird in 3 visualisiert.The reference values in the messages are set according to the probabilities calculated in the condition functions for the existence of individual types of disturbances. These reference values are in the value range from 0 to 1 and are included with the weighting values 61 . 62 . 63 . 64 . 65 . 66 . 67 . 68 weighted, making the final decision in a common cost function 29 is taken. The procedure is in 3 visualized.

Die erwähnten Schwellenwerte und Gewichtungen werden geschätzt oder experimentell ermittelt, wobei auch ein Training mit Hilfe der Methoden der Künstlichen Intelligenz, insbesondere mit Hilfe von neuronalen Netzen, durchgeführt werden kann.The mentioned Thresholds and weights are estimated or determined experimentally, including a workout with the help of artificial methods Intelligence, in particular with the help of neural networks can.

Bei einem weiteren Ausführungsbeispiel können zusätzlich das Ersetzen des Sensorsignals durch ein anderes Signal sowie das Verdecken des Sensors 25 mit einem nichthomogenen Objekt, wie etwa mit einem Bild des Hintergrunds, detektiert werden.In a further embodiment, additionally replacing the sensor signal with another signal and obscuring the sensor 25 with a non-homogeneous object, such as an image of the background.

Das Erkennungsprinzip basiert darauf, dass sich in diesen Fällen die Bewegungsverläufe im aufgenommenen Bild im Vergleich zu zurückliegenden Bildern in ungewöhnlicher Weise ändern würden. Dies kann sich zum Beispiel dadurch ausdrücken, dass die berechneten Bewegungstrajektorien detektierter Objekte plötzlich abbrechen. Um dies zu ermitteln, wird eine kontinuierliche Verfolgung von Bewegungen im Bild durchgeführt.The The recognition principle is based on the fact that in these cases the movement patterns in the taken picture in comparison to past pictures in unusual Change way would. This can express itself, for example, that the calculated Abruptly cancel movement trajectories of detected objects. To this, too will determine a continuous tracking of movements in the Image performed.

Beim Erkennen von mehreren Bewegungstrajektorien, deren Eigenschaften sich stärker als um die vorgegebenen Änderungsschwellenwerte von Eigenschaften normaler Bewegungstrajektorien unterscheiden, wird ein Ersetzen des Signals durch ein anderes Signal erkannt.At the Recognition of several movement trajectories, their properties stronger than the specified change thresholds to distinguish from properties of normal motion trajectories, a replacement of the signal is detected by another signal.

Für das zu detektierende anormale Verhalten können zum Bespiel solche Kriterien aufgestellt werden, wie das Enden der Objekttrajektorien in den Berechen, die nicht für das Verlassen des Erfassungsbereichs definiert sind. Diese Bereiche können manuell (zum Beispiel eine Tür) oder durch den Sensoraufbau (zum Beispiel Bildränder) festgelegt werden.For that too Detecting abnormal behaviors may be such criteria as the ends of the object trajectories in the computations, not for leaving the detection area are defined. These areas can manually (for example, a door) or by the sensor structure (for example, image edges).

Wenn zusätzlich die Bedingung erfüllt ist, dass das neue Bild einem gespeicherten Referenzbild für den Hintergrund stark ähnelt, kann mit großer Wahrscheinlichkeit die entsprechende Sabotageart erkannt werden.If additionally the condition is fulfilled is that the new image is a saved reference image for the background strongly resembles can with great probability the corresponding sabotage type can be detected.

Eine Weiterbildung des Systems, die auch in 2 dargestellt ist, beinhaltet die lokale Speicherung in der Speichereinheit 18 und/oder das Verschicken an eine entfernte Empfängereinheit 28 mindestens eines Bilds, das der Störungserkennung zeitlich nahe liegt.A training of the system, which also in 2 is illustrated, includes the local storage in the storage unit 18 and / or sending to a remote receiver unit 28 at least one image that is close in time to the fault detection.

Wie in 2 dargestellt, kann das System auch ein ansteuerbares Gerät 27, wie zum Beispiel eine Sprinkleranlage, eine Lichtquelle oder einen Lautsprecher, über eine Steuerungseinheit 39 und die entsprechenden Nachrichten 5, 9 steuern. Bei den Systemen zur Robotervision kann zum Beispiel beim Erkennen von bestimmten Störungsarten das Ausschalten des Motors veranlasst werden.As in 2 shown, the system can also be a controllable device 27 , such as a sprinkler system, a light source or a speaker, via a control unit 39 and the corresponding messages 5 . 9 Taxes. In the case of systems for robot vision, for example, when certain types of failure are detected, the engine can be switched off.

Die Systembestandteile können sowohl räumlich nahe beieinander als auch räumlich voneinander getrennt und mit Nachrichtenleitungen verbunden werden. Als ein Ausführungsbeispiel kann hier eine Videokamera angeführt werden, die drahtlos mit einem Personalcomputer verbunden ist.The System components can both spatially close to each other as well as spatially separated from each other and connected to message lines. As an embodiment can lead a video camera here wirelessly connected to a personal computer.

Als Sensoren 25 zur Erfassung der elektromagnetischen Strahlung und zur Generierung von Bildsequenzen kann nicht nur eine Videokamera, sondern auch ein Laserscanner, eine Infrarotkamera, ein Terahertzwellendetektor oder ein Radargerät verwendet werden; der grundsätzliche Aufbau des Systems ändert dadurch nicht.As sensors 25 not only a video camera but also a laser scanner, an infrared camera, a terahertz wave detector or a radar device can be used to detect the electromagnetic radiation and to generate image sequences; the basic structure of the system does not change.

In Abhängigkeit vom verwendeten Sensor 25 kann sich die Anzahl und die Gattung der zu detektierenden Störungsarten ändern, so dass die Gestalt und die Ausführung einzelner Detektoren angepasst werden. Diese Anpassung findet über eine Festlegung entsprechender Berechnungsvorschriften in der Analyseeinheit 13 und entsprechender Vergleichsdaten in der Speichereinheit 18 statt.Depending on the sensor used 25 For example, the number and type of types of disturbances to be detected may change to suit the shape and design of individual detectors. This adaptation takes place via a definition of corresponding calculation rules in the analysis unit 13 and corresponding comparison data in the storage unit 18 instead of.

Bei der Verarbeitung der Bildsequenzen von zum Beispiel einer Infrarotkamera können zusätzlich Messfehler auftreten, wenn die thermische Kalibrierung der Kamera nicht mehr der Situation in ihrem Erfassungsbereich entspricht. Dies kann beispielsweise durch einen kontinuierlichen Vergleich des jeweils aktuellen Bilds mit einem zeitlich zurückliegenden Bild und durch eine Analyse des Verlaufs der Temperaturveränderung geschehen. Bei einer Erkennung der beschriebenen Störung kann eine Nachkalibrierung der Kamera veranlasst werden.When processing the image sequences of For example, an infrared camera can also cause measurement errors if the thermal calibration of the camera no longer corresponds to the situation within its detection range. This can be done for example by a continuous comparison of the respective current image with a past image and by an analysis of the course of the temperature change. Upon detection of the described fault, recalibration of the camera can be initiated.

In 2 werden weitere vorteilhafte Ausprägungen des Systems visualisiert. In der Analyseeinheit 13 können Signale von weiteren Sensoren verarbeitet werden, die nicht alle notwendigerweise Sensoren für die Erfassung von elektromagnetischer Strahlung und für die Generierung von Bildsequenzen sind.In 2 Further advantageous features of the system are visualized. In the analysis unit 13 For example, signals may be processed by other sensors, not all of which are necessarily sensors for detecting electromagnetic radiation and for generating image sequences.

So werden, wie in 2 dargestellt, bei der Analyse der Bildsequenz 1 in der Analyseeinheit 13 auch die Meldungen 11 des Sensors 26 ausgewertet. Als Sensor kann zum Beispiel ein Rauchmelder oder ein Bewegungsmelder auftreten.So, as in 2 shown in the analysis of the image sequence 1 in the analysis unit 13 also the messages 11 of the sensor 26 evaluated. As a sensor, for example, a smoke detector or a motion detector can occur.

Eine besonders vorteilhafte Ausprägung des Systems ist die Verwendung von mindestens zwei Sensoren zur Erfassung elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen, deren Erfassungsbereiche sich zumindest teilweise überlappen.A particularly advantageous expression The system is the use of at least two sensors for Detection of electromagnetic radiation and generation of image sequences, their coverage areas overlap at least partially.

Bei einer vorangegangenen, häufig als Kalibrierung bezeichneten Ermittlung der internen Sensorparameter und der externen Sensorparameter können aus den Bildsequenzen mit Hilfe von stereobasierten Techniken dreidimensionale Informationen für die Szenerie im gemeinsamen Erfassungsbereich gewonnen werden. Die Szene im gemeinsamen Erfassungsbereich der Sensoren wird dreidimensional:
Die tatsächlichen Größen von Objekten können berechnet werden, so dass zum Beispiel ein Insekt nahe der Sensoroberfläche nicht mit einem weit entfernten Auto verwechselt werden kann. Die Bewegungsvektoren von Objekten in der Szene können dreidimensional bestimmt werden:
Das Nahekommen eines Menschen an den Sensor wird erkannt, so dass eine Sabotage vor der Sabotageaktion detektiert werden kann. Insgesamt wird die Anzahl von Fehlentscheidungen stark vermindert.
In a previous, often referred to as calibration determination of the internal sensor parameters and the external sensor parameters can be obtained from the image sequences using stereobased techniques three-dimensional information for the scene in the common detection range. The scene in the common detection range of the sensors becomes three-dimensional:
The actual sizes of objects can be calculated so that, for example, an insect near the sensor surface can not be confused with a faraway car. The motion vectors of objects in the scene can be determined three-dimensionally:
The approach of a person to the sensor is detected, so that a sabotage can be detected before the sabotage reaction. Overall, the number of wrong decisions is greatly reduced.

Die Gewinnung der dreidimensionalen Informationen aus der Bildsequenz eines einzelnen Sensors ist mit Hilfe anderer bekannter Verfahren aus dem Bereich Computervision möglich, gestaltet sich aber schwieriger als die Berechnung mit stereobasierten Techniken.The Obtaining the three-dimensional information from the image sequence of a single sensor is by other known methods from the field of computer vision possible, is more difficult than the calculation with stereobased Techniques.

Die absoluten Tiefeninformationen oder die relativen Tiefeninformationen können mit den Verfahren der Formgewinnung aus der Bewegung (shape from motion), aus der Textur (shape from texture), aus den fokussierten und defokussierten Bildern (shape from focus bzw. shape from defocus) oder aus dem Schatten (shape from shadow) geschätzt werden.The absolute depth information or the relative depth information can with the methods of shape extraction from motion (shape from motion), from the texture (shape from texture), from the focused and defocused images (shape from focus or shape from defocus) or estimated from the shadow (shape from shadow).

Die eingesetzten Algorithmen sind aber im Allgemeinen komplexer als die stereobasierenden Algorithmen; die Genauigkeit der Schätzungen ist stark von der Genauigkeit der Parametrisierung abhängig, so dass bei einem kleinen bis mittleren Berechnungsaufwand nur grobe Schätzungen möglich sind. Dies ist aber für die hier beschriebenen Zwecke ausreichend.The However, algorithms used are generally more complex than the stereobased algorithms; the accuracy of the estimates is strongly dependent on the accuracy of the parameterization, so that at a small to medium calculation cost only rough estimates possible are. But this is for the purposes described here are sufficient.

Ein Problem bei vielen bildbasierten Anwendungen stellen die homogenen Bereiche im Erfassungsbereich des Sensors 25 dar, beispielsweise eine weiß eingefärbte Wand im Erfassungsbereich einer Videokamera oder der temperaturhomogene Boden im Erfassungsbereich einer Infrarotkamera.A problem with many image-based applications is the homogenous areas in the sensing area of the sensor 25 For example, a white-colored wall in the detection range of a video camera or the temperature-homogeneous ground in the detection range of an infrared camera.

Die Abbildung eines homogenen Bereichs in eine Bildsequenz ist annähernd homogen, so dass zwischen den Werten der zugehörigen Pixel nicht unterschieden werden kann. Falls diese homogenen Bereiche sehr groß sind, entsteht auch ein Problem bei einigen der beschriebenen Verfahren zur Erkennung von Sensorstörungen und/oder von Signalstörungen.The Mapping a homogeneous area into a picture sequence is approximately homogeneous, so that no distinction is made between the values of the associated pixels can be. If these homogeneous areas are very large, There is also a problem with some of the methods described to detect sensor interference and / or signal interference.

So wird zum Beispiel eine Änderung der räumlichen Position und/oder der Ausrichtung der Videokamera insoweit, als die Videokamera auf einen anderen Teil derselben weißen Wand ausgerichtet wird, nicht erkannt, denn die Analyseeinheit 13 sieht keinen Unterschied zwischen den entsprechenden Pixelwerten.For example, a change in the spatial position and / or orientation of the video camera is not recognized, as far as the video camera is aligned with another part of the same white wall, because the analysis unit 13 sees no difference between the corresponding pixel values.

In analoger Weise kann eine Änderung der Fokussierungseinstellungen einer Videokamera nur erkannt werden, wenn ausreichend relevante strukturcharakterisierende Information, insbesondere Kanten und Texturen im Erfassungsbereich des Sensors 25, vorliegt.Analogously, a change in the focus settings of a video camera can only be detected if sufficiently relevant structure-characterizing information, in particular edges and textures in the detection range of the sensor 25 , is present.

Ähnliche Probleme können bei anderen Arten der Homogenität auftreten, wie zum Beispiel bei einer Temperaturhomogenität im Erfassungsbereich des Sensors 25 und einer Infrarotkamera als Sensor oder einer homogenen räumlichen Tiefe und einem Laserscanner oder Radargerät als Sensor 25.Similar problems can occur with other types of homogeneity, such as temperature homogeneity in the sensing range of the sensor 25 and an infrared camera as a sensor or a homogeneous spatial depth and a laser scanner or radar device as a sensor 25 ,

Angesichts der vorbeschriebenen Problematik kann die vorliegende Erfindung gemäß einer besonders vorteilhaften Weiterbildung dadurch vereinfacht werden, dass eine für die Erkennung von Sensorstörungen und/oder von Signalstörungen günstige Aufnahmesituation gewährleistet wird, und zwar dadurch, dass mindestens ein geeignetes zwei- oder dreidimensionales Eichobjekt oder Eichmuster in den Erfassungsbereich des Sensors 25 gebracht wird.In view of the problem described above, the present invention can be simplified according to a particularly advantageous development in that a favorable for the detection of sensor disturbances and / or signal interference recording situation is ensured, namely there in that at least one suitable two- or three-dimensional calibration object or calibration pattern enters the detection range of the sensor 25 is brought.

Die Erkennung von Sensorstörungen und/oder von Signalstörungen wird aus dem Vergleich der Abbildungen des Eichobjektes oder Eichmusters in die Bildsequenz zu unterschiedlichen Zeitpunkten realisiert.The Detection of sensor disturbances and / or of signal interference is calculated by comparing the images of the calibration object or calibration sample realized in the image sequence at different times.

Bei Systemen mit einer oder mehreren Videokameras als Sensoren werden vorzugsweise als Eichobjekte oder als Eichmuster Schilder oder Aufkleber verwendet, deren Einbringen in die Szene nicht nur den beschriebenen Zielen der Vereinfachung der Erkennung von Sensorstörungen und/oder von Signalstörungen, sondern auch anderen Zwecken dient.at Systems with one or more video cameras as sensors preferably as calibration objects or as a calibration pattern signs or stickers used, their introduction to the scene not only the described To facilitate the detection of sensor disturbances and / or of Signal interference, but also serves other purposes.

So können zum Beispiel Werbeaufkleber und Werbeschilder so angebracht werden, dass diese nicht nur von den vorbeikommenden Personen, sondern auch von der Videokamera beobachtbar sind.So can for example, advertising stickers and advertising signs can be affixed that these are not only from the passing people, but also from the video camera are observable.

In analoger Weise können die aus datenschutzrechtlichen Gründen angebrachten Schilder oder Aufkleber wie "Bereich wird videoüberwacht", "Videoüberwachung" oder dergleichen, die die Videoüberwachung kennzeichnen, sowie Schilder oder Anzeigetafeln wie "Ausgang", "Notausgang" oder dergleichen, geeignet aufgehängt werden.In analogous way the signs attached for data protection reasons or Stickers like "area is video-monitored "," video surveillance "or the like, the video surveillance signage or signs such as "exit", "emergency exit" or the like, suitable suspended become.

Die geeigneten Eichobjekte und Eichmuster können aber auch extra zum Zwecke der Vereinfachung der vorliegenden Erfindung und der Erhöhung der Robustheit des Systems erstellt werden.The suitable calibration objects and calibration samples can also be used for the purpose the simplification of the present invention and the increase of Robustness of the system can be created.

Es kann sich zum Beispiel um Objekte oder um Muster handeln, die aufgrund ihrer speziellen Ausführung charakteristische Eigenschaften besitzen und so oder in einer ähnlichen Form nicht bei einer typischen Aufnahmesituation vorkommen, wie etwa Muster mit charakteristischen Kantenverteilungen und/oder Muster mit charakteristischen Farbverteilungen.It For example, they may be objects or patterns based on their special design possess characteristic properties and so or in a similar Form does not occur in a typical recording situation, such as Pattern with characteristic edge distributions and / or patterns with characteristic color distributions.

Einige Beispiele für solche Muster und dreidimensionalen Objekte sind in 11 (= Ausführungsbeispiele 81, 82, 83, 84, 85, 86 für zweidimensionale Eichmuster) und in 12 (= Ausführungsbeispiele 87, 88 für dreidimensionale Eichobjekte) visualisiert.Some examples of such patterns and three-dimensional objects are in 11 (= Embodiments 81 . 82 . 83 . 84 . 85 . 86 for two-dimensional calibration samples) and in 12 (= Embodiments 87 . 88 for three-dimensional calibration objects).

Bei Systemen mit einer oder mehreren Infrarotkameras kann es sich bei den Eichobjekten um Objekte mit charakteristischer Temperaturverteilung handeln, zum Beispiel um einen Heizungskörper einer voreingestellten konstanten Temperatur oder um einen Heizungskörper mit einer Zeitschaltung, so dass die Temperaturveränderungen einer bestimmten charakteristischen Verteilung entsprechen.at Systems with one or more infrared cameras may be present the calibration objects are objects with a characteristic temperature distribution, for example, a heating element a preset constant temperature or around a heater body with a timer so that the temperature changes a specific correspond to characteristic distribution.

Bei Systemen mit einem oder mehreren Sensoren, die die räumliche Tiefe oder die dreidimensionale Gestalt von Objekten im Erfassungsbereich des Sensors berechnen, wie es zum Beispiel bei Laserscannern oder bei Radargeräten der Fall ist, wird als Eichobjekt ein Objekt mit charakteristischer räumlicher Form eingesetzt.at Systems with one or more sensors, the spatial Depth or the three-dimensional shape of objects in the detection area of the sensor, as for example with laser scanners or at radars the case is, as a calibration object is an object with a characteristic spatial Form used.

Die technische Ausführung des Verfahrens wird in der ersten Variante so realisiert, dass die Abbildungen der Eichobjekte oder Eichmuster in die Bildsequenz selbst oder die entsprechenden charakteristischen Merkmalsvektoren in einer Datenbank gespeichert und zur Berechnung hinzugezogen werden. In der zweiten Variante werden die Abbildungen der Eichobjekte oder Eichmuster manuell in einem Bild der Bildsequenz ausgewählt.The technical design of the method is realized in the first variant, that the Illustrations of the calibration objects or calibration pattern in the image sequence itself or the corresponding characteristic feature vectors in one Database are stored and consulted for calculation. In the second variant, the images of the calibration objects or Calibration pattern manually selected in an image of the image sequence.

Die beschriebenen Eichobjekte oder Eichmuster werden vorzugsweise so angebracht, dass sie in einer typischen Aufnahmesituation zumindest nicht vollständig von anderen Objekten verdeckt werden.The calibration objects or calibration samples described are preferably so attached, that in a typical shooting situation at least not Completely obscured by other objects.

11
Sensorsignalsensor signal
22
Anforderungsnachricht an die Speichereinheit 18 Request message to the storage unit 18
33
Datensatz aus der Speichereinheit 18 Record from the storage unit 18
44
Analyseergebnisseanalysis results
55
Nachricht über die Analyseergebnisse 4 Message about the analysis results 4
66
Ergebnisse der SegmentierungResults the segmentation
77
Ergebnisse der MerkmalsextraktionResults the feature extraction
88th
Analyseergebnisse der sekundären Einheit 20 zur Analyse des Sensorsignals 1 Analysis results of the secondary unit 20 for analyzing the sensor signal 1
99
Signal zur Ansteuerung des ansteuerbaren Gerätssignal for controlling the controllable device
1010
Signal eines weiteren Sensorssignal another sensor
1111
Signal eines weiteren Sensors, nicht notwendigerweise bildbasiertsignal another sensor, not necessarily image based
1212
Merkmalsvektorenfeature vectors
1313
Einheit zur Analyse des Sensorsignals 1 Unit for analyzing the sensor signal 1
1414
Einheit zur Bildsegmentierungunit for image segmentation
1515
Einheit zur Merkmalsextraktionunit for feature extraction
1616
Einheit zur Entscheidung über Vorliegen und Art der Störungunit to decide about Presence and nature of the disorder
1717
Nachrichteneinheitmessage unit
1818
Speichereinheitstorage unit
1919
primäre Einheit zur Analyse des Sensorsignals 1 primary unit for analyzing the sensor signal 1
2020
sekundäre Einheit zur Analyse des Sensorsignals 1 secondary unit for analyzing the sensor signal 1
2222
Verzögerungsglied für Verzögerung um Zeitabschnitt mTdelay for delay around Time interval mT
2323
Verzögerungsglied für Verzögerung um Zeitabschnitt nTdelay for delay around Time period nT
2424
Erfassungsbereich des Sensors 25 in realer WeltDetection range of the sensor 25 in the real world
2525
Sensor zur Erfassung von elektromagnetischer Strahlung und zur Generierung von Bildsequenzensensor for the detection of electromagnetic radiation and for generation of image sequences
2626
Sensor, nicht notwendigerweise bildbasiertSensor, not necessarily image-based
2727
ansteuerbares Gerätcontrollable device
2828
entfernte Empfängereinrichtungdistant receiver device
2929
Entscheidungsfunktiondecision function
3030
Einheit zur Extraktion von Texturinformationenunit for extraction of texture information
3131
Einheit zur Berechnung der Relevanz von Texturinformationenunit to calculate the relevance of texture information
3232
Einheit zur Extraktion von Helligkeitsverteilungenunit for the extraction of brightness distributions
3333
Einheit zur Berechnung der Relevanz von Helligkeitsverteilungenunit to calculate the relevance of brightness distributions
3434
Einheit zur Klassifizierung von segmentierten Pixelgruppenunit for the classification of segmented pixel groups
3535
Trackingmodul für einzelne Pixelgruppentracking module for individual pixel groups
3636
Einheit zur Gruppierung von segmentierten Pixelgruppen zu Objektenunit for grouping segmented pixel groups into objects
3737
Einheit zur Klassifizierung von Objektenunit for classifying objects
3838
Einheit zur Klassifizierung von Aktionenunit for the classification of actions
3939
Ansteuerungseinheitcontrol unit
4040
Texturhistogramm zum Zeitpunkt ttexture histogram at time t
41 bis 4841 to 48
Detektoren für verschiedene Arten der Sensorstörung und Sabotage, nämlichdetectors for different Types of sensor failure and sabotage, namely
4141
erster Detektorfirst detector
4242
zweiter Detektorsecond detector
4343
dritter Detektorthird detector
4444
vierter Detektorfourth detector
4545
fünfter Detektorfifth detector
4646
sechster Detektorsixth detector
4747
siebter Detektorseventh detector
4848
achter Detektoreight detector
4949
Texturhistogramm zum Zeitpunkt t – mTtexture histogram at time t - mT
5050
Helligkeitshistogramm zum Zeitpunkt tbrightness histogram at time t
51 bis 5851 to 58
Referenzwerte für verschiedene Arten einer Sensorstörung oder Sabotage, nämlichreference values for different Types of sensor failure or sabotage, namely
5151
erster Referenzwert, insbesondere Beleuchtungsänderungfirst Reference value, in particular change of illumination
5252
zweiter Referenzwert, insbesondere Verdeckung des Sensors 25 second reference value, in particular occlusion of the sensor 25
5353
dritter Referenzwert, insbesondere Veränderung der räumlichen Position und/oder der Ausrichtung des Sensors 25 third reference value, in particular change of the spatial position and / or the orientation of the sensor 25
5454
vierter Referenzwert, insbesondere Verschmutzung der Oberfläche des Sensor 25 fourth reference value, in particular contamination of the surface of the sensor 25
5555
fünfter Referenzwert, insbesondere Fokussierungseinstellungen des Sensors 25 fifth reference value, in particular focusing settings of the sensor 25
5656
sechster Referenzwert, insbesondere Feuchtigkeit an der Oberfläche des Sensor 25 sixth reference value, in particular moisture on the surface of the sensor 25
5757
siebter Referenzwert, insbesondere Objektbewegung im Erfassungsbereich des Sensors 25 seventh reference value, in particular object movement in the detection range of the sensor 25
5858
achter Referenzwert, insbesondere Signalausfalleight Reference value, in particular signal failure
5959
Helligkeitshistogramm zum Zeitpunkt t – mTbrightness histogram at time t - mT
6060
Sensorsignal zum Zeitpunkt t – mTsensor signal at time t - mT
61 bis 68 61 to 68
Gewichtungen der Referenzwerte 51, 52, 53, 54, 55, 56, 57, 58 für einzelne Detektoren 41, 42, 43, 44, 45, 46, 47, 48, nämlichWeightings of the reference values 51 . 52 . 53 . 54 . 55 . 56 . 57 . 58 for individual detectors 41 . 42 . 43 . 44 . 45 . 46 . 47 . 48 , namely
6161
Gewichtung des Referenzwerts 51 für ersten Detektor 41 Weighting of the reference value 51 for first detector 41
6262
Gewichtung des Referenzwerts 52 für zweiten Detektor 42 Weighting of the reference value 52 for second detector 42
6363
Gewichtung des Referenzwerts 53 für dritten Detektor 43 Weighting of the reference value 53 for third detector 43
6464
Gewichtung des Referenzwerts 54 für vierten Detektor 44 Weighting of the reference value 54 for fourth detector 44
6565
Gewichtung des Referenzwerts 55 für fünften Detektor 45 Weighting of the reference value 55 for fifth detector 45
6666
Gewichtung des Referenzwerts 56 für sechsten Detektor 46 Weighting of the reference value 56 for sixth detector 46
6767
Gewichtung des Referenzwerts 57 für siebten Detektor 47 Weighting of the reference value 57 for seventh detector 47
6868
Gewichtung des Referenzwerts 58 für achten Detektor 48 Weighting of the reference value 58 for eighth detector 48
6969
Sensorsignal zum Zeitpunkt t – (m + n)Tsensor signal at time t - (m + n) T
70 bis 8070 to 80
Bedingungsfunktionen, nämlichConditional functions, namely
7070
erste Bedingung(sfunktion)first Condition (sfunktion)
7171
zweite Bedingung(sfunktion)second Condition (sfunktion)
7272
dritte Bedingung(sfunktion)third Condition (sfunktion)
7373
vierte Bedingung(sfunktion)fourth Condition (sfunktion)
7474
fünfte Bedingung(sfunktion)fifth condition (sfunktion)
7575
sechste Bedingung(sfunktion)sixth Condition (sfunktion)
7676
siebte Bedingung(sfunktion)seventh Condition (sfunktion)
7777
achte Bedingung(sfunktion)eighth Condition (sfunktion)
7878
neunte Bedingung(sfunktion)ninth Condition (sfunktion)
7979
zehnte Bedingung(sfunktion)tenth Condition (sfunktion)
8080
elfte Bedingung(sfunktion)eleventh Condition (sfunktion)
81 bis 86 81 to 86
Beispiele für zweidimensionales Eichmuster, nämlichExamples for two-dimensional Calibration pattern, namely
8181
erstes Beispiel für zweidimensionales Eichmusterfirst example for two-dimensional calibration pattern
8282
zweites Beispiel für zweidimensionales Eichmustersecond example for two-dimensional calibration pattern
8383
drittes Beispiel für zweidimensionales Eichmusterthird example for two-dimensional calibration pattern
8484
viertes Beispiel für zweidimensionales Eichmusterfourth example for two-dimensional calibration pattern
8585
fünftes Beispiel für zweidimensionales Eichmusterfifth example for two-dimensional calibration sample
8686
sechstes Beispiel für zweidimensionales Eichmustersixth example for two-dimensional calibration pattern
87 bis 8887 to 88
Beispiele für dreidimensionale Eichobjekte, nämlichExamples for three-dimensional Calibration objects, namely
8787
erstes Beispiel für dreidimensionales Eichobjektfirst example for three-dimensional calibration object
8888
zweites Beispiel für dreidimensionales Eichobjektsecond example for three-dimensional calibration object

Claims (50)

System zur Erkennung von Sensorstörungen und/oder von Signalstörungen, aufweisend mindestens einen Sensor (25) zur Erfassung von elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen, gekennzeichnet durch mindestens eine Speichereinheit (18) und mindestens eine zur Analyse des Sensorsignals (1) vorgesehene Analyseeinheit (13), wobei das Sensorsignal (1) selbst zur Erkennung der Sensorstörungen und/oder der Signalstörungen analysiert wird.System for detecting sensor disturbances and / or signal interference, comprising at least one sensor ( 25 ) for detecting electromagnetic radiation and for generating image sequences, characterized by at least one memory unit ( 18 ) and at least one for analyzing the sensor signal ( 1 ) provided analysis unit ( 13 ), wherein the sensor signal ( 1 ) is itself analyzed for the detection of sensor disturbances and / or signal disturbances. System gemäß Anspruch 1, dadurch gekennzeichnet, dass die Speichereinheit (18) und die Analyseeinheit (13) so ausgeführt sind, dass beim Erkennen einer Störung ein Signal generiert wird.System according to claim 1, characterized in that the memory unit ( 18 ) and the analysis unit ( 13 ) are designed so that when a fault is detected, a signal is generated. System gemäß Anspruch 1 oder 2, gekennzeichnet durch mindestens eine Nachrichteneinheit (17), die so ausgeführt ist, dass beim Erkennen einer Störung mindestens ein Signal (5) nachrichtentechnisch formuliert und an mindestens eine räumlich entfernte Empfängereinheit (28) verschickt wird.System according to claim 1 or 2, characterized by at least one message unit ( 17 ), which is designed so that when a fault is detected at least one signal ( 5 ) and to at least one remote receiver unit ( 28 ) is sent. System gemäß mindestens einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Speichereinheit (18) und die Analyseeinheit (13) so ausgeführt sind, dass mindestens zwei Arten von Störungen unterschieden werden können.System according to at least one of claims 1 to 3, characterized in that the memory unit ( 18 ) and the analysis unit ( 13 ) are designed so that at least two types of interference can be distinguished. System gemäß mindestens einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Speichereinheit (18) und die Analyseeinheit (13) so ausgeführt sind, dass in Abhängigkeit von der erkannten Störungsart mindestens ein die Störungsart anzeigendes Signal generiert wird.System according to at least one of claims 1 to 4, characterized in that the memory unit ( 18 ) and the analysis unit ( 13 ) are executed so that, depending on the detected type of disturbance, at least one signal indicating the type of disturbance is generated. System gemäß mindestens einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Speichereinheit (18) und die Analyseeinheit (13) so ausgeführt sind, dass beim Erkennen einer Störung generell und/oder beim Erkennen einer bestimmten Störungsart eine Änderung zumindest eines Teils der in der Speichereinheit (18) enthaltenen Daten veranlasst wird.System according to at least one of claims 1 to 5, characterized in that the memory unit ( 18 ) and the analysis unit ( 13 ) are executed so that when a fault is detected in general and / or when a specific type of fault is detected, a change of at least a part of the one in the memory unit ( 18 ) is initiated. System gemäß mindestens einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Speichereinheit (18) und die Analyseeinheit (13) so ausgeführt sind, dass beim Erkennen einer Störung generell und/oder beim Erkennen einer bestimmten Störungsart mindestens ein ansteuerbares Gerät zu mindestens einer physikalischen Aktion veranlasst wird.System according to at least one of claims 1 to 6, characterized in that the memory unit ( 18 ) and the analysis unit ( 13 ) are designed so that when detecting a fault generally and / or when detecting a particular type of fault at least one controllable device is caused to at least one physical action. System gemäß mindestens einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Speichereinheit (18) und die Analyseeinheit (13) so ausgeführt sind, dass mindestens eine Änderung der räumlichen Position und/oder der Ausrichtung des Sensors (25) erkannt werden/wird.System according to at least one of claims 1 to 7, characterized in that the memory unit ( 18 ) and the analysis unit ( 13 ) are designed so that at least one change of the spatial position and / or the orientation of the sensor ( 25 ) is / will be recognized. System gemäß mindestens einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Speichereinheit (18) und die Analyseeinheit (13) so ausgeführt sind, dass ein Ausfall des Sensorsignals (1) erkannt wird.System according to at least one of claims 1 to 8, characterized in that the memory unit ( 18 ) and the analysis unit ( 13 ) are designed so that a failure of the sensor signal ( 1 ) is recognized. System gemäß mindestens einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die Speichereinheit (18) und die Analyseeinheit (13) so ausgeführt sind, dass eine vollständige oder partielle Verdeckung des Sensors (25) erkannt wird.System according to at least one of claims 1 to 9, characterized in that the memory unit ( 18 ) and the analysis unit ( 13 ) are designed so that a complete or partial occlusion of the sensor ( 25 ) is recognized. System gemäß mindestens einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die Speichereinheit (18) und die Analyseeinheit (13) so ausgeführt sind, dass ein Ersetzen des Sensorsignals (1) durch mindestens ein anderes Signal erkannt wird.System according to at least one of claims 1 to 10, characterized in that the memory unit ( 18 ) and the analysis unit ( 13 ) are carried out such that a replacement of the sensor signal ( 1 ) is detected by at least one other signal. System gemäß mindestens einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die Speichereinheit (18) und die Analyseeinheit (13) so ausgeführt sind, dass eine Verschmutzung der Oberfläche des Sensors (25) erkannt wird.System according to at least one of claims 1 to 11, characterized in that the memory unit ( 18 ) and the analysis unit ( 13 ) are designed so that a contamination of the surface of the sensor ( 25 ) is recognized. System gemäß mindestens einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass die Speichereinheit (18) und die Analyseeinheit (13) so ausgeführt sind, dass eine Änderung der Fokussierungseinstellungen des Sensors (25) erkannt wird.System according to at least one of claims 1 to 12, characterized in that the memory unit ( 18 ) and the analysis unit ( 13 ) are carried out so that a change of the focus settings of the sensor ( 25 ) is recognized. System gemäß mindestens einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass die Speichereinheit (18) und die Analyseeinheit (13) so ausgeführt sind, dass Beleuchtungsänderungen im Erfassungsbereich des Sensors (25) erkannt werden.System according to at least one of claims 1 to 13, characterized in that the memory unit ( 18 ) and the analysis unit ( 13 ) are designed so that illumination changes in the detection range of the sensor ( 25 ) be recognized. System gemäß mindestens einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass es sich beim Sensor (25) zur Erfassung von elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen um mindestens eine Videokamera handelt.System according to at least one of Claims 1 to 14, characterized in that the sensor ( 25 ) for detecting electromagnetic radiation and for generating images at least one video camera. System gemäß mindestens einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass es sich beim Sensor (25) zur Erfassung von elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen um mindestens einen Laserscanner handelt.System according to at least one of Claims 1 to 15, characterized in that the sensor ( 25 ) for detecting electromagnetic radiation and for generating image sequences by at least one laser scanner. System gemäß mindestens einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass es sich beim Sensor (25) zur Erfassung von elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen um mindestens eine Infrarotkamera handelt.System according to at least one of claims 1 to 16, characterized in that it is at the sensor ( 25 ) for detecting electromagnetic radiation and for generating image sequences by at least one infrared camera. System gemäß mindestens einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass es sich beim Sensor (25) zur Erfassung von elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen um mindestens einen Terahertzwellendetektor handelt.System according to at least one of claims 1 to 17, characterized in that it is at the sensor ( 25 ) for detecting electromagnetic radiation and generating image sequences by at least one terahertz wave detector. System gemäß mindestens einem der Ansprüche 1 bis 18, dadurch gekennzeichnet, dass es sich beim Sensor (25) zur Erfassung von elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen um mindestens ein Radargerät handelt.System according to at least one of claims 1 to 18, characterized in that it is at the sensor ( 25 ) for detecting electromagnetic radiation and for generating image sequences around at least one radar device. System gemäß mindestens einem der Ansprüche 1 bis 19, dadurch gekennzeichnet, dass sich mindestens ein Bestandteil des Systems nicht in räumlicher Nähe zu mindestens einem anderen Bestandteil des Systems befindet und dass mindestens ein Bestandteil des Systems mit diesem anderen Bestandteil des Systems mittels eines Kabels über mindestens eine Nachrichtenleitung oder kabellos verbunden ist.System according to at least one of the claims 1 to 19, characterized in that at least one component the system is not in spatial Close to located at least one other part of the system and that at least one component of the system with this other component the system by means of a cable via at least one message line or wirelessly connected. System gemäß mindestens einem der Ansprüche 1 bis 20, gekennzeichnet durch mindestens zwei Sensoren (25) zur Erfassung elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen mit sich zumindest teilweise überlappenden Erfassungsbereichen, wobei die Speichereinheit (18) und die Analyseeinheit (13) so ausgeführt sind, dass eine Gewinnung und eine Auswertung von zumindest groben dreidimensionalen Informationen im gemeinsamen Erfassungsbereich der Sensoren (25) möglich sind.System according to at least one of claims 1 to 20, characterized by at least two sensors ( 25 ) for detecting electromagnetic radiation and for generating image sequences with at least partially overlapping detection areas, wherein the memory unit ( 18 ) and the analysis unit ( 13 ) are carried out so that an extraction and an evaluation of at least coarse three-dimensional information in the common detection range of the sensors ( 25 ) possible are. System gemäß mindestens einem der Ansprüche 1 bis 21, dadurch gekennzeichnet, dass mindestens ein zweidimensionales Eichmuster (81, 82, 83, 84, 85, 86) und/oder mindestens ein dreidimensionales Eichobjekt (87, 88), insbesondere mindestens ein Objekt mit charakteristischer räumlicher Form und/oder mindestens ein Objekt mit charakteristischer Temperaturverteilung, im Erfassungsbereich des Sensors (25) vorgesehen ist.System according to at least one of claims 1 to 21, characterized in that at least one two-dimensional calibration pattern ( 81 . 82 . 83 . 84 . 85 . 86 ) and / or at least one three-dimensional calibration object ( 87 . 88 ), in particular at least one object with a characteristic spatial shape and / or at least one object with a characteristic temperature distribution, in the detection range of the sensor ( 25 ) is provided. Verfahren zur Erkennung von Sensorstörungen und/oder von Signalstörungen mittels mindestens eines Sensors (25) zur Erfassung von elektromagnetischer Strahlung und zur Erzeugung von Bildsequenzen, dadurch gekennzeichnet, dass das Sensorsignal (1) selbst zur Erkennung der Sensorstörungen und/oder der Signalstörungen analysiert wird.Method for detecting sensor disturbances and / or signal interference by means of at least one sensor ( 25 ) for detecting electromagnetic radiation and for generating image sequences, characterized in that the sensor signal ( 1 ) is itself analyzed for the detection of sensor disturbances and / or signal disturbances. Verfahren gemäß Anspruch 23, dadurch gekennzeichnet, dass zur Analyse des Sensorsignals (1) mindestens ein für das aktuelle Bild lokal oder global berechneter Referenzwert mit mindestens einem in mindestens einer Speichereinheit (18) enthaltenen Referenzwert verglichen wird.A method according to claim 23, characterized in that for the analysis of the sensor signal ( 1 ) at least one reference value locally or globally calculated for the current image with at least one in at least one storage unit ( 18 ) is compared. Verfahren gemäß Anspruch 23 oder 24, dadurch gekennzeichnet, dass die zeitliche Veränderung mindestens eines jeweils für das aktuelle Bild lokal oder global berechneten Referenzwerts ermittelt und auf ihre Ähnlichkeit mit mindestens einem für eine Störungsart typischen Veränderungsverlauf untersucht wird.Method according to claim 23 or 24, characterized in that the temporal change at least one each for the current image is calculated locally or globally calculated reference value and on their similarity with at least one for one malfunction typical change process is examined. Verfahren gemäß mindestens einem der Ansprüche 23 bis 25, dadurch gekennzeichnet, dass eine Entscheidung über das Vorliegen oder Nichtvorliegen mindestens einer Störung und gegebenenfalls über die Art der vorliegenden Störung mittels Vergleichens der für mindestens zwei Störungsarten berechneten Referenzwerte bzw. Wahrscheinlichkeitswerte erfolgt.Process according to at least one of the claims 23 to 25, characterized in that a decision on the The presence or absence of at least one fault and optionally via the nature of the present disorder by comparing the for at least two types of malfunction calculated reference values or probability values. Verfahren gemäß mindestens einem der Ansprüche 23 bis 26, dadurch gekennzeichnet, dass eine Entscheidung über das Vorliegen oder Nichtvorliegen mindestens einer Störung und gegebenenfalls über die Art der vorliegenden Störung mittels Vergleichens der für mindestens eine Störungsart und der für mindestens eine Art einer nicht durch eine Störung verursachten Änderung der Szenerie im Erfassungsbereich des Sensors (25) berechneten Referenzwerte bzw. Wahrscheinlichkeitswerte erfolgt.A method according to any one of claims 23 to 26, characterized in that a decision on the presence or absence of at least one disorder and optionally on the nature of the present disorder by comparing the for at least one type of disorder and for at least one type of not by a disorder caused change in scenery within the detection range of the sensor ( 25 ) calculated reference values or probability values. Verfahren gemäß mindestens einem der Ansprüche 23 bis 27, dadurch gekennzeichnet, dass es sich bei den Referenzwerten um Helligkeitswerte und/oder um Farbwerte und/oder um aus diesen Werten extrahierten Merkmale handelt.Process according to at least one of the claims 23 to 27, characterized in that it is at the reference values brightness values and / or color values and / or from these values extracted features. Verfahren gemäß mindestens einem der Ansprüche 23 bis 28, dadurch gekennzeichnet, dass es sich bei den Referenzwerten um Werte handelt, die die Textureigenschaften einzelner Pixel und/oder Pixelgruppen im Bild charakterisieren.Process according to at least one of the claims 23 to 28, characterized in that it is the reference values are values representing the texture properties of individual pixels and / or Characterize pixel groups in the picture. Verfahren gemäß mindestens einem der Ansprüche 23 bis 29, dadurch gekennzeichnet, dass es sich bei den Referenzwerten um Werte handelt, die die dreidimensionalen Informationen im Erfassungsbereich des Sensors (25) charakterisieren.Method according to at least one of claims 23 to 29, characterized in that the reference values are values representing the three-dimensional information in the detection range of the sensor ( 25 ) characterize. Verfahren gemäß mindestens einem der Ansprüche 23 bis 30, dadurch gekennzeichnet, dass bei der Analyse des Sensorsignals (1) Grauwertflüsse im Bild ausgewertet werden.Method according to at least one of claims 23 to 30, characterized in that in the analysis of the sensor signal ( 1 ) Gray value flows are evaluated in the image. Verfahren gemäß mindestens einem der Ansprüche 23 bis 31, dadurch gekennzeichnet, dass beim Erkennen einer Störung generell und/oder beim Erkennen einer bestimmten Störungsart mindestens ein von der Störungsart abhängiges und/oder unabhängiges Signal generiert wird.Process according to at least one of the claims 23 to 31, characterized in that when detecting a fault generally and / or upon detection of a particular type of failure, at least one of the fault type dependent and / or independent Signal is generated. Verfahren gemäß mindestens einem der Ansprüche 23 bis 32, dadurch gekennzeichnet, dass beim Erkennen einer Störung mindestens ein dem Zeitpunkt der Erkennung zeitlich nahe liegendes Bild gespeichert und/oder nachrichtentechnisch übertragen wird.Process according to at least one of the claims 23 to 32, characterized in that when detecting a fault at least a temporally close to the time of detection image stored and / or telecommunications becomes. Verfahren gemäß mindestens einem der Ansprüche 23 bis 33, dadurch gekennzeichnet, dass beim Erkennen einer Störung generell und/oder beim Erkennen einer bestimmten Störungsart mindestens eine Änderung zumindest eines Teils der in der Speichereinheit (18) enthaltenen Daten veranlasst wird.Method according to at least one of Claims 23 to 33, characterized in that, when a fault is detected in general and / or when a specific type of fault is detected, at least one change of at least one part of the one in the memory unit ( 18 ) is initiated. Verfahren gemäß mindestens einem der Ansprüche 23 bis 34, dadurch gekennzeichnet, dass beim Erkennen einer Störung generell und/oder beim Erkennen einer bestimmten Störungsart mindestens ein ansteuerbares Gerät zu einer physikalischen Aktion veranlasst wird.Process according to at least one of the claims 23 to 34, characterized in that when detecting a fault generally and / or upon detection of a particular type of fault at least one controllable Device too a physical action is initiated. Verfahren gemäß mindestens einem der Ansprüche 23 bis 35, dadurch gekennzeichnet, dass das Sensorsignal (1) auf eine Änderung der räumlichen Position und/oder der Ausrichtung des Sensors (25) untersucht wird.Method according to at least one of claims 23 to 35, characterized in that the sensor signal ( 1 ) to a change in the spatial position and / or the orientation of the sensor ( 25 ) is examined. Verfahren gemäß mindestens einem der Ansprüche 23 bis 36, dadurch gekennzeichnet, dass das Sensorsignal (1) auf einen Ausfall des Sensorsignals (1) untersucht wird.Method according to at least one of claims 23 to 36, characterized in that the sensor signal ( 1 ) to a failure of the sensor signal ( 1 ) is examined. Verfahren gemäß mindestens einem der Ansprüche 23 bis 37, dadurch gekennzeichnet, dass das Sensorsignal (1) auf eine vollständige oder partielle Verdeckung des Sensors (25) untersucht wird.Method according to at least one of claims 23 to 37, characterized in that the sensor signal ( 1 ) to a complete or partial occlusion of the sensor ( 25 ) is examined. Verfahren gemäß mindestens einem der Ansprüche 23 bis 38, dadurch gekennzeichnet, dass das Sensorsignal (1) auf ein Ersetzen des Sensorsignals (1) durch ein anderes Signal untersucht wird.Method according to at least one of claims 23 to 38, characterized in that the sensor signal ( 1 ) to a replacement of the sensor signal ( 1 ) is examined by another signal. Verfahren gemäß mindestens einem der Ansprüche 23 bis 39, dadurch gekennzeichnet, dass das Sensorsignal (1) auf eine Verschmutzung der Oberfläche des Sensors (25) untersucht wird.Method according to at least one of claims 23 to 39, characterized in that the sensor signal ( 1 ) on contamination of the surface of the sensor ( 25 ) is examined. Verfahren gemäß mindestens einem der Ansprüche 23 bis 40, dadurch gekennzeichnet, dass das Sensorsignal (1) auf eine Änderung der Fokussierungseinstellungen des Sensors (25) untersucht wird.Method according to at least one of claims 23 to 40, characterized in that the sensor signal ( 1 ) to a change in the focus settings of the sensor ( 25 ) is examined. Verfahren gemäß mindestens einem der Ansprüche 23 bis 41, dadurch gekennzeichnet, dass das Sensorsignal (1) auf mindestens eine Beleuchtungsänderung im Erfassungsbereich des Sensors (25) untersucht wird.Method according to at least one of claims 23 to 41, characterized in that the sensor signal ( 1 ) to at least one illumination change in the detection range of the sensor ( 25 ) is examined. Verfahren gemäß mindestens einem der Ansprüche 23 bis 42, dadurch gekennzeichnet, dass das Sensorsignal (1) zusätzlich zum Zwecke der Erfüllung der Funktionalitäten eines automatischen Überwachungs- und Alarmsystems analysiert wird.Method according to at least one of claims 23 to 42, characterized in that the sensor signal ( 1 ) is additionally analyzed for the purpose of fulfilling the functionalities of an automatic monitoring and alarm system. Verfahren gemäß mindestens einem der Ansprüche 23 bis 43, dadurch gekennzeichnet, dass das Sensorsignal (1) zusätzlich zum Zwecke der Erfüllung der Funktionalitäten eines automatischen Marktforschungssystems analysiert wird.Method according to at least one of claims 23 to 43, characterized in that the sensor signal ( 1 ) is additionally analyzed for the purpose of fulfilling the functionalities of an automatic market research system. Verfahren gemäß mindestens einem der Ansprüche 23 bis 44, dadurch gekennzeichnet, dass das Sensorsignal (1) zusätzlich zum Zwecke der Erfüllung der Funktionalitäten eines Verkehrsüberwachungssystems analysiert wird.Method according to at least one of claims 23 to 44, characterized in that the sensor signal ( 1 ) is additionally analyzed for the purpose of fulfilling the functionalities of a traffic monitoring system. Verfahren gemäß mindestens einem der Ansprüche 23 bis 45, dadurch gekennzeichnet, dass das Sensorsignal (1) zusätzlich zum Zwecke der Erfüllung der Funktionalitäten eines Brandmelders analysiert wird.Method according to at least one of claims 23 to 45, characterized in that the sensor signal ( 1 ) is additionally analyzed for the purpose of fulfilling the functionalities of a fire alarm. Verfahren gemäß mindestens einem der Ansprüche 23 bis 46, dadurch gekennzeichnet, dass das Sensorsignal (1) zusätzlich zum Zwecke der Erfüllung der Funktionalitäten eines Einbruchssicherheitssystems analysiert wird.Method according to at least one of claims 23 to 46, characterized in that the sensor signal ( 1 ) is additionally analyzed for the purpose of fulfilling the functionalities of a burglar alarm system. Verfahren gemäß mindestens einem der Ansprüche 23 bis 47, dadurch gekennzeichnet, dass mindestens ein zweidimensionales Eichmuster (81, 82, 83, 84, 85, 86) und/oder mindestens ein dreidimensionales Eichobjekt (87, 88), insbesondere mindestens ein Objekt mit charakteristischer räumlicher Form und/oder mindestens ein Objekt mit charakteristischer Temperaturverteilung, im Erfassungsbereich des Sensors (25) eingebracht wird.Method according to at least one of claims 23 to 47, characterized in that at least one two-dimensional calibration pattern ( 81 . 82 . 83 . 84 . 85 . 86 ) and / or at least one three-dimensional calibration object ( 87 . 88 ), in particular at least one object with a characteristic spatial shape and / or at least one object with a characteristic temperature distribution, in the detection range of the sensor ( 25 ) is introduced. Verfahren gemäß Anspruch 48, dadurch gekennzeichnet, dass die Sensorstörungen und/oder die Signalstörungen durch Vergleichen der Abbildungen des Eichmusters (81, 82, 83, 84, 85, 86) und/oder des Eichobjekts (87, 88) in die Bildsequenz zu unterschiedlichen Zeitpunkten erkannt werden.Method according to claim 48, characterized in that the sensor disturbances and / or the signal disturbances are determined by comparing the images of the calibration sample ( 81 . 82 . 83 . 84 . 85 . 86 ) and / or the calibration object ( 87 . 88 ) are recognized in the image sequence at different times. Verfahren gemäß Anspruch 48 oder 49, dadurch gekennzeichnet, dass die Abbildungen des Eichmusters (81, 82, 83, 84, 85, 86) und/oder des Eichobjekts (87, 88) in die Bildsequenz oder die entsprechenden charakteristischen Merkmalsvektoren in einer Datenbank gespeichert und zur Berechnung hinzugezogen werden oder dass die Abbildungen des Eichmusters (81, 82, 83, 84, 85, 86) und/oder des Eichobjekts (87, 88) manuell in einem Bild der Bildsequenz ausgewählt werden.A method according to claim 48 or 49, characterized in that the images of the Calibration pattern ( 81 . 82 . 83 . 84 . 85 . 86 ) and / or the calibration object ( 87 . 88 ) are stored in the image sequence or the corresponding characteristic feature vectors in a database and used for the calculation or that the images of the calibration sample ( 81 . 82 . 83 . 84 . 85 . 86 ) and / or the calibration object ( 87 . 88 ) are manually selected in an image of the image sequence.
DE102007000344A 2006-06-22 2007-06-22 System for detection of sensor disturbances and for signal disturbances, has sensor for recording electromagnetic radiation and for generation of image sequences Withdrawn DE102007000344A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007000344A DE102007000344A1 (en) 2006-06-22 2007-06-22 System for detection of sensor disturbances and for signal disturbances, has sensor for recording electromagnetic radiation and for generation of image sequences

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102006000309 2006-06-22
DE102006000309.8 2006-06-22
DE102007000344A DE102007000344A1 (en) 2006-06-22 2007-06-22 System for detection of sensor disturbances and for signal disturbances, has sensor for recording electromagnetic radiation and for generation of image sequences

Publications (1)

Publication Number Publication Date
DE102007000344A1 true DE102007000344A1 (en) 2008-01-17

Family

ID=38825401

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007000344A Withdrawn DE102007000344A1 (en) 2006-06-22 2007-06-22 System for detection of sensor disturbances and for signal disturbances, has sensor for recording electromagnetic radiation and for generation of image sequences

Country Status (1)

Country Link
DE (1) DE102007000344A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202012003277U1 (en) 2012-03-22 2012-07-11 Iris-Gmbh Infrared & Intelligent Sensors Detection of signal interference of an optical sensor caused by damage or occlusion
DE102015112682A1 (en) * 2015-08-03 2017-02-09 Connaught Electronics Ltd. Method for operating a camera system with a plenoptic camera, camera system and motor vehicle
DE102022200073A1 (en) 2022-01-05 2023-07-06 Continental Automotive Technologies GmbH Method for checking a static surveillance system and surveillance system installed in a traffic area
DE102022200075A1 (en) 2022-01-05 2023-07-06 Continental Automotive Technologies GmbH Procedure for checking a static monitoring system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202012003277U1 (en) 2012-03-22 2012-07-11 Iris-Gmbh Infrared & Intelligent Sensors Detection of signal interference of an optical sensor caused by damage or occlusion
EP2642315A2 (en) 2012-03-22 2013-09-25 Iris-Gmbh Infrared & Intelligent Sensors Detection of optical sensor signal interference caused by damage or cover
DE102015112682A1 (en) * 2015-08-03 2017-02-09 Connaught Electronics Ltd. Method for operating a camera system with a plenoptic camera, camera system and motor vehicle
DE102022200073A1 (en) 2022-01-05 2023-07-06 Continental Automotive Technologies GmbH Method for checking a static surveillance system and surveillance system installed in a traffic area
DE102022200075A1 (en) 2022-01-05 2023-07-06 Continental Automotive Technologies GmbH Procedure for checking a static monitoring system

Similar Documents

Publication Publication Date Title
DE602005003926T2 (en) SYSTEM AND METHOD FOR RECOGNIZING AN INDICATIVE VEHICLE FROM DYNAMIC BACKGROUND USING ROBUST INFORMATION FUSION
AT502551B1 (en) METHOD AND PICTURE EVALUATION UNIT FOR SCENE ANALYSIS
DE112009000485T5 (en) Object comparison for tracking, indexing and searching
JP2004537790A (en) Moving object evaluation system and method
EP2758915B1 (en) Method for automatic real-time monitoring of marine mammals
WO2009003793A2 (en) Device for identifying and/or classifying movement patterns in an image sequence of a surveillance scene, method and computer program
DE102018212655A1 (en) Detection of the intention to move a pedestrian from camera images
DE102007013664A1 (en) Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient
Li et al. PETS 2015: Datasets and challenge
WO2011117170A1 (en) Method for visualizing zones of higher activity in monitoring scenes
DE102007000344A1 (en) System for detection of sensor disturbances and for signal disturbances, has sensor for recording electromagnetic radiation and for generation of image sequences
Choi et al. Real-time power line detection network using visible light and infrared images
CN112084892A (en) Road abnormal event detection management device and method thereof
CN110909607B (en) Passenger flow sensing device system in intelligent subway operation
EP3921819B1 (en) Monitoring device and method for monitoring a man-overboard event in a ship section
DE102021201178A1 (en) COMPUTER-IMPLEMENTED PROCEDURE FOR GENERATION OF RELIABILITY INDICATIONS FOR COMPUTERVISION
Skladchykov et al. Application of YOLOX deep learning model for automated object detection on thermograms
KR101520293B1 (en) Scheduling method for detention of object and of obtaining forensic image by visual attention, and system thereof
WO1997004428A1 (en) Interactive surveillance system
DE10049366A1 (en) Security area monitoring method involves using two image detection units whose coverage areas overlap establishing monitored security area
DE102016222134A1 (en) Video analysis device for a monitoring device and method for generating a single image
DE102019123220A1 (en) Summarize videos from multiple moving video cameras
EP2219155B1 (en) Apparatus, method and computer programme for segmenting an object in an image, and video surveillance system
CN111063145A (en) Intelligent processor for electronic fence
JP2002300573A (en) Video diagnostic system on-board of video monitor

Legal Events

Date Code Title Description
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140101