DE102007037647A1 - Einbruchsicherungssystem mit Stereokameraüberwachung - Google Patents
Einbruchsicherungssystem mit Stereokameraüberwachung Download PDFInfo
- Publication number
- DE102007037647A1 DE102007037647A1 DE102007037647A DE102007037647A DE102007037647A1 DE 102007037647 A1 DE102007037647 A1 DE 102007037647A1 DE 102007037647 A DE102007037647 A DE 102007037647A DE 102007037647 A DE102007037647 A DE 102007037647A DE 102007037647 A1 DE102007037647 A1 DE 102007037647A1
- Authority
- DE
- Germany
- Prior art keywords
- images
- image
- filtered
- background image
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title description 28
- 238000001514 detection method Methods 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims abstract description 24
- 230000033001 locomotion Effects 0.000 claims description 20
- 238000001914 filtration Methods 0.000 claims description 16
- 239000003381 stabilizer Substances 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims 1
- 230000011664 signaling Effects 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 20
- 230000000875 corresponding effect Effects 0.000 description 18
- 239000000945 filler Substances 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 12
- 206010048909 Boredom Diseases 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241000283973 Oryctolagus cuniculus Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19604—Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19606—Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/1961—Movement detection not involving frame subtraction, e.g. motion detection on the basis of luminance changes in the image
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19641—Multiple cameras having overlapping views on a single scene
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
- Technisches Gebiet
- Die vorliegende Erfindung betrifft allgemein Einbruchsicherungssysteme und insbesondere ein Einbruchsicherungssystem mit Stereokameraüberwachung.
- Hintergrund
- In der modernen Gesellschaft und im Verlauf der überlieferten Geschichte gibt und gab es stets einen Bedarf an Sicherheitsmaßnahmen. Solche Maßnahmen dienen der Verhinderung von Diebstahl, von unberechtigtem Zugang zu sensiblen Materialien und Bereichen und werden in vielfältigen anderen Anwendungen eingesetzt. Eine derartige übliche Sicherheitsmaßnahme betrifft Einbruchsicherungssysteme. Typischerweise enthalten Einbruchsicherungssysteme eine Videoüberwachung, die die Überwachung von Videoeinspeisungen enthält, die von einer oder mehreren Videokameras erfasst werden, die sich am Umfang einer zu schützenden Einrichtung befinden. Die Überwachung der Videoeinspeisungen erfolgt typischerweise durch eine Person wie Sicherheitspersonal oder durch die Polizei. Da jedoch potentielle Bedrohungen der Sicherheit isolierte Ereignisse während langer, sonst ereignisloser Zeitspannen sind, kann Langeweile ein erhebliches Problem bedeuten, was in einem Nachlassen der Aufmerksamkeit resultiert.
- Um das Problem der Langeweile zu überwinden, sind etliche automatisierte Einbruchsicherungssystems entwickelt worden. Solche automatisierten Systeme können verschiedene Computer-Bildalgorithmen enthalten, die die menschliche Überwachung unterstützen. Typischerweise wird ein Änderungsdetektionsalgorithmus verwendet, um Zonen innerhalb des überwachten Bereichs zu identifizieren, bei denen eine sorgfältigere Überprüfung durch die Überwachungsperson angeraten sein dürfte. Solche Systeme können jedoch äußerst anfällig für die Registrierung falscher positiver Ergebnisse sein, wie sie aus Änderungen in der Umgebung resultieren, z. B. Änderungen im Hintergrund, durch Wind bewegtes Buschwerk, Kameravibrationen, Helligkeitsänderungen durch Wolkenwanderung und sich bewegende Lichtstrahlen während der Nacht. Die daraus resultierende hohe Rate falscher positiver Ergebnisse kann sogar qualifiziertestes Sicherheitspersonal ermüden. Um die falschen positiven Bedingungen auszuschalten, kann ein Bediener bei manchen Systemen Nullzonen ein richten, in denen Aktivitäten den Alarm nicht auslösen können. Eine derartige Lösung kann jedoch die Gelegenheit für falsche negative Ergebnisse bieten, was in Sicherheitslücken resultiert.
- Abgesehen von den sich aus Langeweile ergebenden Problemen können typische automatisierte Einbruchsicherungssysteme mit einigen weiteren Nachteilen behaftet sein. Einbruchsicherungssysteme auf Kamerabasis enthalten z. B. typischerweise eine in großer Höhe angebrachte Kamera, die nach unten gerichtet ist. Die Position des Eindringlings auf dem Boden kann so nur innerhalb des Sichtfeldes der Kamera bestimmt werden. Eine derartige Anordnung kann jedoch schwierig zu installieren und zu warten und durch die erforderliche Spezialausrüstung und das Zubehör teuer sein. Außerdem haben solche Systeme ein begrenztes Sichtfeld. Ein Eindringling kann deshalb die Systeme entdecken, bevor er entdeckt wird, und hat dadurch die Möglichkeit, tote Winkel auszunützen oder andere Gegenmaßnahmen zu ersinnen, um das automatisierte Einbruchsicherungssystem zu "überlisten".
- Zusammenfassung
- Eine Ausführungsform der vorliegenden Erfindung enthält ein Einbruchsicherungssystem. Das Einbruchsicherungssystem weist eine erste Kamera auf, die so konfiguriert ist, dass sie erste Bilder eines überwachten Bereichs erfasst, und eine zweite Kamera, die so konfiguriert ist, dass sie zweite Bilder eines überwachten Bereichs erfasst. Das Einbruchsicherungssystem weist außerdem ein Detektionsgerät auf, das zum Vergleichen der ersten Bilder mit einem Hintergrundbild des überwachten Bereichs konfiguriert ist. Das Detektionsgerät kann Unterschiede zwischen den ersten Bildern und dem Hintergrundbild als potentiellen Eindringling markieren. Das Einbruchsicherungssystem weist außerdem ein Verfolgungsgerät auf, das zur Auswertung jedes der ersten Bilder relativ zu jedem der zweiten Bilder konfiguriert ist, um dreidimensionale zum potentiellen Eindringling gehörige Kennzeichen zu bestimmen.
- Eine weitere Ausführungsform der vorliegenden Erfindung enthält ein Verfahren zur Detektion von Eindringlingen in einem überwachten Bereich. Das Verfahren weist die Erfassung erster Bilder des überwachten Bereichs aus einer ersten Kamera, die Erfassung zweiter Bilder des überwachten Bereichs aus einer zweiten Kamera und die Erzeugung eines Hintergrundbildes des überwachten Bereichs auf. Das Verfahren weist außerdem die Korrelierung erster zu den ersten Bildern gehöriger Bildpunkte mit zweiten zum Hintergrundbild gehörigen Bildpunkten auf, so dass die ersten Bildpunkte auf die zweiten Bildpunkte waagrecht und senkrecht ausgerichtet werden. Das Verfahren weist ferner den Vergleich der ersten Bilder mit dem Hintergrundbild des überwachten Bereichs auf, um die Anwesenheit eines potentiellen Eindringlings zu bestimmen. Des weiteren weist das Verfahren die Bestimmung dreidimensionaler Kennzeichen des potentiellen Eindringlings auf Basis eines Relativvergleichs der ersten und zweiten Bilder sowie die Aktivierung einer Meldeeinrichtung auf, wenn die dreidimensionalen Kennzeichen des potentiellen Eindringlings mindestens einen vorgegebenen Schwellenwert überschreiten.
- Eine weitere Ausführungsform der vorliegenden Erfindung enthält ein Einbruchsicherungssystem. Das Einbruchsicherungssystem weist Mittel zur gleichzeitigen Erfassung erster und zweiter Bilder eines überwachten Bereichs auf. Das Einbruchsicherungssystem weist außerdem Mittel zur kontinuierlichen Erzeugung eines Hintergrundbildes des überwachten Bereichs auf. Weiterhin weist das Einbruchsicherungssystem auch Mittel zum Erkennen eines potentiellen Eindringlings auf Basis von Unterschieden zwischen den ersten Bildern und dem Hintergrundbild auf. Das Einbruchsicherungssystem weist außerdem Mittel zur Bestimmung dreidimensionaler Kennzeichen des potentiellen Eindringlings auf Basis der ersten und zweiten Bilder auf sowie Mittel zur Aktivierung einer Meldeeinrichtung auf Basis der dreidimensionalen Kennzeichen des potentiellen Eindringlings auf.
- Kurzbeschreibung der Zeichnungen
-
1 zeigt ein Beispiel eines Einbruchsicherungssystems mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. -
2 zeigt ein Beispiel eines Hintergrundbildgenerators gemäß einem Aspekt der Erfindung. -
3 zeigt ein Beispiel eines Kamerabildes und gefilterter Bilder des Kamerabildes gemäß einem Aspekt der Erfindung. -
4 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. -
5 zeigt ein Beispiel eines Bildkorrelators gemäß einem Aspekt der Erfindung. -
6 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. -
7 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. -
8 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. -
9 zeigt ein Verfahren zur Detektion von Eindringlingen in einem überwachten Bereich gemäß einem Aspekt der Erfindung. - Detaillierte Beschreibung
- Die vorliegende Erfindung betrifft allgemein Einbruchsicherungssysteme und insbesondere ein Einbruchsicherungssystem mit Stereokameraüberwachung. Ein Paar Stereokameras erfassen jeweils gleichzeitige Bilder des überwachten Bereichs. Die erfassten Bilder einer oder beider Kameras können mit einem Hintergrundbild verglichen werden. Das Hintergrundbild kann so von einer der Kameras erzeugt werden, oder die Bilder können mit getrennten Hintergrundbildern verglichen werden. Das Hintergrundbild kann ständig auf Basis jedes der erfassten Bilder aktualisiert werden, um kleinste Änderungen im überwachten Umgebungsbereich langsam zu berücksichtigen. Außerdem kann das Hintergrundbild mit jedem der erfassten Bilder korreliert werden, so dass die Bildpunkte jedes der erfassten Bilder und des Hintergrundbildes waagrecht und senkrecht aufeinander ausgerichtet werden können.
- Bei Erkennen eines Unterschieds zwischen den erfassten Bildern und dem Hintergrundbild können die sich unterscheidenden Bildpunkte als ein potentieller Eindringling umrissen werden. Die erfassten Bilder jeder der Kameras können korreliert werden, um eine Parallaxenverschiebung des zweidimensionalen Standorts des potentiellen Eindringlings im erfassten Bild von einer Kamera gegenüber der anderen zu bestimmen. Mit der Bestimmung der Parallaxenverschiebung können Standort, Größe und Bewegung des potentiellen Eindringlings dreidimensional ermittelt werden. Standort, Größe und/oder Bewegung des potentiellen Eindringlings können mit mindestens einem vorgegebenen Schwellwert verglichen werden, und eine Meldeeinrichtung kann einen akustischen Alarm abgeben, wenn der potentielle Eindringling den vorgegebenen Schwellenwert überschreitet.
-
1 zeigt ein Beispiel eines Einbruchsicherungssystems10 mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. Das Einbruchsicherungssystem10 mit Stereokameraüberwachung enthält eine Stereobilderfassungsstufe12 mit einer ersten Kamera14 und einer zweiten Kamera16 . Die erste Kamera14 und die zweite Kamera16 können Digitalkameras sein. Alternativ können die erste Kamera14 und die zweite Kamera16 analoge Ka meras sein, so dass die von der ersten Kamera14 und der zweiten Kamera16 erfassten Bilder an einen Digitalisierer (nicht dargestellt) ausgegeben werden können. Die erste Kamera14 und die zweite Kamera16 können so konfiguriert sein, dass sie gleichzeitig Bilder desselben überwachten Bereichs erfassen. Damit arbeiten die erste Kamera14 und die zweite Kamera16 relativ zueinander im Stereomodus, so dass sie nahe beieinander installiert werden können (z. B. 1 m). Bei den erfassten Bildern kann es sich um jeweils getrennt mit hoher Frequenz (z. B. 15 Einzelbilder pro Sekunde) von der ersten Kamera14 bzw. der zweiten Kamera16 aufgenommene Einzelbilder handeln. Die erste Kamera14 und die zweite Kamera16 können somit im Wesentlichen ähnliche Bilder erfassen, die sich nur in ihren jeweiligen Blickwinkeln auf Basis ihres physikalischen Abstands unterscheiden. Auf diese Weise kann die Stereobilderfassungsstufe12 den dreidimensionalen Standort eines potentiellen Eindringlings erkennen, was nachstehend ausführlicher beschrieben wird. - Die Fähigkeit, den dreidimensionalen Standort eines potentiellen Eindringlings zu erkennen, kann für eine optimale Anordnung der Stereobilderfassungsstufe
12 genutzt werden. Da das Einbruchsicherungssystem10 mit Stereokameraüberwachung den dreidimensionalen Standort des potentiellen Eindringlings erkennen kann, ist es nicht erforderlich, die Stereobilderfassungsstufe12 in erhöhter Position zu installieren, sondern sie könnte etwa auf Bodenhöhe und parallel zum Boden angebracht werden. Eine derartige Anbauanordnung kann erheblich kostengünstiger sein als eine Installation an einer höheren Stelle und ist wesentlich weniger auffällig als die höhere Installation. Dadurch können potentielle Eindringlinge die Stereobilderfassungsstufe12 möglicherweise nicht ausmachen und haben somit keine Möglichkeit, sich zu verstecken oder Gegenmaßnahmen zu deren Ausschaltung zu ergreifen. - Die erfassten Bilder werden von der Stereobilderfassungsstufe
12 an einen Token-Detektor18 ausgegeben. Der Token-Detektor18 ist so konfiguriert, dass er die erfassten Bilder von der ersten Kamera14 und/oder der zweiten Kamera16 mit einem Hintergrundbild vergleicht. Wie nachstehend ausführlicher beschrieben wird, kann der Token-Detektor18 die Anwesenheit eines potentiellen Eindringlings auf Basis der Unterschiede zwischen den Bildpunkten bestimmen, die zu jedem der erfassten Bilder von der ersten Kamera14 und/oder der zweiten Kamera16 gehören sowie den zum Hintergrundbild gehörenden Bildpunkten. Wie nachstehend ebenfalls ausführlicher beschrieben wird, kann der Token-Detektor18 zusätzlich oder wahlweise die Anwesenheit eines potentiellen Eindringlings auf Basis von Unterschieden der Struktur zwischen den erfassten Bildern von der ersten Kamera14 und/oder der zweiten Kamera16 und dem Hintergrundbild bestimmen. - Das Hintergrundbild kann von einem Hintergrundbildgenerator
20 erzeugt werden. Der Hintergrundbildgenerator20 ist im Beispiel von1 so verwirklicht, dass er eine Eingabe von der Stereobilderfassungsstufe12 erhält. Die Eingabe könnte eine Eingabe von der ersten Kamera14 , der zweiten Kamera16 oder sowohl von der ersten Kamera14 als auch der zweiten Kamera16 sein. Der Hintergrundbildgenerator20 kann also ein Hintergrundbild auf Basis eines erfassten Bildes von der ersten Kamera14 , der zweiten Kamera16 oder getrennte Hintergrundbilder jeweils von der ersten Kamera14 und der zweiten Kamera16 erzeugen. - Der Hintergrundbildgenerator
20 kann das Hintergrundbild kontinuierlich erzeugen, indem er das Hintergrundbild mit einer Mehrzahl Bildpunkte der erfassten Bilder von der ersten Kamera14 und/oder der zweiten Kamera16 periodisch aktualisiert. Dadurch können allmähliche Umgebungsänderungen im überwachten Bereich wie Schatten, die durch den sich ändernden Sonnenstand geworfen werden, in das Hintergrundbild integriert werden. Das Einbruchsicherungssystem10 mit Stereokameraüberwachung kann dadurch keine falschen positiven Ergebnisse auf Basis der allmählichen Umgebungsänderungen registrieren. Außerdem kann das vom Hintergrundbildgenerator20 erzeugte Hintergrundbild stabilisiert werden. Das stabilisierte Hintergrundbild kann auf die erfassten Bilder von der ersten Kamera14 und/oder der zweiten Kamera16 waagrecht und senkrecht ausgerichtet werden, um Kameragrellen auszugleichen, was nachstehend anhand des Beispiels von2 ausführlicher beschrieben wird. - Für jedes der erfassten Bilder von jeder der ersten Kamera
14 und der zweiten Kamera16 kann der Token-Detektor18 ein Differenzbild erzeugen, das einen absoluten Wert der Bildpunktdifferenz zwischen dem jeweils erfassten Bild und dem Hintergrundbild repräsentiert. Der Token-Detektor18 kann dann für das Differenzbild einen Bildpunktausfüllalgorithmus derart ausführen, dass Differenzbildpunkte, die im Differenzbild nahe beieinander liegen, verbunden werden können, um einen Kandidat-Token zu bilden. Der Kandidat-Token könnte einem potentiellen Eindringling entsprechen. - Bei einer alternativen Ausführungsform, wie sie im Beispiel von
7 dargestellt ist, kann der Token-Detektor18 einen Bildfilteralgorithmus enthalten, so dass die erfassten Bilder von der ersten Kamera14 und der zweiten Kamera16 sowie das Hintergrundbild sämtlich gefiltert werden können. Die gefilterten Bilder von der ersten Kamera14 und der zweiten Kame ra16 können vom Token-Detektor18 mit dem gefilterten Hintergrundbild verglichen werden, um Änderungen der Struktur zwischen den erfassten Bildern von der ersten Kamera14 bzw. der zweiten Kamera16 gegenüber dem Hintergrundbild zu bestimmen. Auf diese Weise können Helligkeits- und Kontrastdifferenzen zwischen den erfassten Bildern und dem Hintergrundbild vom Einbruchsicherungssystem10 mit Stereokameraüberwachung ignoriert werden. Die Strukturunterschiede zwischen den gefilterten Bildern von der ersten Kamera14 und der zweiten Kamera16 und dem gefilterten Hintergrundbild können der Kandidat-Token sein, der den potentiellen Eindringling repräsentieren könnte. Der Token-Detektor18 könnte jedoch außerdem den Kandidat-Token mittels einer Absolutwert-Bildpunktdifferenz auswerten, um die Anwesenheit eines potentiellen Eindringlings redundant zu bestimmen. - Das Einbruchsicherungssystem
10 mit Stereokameraüberwachung enthält außerdem einen Bildverfolger22 . Der Bildverfolger22 enthält eine Standorterfassungsmaschine24 , einen dreidimensionalen Bewegungsrechner26 und einen Schwellenwertkomparator28 . Der Token-Detektor18 übermittelt den Standort des Kandidat-Tokens an die Standorterfassungsmaschine24 . Außerdem kann die Stereobilderfassungsstufe12 die von einer oder beiden der ersten Kamera14 und der zweiten Kamera16 erhaltenen Bilder an die Standorterfassungsmaschine24 übertragen. Die Standorterfassungsmaschine24 ist so konfiguriert, dass sie einen dreidimensionalen Standort und eine Größe des potentiellen Eindringlings bestimmt. Die Standorterfassungsmaschine24 kann beispielsweise die von der ersten Kamera14 erhaltenen Bilder mit den von der zweiten Kamera16 erhaltenen Bildern kombinieren. Die Standorterfassungsmaschine24 kann dann einen Korrelationsalgorithmus auf die entsprechenden von der ersten und zweiten Kamera14 und16 erhaltenen Bilder anwenden, um einen relativen zweidimensionalen Standort des Kandidat-Tokens in den von der ersten Kamera14 erhaltenen Bildern in Bezug auf die von der zweiten Kamera16 erhaltenen Bilder zu bestimmen. Die Standorterfassungsmaschine24 kann somit den dreidimensionalen Standort und die Größe des potentiellen Eindringlings auf Basis einer Parallaxenverschiebung des potentiellen Eindringlings in den von der ersten Kamera14 erhaltenen Bildern relativ zur zweiten Kamera16 bestimmen. - Bei der Bestimmung der Parallaxenverschiebung des potentiellen Eindringlings kann die Standorterfassungsmaschine
24 einen Bildfilterungsalgorithmus auf jedes der von der ersten Kamera14 und der zweiten Kamera16 erhaltenen Bilder anwenden, um erste bzw. zweite gefilterte Bilder zu erhalten. Der Filterungsalgorithmus könnte z. B. ein "Sign of Laplacian of Gaussian" (SLOG) Filterungsalgorithmus sein. Außerdem könnte die Standorterfassungsma schine24 mehrere Filterungsalgorithmen auf jedes Bild von der ersten Kamera14 und der zweiten Kamera16 so anwenden, dass jedes gefilterte Bild eine andere Auflösung hat. Die Standorterfassungsmaschine24 könnte dann die zweiten gefilterten Bilder mit den ersten gefilterten Bildern überlagern und den Korrelationsalgorithmus anwenden. Die Überlagerung könnte das Überlagern des Kandidat-Tokens in den ersten gefilterten Bildern über den ungefähren Standort des potentiellen Eindringlings in den zweiten gefilterten Bildern, die vom Token-Detektor18 übertragen worden sind, enthalten. Im Beispiel eines Einbruchsicherungssystem10 mit Stereokameraüberwachung, das einen Kandidat-Token auf den sowohl von der ersten Kamera14 als auch der zweiten Kamera16 erhaltenen Bildern bestimmt, wendet die Standorterfassungsmaschine24 den Bildfilterungsalgorithmus möglicherweise nicht an, sondern überlagert einfach das Differenzbild von der zweiten Kamera16 mit dem Differenzbild der ersten Kamera14 , bevor der Korrelationsalgorithmus angewendet wird. - Der Korrelationsalgorithmus könnte beispielsweise einen iterativen Bildpunktschiebealgorithmus enthalten, der das erste gefilterte Bild relativ zum zweiten gefilterten Bild um mindestens einen Bildpunkt pro Verschiebung verschiebt und das erste gefilterte Bild mit dem jeweiligen zweiten gefilterten Bild bei jeder Verschiebung vergleicht. Der Vergleich könnte die Bestimmung eines Korrelationsstandes für jede Verschiebung enthalten. Bei der Bestimmung einer Verschiebung mit dem höchsten Korrelationsstand kann die Standorterfassungsmaschine
24 die Parallaxenverschiebung des potentiellen Eindringlings auf Basis einer Anzahl Bildpunkt mit einem Versatz zwischen den ersten und zweiten Bildern bestimmen. Die Standorterfassungsmaschine24 könnte dann die Anzahl Bildpunkt mit Versatz in eine Maßeinheit im dreidimensionalen Raum wandeln, um einen dreidimensionalen Standort und die Größe des potentiellen Eindringlings zu bestimmen. - Um den dreidimensionalen Standort und die Größe des potentiellen Eindringlings zu bestimmen, ist es natürlich erforderlich, dass die Standorterfassungsmaschine
24 ein gegebenes Bild von der ersten Kamera14 bezüglich eines entsprechenden Bildes von der zweiten Kamera16 auswertet, das im Wesentlichen zur gleichen Zeit erfasst worden ist. Die Standorterfassungsmaschine24 gibt die Informationen über den dreidimensionalen Standort und die Größe jedes Einzelbildes der erfassten Bilder von der ersten Kamera14 und der zweiten Kamera16 an den dreidimensionalen Bewegungsrechner26 aus. Der dreidimensionale Bewegungsrechner26 kann Änderungen des dreidimensionalen Standorts und der Größe des potentiellen Eindringlings über mehrere Bilder und damit mehrere Einzelbilder der ersten Kamera14 und der zweiten Kamera16 verfolgen. Die Änderungen des dreidimensionalen Standorts und der Größe des potentiellen Eindringlings über die Bilder der ersten Kamera14 und der zweiten Kamera16 können für die dreidimensionale Bewegung des potentiellen Eindringlings wie Richtung und Geschwindigkeit der Bewegung bestimmend sein. - Die Informationen bezüglich Standort, Größe und Bewegung des potentiellen Eindringlings können an den Schwellenwertkomparator
28 ausgegeben werden, der mit einer Meldeeinrichtung30 gekoppelt ist. Die Meldeeinrichtung30 kann z. B. ein akustischer Alarm, eine visuelle Anzeige oder eine beliebige Einrichtung aus einer Vielzahl anderer Meldeeinrichtungen sein. Ferner kann die Meldeeinrichtung30 mit einem Netz gekoppelt sein, so dass die Meldeeinrichtung30 in Räumlichkeiten entfernt vom überwachten Bereich, wie z. B. in einem Polizeirevier, installiert sein kann. Der Schwellenwertkomparator28 kann mit vielfältigen Schwellenwertbedingungen programmiert werden, die geeignet sind, einen Bediener (z. B. Wachpersonal und/oder Polizeibeamte) des Einbruchsicherungssystems10 mit Stereokameraüberwachung auf die Meldeeinrichtung30 aufmerksam zu machen. So könnte beispielsweise bei Bestimmung eines potentiellen Eindringlings, der größer ist als etwa ein kleiner Hund, der Schwellenwertkomparator28 die Meldeeinrichtung30 auslösen. Der Größenschwellenwert könnte spezifisch für die Körpergröße und nicht nur die Gesamtgröße sein. Auf diese Weise kann der Schwellenwertkomparator28 sicherstellen, dass keine falschen positiven Bedingungen von potentiellen Eindringlingen stammen, die die zuständigen Bediener des Einbruchsicherungssystems10 mit Stereokameraüberwachung nicht zu beobachten brauchen, wie Vögel oder Kaninchen. - Die Schwellenwertbedingung könnte auch einer gegebenen Geschwindigkeit des potentiellen Eindringlings entsprechen, so dass z. B. Kraftfahrzeuge, die mit oder über einer bestimmten Geschwindigkeit fahren, die Meldeeinrichtung
30 auslösen. Außerdem kann der Bediener des Einbruchsicherungssystems10 mit Stereokameraüberwachung dreidimensionale Abschnitte des überwachten Bereichs als Schwellenwertzonen oder Nullzonen einrichten. Der Schwellenwertkomparator28 kann somit die Meldeeinrichtung30 auslösen, wenn sich der potentielle Eindringling in eine oder zu einer Schwellenwertzone bewegt. Analog könnte der Schwellenwertkomparator28 die Meldeeinrichtung30 deaktivieren, wenn ein potentieller Eindringling in einer Nullzone erkannt wird, so dass dreidimensionale Abschnitte des überwachten Bereichs, die für die Sicherheitsüberwachung keine besondere Rolle spielen, deaktiviert werden können. Damit können falsche positive Bedingungen aufgrund bestimmter Änderungen in der Umgebung, wie sich bewegende Äste, umgangen werden. Es versteht sich, dass der Schwellenwertkomparator28 auch so programmiert werden kann, dass er einen beliebigen Schwellenwert aus einer Anzahl Schwellenwerte sowie kombiniert zu berücksichtigende Schwellenwerte anwendet. Der Schwellenwertkomparator28 kann z. B. so programmiert werden, dass er die Meldeeinrichtung30 nur dann auslöst, wenn ein potentieller Eindringling sowohl eine bestimmte vorgegebene Größe hat und als sich auch mit einer bestimmten vorgegebenen Geschwindigkeit bewegt. - Es versteht sich, dass das Einbruchsicherungssystem
10 mit Stereokameraüberwachung nicht auf das in1 dargestellte Beispiel beschränkt sein soll. Das Einbruchsicherungssystem10 mit Stereokameraüberwachung kann z. B. in der Stereobilderfassungsstufe12 mehr als nur zwei Stereokameras enthalten. Außerdem kann jede beliebige Konfiguration einer Reihe verschiedener Konfigurationen für das Einbruchsicherungssystem10 mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung implementiert werden, was anhand der Beispiele der4 ,6 und7 erläutert werden wird. -
2 zeigt ein Beispiel eines Hintergrundbildgenerators50 gemäß einem Aspekt der Erfindung. Es versteht sich, dass der Hintergrundbildgenerator50 dem Hintergrundbildgenerator20 im Beispiel von1 im Wesentlichen ähnlich sein kann. Deshalb wird in der nachfolgenden Erläuterung von2 auf1 Bezug genommen, und gleiche Bezugszeichen werden verwendet. Der Hintergrundbildgenerator50 , wie er im Beispiel von2 dargestellt ist, empfängt Bilddaten von einer Kamera52 , bei der es sich entweder um die erste Kamera14 oder die zweite Kamera16 vom Beispiel in1 handeln könnte. Ein Einzelbild von der Kamera52 kann zur Erzeugung eines erfassten Hintergrundbildes54 verwendet werden. Das erfasste Hintergrundbild54 könnte ein Bild des überwachten Bereichs sein, das zu einem vorgegebenen Zeitpunkt aufgenommen wird. Ein Bediener des Einbruchsicherungssystems mit Stereokameraüberwachung, in dem der Hintergrundbildgenerator50 verwendet wird, kann den Hintergrundbildgenerator50 mit einer Eingabe veranlassen, das erfasste Hintergrundbild54 zu erzeugen, wenn er bestimmt, dass sich im überwachten Bereich keine Eindringlinge befinden. Außerdem könnte der Hintergrundbildgenerator50 das erfasste Hintergrundbild54 zu vorgegebenen Zeitpunkten, wie z. B. einmal pro Minute, periodisch erzeugen, um allmähliche Änderungen der Umgebungsbedingungen wie vorüberziehende Wolken zu berücksichtigen. - Der Hintergrundbildgenerator
50 enthält ferner einen Hintergrundbildaktualisierer56 . Der Hintergrundbildaktualisierer56 empfängt periodisch Eingaben von der Kamera52 zur Aktualisierung des erfassten Hintergrundbildes54 , um allmähliche Änderungen, die im überwach ten Bereich stattfinden, zu berücksichtigen. Der Hintergrundbildaktualisierer56 kann beispielsweise in regelmäßigen Abständen eine Mehrzahl Bildpunkte aus den von der Kamera52 erfassten Bildern zum erfassten Hintergrundbild54 hinzufügen. Selbstverständlich können bei der Festlegung der Häufigkeit, mit der das erfasste Hintergrundbild54 aktualisiert wird, Kompromisse gemacht werden. Wenn z. B. das erfasste Hintergrundbild54 zu rasch aktualisiert wird, könnte ein potentieller Eindringling Teil des erfassten Hintergrundbildes54 werden, was in einem möglichen falschen negativen Ergebnis resultieren würde. Wenn umgekehrt das erfasste Hintergrundbild54 zu langsam aktualisiert, könnten die allmählichen Änderungen in der Umgebung des überwachten Bereichs in der Erzeugung von Kandidat-Token resultieren, was zu möglichen falschen positiven Ergebnissen führen könnte. Der Hintergrundbildaktualisierer56 kann deshalb bezüglich der zum erfassten Hintergrundbild54 hinzuzufügenden Bildpunktmenge sowie der Häufigkeit, mit der die Bildpunkte zum erfassten Hintergrundbild54 hinzuzufügen sind, programmiert werden. - Wie oben für das Einbruchsicherungssystem
10 mit Stereokameraüberwachung im Beispiel von1 beschrieben worden ist, kann der Token-Detektor18 so konfiguriert werden, dass er einen Absolutwert-Bildpunktdifferenzalgorithmus anwendet, um ein Differenzbild zu erzeugen. Das Differenzbild stellt also eine Absolutwert-Bildpunktdifferenz zwischen dem Hintergrundbild und jedem der Bilder dar, die von der ersten Kamera14 und/oder der zweiten Kamera16 erfasst werden. Deshalb kann eine geringfügige Abweichung der waagrechten und/oder senkrechten Ausrichtung zwischen dem von der Kamera erfassten Bild und dem Hintergrundbild in einem Differenzbild resultieren, das eine erhebliche Abweichung aufweist, obwohl im tatsächlich überwachten Bereich im Wesentlichen keine Änderungen aufgetreten sind. Diese Fehlausrichtung kann durch Kameragrellen verursacht werden, wenn sich die Bilderfassungskamera durch Wind, Vibration oder einen der vielfältigen anderen Faktoren etwas bewegt hat. Die Bewegung könnte bewirken, dass die erfassten Bilder gegenüber dem Hintergrundbild in einer gegebenen Richtung um einen oder mehrere Bildpunkte versetzt sind, was in einem Differenzbild resultieren könnte, das eine extreme Abweichung zwischen den erfassten Bildern und dem Hintergrundbild bedeutet, wodurch eine falsche positive Erkennung eines Eindringlings hervorgerufen wird. - Um das Kameragrellen auszugleichen, hat der Hintergrundbildgenerator
50 einen Stabilisator58 für das Hintergrundbild. Der Stabilisator58 für das Hintergrundbild ist so konfiguriert, dass er die erfassten Bilder der Kamera52 relativ zum erfassten Hintergrundbild54 senkrecht und waagrecht ausrichtet, so dass das erfasste Hintergrundbild54 stabilisiert wird. Der Stabilisator58 für das Hintergrundbild empfängt jedes erfasste Bild von der Kamera52 und das erfasste Hintergrundbild54 als Eingaben. Das erfasste Hintergrundbild54 wird in ein Sign of Laplacian of Gaussian (SLOG) Hintergrundfilter60 und die erfassten Bilder von der Kamera52 werden jeweils in ein Bild-SLOG-Filter62 eingegeben. Selbstverständlich sind das Hintergrund-SLOG-Filter60 und das Bild-SLOG-Filter62 nicht auf SLOG-Filter beschränkt, sondern können ein beliebiges Filter aus einer Vielzahl Bandpassbildfilter sein. Das Hintergrund-SLOG-Filter60 und das Bild-SLOG-Filter62 haben die Funktion, die entsprechenden Bilder in gefilterte Bilder so zu wandeln, dass in den gefilterten Bildern Strukturkontraste hervorgehoben werden. Es versteht sich außerdem, dass das erfasste Hintergrundbild54 mit jeder Aktualisierung durch den Hintergrundbildaktualisierer56 nur in das Hintergrund-SLOG-Filter60 eingegeben werden kann. -
3 zeigt ein Beispiel eines Kamerabildes100 und eines ersten gefilterten Bildes102 , eines zweiten gefilterten Bildes104 und eines dritten gefilterten Bildes106 des Kamerabildes100 gemäß einem Aspekt der Erfindung. Im Beispiel von3 sind das erste gefilterte Bild102 , das zweite gefilterte Bild104 und das dritte gefilterte Bild106 jeweils SLOG-gefilterte Bilder des Kamerabildes100 . Die gefilterten Bilder102 ,104 und106 zeigen schwarz-weiße Bildpunktmuster von Strukturkontrasten des Kamerabildes100 und sind daher nicht repräsentativ für Helligkeitsänderungen des Kamerabildes100 . Schatten von vorüberziehenden Wolken und andere Helligkeitsmuster werden deshalb in SLOG-gefilterten Bildern wie den Bildern102 ,104 und106 nicht erkannt. - Das erste gefilterte Bild
102 , das zweite gefilterte Bild104 und das dritte gefilterte Bild106 haben jeweils verschiedene Grade der Auflösung bei den binären Strukturkontrasten des Kamerabildes100 . Das erste gefilterte Bild102 ist eine gefilterte Darstellung des Kamerabildes100 mit niedriger Auflösung, das zweite gefilterte Bild104 ist eine gefilterte Darstellung des Kamerabildes100 mit mittlerer Auflösung und das dritte gefilterte Bild106 ist eine gefilterte Darstellung des Kamerabildes100 mit hoher Auflösung. Ein gegebenes SLOG-Filter wie das Hintergrund-SLOG-Filter60 und das Bild-SLOG-Filter62 im Beispiel von2 kann eingestellt werden, um die verschiedenen Grade der binären Strukturauflösung zu erhalten, wie im Beispiel von3 dargestellt. Wie das Beispiel von3 zeigt, definiert das gefilterte Bild106 ein genaueres binäres Strukturmuster des Kamerabildes100 als die gefilterten Bilder102 und104 . Allerdings kann das gefilterte Bild106 anfälliger auf Rauschen beim Filtern des Kamerabildes100 sein. - Nunmehr sei erneut auf
2 verwiesen, wonach das Hintergrund-SLOG-Filter60 und das Bild-SLOG-Filter62 nur eine Grobfilterungsoperation wie das gefilterte Bild102 des erfassten Hintergrundbildes54 und der von der Kamera52 empfangenen visuellen Bilder vornehmen können. Die gefilterten Bilder werden jeweils vom Hintergrund-SLOG-Filter60 und Bild-SLOG-Filter62 an einen Korrelator64 für gefilterte Bilder ausgegeben. Der Korrelator64 für gefilterte Bilder überlagert das gefilterte erfasste visuelle Bild mit dem gefilterten erfassten Hintergrundbild. Der Korrelator64 für gefilterte Bilder verschiebt dann iterativ das gefilterte erfasste Hintergrundbild um jeweils einen Bildpunkt über das gefilterte erfasste visuelle Bild. - Mit jeder Verschiebung um einen Bildpunkt kann der Korrelator
64 für gefilterte Bilder einen Korrelationsstand bestimmen. Der Korrelationsstand kann auf der Grundlage, wie viele binäre Strukturmusterbildpunkte übereinstimmen, dafür repräsentativ sein, wie gut das gefilterte erfasste Hintergrundbild auf das gefilterte erfasste visuelle Bild ausgerichtet ist. Die Verschiebung kann sowohl in der senkrechten als auch in der waagrechten Richtung und über das gesamte oder einen Abschnitt des Bildes erfolgen, so dass positive uncinegative Bildpunktschiebegrenzen sowohl in der senkrechten als auch in der waagrechten Richtung eingestellt werden können. Die Bildpunktverschiebung, die im höchsten Korrelationsstand resultiert, kann für die hinreichende Ausrichtung zwischen dem gefilterten erfassten Hintergrundbild und dem gefilterten erfassten visuellen Bild repräsentativ sein. Es versteht sich, dass der Korrelator64 für gefilterte Bilder die Korrelation für jedes zu jedem Einzelbild der Kamera52 gehörige gefilterte erfasste visuelle Bild relativ zum gefilterten erfassten Hintergrundbild ausführen kann. - Bei Bestimmung einer hinreichenden Korrelation zwischen dem gefilterten erfassten Hintergrundbild und dem gefilterten erfassten visuellen Bild übermittelt der Korrelator
64 für gefilterte Bilder die Anzahl der verschobenen Bildpunkte zum Erreichen der Korrelation an einen Bildschieber66 . Der Bildschieber66 empfängt das erfasste Hintergrundbild54 und verschiebt es um die Anzahl der ihm vom Korrelator64 für gefilterte Bilder übertragenen Bildpunkte. Das verschobene erfasste Hintergrundbild wird dann vom Bildschieber66 an einen Token-Detektor wie den Token-Detektor18 im Beispiel von1 ausgegeben. Auf diese Weise kann das Hintergrundbild stabilisiert werden, um falsche positive Einbruchsdetektionsergebnisse zu vermindern, die aus Absolutwert-Bildpunktdifferenzen in einem Differenzbild aufgrund der fehlenden waagrechten und senkrechten Ausrichtung zwischen dem Hintergrundbild und den erfassten visuellen Bildern von einer entsprechenden Kamera resultieren. - Es versteht sich, dass der Hintergrundbildgenerator
50 nicht auf das Beispiel von2 beschränkt ist. Es können beispielsweise manche oder alle Komponenten des Hintergrundbildstabilisators58 miteinander integriert werden. Bei einem anderen Beispiel kann der Bildschieber66 im jeweiligen Token-Detektor so vorgesehen sein, dass der Hintergrundbildstabilisator58 die Informationen über die Bildpunktausrichtung an den Token-Detektor ausgibt. Des weiteren kann bei einem anderen Beispiel der Korrelator64 für gefilterte Bilder das gefilterte erfasste visuelle Bild relativ zum gefilterten erfassten Hintergrundbild korrelieren und die Informationen über die Bildpunktverschiebung an den Token-Detektor übertragen. Somit kann jedes erfasste visuelle Bild relativ zum Hintergrundbild im Token-Detektor verschoben werden, statt das erfasste Hintergrundbild zu verschieben. -
4 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems150 mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. Das Einbruchsicherungssystem150 mit Stereokameraüberwachung enthält eine Stereobilderfassungsstufe152 mit einer ersten Kamera154 und einer zweiten Kamera156 . Die erste Kamera154 und die zweite Kamera156 können Digitalkameras sein. Die erste Kamera154 und die zweite Kamera156 können so konfiguriert sein, dass sie gleichzeitig Bilder desselben überwachten Bereichs erfassen. Damit arbeiten die erste Kamera154 und die zweite Kamera156 relativ zueinander im Stereomodus, so dass sie nahe beieinander installiert werden können (z. B. 1 m). Bei den erfassten Bildern kann es sich um jeweils getrennt mit hoher Frequenz (z. B. 15 Einzelbilder pro Sekunde) von der ersten Kamera154 bzw. der zweiten Kamera156 aufgenommene Einzelbilder handeln. - Das Einbruchsicherungssystem
150 mit Stereokameraüberwachung enthält einen Token-Detektor158 . Der Token-Detektor158 enthält einen Bildkomparator160 , einen Bildausfüller162 und einen Token-Positionsanzeiger164 . Die von der Kamera154 erfassten visuellen Bilder werden an den Bildkomparator160 ausgegeben. Der Bildkomparator160 ist so konfiguriert, dass er die erfassten Bilder von der ersten Kamera154 mit einem Hintergrundbild vergleicht, das von einem Hintergrundbildgenerator166 erzeugt worden ist. Der Hintergrundbildgenerator166 kann im Wesentlichen dem im Beispiel von2 oben beschriebenen Hintergrundbildgenerator50 ähnlich sein. Somit kann das vom Hintergrundbildgenerator166 ausgegebene Hintergrundbild auf die erfassten Bilder, die von der Kamera154 ausgegeben werden, im Wesentlichen senkrecht und waagrecht ausgerichtet werden. - Der Bildkomparator
160 führt einen Absolutwert-Bildpunktdifferenzalgorithmus aus, um ein Differenzbild zu erzeugen. Die Bildpunktdifferenzen können auf der Struktur, der Helligkeit und dem Farbkontrast basieren. Das Differenzbild zeigt also im Wesentlichen sämtliche Bildpunkte, die in jedem der erfassten Bilder von der Kamera154 und dem Hintergrundbild verschieden sind. Es versteht sich, dass der Bildkomparator160 ein Differenzbild für jedes der Bilder entsprechend jedem der von der Kamera154 ausgegebenen Einzelbilder erzeugt. - Das Differenzbild allein kann jedoch möglicherweise ein Bild eines potentiellen Eindringlings aus Absolutwertbildpunkten nicht genau wiedergeben. Ein schwarz gekleideter Eindringling kann sich z. B. vor einer schwarzen Hintergrundfläche im überwachten Bereich anschleichen. Der Bildkomparator
160 kann zwar Hände, Gesicht und Schuhe des Eindringlings bei Anwendung des Absolutwert-Bildpunktdifferenzalgorithmus unterscheiden, aber die erfassten Bilder können Teile des Körpers des Eindringlings enthalten, die vom Bildkomparator160 gegenüber dem Hintergrundbild nicht unterschieden werden können. Der Bildkomparator160 gibt deshalb das Differenzbild an den Bildausfüller162 aus. - Der Bildausfüller
162 wendet einen Bildpunktausfüllalgorithmus auf das Differenzbild an, so dass bestimmt werden kann, ob ein Kandidat-Token existiert. Der Bildpunktausfüllalgorithmus verbindet Bildpunkte, die im Differenzbild nahe beieinander liegen, so dass die verbundenen Bildpunkte eine Form annehmen können, um das Vorhandensein eines Kandidat-Tokens zu bestimmen. Der Bildausfüllalgorithmus könnte z. B. mit dem waagrechten Ausfüllen des Differenzbildes von links nach rechts beginnen, so dass Bildpunkte auf einer waagrechten Linie, die voneinander einen bestimmten vordefinierten Abstand haben, zuerst verbunden werden können. Der vordefinierte Bildpunktabstand kann so eingestellt werden, dass unsinnige Ergänzungen vermieden werden, die in falschen positiven Ergebnissen resultieren könnten. Der Bildausfüllalgorithmus könnte dann eine ähnliche Operation mit dem Differenzbild in senkrechter Richtung ausführen. Als Ergebnis können eng gruppierte nicht verbundene Bildpunkte zum Ausgleichen von Ungenauigkeiten, die sich bei der Ermittlung der Absolutwertbildpunktdifferenz ergeben können, ausgefüllt werden. Beim obigen Beispiel des getarnten Eindringlings kann dieser also trotzdem ausgemacht werden, da Hände, Gesicht und Schuhe ausgefüllt werden können, um einen zweidimensionalen "Klecks" aus Bildpunkten im Differenzbild zu bilden. - Das ausgefüllte Differenzbild wird vom Bildausfüller
162 an den Token-Positionsanzeiger164 ausgegeben. Die ausgefüllte Bildpunktgruppe im ausgefüllten Differenzbild kann vom Token- Positionsanzeiger164 geprüft werden. Wenn die ausgefüllte Bildpunktgruppe wie der zweidimensionale Bildpunkt-"Klecks" des Eindringlings vordefinierte Formschwellenwerte überschreitet, kann der Token-Positionsanzeiger164 die ausgefüllte Bildpunktgruppe als Kandidat-Token markieren. Der Token-Positionsanzeiger164 bestimmt also die Bildpunktkoordinaten des Ortes des Kandidat-Tokens im ausgefüllten Differenzbild und überträgt die Informationen über den zweidimensionalen Bildpunktort des Kandidat-Tokens als ein Signal TKN_LOC an eine Standorterfassungsmaschine168 . Der Kandidat-Token könnte wie oben beim Beispiel von1 beschrieben einem potentiellen Eindringling entsprechen. - Die erfassten Bilder jeder der Kameras
154 und156 werden auch an die Standorterfassungsmaschine168 ausgegeben. Die Standorterfassungsmaschine168 , die der oben im Beispiel von1 beschriebenen ähnlich ist, ist so konfiguriert, dass sie einen dreidimensionalen Standort und die Größe eines potentiellen Eindringlings bestimmt, und könnte Bestandteil eines Bildverfolgers sein, der auch einen dreidimensionalen Bewegungsrechner und einen Schwellenwertkomparator enthält. Im Einzelnen gibt die Kamera154 ihre jeweiligen erfassten Bilder an ein erstes Sign of Laplacian of Gaussian (SLOG)-Filter170 und die zweite Kamera ihre jeweiligen erfassten Bilder an ein zweites SLOG-Filter172 aus. Im Beispiel von4 wendet jedes Filter des ersten SLOG-Filters170 und des zweiten SLOG-Filters172 mehrere SLOG-Filterungsoperationen auf jedes der erfassten Bilder von der ersten Kamera154 bzw. der zweiten Kamera156 an. Die SLOG-Filter170 und172 führen insbesondere eine SLOG-Filterungsoperation mit niedriger Auflösung, eine SLOG-Filterungsoperation mit mittlerer Auflösung und eine SLOG-Filterungsoperation mit hoher Auflösung mit jedem der erfassten Bilder aus. Diese SLOG-Filterungsoperationen könnten jeweils dem ersten gefilterten Bild102 , dem zweiten gefilterten Bild104 und dem dritten gefilterten Bild106 im obigen Beispiel von3 entsprechen. Das erste SLOG-Filter gibt ein gefiltertes Bild mit hoher Auflösung R_HIGH, ein gefiltertes Bild mit mittlerer Auflösung R_MED und ein gefiltertes Bild mit niedriger Auflösung R_LOW an einen Bildkorrelator174 aus. Das zweite SLOG-Filter gibt ein gefiltertes Bild mit hoher Auflösung L_HIGH, ein gefiltertes Bild mit mittlerer Auflösung L_MED und ein gefiltertes Bild niedriger Auflösung L_LOW an den Bildkorrelator174 aus. Somit kann bei der Bestimmung des dreidimensionalen Standorts des potentiellen Eindringlings ein ausgewogener Kompromiss zwischen Bildgenauigkeit und Rauschen wie oben im Beispiel von3 beschrieben erzielt werden. -
5 zeigt ein Beispiel eines Bildkorrelators200 gemäß einem Aspekt der Erfindung. Der Bildkorrelator200 im Beispiel von5 kann dem Bildkorrelator174 im Beispiel von4 entsprechen. Deshalb wird in der nachfolgenden Erläuterung von5 auf4 Bezug genommen, und gleiche Bezugszeichen werden verwendet. Der Bildkorrelator200 enthält einen Bildüberlagerungskombinierer202 . Der Bildüberlagerungskombinierer202 empfängt die gefilterten Bilder, die vom ersten SLOG-Filter170 und vom zweiten SLOG-Filter172 ausgegeben werden, und überlagert Paare der gefilterten Bilder in der Weise, dass gefilterte Bildpaare mit gleicher Auflösung überlagert werden. So wird z. B. das gefilterte Bild L_HIGH mit hoher Auflösung von der Kamera156 mit dem gefilterten Bild R_HIGH mit hoher Auflösung von der Kamera154 überlagert. Analog wird das gefilterte Bild L_MED mit mittlerer Auflösung von der Kamera156 mit dem gefilterten Bild R_MED mit mittlerer Auflösung von der Kamera154 überlagert. In gleicher Weise wird das gefilterte Bild L_LOW mit niedriger Auflösung von der Kamera156 mit dem gefilterten Bild R_LOW mit niedriger Auflösung von der Kamera154 überlagert. Der Bildüberlagerungskombinierer202 empfängt auch das Signal TKN_LOC, so dass die gefilterten Bilder L_HIGH, L_MED und L_LOW mit den gefilterten Bildern R_HIGH, R_MED bzw. R_LOW an einem Ort überlagert werden können, der dem ungefähren Standort des potentiellen Eindringlings in den entsprechenden gefilterten Bildern L_HIGH, L_MED und L_LOW entspricht. Der Bildpunktort der Überlagerung kann für jedes der gefilterten Bildpaare gleich sein. - Die drei überlagerten gefilterten Bildpaare werden vom Bildüberlagerungskombinierer
202 an einen iterativen Bildpunktschieber204 ausgegeben. Beim Beispiel von5 wird das überlagerte gefilterte Bildpaar mit hoher Auflösung als HIGH_OVLY, das überlagerte gefilterte Bildpaar mit mittlerer Auflösung als MED_OVLY und das überlagerte gefilterte Bildpaar mit niedriger Auflösung als LOW_OVLY bezeichnet. Es versteht sich, dass im Beispiel von5 HIGH_OVLY, MED_OVLY und LOW_OVLY getrennte Bildpaare und somit keine tatsächlich kombinierten Bilder sind. Der iterative Bildpunktschieber204 wendet einen Bildpunktschiebe-Korrelationsalgorithmus auf jedes der gefilterten Bildpaare an, der der oben für den Korrelator64 für gefilterte Bilder im Beispiel von2 beschriebenen Korrelationsoperation ähnlich ist. Der iterative Bildpunktschieber204 kann jedoch jedes gefilterte Bildpaar im Wesentlichen gleichzeitig und in gleicher Weise verschieben. - Für jede Bildpunktverschiebung berechnet ein Rechner
206 für den Korrelationsstand bei hoher Auflösung, ein Rechner208 für den Korrelationsstand bei mittlerer Auflösung und ein Rechner210 für den Korrelationsstand bei niedriger Auflösung den Korrelationsstand für jedes der gefilterten Bildpaare. Da die gefilterten Bildpaare relativ zueinander eine verschiedene Auflösung haben, können die Korrelationsstände für jedes der gefilterten Bildpaare verschieden sein, obwohl die Bildpunktverschiebung jedes der gefilterten Bildpaare gleich ist. Beispielsweise könnte die gleichzeitige Verschiebung der gefilterten Bilder R_HIGH, R_MED und R_LOW relativ zu den entsprechenden gefilterten Bildern L_HIGH, L_MED und L_LOW um einen Bildpunkt in der +X-Richtung für jedes der gefilterten Bildpaare einen anderen Korrelationsstand ergeben. Es versteht sich, dass im Beispiel von5 der Korrelationsstand für die Anzahl der Bildpunkte der gefilterten Bilder des Kandidat-Tokens, die mit den Bildpunkten des gefilterten Bildes von der Kamera156 übereinstimmen, repräsentativ sein kann. Der höchste Korrelationsstand kann in den Bildpunkten des Kandidat-Tokens resultieren, die auf den entsprechenden Bildpunktort des Kandidat-Tokens im anderen gefilterten Bildpendant verschoben werden. Es ist somit zu beachten, dass der Korrelationsstand vor jeglicher Verschiebung erhalten werden kann, da die gefilterten Bilder an ungefähren Bildpunktorten des Kandidat-Tokens in jedem der gefilterten Bilder überlagert werden können. - Um die einzelnen Korrelationsstände zu berücksichtigen, geben der Rechner
206 für den Korrelationsstand bei hoher Auflösung, der Rechner208 für den Korrelationsstand bei mittlerer Auflösung und der Rechner210 für den Korrelationsstand bei niedriger Auflösung die jeweiligen Korrelationsstände an einen Rechner212 für die aggregierte Korrelation aus. Der Rechner212 für die aggregierte Korrelation kann den aggregierten Korrelationsstand auf Basis der einzelnen Korrelationsstände bei der jeweiligen Auflösung bestimmen. Der Rechner212 für die aggregierte Korrelation kann so programmiert werden, dass er den aggregierten Korrelationsstand auf eine beliebige Weise aus einer Vielzahl Möglichkeiten bestimmt. Der Rechner212 für die aggregierte Korrelation kann die Korrelationsstände beispielsweise addieren, mitteln oder einzelnen Korrelationsständen einen Gewichtungsfaktor zuordnen, bevor die Korrelationsstände addiert oder gemittelt werden. Somit kann der aggregierte Korrelationsstand für jede Bildpunktverschiebung auf eine für die Bestimmung der Korrelation geeignete Weise bestimmt werden. - Der aggregierte Korrelationsstand wird vom Rechner für die aggregierte Korrelation an einen Korrelationsstandspitzendetektor
214 ausgegeben. Der Korrelationsstandspitzendetektor214 vergleicht die aggregierten Korrelationsstände für jede Verschiebung der gefilterten Bildpaare und bestimmt, welche die für die Korrelation optimale Verschiebung ist. Nach der Bestimmung der Verschiebung, die der besten Korrelation für das gefilterte Bildpaar entspricht, gibt der Korrelationsstandspitzendetektor214 die Anzahl der Bildpunkte mit Versatz des gefilterten Bildpaares für die optimale Korrelation aus. - Es versteht sich, dass der Bildkorrelator
200 nicht auf das Beispiel von5 beschränkt ist. So kann z. B. der Bildüberlagerungskombinierer202 keine Eingabe vom Token-Positionsanzeiger164 erhalten, so dass die gefilterten Bilder nicht am ungefähren Bildpunktort des Kandidat-Tokens überlagert werden. Als Beispiel könnte der Bildkombinierer die gefilterten Bilder an entgegengesetzten Bildpunkträndern überlagern, so dass der iterative Bildpunktschieber ein gefiltertes Bild über die Gesamtheit eines anderen zur Bestimmung der Korrelation schiebt. Bei einem anderen Beispiel können die gefilterten Bildpaare so überlagert werden, dass sie waagrecht und senkrecht ausgerichtet sind, und der Bildpunkt in einem Spiralmuster von den entsprechenden Bildmittelpunkten aus verschoben wird. Außerdem kann vorgesehen werden, dass der Bildkorrelator200 nicht drei getrennte gefilterte Bildpaare empfängt, sondern zur Korrelierung der Bilder von der ersten Kamera154 und der zweiten Kamera156 weniger oder mehr Bildpaare zur Bestimmung des dreidimensionalen Standorts des potentiellen Eindringlings erhält. Ferner können einige der im Beispiel von5 beschriebenen Geräte zu einem einzigen Gerät integriert werden. - Nunmehr sei erneut auf
4 verwiesen, wonach die Anzahl der Bildpunkte mit Versatz zwischen den gefilterten Bildern eines gefilterten Bildpaares zur optimalen Korrelation vom Bildkorrelator174 an eine Dimensionswandlungsmaschine176 ausgegeben wird. Die Dimensionswandlungsmaschine176 prüft den Bildpunktversatz in der Korrelation des gefilterten Bildpaares und wandelt ihn in eine Maßeinheit, die dem Betrag der Entfernung des potentiellen Eindringlings zur Stereobilderfassungsstufe152 entspricht. Die Anzahl der Bildpunkte mit Versatz kann umgekehrt proportional zur Entfernung sein, so dass eine große Anzahl Bildpunkte mit Versatz einer Entfernung entsprechen kann, die näher an der Stereobilderfassungsstufe152 liegt, während eine kleine Anzahl Bildpunkte mit Versatz einer Entfernung entsprechen kann, die von der Stereobilderfassungsstufe152 weiter weg liegt. Selbstverständlich kann die Dimensionswandlungsmaschine176 vorkalibriert werden, um den Bildpunktversatz sinnvoll auf die Entfernung zu beziehen. Beispielsweise kann ein stationäres Objekt, das sich innerhalb des überwachten Bereichs in einer vorgegebenen Entfernung von der Stereobilderfassungsstufe152 befindet, zur Kalibrierung der Wandlung des Bildpunktversatzes in die Entfernung dienen. - Die Bestimmung der Entfernung des potentiellen Eindringlings entspricht also direkt einem dreidimensionalen Standort des potentiellen Eindringlings relativ zur Stereobilderfassungsstufe
152 . Nach der Bestimmung des dreidimensionalen Standorts des potentiellen Eindring lings kann die Dimensionswandlungsmaschine176 die Größe des potentiellen Eindringlings bestimmen. Zum Beispiel kann nach der Bestimmung des dreidimensionalen Standorts des potentiellen Eindringlings eine Anzahl Bildpunkte der Abmessung des Kandidat-Tokens in senkrechter und waagrechter Richtung in die Maßeinheit gewandelt werden, die zur Bestimmung der Entfernung verwendet wird. Ein Kandidat-Token, der nur einige Bildpunkte breit ist und dessen Entfernung von der Stereobilderfassungsstufe152 als zwei Meter bestimmt wird, könnte also eine Maus sein. Ein Kandidat-Token, dessen Breite die gleiche Anzahl Bildpunkte hat und dessen Entfernung als einige hundert Meter bestimmt wird, könnte ein Kraftfahrzeug sein. Deshalb werden der dreidimensionale Standort und die Größe des potentiellen Eindringlings auf Basis der Parallaxenverschiebung des zweidimensionalen Standorts des potentiellen Eindringlings (d. h. des Kandidat-Tokens) in einem von der ersten Kamera154 erfassten Bild relativ zum zweidimensionalen Standort des potentiellen Eindringlings in dem von der zweiten Kamera156 erfassten Bild bestimmt. Die Daten des dreidimensionalen Standorts und der Größe können von der Dimensionswandlungsmaschine176 an einen dreidimensionalen Bewegungsrechner und/oder an einen Schwellenwertkomparator ausgegeben werden, wie oben anhand des Beispiels von1 beschrieben worden ist. -
6 zeigt ein anderes Beispiel eines Einbruchsicherungssystems250 mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. Das Einbruchsicherungssystem250 mit Stereokameraüberwachung enthält eine Stereobilderfassungsstufe252 mit einer ersten Kamera254 und einer zweiten Kamera256 . Das Einbruchsicherungssystem250 mit Stereokameraüberwachung enthält außerdem einen Token-Detektor258 . Der Token-Detektor258 enthält einen ersten Bildkomparator260 , einen ersten Bildausfüller262 und einen ersten Token-Positionsanzeiger264 . Ferner enthält der Token-Detektor258 einen zweiten Bildkomparator266 , einen zweiten Bildausfüller268 und einen zweiten Token-Positionsanzeiger270 . Die von der Kamera254 erfassten visuellen Bilder werden an den ersten Bildkomparator260 und die von der Kamera256 erfassten visuellen Bilder an den zweiten Bildkomparator266 ausgegeben. - Der erste Bildkomparator
260 und der zweite Bildkomparator266 sind jeweils so konfiguriert, dass sie die erfassten Bilder von der ersten Kamera254 bzw. von der zweiten Kamera256 mit einem Hintergrundbild vergleichen, das von einem ersten Hintergrundbildgenerator272 und einem zweiten Hintergrundbildgenerator274 erzeugt wird. Der erste Hintergrundbildgenerator272 und der zweite Hintergrundbildgenerator274 können jeweils dem Hintergrundbildgenerator50 , der im Beispiel von2 oben beschrieben worden ist, im Wesentli chen ähnlich sein. Dadurch können das vom vom ersten Hintergrundbildgenerator272 und das vom zweiten Hintergrundbildgenerator274 ausgegebene Hintergrundbild mit den erfassten Bildern aus der ersten Kamera254 bzw. der zweiten Kamera256 im Wesentlichen senkrecht und waagrecht ausgerichtet werden. - Ähnlich wie der Bildkomparator
160 im Beispiel von4 oben wenden der erste Bildkomparator260 und der zweite Bildkomparator262 jeweils einen Absolutwert-Bildpunktdifferenzalgorithmus an, um entsprechende Differenzbilder zu erzeugen. Ebenso wenden der erste Bildausfüller262 und der zweite Bildausfüller268 jeweils einen Bildausfüllalgorithmus auf die jeweiligen Differenzbilder an, so dass bestimmt werden kann, ob in jedem der Differenzbilder ein Kandidat-Token vorhanden ist. Die ausgefüllten Differenzbilder werden vom Bildausfüller262 und vom Bildausfüller268 an die entsprechenden Token-Positionsanzeiger264 und270 ausgegeben. Außerdem werden die ausgefüllten Differenzbilder vom Bildausfüller262 und vom Bildausfüller268 auch an eine Standorterfassungsmaschine276 ausgegeben. Ähnlich wie oben beim Beispiel von4 beschrieben können die ausgefüllten Differenzbilder vom jeweiligen Token-Positionsanzeiger264 und270 geprüft werden, um das Vorhandensein eines Kandidat-Tokens in jedem der ausgefüllten Differenzbilder und den Bildpunktort der jeweiligen Kandidat-Token zu bestimmen. Die Token-Positionsanzeiger264 und270 übertragen jeweils die Informationen über den zweidimensionalen Bildpunktort der jeweiligen Kandidat-Token an die Standorterfassungsmaschine276 . - Die Standorterfassungsmaschine
276 enthält einen Bildkorrelator278 und eine Dimensionswandlungsmaschine280 . Der Bildkorrelator278 empfängt die ausgefüllten Differenzbilder vom ersten und zweiten Bildausfüller262 und268 als Eingaben sowie die Informationen bezüglich des zweidimensionalen Bildpunktortes des Kandidat-Tokens vom Token-Positionsanzeiger264 bzw.270 . Der Bildkorrelator278 überlagert die ausgefüllten Differenzbilder an den Bildunktorten der jeweiligen Kandidat-Token, die vom Token-Positionsanzeiger264 bzw.270 übertragen werden. Der Bildkorrelator278 wendet dann ähnlich wie der Bildkorrelator200 , der im obigen Beispiel von5 beschrieben worden ist, einen Bildpunktschiebealgorithmus an, um die optimale Korrelation des Paares ausgefüllter Differenzbilder zu bestimmen. Da jedoch der Token-Detektor258 für jedes der erfassten Bilder der ersten und zweiten Kamera254 und256 einen eigenen Kandidat-Token erkennt und somit getrennte Differenzbilder erzeugt, kann der Bildkorrelator278 eine Korrelation zwischen den Differenzbildern direkt bestimmen. Mit anderen Worten, da der exakte Bildpunktort des Kandidat-Tokens aus beiden getrennten Differenzbildern bestimmt wird, ist es nicht erforderlich, dass die Standorterfassungsmaschine276 den SLOG-Filterungsalgorithmus für die Korrelation anwendet. Damit können die Erzeugung des Korrelationsstandes und die Bildpunktverschiebung direkt im ausgefüllten Differenzbildpaar erfolgen. - Die Anzahl der Bildpunkte mit Versatz zwischen den ausgefüllten Differenzbildern zur optimalen Korrelation wird vom Bildkorrelator
278 an die Dimensionswandlungsmaschine280 ausgegeben. Die Dimensionswandlungsmaschine280 prüft den Bildpunktversatz in der Korrelation des ausgefüllten Differenzbildpaares und wandelt ihn in eine Maßeinheit, die dem Betrag der Entfernung des potentiellen Eindringlings zur Stereobilderfassungsstufe252 entspricht. Die Entfernung kann dann zur Bestimmung des dreidimensionalen Standorts und der Größe des potentiellen Eindringlings ähnlich wie oben im Beispiel von4 beschrieben verwendet werden. Die Daten des dreidimensionalen Standorts und der Größe können von der Dimensionswandlungsmaschine280 an einen dreidimensionalen Bewegungsrechner und/oder einen Schwellenwertkomparator ausgegeben werden, wie oben anhand des Beispiels von1 beschrieben worden ist. -
7 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems300 mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. Das Einbruchsicherungssystem300 mit Stereokameraüberwachung enthält eine Stereobilderfassungsstufe302 mit einer ersten Kamera304 und einer zweiten Kamera306 . Das Einbruchsicherungssystem300 mit Stereokameraüberwachung enthält außerdem einen Token-Detektor308 . Wie oben beim Beispiel von4 beschrieben wird ein Differenzbild auf Basis eines Absolutwert-Bildpunktdifferenzalgorithmus erzeugt. Die Absolutwert-Bildpunktdifferenzen können auf der Struktur, der Helligkeit und dem Farbkontrast basieren, so dass das Differenzbild im Wesentlichen sämtliche Bildpunkte zeigt, die in jedem der erfassten Bilder von einer gegebenen Kamera und dem Hintergrundbild verschieden sind. Die Bildkomparatoren der Beispiele nach den4 und6 oben können deshalb auf Schatten und Helligkeitsänderungen, etwa bei Bewölkung, empfindlich reagieren, was möglicherweise zu falschen positiven Ergebnissen führt. - Der Token-Detektor
308 enthält ein erstes Bild-SLOG-Filter310 , einen ersten Komparator312 für gefilterte Bilder und einen ersten Token-Positionsanzeiger314 . Ferner enthält der Token-Detektor308 ein zweites Bild-SLOG-Filter316 , einen zweiten Komparator318 für gefilterte Bilder und einen zweiten Token-Positionsanzeiger320 . Die von der ersten Kamera304 erfassten visuellen Bilder werden an das erste Bild-SLOG-Filter310 und die von der zweiten Kamera306 erfassten visuellen Bilder an das zweite Bild-SLOG-Filter316 ausgege ben. Das erste Bild-SLOG-Filter310 und das zweite Bild-SLOG-Filter316 können jeweils ein oder mehrere gefilterte Bilder der erfassten Bilder von der ersten und zweiten Kamera304 und306 erzeugen. So können beispielsweise das erste Bild-SLOG-Filter310 und das zweite Bild-SLOG-Filter316 ein gefiltertes Bild mit hoher Auflösung, ein gefiltertes Bild mit mittlerer Auflösung und ein gefiltertes Bild mit niedriger Auflösung erzeugen, wie oben beim Beispiel von3 beschrieben worden ist. - Ein erster Hintergrundbildgenerator
322 erzeugt auf Basis der ersten Kamera304 ein Hintergrundbild und gibt es an ein erstes Hintergrund-SLOG-Filter324 aus. Das erste Hintergrund-SLOG-Filter324 kann eine Anzahl gefilterter Bilder des Hintergrundbildes erzeugen, die gleich ist der Anzahl gefilterter Bilder, die vom ersten Bild-SLOG-Filter310 erzeugt werden. Das erste Hintergrund-SLOG-Filter324 kann z. B. ein gefiltertes Hintergrundbild mit hoher Auflösung, ein gefiltertes Hintergrundbild mit mittlerer Auflösung und ein gefiltertes Hintergrundbild mit niedriger Auflösung erzeugen, wobei jede Auflösung einer Auflösung der vom ersten Bild-SLOG-Filter310 erzeugten gefilterten Bilder entspricht. Auf gleiche Weise erzeugt ein zweiter Hintergrundbildgenerator326 auf Basis der zweiten Kamera306 ein Hintergrundbild und gibt es an ein zweites Hintergrund-SLOG-Filter328 aus. Das zweite Hintergrund-SLOG-Filter328 kann eine Anzahl gefilterter Bilder des Hintergrundbildes erzeugen, die gleich ist der Anzahl gefilterter Bilder, die vom zweiten Bild-SLOG-Filter316 erzeugt werden. Es versteht sich, dass sowohl der erste als auch der zweite Hintergrundbildgenerator322 und326 dem im Beispiel von2 oben beschriebenen Hintergrundbildgenerator50 im Wesentlichen ähnlich sein kann. - Der erste Bildkomparator
312 für gefilterte Bilder und der zweite Bildkomparator318 für gefilterte Bilder sind so konfiguriert, dass sie die vom ersten Bild-SLOG-Filter310 bzw. vom zweiten Bild-SLOG-Filter316 erzeugten gefilterten Bilder mit den gefilterten Hintergrundbildern vergleichen, die vom ersten Hintergrund-SLOG-Filter324 bzw. vom zweiten Hintergrund-SLOG-Filter328 erzeugt werden. Um einen genaueren Vergleich zu erreichen, kann jedes der gefilterten Bilder mit der jeweiligen Auflösung gleichzeitig verglichen werden. Ähnlich wie beim Bildkomparator160 im obigen Beispiel von4 können sowohl der erste Bildkomparator312 für gefilterte Bilder als auch der zweite Bildkomparator318 für gefilterte Bilder einen Absolutwert-Bildpunktdifferenzalgorithmus anwenden, um entsprechende Differenzbilder zu erzeugen. Da jedoch die gefilterten erfassten Bilder und die gefilterten Hintergrundbilder nur binäre Strukturkontraste aufweisen, unterscheiden sich die Bildpunkte der Differenzbilder nur in der Struktur. Somit sind die Differenzbilder unempfindlich für Hellig keitsunterschiede und Farbkontraste zwischen den von der ersten und der zweiten Kamera304 und306 erfassten Bildern im Vergleich zu den jeweiligen Hintergrundbildern. Bei dem von jedem Komparator312 und318 für gefilterte Bilder ausgegebenen Differenzbild könnte es sich um getrennte Differenzbilder für jede Auflösung der gefilterten erfassten Bilder und der jeweiligen gefilterten Hintergrundbilder handeln. Alternativ könnte das von jedem Komparator312 und318 für gefilterte Bilder ausgegebene Differenzbild ein einzelnes Differenzbild sein, das auf dem Vergleich der gefilterten erfassten Bilder und der jeweiligen gefilterten Hintergrundbilder basiert. - Die Differenzbilder werden von den Komparatoren
312 und318 für gefilterte Bilder an die jeweiligen Token-Positionsanzeiger314 und320 ausgegeben. Außerdem werden die Differenzbilder auch von den Komparatoren312 und318 für gefilterte Bilder an eine Standorterfassungsmaschine330 ausgegeben. Ähnlich wie oben im Beispiel von4 beschrieben können die Differenzbilder von den entsprechenden Token-Positionsanzeigern314 und320 geprüft werden, um das Vorhandensein eines Kandidat-Tokens in jedem der Differenzbilder und den Bildpunktort der jeweiligen Kandidat-Token zu bestimmen. Im Beispiel von7 werden die Bildpunkte, die die binären Strukturdifferenzen zwischen den gefilterten erfassten Bildern und den gefilterten Hintergrundbildern angeben, von den jeweiligen Token-Positionsanzeigern314 und320 als die Kandidat-Token markiert. Die Token-Positionsanzeiger314 bzw.320 übertragen die Informationen über den zweidimensionalen Bildpunktort der jeweiligen Kandidat-Token an die Standorterfassungsmaschine330 . - Die Standorterfassungsmaschine
330 enthält einen Bildkorrelator332 und eine Dimensionswandlungsmaschine334 . Der Bildkorrelator332 empfängt die Differenzbilder von den Komparatoren312 und318 für gefilterte Bilder als Eingaben sowie die Informationen bezüglich des zweidimensionalen Bildpunktortes des Kandidat-Tokens von den Token-Positionsanzeigern314 und320 . Der Bildkorrelator332 überlagert die Differenzbilder an den Bildunktorten der jeweiligen Kandidat-Token, die vom Token-Positionsanzeiger314 bzw.320 übertragen werden. Der Bildkorrelator332 wendet dann ähnlich wie der im obigen Beispiel von5 beschriebene Bildkorrelator200 einen Bildpunktschiebealgorithmus an, um die optimale Korrelation des Paares der Differenzbilder zu bestimmen. Außerdem können ähnlich wie oben im Beispiel von6 beschrieben die Korrelationsstanderzeugung und die Bildpunktverschiebung direkt im Differenzbildpaar erfolgen, da die erfassten Bilder bereits gefiltert worden sind. - Die Anzahl der Bildpunkte mit Versatz zwischen den Differenzbildern zur optimalen Korrelation wird vom Bildkorrelator
332 an die Dimensionswandlungsmaschine334 ausgegeben. Die Dimensionswandlungsmaschine334 prüft den Bildpunktversatz in der Korrelation des Differenzbildpaares und wandelt ihn in eine Maßeinheit, die dem Betrag der Entfernung des potentiellen Eindringlings zur Stereobilderfassungsstufe302 entspricht. Die Entfernung kann dann zur Bestimmung des dreidimensionalen Standorts und der Größe des potentiellen Eindringlings ähnlich wie oben im Beispiel von4 beschrieben verwendet werden. Die Daten des dreidimensionalen Standorts und der Größe können von der Dimensionswandlungsmaschine334 an einen dreidimensionalen Bewegungsrechner und/oder einen Schwellenwertkomparator ausgegeben werden, wie oben anhand des Beispiels von1 beschrieben worden ist. -
8 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems350 mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. Das Einbruchsicherungssystem350 mit Stereokameraüberwachung enthält eine Stereobilderfassungsstufe352 mit einer ersten Kamera354 und einer zweiten Kamera356 . Das Einbruchsicherungssystem350 mit Stereokameraüberwachung enthält außerdem einen Token-Detektor358 . Ähnlich wie beim obigen Beispiel von7 enthält der Token-Detektor358 ein erstes Bild-SLOG-Filter360 , einen ersten Komparator362 für gefilterte Bilder und einen ersten Strukturdifferenz-Positionsanzeiger364 . Ferner enthält der Token-Detektor358 ein zweites Bild-SLOG-Filter366 , einen zweiten Komparator368 für gefilterte Bilder und einen zweiten Strukturdifferenz-Positionsanzeiger370 . - Die von der ersten Kamera
354 erfassten visuellen Bilder werden an das erste Bild-SLOG-Filter360 und die von der zweiten Kamera356 erfassten visuellen Bilder an das zweite Bild-SLOG-Filter366 ausgegeben. Das erste Bild-SLOG-Filter360 und das zweite Bild-SLOG-Filter366 können jeweils ein oder mehrere gefilterte Bilder der erfassten Bilder von der ersten und zweiten Kamera354 und366 erzeugen. So können beispielsweise das erste Bild-SLOG-Filter360 und das zweite Bild-SLOG-Filter366 ein gefiltertes Bild mit hoher Auflösung, ein gefiltertes Bild mit mittlerer Auflösung und ein gefiltertes Bild mit niedriger Auflösung erzeugen, wie oben beim Beispiel von3 beschrieben worden ist. - Ein erster Hintergrundbildgenerator
372 erzeugt auf Basis der ersten Kamera354 ein Hintergrundbild und gibt es an ein erstes Hintergrund-SLOG-Filter374 aus. Auf gleiche Weise erzeugt ein zweiter Hintergrundbildgenerator376 ein Hintergrundbild auf Basis der zweiten Kamera356 und gibt es an ein zweites Hintergrund-SLOG-Filter378 aus. Es versteht sich, dass sowohl der erste als auch der zweite Hintergrundbildgenerator372 und376 dem im Beispiel von2 oben beschriebenen Hintergrundbildgenerator50 im Wesentlichen ähnlich sein kann. Wie nachstehend ausführlicher beschrieben wird, können jedoch der erste Hintergrundbildgenerator372 und der zweite Hintergrundbildgenerator376 so konfiguriert sein, dass sie das Hintergrundbild rasch aktualisieren. Ähnlich wie im Beispiel von7 oben kann das erste Hintergrund-SLOG-Filter374 und das zweite Hintergrund-SLOG-Filter378 jeweils eine Anzahl gefilterter Bilder des Hintergrundbildes erzeugen, die gleich ist der Anzahl gefilterter Bilder, die vom ersten Bild-SLOG-Filter360 bzw. vom zweiten Bild-SLOG-Filter366 erzeugt werden. - Der erste Komparator
362 für gefilterte Bilder und der zweite Komparator368 für gefilterte Bilder sind so konfiguriert, dass sie die vom ersten Bild-SLOG-Filter360 bzw. vom zweiten Bild-SLOG-Filter366 erzeugten gefilterten Bilder mit den gefilterten Hintergrundbildern vergleichen, die vom ersten Hintergrund-SLOG-Filter374 bzw. vom zweiten Hintergrund-SLOG-Filter378 erzeugt werden. Ähnlich wie beim Bildkomparator160 im obigen Beispiel von4 können sowohl der erste Komparator362 für gefilterte Bilder als auch der zweite Komparator368 für gefilterte Bilder einen Absolutwert-Bildpunktdifferenzalgorithmus anwenden, um entsprechende Differenzbilder zu erzeugen, die Bildpunkte enthalten, die sich nur in der Struktur unterscheiden. Ähnlich wie beim oben beschriebenen Beispiel von7 sind die Differenzbilder unempfindlich für Helligkeitsunterschiede und Farbkontraste zwischen den von der ersten und der zweiten Kamera354 und356 erfassten Bildern im Vergleich zu den jeweiligen Hintergrundbildern. - Die Differenzbilder werden von den Komparatoren
362 und368 für gefilterte Bilder an die jeweiligen Strukturdifferenz-Positionsanzeiger364 und370 ausgegeben. Ähnlich wie oben im Beispiel von4 beschrieben können die Differenzbilder vom Strukturdifferenz-Positionsanzeiger364 bzw.370 geprüft werden, um Strukturdifferenzen in jedem der Differenzbilder und den Bildpunktort der jeweiligen Strukturdifferenz zu bestimmen. Da jedoch die gefilterten Differenzbilder auf Vergleichen der gefilterten Bilder mit niedriger Auflösung basieren und/oder diese enthalten können, können die Strukturdifferenzen in den jeweiligen gefilterten Differenzbildern scheinbar eine niedrigere Auflösung als die von den Kameras354 und356 erfasste Bilder haben. Mit anderen Worten, ein einziger markierter Strukturunterschied könnte mehreren Bildpunkten in einem von den Kameras354 bzw.356 erfassten Bildern entsprechen. Im Beispiel von8 überträgt der erste Strukturdifferenz-Positions anzeiger364 die Informationen über den zweidimensionalen Ort der Texturdifferenzen an den ersten Hintergrundbildgenerator372 und der zweite Strukturdifferenz-Positionsanzeiger370 die Informationen über den zweidimensionalen Ort der Strukturdifferenzen an den zweiten Hintergrundbildgenerator376 . - Der erste Hintergrundbildgenerator
372 kann ferner so konfiguriert sein, dass er die Informationen über den zweidimensionalen Ort der Strukturdifferenzen vom ersten Strukturdifferenz-Positionsanzeiger364 empfängt, um das erste Hintergrundbild rasch zu aktualisieren. Der zweite Hintergrundbildgenerator376 kann gleichermaßen ferner so konfiguriert sein, dass er die Informationen über den zweidimensionalen Ort der Strukturdifferenzen vom zweiten Strukturdifferenz-Positionsanzeiger370 empfängt, um das zweite Hintergrundbild rasch zu aktualisieren. So kann z. B. der erste und der zweite Hintergrundbildgenerator372 bzw.376 die Informationen über den zweidimensionalen Ort der Strukturdifferenzen an einem Hintergrundbildaktualisierer56 im Beispiel von2 empfangen. - Wie oben beschrieben könnte eine einzige markierte Differenz in einem gefilterten Differenzbild mehreren Bildpunkten eines von einer der Kameras
354 bzw.356 erfassten Bilder entsprechen. Es versteht sich deshalb, dass der jeweilige Hintergrundbildgenerator372 bzw.372 die zweidimensionalen Standortinformationen mit niedriger Auflösung in einen tatsächlichen Bildpunktort in einem von einer der Kameras345 bzw.356 erfassten Bild übersetzen kann. Somit kann der erste Hintergrundbildgenerator372 sämtliche Bildpunkte des Hintergrundbildes mit einem von der ersten Kamera354 erfassten Bild mit Ausnahme der dem zweidimensionalen Ort der Strukturdifferenzen entsprechenden Bildpunkte aktualisieren. In gleicher Weise kann der zweite Hintergrundbildgenerator376 sämtliche Bildpunkte des Hintergrundbildes mit einem von der zweiten Kamera356 erfassten Bild mit Ausnahme der dem zweidimensionalen Ort der Strukturdifferenzen entsprechenden Bildpunkte aktualisieren. Es versteht sich, dass die rasche Aktualisierung der Hintergrundbilder auf Basis der gefilterten Differenzbilder zusätzlich zu der oder anstelle von der allmählichen Aktualisierung des erfassten Hintergrundbildes54 durch den Hintergrundbildaktualisierer56 erfolgen kann, wie im Beispiel von2 beschrieben worden ist. - Außer den oben beschriebenen Komponenten enthält der Token-Detektor
358 einen ersten Bildkomparator380 , einen ersten Bildausfüller382 und einen ersten Token-Positionsanzeiger384 . Ferner enthält der Token-Detektor358 einen zweiten Bildkomparator386 , einen zweite Bildausfüller388 und einen zweite Token-Positionsanzeiger390 . Nachdem das erste bzw. zweite Hintergrundbild rasch aktualisiert worden ist, werden das erfasste Bild von der ersten Kamera354 sowie das erste aktualisierte Hintergrundbild in den ersten Bildkomparator380 eingegeben. In gleicher Weise werden das erfasste Bild von der zweiten Kamera356 sowie das zweite aktualisierte Hintergrundbild in den zweiten Bildkomparator386 eingegeben. - Ähnlich wie der Bildkomparator
160 im obigen Beispiel von4 wenden der erste und der zweite Bildkomparator380 und386 jeweils einen Absolutwert-Bildpunktdifferenzalgorithmus an, um entsprechende Differenzbilder zu erzeugen. Es versteht sich jedoch, dass die jeweiligen erfassten Bilder von der ersten und der zweiten Kamera354 und356 die gleichen Bilder sein können, die zur raschen Aktualisierung der Hintergrundbilder durch den ersten bzw. zweiten Hintergrundbildgenerator372 bzw.376 verwendet wurden. Somit sind sämtliche Bildpunkte des erfassten Bildes im Wesentlichen identisch mit den gleichen Bildpunkten im entsprechenden Hintergrundbild mit Ausnahme der Bildpunkte am zweidimensionalen Ort der Strukturdifferenzen. Deshalb können die von den Bildkomparatoren380 bzw.386 erzeugten Differenzbilder nur die zeigen, die zwischen den erfassten Bildern von den Kameras354 und356 und den jeweiligen Hintergrundbildern an den jeweiligen zweidimensionalen Orten der Strukturdifferenzen verschieden sind. Demzufolge reagiert das Einbruchsicherungssystem350 mit Stereokameraüberwachung weniger anfällig auf eine falsche positive Erkennung eines Eindringlings, da die Differenzbilder Unterschiede der Orte kleiner Strukturdifferenzen nicht anzeigen. Außerdem ist das Einbruchsicherungssystem350 mit Stereokameraüberwachung wegen der redundanten Erzeugung von Differenzbildern ein robusteres System für die Erkennung von Eindringlingen. - Der erste Bildausfüller
382 und der zweite Bildausfüller388 können jeweils einen Bildpunktausfüllalgorithmus auf die jeweiligen Differenzbilder anwenden, so dass bestimmt werden kann, ob in den jeweiligen Differenzbildern ein Kandidat-Token vorhanden ist. Die ausgefüllten Differenzbilder werden von den Bildausfüllern382 und388 an die Token-Positionsanzeiger384 bzw.390 ausgegeben. Die ausgefüllten Differenzbilder können vom Token-Positionsanzeiger384 bzw.390 geprüft werden, um das Vorhandensein eines Kandidat-Tokens in jedem der ausgefüllten Differenzbilder zu bestimmen. Außerdem können die ausgefüllten Differenzbilder von den Bildausfüllern382 und388 an eine Standorterfassungsmaschine (nicht dargestellt) ähnlich der oben anhand des Beispiels von6 beschriebenen ausgegeben werden. Ferner kann jeder der Token-Positionsanzeiger384 und390 die Informationen über den zweidimensionalen Bildpunktort des jeweiligen Kandidat-Tokens auch an eine Standorterfassungsmaschine übertragen. - Es versteht sich, dass das Einbruchsicherungssystem
350 mit Stereokameraüberwachung nicht auf das Beispiel von8 beschränkt ist. Es können beispielsweise ein oder alle beschriebenen Geräte des Token-Detektors358 miteinander integriert werden. Bei einem anderen Beispiel könnten die Strukturdifferenz-Positionsanzeiger364 und370 die Informationen über den zweidimensionalen Ort der Strukturdifferenzen an die Bildkomparatoren380 und386 übertragen, anstelle den Hintergrund rasch zu aktualisieren. Damit könnten die Bildkomparatoren380 und386 die Bildpunktdifferenz nur an den Orten der Strukturdifferenzen vergleichen, die von den Strukturdifferenz-Positionsanzeigern364 und370 übertragen werden. - Angesichts der obig beschriebenen strukturellen und funktionalen Kennzeichen erschließt sich die Methodik gemäß den verschiedenen Aspekten der vorliegenden Erfindung klarer aus
9 . Obwohl wegen der Vereinfachung der Erläuterung die Methodik in9 als serielle Ausführung dargestellt und beschrieben wird, versteht es sich, dass die vorliegende Erfindung nicht auf die dargestellte Reihenfolge beschränkt ist, da manche Aspekte gemäß der vorliegenden Erfindung in einer anderen Reihenfolge als der dargestellten und beschriebenen und/oder gleichzeitig mit anderen Aspekten ablaufen. Ferner sind möglicherweise nicht alle der dargestellten Kennzeichen erforderlich, um die Methodik gemäß einem Aspekt der Erfindung zu implementieren. -
9 zeigt ein Beispiel eines Verfahrens400 zur Erkennung von Eindringlingen in einem überwachten Bereich gemäß einem Aspekt der Erfindung. Bei402 werden erste Bilder des überwachten Bereichs von einer ersten Kamera und zweite Bilder des überwachten Bereichs von einer zweiten Kamera erfasst. Die erste und die zweite können beide digitale Kameras sein, so dass die erste und die zweite Kamera relativ zueinander im Stereomodus arbeiten. Bei404 wird ein Hintergrundbild des überwachten Bereichs erstellt. Das Hintergrundbild kann auf einem oder mehreren von der ersten Kamera erfassten Bildern basieren. Für die erste und die zweite Kamera kann jeweils ein eigenes Hintergrundbild erhalten werden. Bei406 wird das Hintergrundbild senkrecht und waagrecht auf die erfassten Bilder ausgerichtet. Die senkrechte und waagrechte Ausrichtung kann durch Anwenden eines Filterungsalgorithmus wie eines SLOG-Filterungsalgorithmus sowohl auf das Hintergrundbild als auch auf das erfasste Bild erreicht werden. Das gefilterte Hintergrundbild und das gefilterte erfasste Bild können dann auf Basis einer Bildpunktverschiebung und der Erzeugung eines Korrelationsstandes für jede Verschiebung korreliert werden. - Bei
408 werden Bildpunkte der erfassten Bilder mit Bildpunkten des Hintergrundbildes verglichen, um die Anwesenheit eines potentiellen Eindringlings zu bestimmen. Zum Vergleich mit den jeweiligen Hintergrundbildern könnten sowohl die ersten als auch die zweiten erfassten Bilder dienen. Alternativ könnten die erfassten Bilder nur die ersten erfassten Bilder sein, die mit einem einzigen Hintergrundbild verglichen werden. Außerdem können die erfassten Bilder und die jeweiligen Hintergrundbilder gefiltert werden, so dass die gefilterten erfassten Bilder mit den jeweiligen gefilterten Hintergrundbildern verglichen werden. - Bei
410 werden dreidimensionale Kennzeichen, die zum potentiellen Eindringling gehören, bestimmt. Die Bestimmung kann auf der Korrelierung gefilterter Versionen der erfassten Bilder basieren, die auf dem Vergleich der erfassten Bilder mit dem Hintergrundbild basieren. Die Korrelation kann auf der Erzeugung von Korrelationsständen für jede Verschiebung eines Bildpunktschiebealgorithmus basieren. Die Korrelierung kann auch zwischen zwei verschiedenen Differenzbildern erfolgen. Der Betrag des Bildpunktversatzes zwischen den ersten und zweiten Bildern kann in einen dreidimensionalen Standort und die Größe des potentiellen Eindringlings übersetzt werden. - Bei
412 wird eine Meldeeinrichtung aktiviert, wenn die dreidimensionalen Kennzeichen des potentiellen Eindringlings mindestens einen Schwellenwert überschreiten. Der Schwellenwert könnte der Größe und/oder dem Standort des potentiellen Eindringlings entsprechen. Ferner kann der Standort des potentiellen Eindringlings über mehrere der ersten und zweiten Bilder der ersten und zweiten Kamera so verfolgt werden, dass die dreidimensionale Bewegungsrichtung und die Geschwindigkeit bestimmt werden können. Ein anderer Schwellenwert könnte deshalb die Geschwindigkeit oder Bewegung zu einem vordefinierten dreidimensionalen Raum sein. - Es wurden Beispiele der vorliegenden Erfindung beschrieben. Natürlich ist es nicht möglich, jede denkbare Kombination aus Komponenten und Methoden im Rahmen der Beschreibung der vorliegenden Erfindung zu erläutern, aber für den Durchschnittsfachmann ist erkennbar, dass zahlreiche weitere Kombinationen und Modifikationen der vorliegenden Erfindung möglich sind. Die vorliegende Erfindung soll daher alle diese Änderungen, Modifikationen und Variationen erfassen, die von Geist und Gültigkeitsbereich der beigefügten Ansprüche abgedeckt sind.
Claims (28)
- Einbruchsicherungssystem mit: einer ersten Kamera, die zum Erzeugen erster Bilder eines überwachten Bereichs konfiguriert ist; einer zweiten Kamera, die zum Erzeugen zweiter Bilder des überwachten Bereichs konfiguriert ist; einem Detektionsgerät, das zum Vergleichen der ersten Bilder mit einem Hintergrundbild des überwachten Bereichs konfiguriert ist, wobei das Detektionsgerät Unterschiede zwischen den ersten Bildern und dem Hintergrundbild als einen potentiellen Eindringling markiert; und einem Verfolgungsgerät, das zum Auswerten jedes der ersten Bilder relativ zu jedem der zweiten Bilder konfiguriert ist, um dreidimensionale zum potentiellen Eindringling gehörige Kennzeichen zu bestimmen.
- System nach Anspruch 1, bei dem die dreidimensionalen Kennzeichen Standort, Größe und Bewegung aufweisen, und das ferner eine Meldeeinrichtung aufweist, wobei das Verfolgungsgerät außerdem so konfiguriert ist, dass es die Meldeeinrichtung aktiviert, wenn mindestens eines der Kennzeichen Standort, Größe und Bewegung, die zum potentiellen Eindringling gehören, einen entsprechenden Schwellenwert überschreitet.
- System nach Anspruch 1, bei dem das Verfolgungsgerät einen Schwellenwertkomparator aufweist, der so konfiguriert ist, dass ein Benutzer des Einbruchsicherungssystems mindestens einen dreidimensionalen Raum im überwachten Bereich einrichten kann, wobei der mindestens eine dreidimensionale Raum ein Schwellenwertraum ist, so dass eine Bewegung in den und zu dem mindestens einen dreidimensionalen Raum die Meldeeinrichtung aktiviert, sowie eine Nullzone derart, dass Unterschiede zwischen den ersten Bildern und dem Hintergrundbild im überwachten Raum die Meldeeinrichtung nicht aktivieren.
- System nach Anspruch 1, bei dem die erste und die zweite Kamera jeweils stationär auf etwa Bodenhöhe installiert sind.
- System nach Anspruch 1, bei dem das Hintergrundbild ein erstes von der ersten Kamera erzeugtes Hintergrundbild ist, und bei dem das Detektionsgerät ferner so konfiguriert ist, dass es die zweiten Bilder mit einem zweiten Hintergrundbild des überwachten Bereichs vergleicht, wobei das zweite Hintergrundbild von der zweiten Kamera erzeugt wird, und das Detektionsgerät ferner so konfiguriert ist, dass es Unterschiede zwischen den zweiten Bildern und dem Hintergrundbild als den potentiellen Eindringling markiert.
- System nach Anspruch 5, bei dem das erste Hintergrundbild, das zweite Hintergrundbild, die ersten Bilder und die zweiten Bilder gefiltert werden, um Strukturkontrastmuster anzuzeigen, wobei das Detektionsgerät so konfiguriert ist, dass es die ersten gefilterten Bilder mit dem ersten gefilterten Hintergrundbild und die zweiten gefilterten Bilder mit dem zweiten gefilterten Hintergrundbild vergleicht und Unterschiede zwischen den ersten gefilterten Bilder und dem ersten gefilterten Hintergrundbild sowie Unterschiede zwischen dem zweiten gefilterten Bilder und dem zweiten gefilterten Hintergrundbild als den potentiellen Eindringling markiert.
- System nach Anspruch 6, bei dem das erste Hintergrundbild auf Basis der Unterschiede zwischen den ersten gefilterten Bildern und dem ersten gefilterten Hintergrundbild und das zweite Hintergrundbild auf Basis der Unterschiede zwischen den zweiten gefilterten Bildern und dem zweiten gefilterten Hintergrundbild aktualisiert wird, und bei dem das Detektionsgerät ferner so konfiguriert ist, dass es die Unterschiede zwischen den ersten Bildern und dem aktualisierten ersten Hintergrundbild sowie zwischen den zweiten Bildern und dem aktualisierten zweiten Hintergrundbild als den potentiellen Eindringling markiert.
- System nach Anspruch 1, ferner einen Hintergrundbildgenerator aufweisend, der zum Erzeugen des Hintergrundbildes des überwachten Bereichs konfiguriert ist, wobei der Hintergrundbildgenerator einen Hintergrundstabilisierer aufweist, der zum Korrelieren der zu den ersten Bildern gehörigen Bildpunkte mit den zum Hintergrundbild gehörigen Bildpunkten konfiguriert ist, so dass die zu den ersten Bildern gehörigen Bildpunkte senkrecht und waagrecht auf die zum Hintergrundbild gehörigen Bildpunkte ausgerichtet werden, bevor das Detektionsgerät Unterschiede zwischen den zu den ersten Bildern gehörigen Bildpunkte und den zum Hintergrundbild gehörigen Bildpunkten als den potentiellen Eindringling markiert.
- System nach Anspruch 1, bei dem das Verfolgungsgerät einen Bildkorrelator aufweist, der zum Vergleichen jedes der ersten Bilder mit einem entsprechenden Bild der zweiten Bilder konfiguriert ist, um den Standort und die Größe des potentiellen Eindringlings im dreidimensionalen Raum auf Basis einer Parallaxenverschiebung des zweidimensionalen Standorts des potentiellen Eindringlings in einem gegeben Bild der ersten Bilder relativ zum zweidimensionalen Standort des potentiellen Eindringlings im entsprechenden Bild der zweiten Bilder zu bestimmen.
- System nach Anspruch 9, bei dem der Bildkorrelator aufweist: ein Bildüberlagerungsgerät, das so konfiguriert ist, dass es ein gegebenes Bild der ersten Bilder einem entsprechenden Bild der zweiten Bilder überlagert, so dass der zweidimensionale Standort des potentiellen Eindringlings auf einem gegebenen Bild der ersten Bilder einen ungefähren Ort des zweidimensionalen Standorts des potentiellen Eindringlings auf dem entsprechenden Bild der zweiten Bilder schneidet; ein iteratives Bildpunktschiebegerät, das so konfiguriert ist, dass es das gegebene Bild der ersten Bilder relativ zum entsprechenden Bild der zweiten Bilder wiederholt um einen Bildpunkt je Verschiebung verschiebt; und einen Korrelationsrechner, der so konfiguriert ist, dass er einen Korrelationsstand für jede Verschiebung bestimmt, so dass die Parallaxenverschiebung der jeweiligen zweidimensionalen Standorte des potentiellen Eindringlings auf Basis einer gegebenen Verschiebung bestimmt wird, die den höchsten Korrelationsstand ergibt.
- System nach Anspruch 10, bei dem das Verfolgungsgerät eine Mehrzahl Filter aufweist, die so konfiguriert sind, dass sie mindestens ein gefiltertes Bild erzeugen, das zu jedem der ersten Bilder gehört, und mindestens ein zweites gefiltertes Bild, das zu jedem der zweiten Bilder gehört, wobei jedes Bild des mindestens einen ersten gefilterten Bildes eine Auflösung hat, die mit einem entsprechenden Bild des mindestens einen zweiten gefilterten Bildes übereinstimmt, wobei das Bildüberlagerungsgerät und das iterative Bildpunktschiebegerät so konfiguriert sind, dass sie das mindestens eine übereinstimmende Paar aus dem mindestens einen ersten gefilterten Bild und dem mindestens einen zweiten gefilterten Bild überlagern und wiederholt verschieben.
- Verfahren zum Erkennen von Eindringlingen in einem überwachten Bereich, wobei das Verfahren aufweist: Erfassen erster Bilder des überwachten Bereichs mit einer ersten Kamera und zweiter Bilder des überwachten Bereichs mit einer zweiten Kamera; Erzeugen eines Hintergrundbildes des überwachten Bereichs; Korrelieren erster zu den ersten Bildern gehörigen Bildpunkte mit zweiten zum Hintergrundbild des überwachten Bereichs gehörigen Bildpunkten in der Weise, dass die ersten Bildpunkte waagrecht und senkrecht auf die zweiten Bildpunkte ausgerichtet werden; Vergleichen der ersten Bilder und des Hintergrundbildes des überwachten Bereichs, um die Anwesenheit eines potentiellen Eindringlings zu bestimmen; Bestimmen dreidimensionaler Kennzeichen des potentiellen Eindringlings auf Basis eines relativen Vergleichs der ersten Bilder und der zweiten Bilder; und Aktivieren einer Meldeeinrichtung, wenn die dreidimensionalen Kennzeichen des potentiellen Eindringlings mindestens einen vorgegebenen Schwellenwert überschreiten.
- Verfahren nach Anspruch 12, bei dem die Bestimmung der dreidimensionalen Kennzeichen des potentiellen Eindringlings die Bestimmung der Parallaxenverschiebung des potentiellen Eindringlings in jedem der ersten Bilder relativ zu den entsprechenden zweiten Bildern aufweist.
- Verfahren nach Anspruch 13, bei dem die Bestimmung der Parallaxenverschiebung die Überlagerung jedes der ersten Bilder über ein entsprechendes Bild der zweiten Bilder an entsprechenden ungefähren zweidimensionalen Standorten des potentiellen Eindringlings und Verschieben der ersten Bilder relativ zu einem der zweiten Bilder aufweist, bis eine gute Korrelation gefunden wird.
- Verfahren nach Anspruch 13, ferner das Erzeugen mindestens eines ersten gefilterten Bildes, das zu jeden der ersten Bilder gehört, und mindestens eines zweiten gefilterten Bildes, das zu jedem der zweiten Bilder gehört, aufweisend, wobei jedes Bild ein übereinstimmendes Paar mit einem entsprechenden Bild des mindestens einen zweiten gefilterten Bildes bildet, das eine im Wesentlichen gleiche Auflösung hat.
- Verfahren nach Anspruch 15, bei dem die Bestimmung der dreidimensionalen Kennzeichen des potentiellen Eindringlings eine gleiche Korrelierung jedes des mindestens einen übereinstimmenden Paares aufweist, um die Parallaxenverschiebung des potentiellen Eindringlings zu bestimmen.
- Verfahren nach Anspruch 16, bei dem die gleiche Korrelierung aufweist: gleiches Verschieben um einen Bildpunkt jedes des mindestens einen ersten gefilterten Bildes relativ zum jeweils gepaarten des mindestens einen zweiten gefilterten Bildes; Erzeugen eines aggregierten Korrelationsstandes bei jeder Bildpunktverschiebung, wobei der aggregierte Korrelationsstand einen Korrelationsstand jedes des mindestens einen übereinstimmenden Paares aufweist; und Vergleichen des aggregierten Korrelationsstandes bei jeder Bildpunktverschiebung, um die Bildpunktverschiebung mit dem höchsten aggregierten Korrelationsstand zu bestimmen.
- Verfahren nach Anspruch 12, bei dem das Erzeugen des Hintergrundbildes das Erzeugen eines ersten Hintergrundbildes des überwachten Bereichs auf Basis der ersten Kamera und ferner das Erzeugen eines zweiten Hintergrundbildes des überwachten Bereichs auf Basis der zweiten Kamera sowie das Vergleichen der zweiten Bilder und des zweiten Hintergrundbildes des überwachten Bereichs aufweist, um die Anwesenheit eines potentiellen Eindringlings zu bestimmen.
- Verfahren nach Anspruch 18, ferner das Filtern der ersten Bilder, der zweiten Bilder, des ersten Hintergrundbildes und des zweiten Hintergrundbildes aufweisend, wobei das Vergleichen der ersten Bilder und des ersten Hintergrundbildes das Vergleichen der ersten gefilterten Bilder und des ersten gefilterten Hintergrundbildes und das Vergleichen der zweiten Bilder und des zweiten gefilterten Hintergrundbildes aufweist, und bei dem das Vergleichen der zweiten gefilterten Bilder und des zweiten gefilterten Hintergrundbildes das Vergleichen der zweiten gefilterten Bilder und des zweiten gefilterten Hintergrundbildes aufweist.
- Verfahren nach Anspruch 19, ferner aufweisend: Aktualisieren des ersten Hintergrundbildes auf Basis des Vergleichs zwischen den ersten gefilterten Bildern und dem ersten gefilterten Hintergrundbild; Aktualisieren des zweiten Hintergrundbildes auf Basis des Vergleichs zwischen den zweiten gefilterten Bildern und dem zweiten gefilterten Hintergrundbild; Vergleichen der ersten Bilder mit dem aktualisierten ersten Hintergrundbild, um die Anwesenheit eines potentiellen Eindringlings zu bestimmen; und Vergleichen der zweiten Bilder mit dem aktualisierten zweiten Hintergrundbild, um die Anwesenheit eines potentiellen Eindringlings zu bestimmen.
- Verfahren nach Anspruch 12, bei dem die Bestimmung der dreidimensionalen Kennzeichen die Bestimmung eines Standorts, einer Größe und einer Bewegung des potentiellen Eindringlings auf Basis von Unterschieden zwischen den ersten Bildern und dem Hintergrundbild aufweist.
- Verfahren nach Anspruch 12, ferner das Einrichten mindestens eines dreidimensionalen Raums im überwachten Bereich aufweisend, so dass der mindestens eine dreidimensionale Raum ein Raum mit einem Schwellenwertraum und einer Nullzone ist, in der die Meldeeinrichtung aktiviert bzw. nicht aktiviert wird.
- Einbruchsicherungssystem mit: Mitteln zur gleichzeitigen Erfassung erster Bilder und zweiter Bilder eines überwachten Bereichs; Mitteln zur kontinuierlichen Erzeugung eines Hintergrundbildes des überwachten Bereichs; Mitteln zum Erkennen eines potentiellen Eindringlings auf Basis der Unterschiede zwischen den ersten Bildern und dem Hintergrundbild; Mitteln zum Bestimmen dreidimensionaler Kennzeichen des potentiellen Eindringlings auf Basis der ersten Bilder und der zweiten Bilder; und Mitteln zum Aktivieren einer Meldeeinrichtung auf Basis der dreidimensionalen Kennzeichen des potentiellen Eindringlings.
- System nach Anspruch 23, bei dem die dreidimensionalen Kennzeichen Standort, Größe und Bewegung aufweisen.
- System nach Anspruch 23, bei dem die Mittel zum Bestimmen der dreidimensionalen Kennzeichen des potentiellen Eindringlings Mittel zum Bestimmen der Parallaxenverschiebung des zweidimensionalen Standorts des potentiellen Eindringlings auf einem gegebenen Bild der ersten Bilder relativ zum zweidimensionalen Standort des potentiellen Eindringlings im entsprechenden Bild der zweiten Bilder aufweisen.
- System nach Anspruch 25, bei dem die Mittel zum Bestimmen der Parallaxenverschiebung Mittel zum Erzeugen einer Mehrzahl erster gefilterter Bilder auf Basis der ersten Bilder und einer Mehrzahl zweiter gefilterter Bilder auf Basis der zweiten Bilder aufweisen, wobei jedes Bild der Mehrzahl erster gefilterter Bilder ein übereinstimmendes Paar mit einem entsprechenden Bild der Mehrzahl zweiter gefilterter Bilder mit einer im Wesentlichen gleichen Auflösung bildet.
- System nach Anspruch 26, bei dem die Mittel zum Bestimmen der Parallaxenverschiebung ferner Mittel zum Verschieben um einen Bildpunkt jedes Bildes der ersten gefilterten Bilder relativ zum jeweils gepaarten Bild der Mehrzahl zweiter gefilterter Bilder und Mittel zum Erzeugen eines aggregierten Korrelationsstandes für jede Bildpunktverschiebung auf Basis eines Korrelationsstand einen Korrelationsstand jedes Paares der Mehrzahl übereinstimmender Paare aufweisen, wobei die Parallaxenverschiebung zur Bildpunktverschiebung mit dem höchsten aggregierten Korrelationsstand gehört.
- System nach Anspruch 23, ferner Mittel zum waagrechten und senkrechten Ausrichten der zu den ersten Bildern und dem Hintergrundbild gehörigen Bildpunkte vor der Operation des Mittels zum Erkennen des potentiellen Eindringlings aufweisend.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/502,229 US8432448B2 (en) | 2006-08-10 | 2006-08-10 | Stereo camera intrusion detection system |
US11/502,229 | 2006-08-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102007037647A1 true DE102007037647A1 (de) | 2008-05-21 |
DE102007037647B4 DE102007037647B4 (de) | 2019-06-19 |
Family
ID=38543262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102007037647.4A Expired - Fee Related DE102007037647B4 (de) | 2006-08-10 | 2007-08-09 | Einbruchsicherungssystem mit Stereokameraüberwachung |
Country Status (5)
Country | Link |
---|---|
US (1) | US8432448B2 (de) |
JP (1) | JP2008140370A (de) |
DE (1) | DE102007037647B4 (de) |
FR (1) | FR2908546B1 (de) |
GB (1) | GB2440826B (de) |
Families Citing this family (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9038108B2 (en) | 2000-06-28 | 2015-05-19 | Verizon Patent And Licensing Inc. | Method and system for providing end user community functionality for publication and delivery of digital media content |
US7970260B2 (en) * | 2001-06-27 | 2011-06-28 | Verizon Business Global Llc | Digital media asset management system and method for supporting multiple users |
US8990214B2 (en) * | 2001-06-27 | 2015-03-24 | Verizon Patent And Licensing Inc. | Method and system for providing distributed editing and storage of digital media over a network |
US8972862B2 (en) * | 2001-06-27 | 2015-03-03 | Verizon Patent And Licensing Inc. | Method and system for providing remote digital media ingest with centralized editorial control |
US20060236221A1 (en) * | 2001-06-27 | 2006-10-19 | Mci, Llc. | Method and system for providing digital media management using templates and profiles |
US9401080B2 (en) | 2005-09-07 | 2016-07-26 | Verizon Patent And Licensing Inc. | Method and apparatus for synchronizing video frames |
US8631226B2 (en) * | 2005-09-07 | 2014-01-14 | Verizon Patent And Licensing Inc. | Method and system for video monitoring |
US9076311B2 (en) * | 2005-09-07 | 2015-07-07 | Verizon Patent And Licensing Inc. | Method and apparatus for providing remote workflow management |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8234578B2 (en) * | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
CN101689325B (zh) * | 2007-06-14 | 2011-09-14 | 日本电气株式会社 | 监视系统及监视方法 |
US8063375B2 (en) * | 2007-06-22 | 2011-11-22 | Intel-Ge Care Innovations Llc | Sensible motion detector |
US7782364B2 (en) * | 2007-08-21 | 2010-08-24 | Aptina Imaging Corporation | Multi-array sensor with integrated sub-array for parallax detection and photometer functionality |
US8139110B2 (en) * | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8345920B2 (en) * | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
WO2010002237A2 (en) * | 2008-06-30 | 2010-01-07 | Mimos Berhad | Intrusion detection using parallax information |
KR101781399B1 (ko) | 2008-11-17 | 2017-09-25 | 익스프레스 이미징 시스템즈, 엘엘씨 | 고체 상태 전등을 위한 전력을 조절하기 위한 전자 제어 및 그 방법들 |
US8926139B2 (en) * | 2009-05-01 | 2015-01-06 | Express Imaging Systems, Llc | Gas-discharge lamp replacement with passive cooling |
WO2010135575A2 (en) | 2009-05-20 | 2010-11-25 | Express Imaging Systems, Llc | Long-range motion detection for illumination control |
US8541950B2 (en) * | 2009-05-20 | 2013-09-24 | Express Imaging Systems, Llc | Apparatus and method of energy efficient illumination |
US20110019243A1 (en) * | 2009-07-21 | 2011-01-27 | Constant Jr Henry J | Stereoscopic form reader |
JP5530773B2 (ja) * | 2010-03-19 | 2014-06-25 | 株式会社Ihiエアロスペース | ステレオカメラによる平面検出方法とこの方法を用いた移動ロボット |
US20110292213A1 (en) * | 2010-05-26 | 2011-12-01 | Lacey James H | Door mountable camera surveillance device and method |
US8901825B2 (en) | 2011-04-12 | 2014-12-02 | Express Imaging Systems, Llc | Apparatus and method of energy efficient illumination using received signals |
AU2011201953B2 (en) * | 2011-04-29 | 2013-09-19 | Canon Kabushiki Kaisha | Fault tolerant background modelling |
CN103649994B (zh) | 2011-07-05 | 2016-11-16 | 欧姆龙株式会社 | 用于投影体监测的方法和装置 |
US8610358B2 (en) | 2011-08-17 | 2013-12-17 | Express Imaging Systems, Llc | Electrostatic discharge protection for luminaire |
EP2749145B1 (de) | 2011-08-24 | 2017-11-15 | Express Imaging Systems, LLC | Resonantes netzwerk zur reduzierung von flimmerwahrnehmung in festkörperbeleuchtungssystemen |
WO2013056016A1 (en) * | 2011-10-14 | 2013-04-18 | Omron Corporation | A method and apparatus for projective volume monitoring |
WO2013074900A1 (en) | 2011-11-18 | 2013-05-23 | Express Imaging Systems, Llc | Adjustable output solid-state lamp with security features |
US9360198B2 (en) | 2011-12-06 | 2016-06-07 | Express Imaging Systems, Llc | Adjustable output solid-state lighting device |
US9497393B2 (en) | 2012-03-02 | 2016-11-15 | Express Imaging Systems, Llc | Systems and methods that employ object recognition |
JP5950628B2 (ja) * | 2012-03-07 | 2016-07-13 | 株式会社日立国際電気 | 物体検知装置、物体検知方法及びプログラム |
US9210751B2 (en) | 2012-05-01 | 2015-12-08 | Express Imaging Systems, Llc | Solid state lighting, drive circuit and method of driving same |
US9204523B2 (en) | 2012-05-02 | 2015-12-01 | Express Imaging Systems, Llc | Remotely adjustable solid-state lamp |
US10002297B2 (en) * | 2012-06-20 | 2018-06-19 | Imprivata, Inc. | Active presence detection with depth sensing |
US9131552B2 (en) | 2012-07-25 | 2015-09-08 | Express Imaging Systems, Llc | Apparatus and method of operating a luminaire |
US8878440B2 (en) | 2012-08-28 | 2014-11-04 | Express Imaging Systems, Llc | Luminaire with atmospheric electrical activity detection and visual alert capabilities |
US8896215B2 (en) | 2012-09-05 | 2014-11-25 | Express Imaging Systems, Llc | Apparatus and method for schedule based operation of a luminaire |
US8995718B2 (en) * | 2012-10-11 | 2015-03-31 | Ittiam Systems (P) Ltd. | System and method for low complexity change detection in a sequence of images through background estimation |
US9301365B2 (en) | 2012-11-07 | 2016-03-29 | Express Imaging Systems, Llc | Luminaire with switch-mode converter power monitoring |
US9210759B2 (en) | 2012-11-19 | 2015-12-08 | Express Imaging Systems, Llc | Luminaire with ambient sensing and autonomous control capabilities |
WO2014092549A2 (en) * | 2012-12-13 | 2014-06-19 | Mimos Berhad | System and method for moving object extraction using stereo vision |
US9288873B2 (en) | 2013-02-13 | 2016-03-15 | Express Imaging Systems, Llc | Systems, methods, and apparatuses for using a high current switching device as a logic level sensor |
US9466443B2 (en) | 2013-07-24 | 2016-10-11 | Express Imaging Systems, Llc | Photocontrol for luminaire consumes very low power |
US9414449B2 (en) | 2013-11-18 | 2016-08-09 | Express Imaging Systems, Llc | High efficiency power controller for luminaire |
WO2015116812A1 (en) | 2014-01-30 | 2015-08-06 | Express Imaging Systems, Llc | Ambient light control in solid state lamps and luminaires |
US20150334299A1 (en) * | 2014-05-14 | 2015-11-19 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring system |
US10140827B2 (en) | 2014-07-07 | 2018-11-27 | Google Llc | Method and system for processing motion event notifications |
US9572230B2 (en) | 2014-09-30 | 2017-02-14 | Express Imaging Systems, Llc | Centralized control of area lighting hours of illumination |
US9009805B1 (en) | 2014-09-30 | 2015-04-14 | Google Inc. | Method and system for provisioning an electronic device |
US9445485B2 (en) | 2014-10-24 | 2016-09-13 | Express Imaging Systems, Llc | Detection and correction of faulty photo controls in outdoor luminaires |
US9462662B1 (en) | 2015-03-24 | 2016-10-04 | Express Imaging Systems, Llc | Low power photocontrol for luminaire |
WO2016197307A1 (en) | 2015-06-08 | 2016-12-15 | SZ DJI Technology Co., Ltd. | Methods and apparatus for image processing |
US9361011B1 (en) | 2015-06-14 | 2016-06-07 | Google Inc. | Methods and systems for presenting multiple live video feeds in a user interface |
CN104954747B (zh) * | 2015-06-17 | 2020-07-07 | 浙江大华技术股份有限公司 | 视频监视方法和装置 |
CN104966062B (zh) * | 2015-06-17 | 2021-03-23 | 浙江大华技术股份有限公司 | 视频监视方法和装置 |
US10671857B2 (en) * | 2015-06-17 | 2020-06-02 | Zhejiang Dahua Technology Co., Ltd. | Methods and systems for video surveillance |
EP3128482A1 (de) * | 2015-08-07 | 2017-02-08 | Xovis AG | Verfahren zur kalibrierung einer stereokamera |
US9538612B1 (en) | 2015-09-03 | 2017-01-03 | Express Imaging Systems, Llc | Low power photocontrol for luminaire |
US10687025B2 (en) * | 2015-10-27 | 2020-06-16 | Vivint, Inc. | Anti-theft doorbell camera |
US9924582B2 (en) | 2016-04-26 | 2018-03-20 | Express Imaging Systems, Llc | Luminaire dimming module uses 3 contact NEMA photocontrol socket |
US10506237B1 (en) | 2016-05-27 | 2019-12-10 | Google Llc | Methods and devices for dynamic adaptation of encoding bitrate for video streaming |
US10957171B2 (en) | 2016-07-11 | 2021-03-23 | Google Llc | Methods and systems for providing event alerts |
US9985429B2 (en) | 2016-09-21 | 2018-05-29 | Express Imaging Systems, Llc | Inrush current limiter circuit |
US10230296B2 (en) | 2016-09-21 | 2019-03-12 | Express Imaging Systems, Llc | Output ripple reduction for power converters |
US10098212B2 (en) | 2017-02-14 | 2018-10-09 | Express Imaging Systems, Llc | Systems and methods for controlling outdoor luminaire wireless network using smart appliance |
WO2018181837A1 (en) * | 2017-03-31 | 2018-10-04 | Yokogawa Electric Corporation | Methods and systems for image based anomaly detection |
US10904992B2 (en) | 2017-04-03 | 2021-01-26 | Express Imaging Systems, Llc | Systems and methods for outdoor luminaire wireless control |
US10219360B2 (en) | 2017-04-03 | 2019-02-26 | Express Imaging Systems, Llc | Systems and methods for outdoor luminaire wireless control |
US10568191B2 (en) | 2017-04-03 | 2020-02-18 | Express Imaging Systems, Llc | Systems and methods for outdoor luminaire wireless control |
US11375599B2 (en) | 2017-04-03 | 2022-06-28 | Express Imaging Systems, Llc | Systems and methods for outdoor luminaire wireless control |
US10438464B1 (en) | 2018-06-06 | 2019-10-08 | Ademco Inc. | Systems and methods for determining and verifying a presence of an object or an intruder in a secured area |
CN110163232B (zh) * | 2018-08-26 | 2020-06-23 | 国网江苏省电力有限公司南京供电分公司 | 智能视觉识别车板变压器坐标系统 |
US11074794B2 (en) | 2018-11-30 | 2021-07-27 | Ademco Inc. | Systems and methods for activating and deactivating controlled devices in a secured area |
US10996325B2 (en) | 2018-11-30 | 2021-05-04 | Ademco Inc. | Systems and methods for adjusting a signal broadcast pattern of an intrusion detector |
US11234304B2 (en) | 2019-05-24 | 2022-01-25 | Express Imaging Systems, Llc | Photocontroller to control operation of a luminaire having a dimming line |
US11317497B2 (en) | 2019-06-20 | 2022-04-26 | Express Imaging Systems, Llc | Photocontroller and/or lamp with photocontrols to control operation of lamp |
US11100651B1 (en) * | 2019-08-08 | 2021-08-24 | National Technology & Engineering Solutions Of Sandia, Llc | Infrared intrusion detection system (IRIDS) |
US10762773B1 (en) | 2019-08-19 | 2020-09-01 | Ademco Inc. | Systems and methods for building and using a false alarm predicting model to determine whether to alert a user and/or relevant authorities about an alarm signal from a security system |
USD1027692S1 (en) | 2019-10-25 | 2024-05-21 | Icm Airport Technics Australia Pty Ltd | Baggage scanner station |
USD1002411S1 (en) | 2019-10-25 | 2023-10-24 | Icm Airport Technics Australia Pty Ltd | Baggage scanner array |
US11212887B2 (en) | 2019-11-04 | 2021-12-28 | Express Imaging Systems, Llc | Light having selectively adjustable sets of solid state light sources, circuit and method of operation thereof, to provide variable output characteristics |
Family Cites Families (105)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4468694A (en) | 1980-12-30 | 1984-08-28 | International Business Machines Corporation | Apparatus and method for remote displaying and sensing of information using shadow parallax |
US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
JPS62264390A (ja) | 1986-05-12 | 1987-11-17 | Omron Tateisi Electronics Co | 監視ロボツト用視覚認識装置 |
US4924506A (en) * | 1986-07-22 | 1990-05-08 | Schlumberger Systems & Services, Inc. | Method for directly measuring area and volume using binocular stereo vision |
US4905296A (en) | 1986-07-22 | 1990-02-27 | Schlumberger Systems & Services, Inc. | System for shape recognition |
JPH0431996A (ja) | 1990-05-28 | 1992-02-04 | Matsushita Electric Works Ltd | 画像認識型の防犯センサー |
US5220441A (en) * | 1990-09-28 | 1993-06-15 | Eastman Kodak Company | Mechanism for determining parallax between digital images |
US5239373A (en) | 1990-12-26 | 1993-08-24 | Xerox Corporation | Video computational shared drawing space |
JP3114813B2 (ja) | 1991-02-27 | 2000-12-04 | 日本電信電話株式会社 | 情報入力方法 |
US5483261A (en) | 1992-02-14 | 1996-01-09 | Itu Research, Inc. | Graphical input controller and method with rear screen image detection |
US5999185A (en) | 1992-03-30 | 1999-12-07 | Kabushiki Kaisha Toshiba | Virtual reality control using image, model and control data to manipulate interactions |
EP0829799A3 (de) | 1992-05-26 | 1998-08-26 | Takenaka Corporation | Wandcomputereinheit |
EP0701758B1 (de) | 1993-06-04 | 2000-11-02 | Sarnoff Corporation | System und verfahren zur elektronischen bildstabilisierung |
US5475422A (en) | 1993-06-21 | 1995-12-12 | Nippon Telegraph And Telephone Corporation | Method and apparatus for reconstructing three-dimensional objects |
US20020126161A1 (en) | 1994-07-05 | 2002-09-12 | Hitachi, Ltd. | Information processing system |
US5563988A (en) | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US6327381B1 (en) | 1994-12-29 | 2001-12-04 | Worldscape, Llc | Image transformation and synthesis methods |
US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
US20010006426A1 (en) | 1996-07-18 | 2001-07-05 | Korea Institute Of Science And Technology | Holographic projection screen for displaying a three-dimensional color images and optical display system using the holographic screen |
US6002808A (en) | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
RU2123718C1 (ru) | 1996-09-27 | 1998-12-20 | Кузин Виктор Алексеевич | Способ ввода информации в компьютер |
US6956573B1 (en) | 1996-11-15 | 2005-10-18 | Sarnoff Corporation | Method and apparatus for efficiently representing storing and accessing video information |
EP0849697B1 (de) | 1996-12-20 | 2003-02-12 | Hitachi Europe Limited | Verfahren und System zur Erkennung von Handgesten |
DE19708240C2 (de) | 1997-02-28 | 1999-10-14 | Siemens Ag | Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich |
JP3749369B2 (ja) | 1997-03-21 | 2006-02-22 | 株式会社竹中工務店 | ハンドポインティング装置 |
US7532372B2 (en) | 1997-07-08 | 2009-05-12 | Kremen Stanley H | Method for creating a holographic screen that reconstructs uniformly magnified three-dimensional images from projected integral photographs |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
DE19739285C1 (de) | 1997-09-08 | 1998-11-19 | Siemens Nixdorf Inf Syst | Vorrichtung zur Darstellung und virtuellen Eingabe von Daten |
JP3795647B2 (ja) | 1997-10-29 | 2006-07-12 | 株式会社竹中工務店 | ハンドポインティング装置 |
FR2771202B1 (fr) | 1997-11-19 | 2000-01-21 | Inst Nat Rech Inf Automat | Dispositif electronique de traitement de donnees-image, pour la simulation du comportement deformable d'un objet |
US6195104B1 (en) | 1997-12-23 | 2001-02-27 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6512507B1 (en) | 1998-03-31 | 2003-01-28 | Seiko Epson Corporation | Pointing position detection device, presentation system, and method, and computer-readable medium |
US6377229B1 (en) | 1998-04-20 | 2002-04-23 | Dimensional Media Associates, Inc. | Multi-planar volumetric display system and method of operation using three-dimensional anti-aliasing |
US6064354A (en) | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
DE19845030A1 (de) | 1998-09-30 | 2000-04-20 | Siemens Ag | Bildsystem |
US6690357B1 (en) | 1998-10-07 | 2004-02-10 | Intel Corporation | Input device using scanning sensors |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
US6222465B1 (en) | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
US6204852B1 (en) | 1998-12-09 | 2001-03-20 | Lucent Technologies Inc. | Video hand image three-dimensional computer interface |
WO2000055802A1 (de) | 1999-03-17 | 2000-09-21 | Siemens Aktiengesellschaft | Anordnung zur interaktion |
US6695770B1 (en) | 1999-04-01 | 2004-02-24 | Dominic Kin Leung Choy | Simulated human interaction systems |
US7015954B1 (en) | 1999-08-09 | 2006-03-21 | Fuji Xerox Co., Ltd. | Automatic video system using multiple cameras |
US7006236B2 (en) | 2002-05-22 | 2006-02-28 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
SE0000850D0 (sv) | 2000-03-13 | 2000-03-13 | Pink Solution Ab | Recognition arrangement |
US6624833B1 (en) | 2000-04-17 | 2003-09-23 | Lucent Technologies Inc. | Gesture-based input interface system with shadow detection |
US6469734B1 (en) * | 2000-04-29 | 2002-10-22 | Cognex Corporation | Video safety detector with shadow elimination |
US6803928B2 (en) | 2000-06-06 | 2004-10-12 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Extended virtual table: an optical extension for table-like projection systems |
US6788809B1 (en) | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
EP1323019A2 (de) | 2000-09-26 | 2003-07-02 | Eugenio Bustamante | Erzeugung von eingangssignalen |
JP2004523031A (ja) | 2001-01-08 | 2004-07-29 | ヴィーケービー インコーポレイテッド | データ入力装置 |
DE10100615A1 (de) | 2001-01-09 | 2002-07-18 | Siemens Ag | Handerkennung mit Positionsbestimmung |
DE10100617A1 (de) | 2001-01-09 | 2002-07-18 | Siemens Ag | Steuerbare Anordnung mit Benutzerauthentisierung |
US6775014B2 (en) | 2001-01-17 | 2004-08-10 | Fujixerox Co., Ltd. | System and method for determining the location of a target in a room or small area |
US7215322B2 (en) | 2001-05-31 | 2007-05-08 | Siemens Corporate Research, Inc. | Input devices for augmented reality applications |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
EP1689172B1 (de) | 2001-06-05 | 2016-03-09 | Microsoft Technology Licensing, LLC | Interaktives Video-Anzeigesystem |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7007236B2 (en) | 2001-09-14 | 2006-02-28 | Accenture Global Services Gmbh | Lab window collaboration |
US7110569B2 (en) | 2001-09-27 | 2006-09-19 | Koninklijke Philips Electronics N.V. | Video based detection of fall-down and other events |
US20030067537A1 (en) | 2001-10-04 | 2003-04-10 | Myers Kenneth J. | System and method for three-dimensional data acquisition |
US6983065B1 (en) | 2001-12-28 | 2006-01-03 | Cognex Technology And Investment Corporation | Method for extracting features from an image using oriented filters |
US7138997B2 (en) | 2002-06-28 | 2006-11-21 | Autodesk, Inc. | System for physical rotation of volumetric display enclosures to facilitate viewing |
US7340077B2 (en) | 2002-02-15 | 2008-03-04 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
AU2003221893A1 (en) | 2002-04-08 | 2003-10-27 | Newton Security Inc. | Tailgating and reverse entry detection, alarm, recording and prevention using machine vision |
JP4074618B2 (ja) * | 2002-04-26 | 2008-04-09 | 株式会社プライムポリマー | 吸音体、吸音構造体およびこれらの製造方法 |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US6857746B2 (en) | 2002-07-01 | 2005-02-22 | Io2 Technology, Llc | Method and system for free-space imaging display and interface |
US7321386B2 (en) * | 2002-08-01 | 2008-01-22 | Siemens Corporate Research, Inc. | Robust stereo-driven video-based surveillance |
JP4216021B2 (ja) * | 2002-08-30 | 2009-01-28 | 富士重工業株式会社 | 侵入物検出装置 |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
ES2212739B1 (es) | 2003-01-02 | 2005-04-01 | Sociedad Española De Carburos Metalicos, S.A. | Sistema analizador para la deteccion de gases reductores y oxidantes en un gas portador y sensor de gases basado en oxidos metalicos de tipo semiconductor. |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7088243B2 (en) * | 2003-05-26 | 2006-08-08 | S1 Corporation | Method of intruder detection and device thereof |
WO2004111688A2 (en) | 2003-06-06 | 2004-12-23 | New York University | Method and apparatus for determining a bidirectional reflectance distribution function of a subject |
US6796656B1 (en) | 2003-06-14 | 2004-09-28 | Imatte, Inc. | Generating a matte signal from a retro reflective component of a front projection screen |
EP1649309A4 (de) | 2003-07-03 | 2011-03-09 | Holo Touch Inc | Holographische mensch-maschine-schnittstellen |
US20050012817A1 (en) * | 2003-07-15 | 2005-01-20 | International Business Machines Corporation | Selective surveillance system with active sensor management policies |
US7159927B2 (en) * | 2003-07-23 | 2007-01-09 | Honda Motor Co., Ltd. | Powered tailgate system |
US7190496B2 (en) | 2003-07-24 | 2007-03-13 | Zebra Imaging, Inc. | Enhanced environment visualization using holographic stereograms |
FR2858692B1 (fr) | 2003-08-08 | 2006-01-06 | Rosenthal Patrick Olivier Levy | Systeme permettant la visualisation d'images en trois dimensions avec un rendu en relief sur 36o degres |
KR100588042B1 (ko) | 2004-01-14 | 2006-06-09 | 한국과학기술연구원 | 인터액티브 프레젠테이션 시스템 |
US7755608B2 (en) | 2004-01-23 | 2010-07-13 | Hewlett-Packard Development Company, L.P. | Systems and methods of interfacing with a machine |
US7969409B2 (en) | 2004-02-18 | 2011-06-28 | Rafal Jan Krepec | Camera assisted pen tablet |
WO2005099386A2 (en) | 2004-04-13 | 2005-10-27 | Board Of Regents, The University Of Texas System | Holographic projector |
JP2005304540A (ja) * | 2004-04-16 | 2005-11-04 | Funai Electric Co Ltd | 監視カメラを備えた自走式掃除機 |
JP4424088B2 (ja) * | 2004-06-25 | 2010-03-03 | 株式会社日立製作所 | 撮像装置 |
US7519223B2 (en) | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
WO2007018523A2 (en) | 2004-07-28 | 2007-02-15 | Sarnoff Corporation | Method and apparatus for stereo, multi-camera tracking and rf and video track fusion |
US7724242B2 (en) | 2004-08-06 | 2010-05-25 | Touchtable, Inc. | Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter |
US8560972B2 (en) | 2004-08-10 | 2013-10-15 | Microsoft Corporation | Surface UI for gesture-based interaction |
US20060092178A1 (en) | 2004-10-29 | 2006-05-04 | Tanguay Donald O Jr | Method and system for communicating through shared media |
KR100960577B1 (ko) | 2005-02-08 | 2010-06-03 | 오블롱 인더스트리즈, 인크 | 제스처 기반의 제어 시스템을 위한 시스템 및 방법 |
KR100687737B1 (ko) | 2005-03-19 | 2007-02-27 | 한국전자통신연구원 | 양손 제스쳐에 기반한 가상 마우스 장치 및 방법 |
US7643051B2 (en) | 2005-09-09 | 2010-01-05 | Roy Benjamin Sandberg | Mobile video teleconferencing system and control method |
US8086971B2 (en) | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US8180114B2 (en) | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US9696808B2 (en) | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8589824B2 (en) | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US9052575B2 (en) | 2007-07-12 | 2015-06-09 | Hewlett-Packard Development Company, L.P. | Determining correspondence mappings from infrared patterns projected during the projection of visual content |
US8139110B2 (en) | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8345920B2 (en) | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
-
2006
- 2006-08-10 US US11/502,229 patent/US8432448B2/en active Active
-
2007
- 2007-08-09 FR FR0705802A patent/FR2908546B1/fr not_active Expired - Fee Related
- 2007-08-09 GB GB0715481A patent/GB2440826B/en not_active Expired - Fee Related
- 2007-08-09 DE DE102007037647.4A patent/DE102007037647B4/de not_active Expired - Fee Related
- 2007-08-10 JP JP2007209786A patent/JP2008140370A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
DE102007037647B4 (de) | 2019-06-19 |
FR2908546A1 (fr) | 2008-05-16 |
US20080043106A1 (en) | 2008-02-21 |
US8432448B2 (en) | 2013-04-30 |
JP2008140370A (ja) | 2008-06-19 |
FR2908546B1 (fr) | 2018-10-12 |
GB0715481D0 (en) | 2007-09-19 |
GB2440826B (en) | 2008-10-08 |
GB2440826A (en) | 2008-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007037647B4 (de) | Einbruchsicherungssystem mit Stereokameraüberwachung | |
DE60020420T2 (de) | Situationsdarstellungs-Anzeigesystem | |
EP2569953B1 (de) | Optische selbstdiagnose eines stereoskopischen kamerasystems | |
EP2234081B1 (de) | Verfahren zur Herstellung einer bekannten festen räumlichen Beziehung zwischen einem Laserscanner und einer Digitalkamera zur Verkehrsüberwachung | |
EP1168269B1 (de) | Optoelektronische Schutzeinrichtung | |
EP3540457A1 (de) | Identifikation von objekten mittels radardaten | |
DE102007036129B3 (de) | Vorrichtung und Verfahren zur dreidimensionalen Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren | |
EP0815539B1 (de) | Verfahren zur erkennung bewegter objekte in zeitlich aufeinander folgenden bildern | |
EP2034461B1 (de) | Verfahren zur Detektion und/oder Verfolgung von bewegten Objekten in einer Überwachungsszene mit Störern, Vorrichtung sowie Computerprogramm | |
DE102013013082A1 (de) | Toter-winkel-warnsystem und toter-winkel-warnverfahren | |
DE3841387A1 (de) | Verfahren und vorrichtung zum ueberwachen eines sich bewegenden objekts | |
DE102006010735A1 (de) | Fahrzeugumgebungsüberwachungsvorrichtung | |
DE19621612C2 (de) | Vorrichtung zur Überwachung eines Gleisabschnittes in einem Bahnhof | |
EP0741377B1 (de) | System zur Überwachung des Strassenverkehrs | |
DE102012106860A1 (de) | Vorrichtung und Verfahren zum Identifizieren und Dokumentieren mindestens eines ein Strahlungsfeld durchfahrenden Objektes | |
DE60008797T2 (de) | Verfahren und vorrichtung zur detektion eines gegenstandes in bezug auf eine oberfläche | |
DE10312249A1 (de) | Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern | |
DE102013217223A1 (de) | Überwachungsanlage sowie Verfahren zur Darstellung eines Überwachungsbereichs | |
DE10151983A1 (de) | Verfahren zur Dokumentation einer Unfallsituation | |
DE10049366A1 (de) | Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System | |
DE102007032091B3 (de) | Verfahren zum Überwachen eines höhengleichen Bahnübergangs | |
EP3811091A1 (de) | Verfahren und anordnung zum erkennen von koronaentladungen einer anlage mit betriebsmitteln | |
DE4413633A1 (de) | Verfolgungsgerät | |
EP3611653A1 (de) | Vorrichtung und verfahren zum erfassen einer bereifung eines fahrzeugs | |
EP3320681B1 (de) | Verfahren und vorrichtung zum abtasten von oberflächen mit einer stereokamera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R082 | Change of representative |
Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE |
|
R081 | Change of applicant/patentee |
Owner name: NORTHROP GRUMMAN SYSTEMS CORPORATION, LOS ANGE, US Free format text: FORMER OWNER: NORTHROP GRUMMAN CORP., LOS ANGELES, CALIF., US Effective date: 20120814 Owner name: NORTHROP GRUMMAN SYSTEMS CORPORATION, US Free format text: FORMER OWNER: NORTHROP GRUMMAN CORP., LOS ANGELES, US Effective date: 20120814 |
|
R082 | Change of representative |
Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE Effective date: 20120814 Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE Effective date: 20120814 |
|
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |