DE102015226749A1 - Überwachungsanlage - Google Patents

Überwachungsanlage Download PDF

Info

Publication number
DE102015226749A1
DE102015226749A1 DE102015226749.0A DE102015226749A DE102015226749A1 DE 102015226749 A1 DE102015226749 A1 DE 102015226749A1 DE 102015226749 A DE102015226749 A DE 102015226749A DE 102015226749 A1 DE102015226749 A1 DE 102015226749A1
Authority
DE
Germany
Prior art keywords
model
area
monitoring system
virtual
surveillance area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015226749.0A
Other languages
English (en)
Inventor
Michael Scherl
Claus Marberger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102015226749.0A priority Critical patent/DE102015226749A1/de
Publication of DE102015226749A1 publication Critical patent/DE102015226749A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Bei einer Überwachungsanlage (2) zur Überwachung eines Objekts (4a, b) in einem Überwachungsbereich (6), mit mindestens einer Kamera (8) zur Aufnahme eines jeweiligen aktuellen Kamerabildes (10) zumindest eines Abschnitts des Überwachungsbereiches (6), und mit einem virtuellen Bereichsmodell (12) des Überwachungsbereiches (6), ist eine aktuelle reale Position (Pa, b) des Objekts (4a, b) im Überwachungsbereich (6) veränderlich und die Überwachungsanlage (2) enthält: zu jedem Objekt (4a, b) ein jeweiliges virtuelles, relativ zum Bereichsmodell (12) bewegbares, dem jeweiligen Objekt (4a, b) zugeordnetes Objektmodell (14a, b), ein Objektmodul (16) zur Ermittlung der aktuellen realen Position (Pa, b) des Objekts (4a, b) und zur ortsrichtigen Platzierung des Objektmodells (14a, b) an einer aktuellen virtuellen Position (Va, b) im Bereichsmodell (12) anhand der realen Position (Pa, b), und ein Sichtmodul (18) zur Erzeugung eines virtuellen Kamerabildes (20) des Bereichsmodells (12) zusammen mit den Objektmodellen (14a, b) gemäß einer wählbaren Ansicht (22).

Description

  • Die Erfindung betrifft eine Überwachungsanlage.
  • Stand der Technik
  • Zur Überwachung von Überwachungsbereichen, wie zum Beispiel öffentlichen Einrichtungen wie Flughäfen oder Kaufhäusern, wird üblicherweise eine Vielzahl von Kameras verwendet, deren Live-Aufnahmen auf einzelnen Bildschirmen angezeigt werden. Die Auswahl der angezeigten Inhalte geschieht beispielsweise nach einem festen zeitlichen Wechselmuster oder nach gezielter Steuerung durch einen menschlichen Operator.
  • Aus der DE 10 2012 205 130 A1 ist es bekannt, dass einem Video-Management-System ein komplettes dreidimensionales Modell der zu überwachenden Umgebung zur Verfügung steht. Von dem Video-Management-System wird außerdem zumindest ein aktuelles Kamerabild erfasst. Das Kamerabild wird in das dreidimensionale Modell projiziert.
  • Offenbarung der Erfindung
  • Im Rahmen der Erfindung wird eine Überwachungsanlage gemäß Patentanspruch 1 vorgeschlagen. Bevorzugte oder vorteilhafte Ausführungsformen der Erfindung sowie andere Erfindungskategorien ergeben sich aus den weiteren Ansprüchen, der nachfolgenden Beschreibung sowie den beigefügten Figuren.
  • Die Überwachungsanlage dient zur Überwachung eines Objekts in einem Überwachungsbereich. Die Überwachungsanlage enthält mindestens eine Kamera zur Aufnahme eines jeweiligen aktuellen Kamerabildes, wobei das Kamerabild zumindest einen Abschnitt des Überwachungsbereiches abbildet. Die Überwachungsanlage enthält außerdem ein virtuelles Bereichsmodell des Überwachungsbereiches. Eine aktuelle reale Position des Objekts im Überwachungsbereich ist veränderlich. Die Überwachungsanlage enthält zu jedem Objekt ein jeweiliges virtuelles, relativ zum Bereichsmodell bewegbares, dem jeweiligen Objekt zugeordnetes Objektmodell. Die Überwachungsanlage enthält ein Objektmodul zur Ermittlung der aktuellen realen Position des Objekts und zur ortsrichtigen Platzierung des Objektmodells an einer aktuellen virtuellen Position im Bereichsmodell anhand der realen Position. Die Überwachungsanlage enthält ein Sichtmodul zur Erzeugung eines virtuellen Kamerabildes des Bereichsmodells zusammen mit den Objektmodellen gemäß einer wählbaren Ansicht.
  • Die genannten, zu überwachenden Objekte sind lediglich potenziell im Überwachungsbereich vorhanden, das heißt, es ist nicht vorhersagbar, ob und wann sich ein oder mehrere dieser Objekte im Überwachungsbereich befinden. Die Prämisse für die Ermittlung der virtuellen Position und der Platzierung der virtuellen Objekte im Objektmodell ist daher, dass tatsächlich ein reales Objekt im Überwachungsbereich vorhanden und identifiziert ist. Das Objekt ist insbesondere eine Person oder ein Fahrzeug. Die ortsrichtige Platzierung des Objektmodells bedeutet, dass bei einer derartigen Platzierung das virtuelle Objekt im virtuellen Objektmodell sich an der entsprechenden gleichen Relativposition befindet, an der sich auch das reale Objekt relativ im realen Überwachungsbereich befindet. Das Bereichsmodell mit Objektmodell bildet damit die aktuell korrekte, gegebenenfalls lediglich skalierte, örtliche Situation des Objekts im Überwachungsbereich ab. Das Sichtmodul kann mit anderen Worten als virtuelle Kamera verstanden werden, welche das virtuelle Kamerabild so erzeugt, dass die Blickrichtung auf das Objektmodell mit den Objekten sowie der abzubildende Ausschnitt von Objektmodell und Objekten wählbar sind. Das Auswählen der Ansicht enthält also eine Wahl der Blickrichtung und des darzustellenden Ausschnitts beziehungsweise der Größe des Ausschnitts und erfolgt insbesondere durch einen Benutzer der Überwachungsanlage. So ist beispielsweise auswählbar, ob das gesamte Bereichsmodell oder nur ein echter Teilabschnitt dessen, ggf. mit bestimmten Objekten, im virtuellen Kamerabild angezeigt werden soll.
  • Gemäß der Erfindung ergibt sich der Vorteil, dass losgelöst von verfügbaren realen Kameras und Kamerapositionen beziehungsweise realen Kamerabildern die Verfolgung des Objekts im Überwachungsbereich anhand der Verfolgung des Objektmodells im Bereichsmodell anhand insbesondere einer einzigen virtuellen Kamera beziehungsweise deren virtuellen Kamerabildes ermöglicht ist. Ein Umschalten zwischen verschiedenen realen Kameras oder Betrachten entsprechender realer Kamerabilder ist nicht mehr notwendig. Das Nachführen der virtuellen Kamera mit dem Objekt ist z.B. beliebig möglich.
  • In einer bevorzugten Ausführungsform enthält die Überwachungsanlage ein Texturmodul zur Aufbringung einer aktuellen Textur auf dem Objektmodell anhand mindestens eines der aktuellen Kamerabilder, das das reale Objekt abbildet.
  • Die aktuelle Textur auf dem Objektmodell verändert sich daher aktuell mit der Veränderung des aktuellen Kamerabildes. Das Objektmodell stellt damit ein sich entsprechend den realen Verhältnissen veränderndes und damit wirklichkeitsnahes Modell des realen Objekts dar. So können am tatsächlichen Objekt stattfindende Veränderungen am Objektmodell beziehungsweise dessen Textur erkannt werden. Beispielsweise kann so das von einer Kamera aufgenommene aktuelle Gesicht einer Person auf das die Person repräsentierende Objektmodell als Textur projiziert werden. Das Objektmodell entspricht somit bezüglich des Gesichts einem Live-Abbild der realen Person. Ist kein aktuelleres Kamerabild des Objekts vorhanden, wird insbesondere die bisherige Textur unverändert am Objektmodell beibehalten oder eine alternative Textur wird verwendet.
  • In einer bevorzugten Variante dieser Ausführungsform ist das Texturmodul ein solches zur perspektivisch korrekten Zuordnung der Textur zu der bzw. Aufbringung der Textur auf die Oberfläche des Objektmodells. Eine perspektivisch korrekte Zuordnung berücksichtigt zum Beispiel die Form des Objektmodells, die Ansicht der realen und/oder der virtuellen Kamera, die Form des realen Objekts und so weiter. Durch eine perspektivisch korrekte Zuordnung beziehungsweise Abbildung des real aufgenommenen Kamerabildinhaltes auf das Objektmodell entsteht ein perspektivisch korrektes virtuelles Kamerabild, das eine real existierende, von der realen Kamera aufgenommene Szene möglichst wirklichkeitsgetreu im Kamerabild der virtuellen Kamera abbildet.
  • In einer bevorzugten Ausführungsform enthält die Überwachungsanlage ein Filtermodul zum Auswählen der im virtuellen Kamerabild dargestellten Objektmodelle und/oder Anteile des Bereichsmodells nach einem Filterkriterium. Insbesondere bestehen hier zwei Möglichkeiten, nämlich erstens, die entsprechend dem Filterkriterium nicht darzustellenden Elemente aus dem Objektmodell beziehungsweise dem Bereichsmodell zu entfernen. Oder zweitens, die entsprechenden Elemente in den Modellen zu belassen und im Sichtmodul lediglich nicht darzustellen. Besteht zum Beispiel der Wunsch, nur ein ganz bestimmtes Objektmodell oder eine bestimmte Klasse von Objektmodellen oder bestimmte Anteile des Bereichsmodells im virtuellen Kamerabild darzustellen, z.B. da nur diese derzeit für einen Betrachter relevant sind, können restliche Objekte bzw. das restliche Bereichsmodell im virtuellen Kamerabild nicht dargestellt bzw. ausgeblendet werden, um den Betrachter nicht durch irrelevante Bildinhalte zu stören bzw. abzulenken. Auch kann so die Sicht auf bestimmte Bildinhalte verbessert werden, indem z.B. sich in Blickrichtung befindliche störende Gebäudewände nicht, z.B. transparent, oder teiltransparent dargestellt werden.
  • In einer bevorzugten Variante dieser Ausführungsform ist das Filterkriterium ein Filterkriterium für eine vorgebbare Klasse von Objekten und/oder für eine vorgebbare Bewegungsdynamik von Objekten im Überwachungsbereich. Anhand des Filterkriteriums ist es dann möglich, gruppenweise bzw. klassenweise zu entscheiden, ob Bildinhalte dargestellt werden oder nicht. Beispiele für vorgebbare Klassen von Objekten sind Personen generell, Personen eines bestimmten Alters, Gepäckstücke, Fahrzeuge allgemein, Fahrzeuge einer bestimmten Fahrzeugklasse wie Limousinen oder rote Fahrzeuge. Beispiele für vorgebbare Bewegungsdynamik sind zum Beispiel minimale oder maximale Verweilzeiten von Objekten an einem bestimmten Ort, das Auftreten von Objekten in bestimmten Bereichen des Überwachungsraums, die Bewegungsgeschwindigkeit von Objekten, und so weiter.
  • In einer bevorzugten Ausführungsform ist ein sichtverdeckendes Element des Bereichsmodells und/oder des Objektmodells im virtuellen Kamerabild zumindest teiltransparent dargestellt. Zumindest teiltransparent bedeutet teiltransparent oder ganz transparent. Mit einem entsprechenden Element ist ein Teil oder das gesamte Bereichsmodell oder ein Objektmodell oder ein Teil eines Objektmodells gemeint. So können sichtverdeckende Elemente im virtuellen Kamerabild weggelassen oder (teil-)transparent dargestellt werden, um die Sicht auf interessierende Bildinhalte zumindest teilweise freizugeben. Die Auswahl der Elemente und die Auswahl des Transparenzgrades sind insbesondere durch einen Benutzer der Überwachungsanlage wählbar.
  • In einer bevorzugten Ausführungsform entspricht die relative Größe des Objektmodells in Bezug auf das Bereichsmodell einer relativen Größe des realen Objekts relativ zum Überwachungsbereich oder ist eine frei wählbare Größe. Objektmodelle können nach der ersten Variante größenrealistisch, nämlich in ihrer proportional richtigen Größe, im Bereichsmodell dargestellt werden. Alternativ, z.B. der besseren Erkennbarkeit halber, können sie in einer frei wählbaren, insbesondere nicht maßstabsgetreuen Größe bezüglich des Bereichsmodells dargestellt werden. So können beispielsweise auch kleine Gepäckstücke deutlich sichtbar in Übergröße dargestellt werden, um deren Vorhandensein im Überwachungsbereich auffällig anzuzeigen bzw. zu überwachen.
  • In einer bevorzugten Ausführungsform ist zumindest eines der Objektmodelle oder ein Teil dessen oder ein Teil des Bereichsmodells im virtuellen Kamerabild mit Hilfe eines optischen Hervorhebungsmerkmals markiert. Interessierende beziehungsweise markierte Objekte sind so im virtuellen Kamerabild besonders gut zu erkennen. So können beispielsweise besonders interessierende Objekte im virtuellen Kamerabild künstlich eingefärbt werden, heller vor der Umgebung abgehoben werden, blinken oder leuchten oder durch ein sonstiges beliebiges optisches Hervorhebungsmerkmal markiert sein, wie zum Beispiel einen Pfeil auf das Objekt oder einen Kreis um das Objekt.
  • In einer bevorzugten Ausführungsform ist das Objektmodul ein solches zur Ermittlung der realen Position des Objekts im Überwachungsbereich anhand bekannter Dimensionsdaten, insbesondere anhand eines Plans des Überwachungsbereiches und anhand einer bekannten Position der Kamera relativ zum Überwachungsbereich. Unter einer Position ist hier eine Ortslage sowie eine Orientierung bzw. Ausrichtung im Raum zu verstehen. Im Falle der Kamera finden hierbei auch deren optische Parameter, wie zum Beispiel Brennweite, Erfassungswinkel, Größe eines Bildsensors usw. Berücksichtigung. Die Positionsbestimmung kann so rein bildbasiert anhand von entsprechenden Berechnungen durchgeführt werden, ohne zum Beispiel auf weitere Ortungs- beziehungsweise Messeinrichtungen zurückgreifen zu müssen.
  • In einer bevorzugten Ausführungsform ist das Objektmodell ein einfacher geometrischer Körper. Einfache geometrische Körper sind zum Beispiel geometrische Grundkörper wie Quader, Kugeln, Kegel und so weiter. Einfache geometrische Körper können auch einfache Kombinationen derartiger Grundkörper sein, zum Beispiel könnte ein Quader mit Kugel Körper und Kopf einer Person darstellen, ein Quader zusammen mit einem Trapezoid einen Personenkraftwagen darstellen, ein Quader einen Koffer darstellen, ein Würfel ein Kleintier darstellen, und so weiter. Derartige Körper sind besonders einfach als Modelle zu handhaben und erzeugen im Rahmen der Erfindung nur vergleichbar geringen Rechenaufwand hinsichtlich der Einfügung und Bewegung im Bereichsmodell. Wünschenswert ist eine möglichst hohe Ähnlichkeit zwischen der Form des realen Objekts und des geometrischen Körpers, aber aus Rechenkapazitätsgründen sind auch einfachere Objektformen wählbar bzw. denkbar.
  • In einer bevorzugten Ausführungsform ist das Sichtmodul dazu ausgebildet, die Ansicht automatisch derart zu wählen, dass diese einem bestimmten Objektmodell stets automatisch nachgeführt ist. Die Ansicht ist also – insbesondere anhand einer automatischen Objekterkennung – an das bestimmte Objektmodell gekoppelt. So ist die Ansicht an das Objekt im Rahmen einer automatisierten Objektverfolgung bzw. Nachführung geknüpft. So ergibt sich die Möglichkeit, die Führung der virtuellen Kamera zu automatisieren, indem sie an ein bestimmtes Objekt bzw. Objektmodell geheftet wird. Das Objekt wird insbesondere vom Operateur ausgewählt bzw. markiert. Dadurch kann die Verfolgung eines bestimmten Objektes noch weiter vereinfacht werden.
  • Die Erfindung, auch in Kombination mit einer oder mehreren der oben genannten bevorzugten Ausführungsformen und gegebenenfalls auch unter Hinzunahme bisher nicht erwähnter Ausführungsformen wird wie folgt zusammengefasst:
    Die Erfindung beruht unter anderem auf der Erkenntnis, dass mit zunehmender Anzahl der Überwachungskameras es für Sicherheitspersonal in einem Kontrollraum immer schwieriger wird, den erforderlichen Überblick über den Ort und die Orientierung der gezeigten Kamerabilder im Gesamtkontext zu behalten. Das nötige räumliche mentale Modell zur Interpretation eines Zielobjekts bezüglich Ort und Bewegungsrichtung muss aufwendig erlernt werden und kann fehleranfällig sein. Bei Verfolgung eines Objekts über die Erfassungsbereiche mehrerer Kameras hinweg ist es zudem schwierig, die richtige Kamera über das Umschaltsystem auszuwählen und dort das Zielobjekt zu identifizieren. Darüber hinaus können bei der Darstellung einzelner Kamerabilder Orientierungsschwierigkeiten bei der Verfolgung mehrerer unabhängiger Zielobjekte in einem Gebäude auftreten.
  • Gemäß der Erfindung wird die durch die Vielzahl unterschiedlicher Kameraansichten bedingte Problematik von Objektlokalisierung und -verfolgung behoben.
  • Kern der Erfindung ist die Integration einzelner Videobildansichten in eine Gesamtdarstellung des zu überwachenden Gebäudes. Dabei kann der menschliche Operator am Arbeitsplatz eine beliebige virtuelle Perspektive auf das Gebäude von außen oder von innen wählen. Er ist bei der Verfolgung eines Objekts über mehrere Kameras hinweg nicht mehr an die Perspektive der installierten Kameras gebunden, sondern kann selbst den optimalen Betrachtungswinkel oder den Vergrößerungsmaßstab wählen. So könnte er z.B. eine Person durch das ganze Gebäude aus einer einzigen übergeordneten Perspektive verfolgen ohne dabei zwischen einzelnen Kameraansichten wechseln zu müssen. Bei Bedarf können durch kontinuierliche Anpassung der virtuellen Kameraposition beliebige Bereiche des überwachten Gebäudes unter Wahrung des Gesamtkontextes dargestellt werden. Wesentlich dabei ist, dass zur Darstellung der zu überwachenden Objekte stets die zur Verfügung stehende Videobildinformation verwendet wird und damit einzelne Personen in gleichem Maße identifizierbar sind. Sichtverdeckende Elemente wie Wände oder Decken können nach Bedarf zur besseren Übersicht (teil)transparent dargestellt werden.
  • Die Überführung der Live-Kamerabilder von Objekten (aus mehreren Perspektiven) in ein Objektmodell (bzw. 3D-Modell, hier stellvertretend für alle Arten von Objektmodellen) kann nach folgenden Schritten erfolgen:
    • – Aufbau eines 3D-Modells für alle relevanten Objekte (Personen, Fahrzeuge) und deren Verortung im Gebäude unter Zuhilfenahme von Gebäudeplan und bekannten Kamerapositionen – 3D-Punktwolke – Oberflächengenerierung für 3D-Objekte oder Repräsentation einzelner Objekte durch standardisierte geometrische Formen (z. B. Zylinder)
    • – Perspektivisch korrekte Zuordnung von Originaltexturen des Objekts aus Videobild zur Oberfläche des 3D-Modells
    • – Filtermöglichkeit der Anzeigeinhalte durch Operator: z.B. – Auswahl bestimmter Objektklassen (z.B. Menschen, Fahrzeuge) – Filterung nach Bewegungsdynamik über die Zeit (z.B. alle heute in das Gebäude eingebrachten Objekte (z.B. Koffer in Flughäfen), die seit mehr als x Minuten nicht bewegt wurden) – Statische, bekannte Objekte (Wände, Möblierung, usw.) können (teil-)transparent dargestellt werden
    • – Anzeige der resultierenden Inhalte des 3D-Modells aus Sicht einer frei steuerbaren virtuellen Kamera auf hochauflösendem Bildschirm wie z.B. einer großformatigen ultrahochauflösenden Anzeige, die z.B. durch Aneinanderreihung mehrerer hochauflösender Bildschirme oder der Projektionsbilder mehrerer Projektoren entsteht („Powerwall" (in 2D/3D)).
  • Da die Modellerstellung in Echtzeit sehr rechenintensiv ist, können Verfahren zur Effizienzsteigerung z.B. durch Fokussierung auf veränderte Bildinhalte verwendet werden.
  • Es besteht zudem die Möglichkeit, Objekte mit Zusatzinformationen zu versehen:
    • – durch Einbindung zusätzlicher Informationsquellen. Beispiel: Identifikation von Zielobjekten und Verknüpfung mit einer Datenbank, die weitere personenspezifische Informationen zur Verfügung stellt (z. B. Name, Häufigkeit der Erfassung oder Zeitpunkt der letzten Identifizierung).
    • – durch Analyse der zeitlichen Dynamik eines spezifischen Objekts, z.B. – nach Verweildauer abgestellter Objekte in Flughäfen – nach der bereits zurückgelegten Trajektorie eines Objekts
    • – Operateur kann spezifische Objekte markieren und dadurch noch leichter in der virtuellen Gebäudeansicht verfolgen
    • – die virtuelle Kamera kann an ein Objekt geknüpft werden, so dass dieses automatisiert verfolgt wird (automatisierte Objektverfolgung).
  • Es besteht auch die Möglichkeit, Videoinformationen zur spezifischen Analyse abstrahiert darzustellen. So könnten z.B. für eine Überblicksdarstellung Objekte nicht über die Videoinformation, sondern auch als Symbole in einem Gebäudemodell verortet werden.
  • Die Erfindung eignet sich insbesondere zum Einsatz in
    • – Flughäfen
    • – Industriegebäuden
    • – Kaufhäusern
    • – Parkhäusern (Überwachung, auch für vollautomatisiertes Parken)
    • – Verkehrsüberwachungszentren (vor allem wenn bei Standardüberwachung aus übergeordneter Perspektive Verdeckung ein Problem ist)
    • – Rangierbahnhöfen
  • Weitere Merkmale, Wirkungen und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels der Erfindung sowie den beigefügten Figuren. Dabei zeigen in einer schematischen Prinzipskizze:
  • 1 einen Überwachungsbereich mit Überwachungsanlage,
  • 2 ein Bereichsmodell mit Objektmodell,
  • 3 den Inhalt der 2 bei veränderter Position der virtuellen Kamera.
  • 1 zeigt eine Überwachungsanlage 2 zur Überwachung von Objekten 4a, b in einem Überwachungsbereich 6. Die Überwachungsanlage 2 enthält eine Mehrzahl von Kameras 8, von denen in 1 exemplarisch drei dargestellt sind. Die Kameras 8 nehmen jeweilige Kamerabilder 10 von jeweiligen nicht näher dargestellten Abschnitten des Überwachungsbereiches 6 auf. Die Überwachungsanlage 2 enthält außerdem ein virtuelles Bereichsmodell 12 des Überwachungsbereiches 6. Die Objekte 4a, b bewegen sich im Überwachungsbereich 6, weshalb deren aktuelle reale Position Pa, b im Überwachungsbereich 6 veränderlich ist. Die Überwachungsanlage 2 enthält außerdem zu jedem der Objekte 4a, b ein virtuelles Objektmodell 14a, b, welches im beziehungsweise relativ zum Bereichsmodell 12 bewegbar ist.
  • Die Überwachungsanlage 2 enthält ein Objektmodul 16. Dieses ermittelt die jeweils aktuelle reale Position Pa, b der Objekte 4a, b und platziert die jeweiligen Objektmodelle 14a, b ortsrichtig an einer aktuellen virtuellen Position Va, b im Bereichsmodell 12 anhand der realen Positionen Pa, b. Das Bereichsmodell 12 zusammen mit den Objektmodellen 14a, b spiegelt also die realen Positionsverhältnisse der Objekte 4a, b im Überwachungsbereich 6 wieder.
  • Das Objektmodul 16 enthält bekannte Dimensionsdaten 32 des Überwachungsbereiches 6, hier einen Plan des Überwachungsbereiches 6 und die realen Positionen K der Kameras 8 relativ zum Überwachungsbereich 6 einschließlich deren Abbildungseigenschaften. Anhand dieser Informationen ermittelt das Objektmodul 16 die realen Positionen Pa, b der Objekte 4a, b im Überwachungsbereich 6.
  • Die Überwachungsanlage 2 enthält außerdem ein Sichtmodul 18. Dieses erzeugt ein virtuelles Kamerabild 20 des Bereichsmodells 12 zusammen mit den Objektmodellen 14a, b gemäß einer wählbaren Ansicht 22, die in 1 gestrichelt angedeutet ist. Die Ansicht 22 ist hier so gewählt, dass nur ein Ausschnitt des Bereichsmodells 12 und nur das Objektmodell 14a dargestellt ist.
  • Die Überwachungsanlage 2 enthält außerdem ein Texturmodul 24 zur Aufbringung einer aktuellen Textur 26 auf dem Objektmodell 14a, b anhand mindestens eines der aktuellen Kamerabilder 10, das das reale Objekt 4a, b abbildet. Das Texturmodul 24 ordnet hierbei eine im aktuellen Kamerabild 10 erfasste aktuelle Textur 26 des Objekts 4a, b der Oberfläche des Objektmodells 14a, b perspektivisch korrekt zu.
  • Die Überwachungsanlage 2 enthält außerdem ein Filtermodul 28 zum Auswählen der im virtuellen Kamerabild 20 dargestellten Objektmodelle 14a, b beziehungsweise Anteile des Bereichsmodells 12 nach einem Filterkriterium 30. Im Beispiel beschreibt das Filterkriterium 30 die Objektklasse „Personen“. Da das Objekt 4a eine Person ist, wird auch deren Objektmodell 14a im virtuellen Kamerabild 20 dargestellt.
  • Die Überwachungsanlage 2 enthält außerdem eine Schnittstelle 31, vermittels der ein nicht dargestellter Benutzer Parameter in der Überwachungsanlage, z.B. Filterkriterien 30 oder die Ansicht 20, verändern kann. Die Schnittstelle 31 bildet daher eine Mensch-Maschine-Schnittstelle (Human-Machine-Interface (HMI)). Insbesondere erfolgt über die Schnittstelle 31 eine Steuerung der Datenmanipulation und der virtuellen Kameraposition und -ausrichtung.
  • 2 zeigt für einen alternativen Überwachungsbereich 6 – hier ein Gebäude mit insgesamt drei Etagen – ein virtuelles Kamerabild 20, das das vollständige Bereichsmodell 12 wiedergibt. Ein Objektmodell 14a ist hier durch ein optisches Hervorhebungsmerkmal 34, im Beispiel rote Farbe, markiert. Das Objektmodell 14a ist eine realitätsgetreue Darstellung einer Person mit Rucksack, welche sich durch das Gebäude bewegt. Als Filterkriterium 30 ist im Fall von 2 eine vorgebbare Bewegungsdynamik für Objekte gewählt, nämlich „Objekte, welche sich im obersten Stockwerk des Gebäudes bewegen“. Reale Personen in Form von weiteren Objekten 4, welche sich im realen Überwachungsbereich 6 auf den unteren beiden Stockwerken bewegen, sind im virtuellen Kamerabild 20 nicht dargestellt, da diese das Filterkriterium 30 nicht erfüllen.
  • In 2 ist das Objektmodell 14a deutlich größer dargestellt als es gemäß Umgebungsmodell sein müsste. Alternativ kann es auch in einer Größe dargestellt werden, welche der realen Relativgröße des realen Objekts zum realen Überwachungsbereich entspricht. Das Objektmodell 14a ist dann also größenrichtig im Verhältnis zu den Dimensionen des Bereichsmodells 12 dargestellt.
  • In 2 sind außerdem sichtverdeckende Elemente 36 des Bereichsmodells 12, welche die Sicht im virtuellen Kamerabild 20 auf das Objektmodell 14a verdecken würden, transparent dargestellt. Die Elemente 36 sind die in 2 "vorderen" Seitenwände sowie die Decke des obersten Stockwerks. Diese sind in der Figur gestrichelt angedeutet, da sie teiltransparent dargestellt sind.
  • 3 zeigt dieselbe Situation wie 2, jedoch mit einer veränderten Ansicht 22 (in 3 durch einen Rotationspfeil angedeutet). Die Blickrichtung der Ansicht 22 von 3 ist in 2 durch einen Blickrichtungspfeil angedeutet. Die Veränderung der Ansicht 22 gegenüber 2 geschieht rein virtuell auf Basis derselben Kamerabilder 10 und desselben Bereichsmodells 12 mit Objektmodellen 14a, b, lediglich durch veränderte Berechnungen im Sichtmodul 18 zur virtuellen Darstellung der Sachverhalte. Durch die veränderte Ansicht 22 ist nun das Gesicht der Person in Form des Objektmodells 14a erkennbar, wobei das Gesicht als aktuelle Textur 38 anhand eines aktuellen Kamerabildes 10 der Person live nachgeführt beziehungsweise dargestellt wird.
  • Um auch gemäß 3 freie Sicht auf das Objektmodell 14a zu haben, sind hier andere sichtverdeckende Elemente 36 des Bereichsmodells 12, welche die Sicht im virtuellen Kamerabild 20 auf das Objektmodell 14a verdecken würden, transparent dargestellt. Die Elemente 36 sind die in 3 "vorderen" Seitenwände sowie die Decke des obersten Stockwerks. Diese sind in der Figur gestrichelt angedeutet, da sie teiltransparent dargestellt sind.
  • Die 2 und 3 veranschaulichen skizzenhaft das Grundprinzip der Erfindung, nämlich die Integration eines per Kamera 8, hier einer Videokamera, erfassten realen Objekts 4a, hier einer realen Person, als virtuelles Objektmodell 14a in ein Bereichsmodell 12, hier ein 3D-Gebäudemodell. Das zugrundeliegende Gebäude ist der Überwachungsbereich 6. Zur Identifikation der Person durch einen nicht dargestellten Operator, der das virtuelle Kamerabild 20 betrachtet, lässt sich die Betrachtungsperspektive in Form der Ansicht 22 in Echtzeit derart verändern, dass zum Beispiel das in 2 nicht sichtbare Gesicht der Person durch Drehung der Gesamtszene (Wechsel zwischen den Ansichten 2 und 3) in 3 zu erkennen ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102012205130 A1 [0003]

Claims (11)

  1. Überwachungsanlage (2) zur Überwachung eines Objekts (4a, b) in einem Überwachungsbereich (6), – mit mindestens einer Kamera (8) zur Aufnahme eines jeweiligen aktuellen Kamerabildes (10) zumindest eines Abschnitts des Überwachungsbereiches (6), – mit einem virtuellen Bereichsmodell (12) des Überwachungsbereiches (6), dadurch gekennzeichnet, dass eine aktuelle reale Position (Pa, b) des Objekts (4a, b) im Überwachungsbereich (6) veränderlich ist und die Überwachungsanlage (2) enthält: – zu jedem Objekt (4a, b) ein jeweiliges virtuelles, relativ zum Bereichsmodell (12) bewegbares, dem jeweiligen Objekt (4a, b) zugeordnetes Objektmodell (14a, b), – ein Objektmodul (16) zur Ermittlung der aktuellen realen Position (Pa, b) des Objekts (4a, b) und zur ortsrichtigen Platzierung des Objektmodells (14a, b) an einer aktuellen virtuellen Position (Va, b) im Bereichsmodell (12) anhand der realen Position (Pa, b), – ein Sichtmodul (18) zur Erzeugung eines virtuellen Kamerabildes (20) des Bereichsmodells (12) zusammen mit den Objektmodellen (14a, b) gemäß einer wählbaren Ansicht (22).
  2. Überwachungsanlage (2) nach Anspruch 1, dadurch gekennzeichnet, dass die Überwachungsanlage (2) enthält: – ein Texturmodul (24) zur Aufbringung einer aktuellen Textur (26) auf dem Objektmodell (14a, b) anhand mindestens eines der aktuellen Kamerabilder (10), das das reale Objekt (4a, b) abbildet.
  3. Überwachungsanlage (2) nach Anspruch 2, dadurch gekennzeichnet, dass das Texturmodul (24) ein solches zur perspektivisch korrekten Zuordnung der aktuellen Textur (26) zu der Oberfläche des Objektmodells (14a, b) ist.
  4. Überwachungsanlage (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Überwachungsanlage (2) enthält: ein Filtermodul (28) zum Auswählen der im virtuellen Kamerabild (20) dargestellten Objektmodelle (14a, b) und/oder Anteile des Bereichsmodells (12) nach einem Filterkriterium(30).
  5. Überwachungsanlage (2) nach Anspruch 4, dadurch gekennzeichnet, dass das Filterkriterium (30) ein Filterkriterium (30) für eine vorgebbare Klasse von Objekten (4a, b) und/oder für eine vorgebbare Bewegungsdynamik von Objekten (4a, b) im Überwachungsbereich (6) ist.
  6. Überwachungsanlage (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein sichtverdeckendes Element (36) des Bereichsmodells (12) und/oder des Objektmodells (14a, b) im virtuellen Kamerabild (20) zumindest teiltransparent dargestellt ist.
  7. Überwachungsanlage (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die relative Größe des Objektmodells (14a, b) zum Bereichsmodell (12) einer relativen Größe des realen Objekts (4a, b) zum Überwachungsbereich (6) entspricht oder eine frei wählbare Größe ist.
  8. Überwachungsanlage (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zumindest eines der Objektmodelle (14a, b) oder ein Teil dessen oder ein Teil des Bereichsmodells (12) im virtuellen Kamerabild (20) mit Hilfe eines optischen Hervorhebungsmerkmals (34) markiert ist.
  9. Überwachungsanlage (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Objektmodul (16) ein solches zur Ermittlung der realen Position (Pa, b) des Objekts (4a, b) im Überwachungsbereich (12) anhand bekannter Dimensionsdaten (32), insbesondere anhand eines Plans des Überwachungsbereiches (6) und anhand einer bekannten Position (K) der Kamera (8) relativ zum Überwachungsbereich (6), ist.
  10. Überwachungsanlage (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Objektmodell (14a, b) ein einfacher geometrischer Körper ist.
  11. Überwachungsanlage (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Sichtmodul (18) dazu ausgebildet ist, die Ansicht (22) automatisch derart zu wählen, dass diese einem bestimmten Objektmodell (14a, b) stets automatisch nachgeführt ist.
DE102015226749.0A 2015-12-28 2015-12-28 Überwachungsanlage Pending DE102015226749A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015226749.0A DE102015226749A1 (de) 2015-12-28 2015-12-28 Überwachungsanlage

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015226749.0A DE102015226749A1 (de) 2015-12-28 2015-12-28 Überwachungsanlage

Publications (1)

Publication Number Publication Date
DE102015226749A1 true DE102015226749A1 (de) 2017-06-29

Family

ID=59010433

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015226749.0A Pending DE102015226749A1 (de) 2015-12-28 2015-12-28 Überwachungsanlage

Country Status (1)

Country Link
DE (1) DE102015226749A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117527992A (zh) * 2023-11-06 2024-02-06 中影电影数字制作基地有限公司 一种空间模拟拍摄的摄影机校正方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012205130A1 (de) 2012-03-29 2013-10-02 Robert Bosch Gmbh Verfahren zum automatischen Betreiben einer Überwachungsanlage

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012205130A1 (de) 2012-03-29 2013-10-02 Robert Bosch Gmbh Verfahren zum automatischen Betreiben einer Überwachungsanlage

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117527992A (zh) * 2023-11-06 2024-02-06 中影电影数字制作基地有限公司 一种空间模拟拍摄的摄影机校正方法及系统

Similar Documents

Publication Publication Date Title
DE69226512T2 (de) Verfahren zur Bildverarbeitung
EP2553660B1 (de) Verfahren zur visualisierung von aktivitätsschwerpunkten in überwachungsszenen
DE102010042026B4 (de) Verfahren zum Erzeugen eines Abbildes mindestens eines Objekts in einer Umgebung eines Fahrzeugs
DE102017208806B3 (de) Externe Darstellung von Bildaufnahmen eines Fahrzeuginnenraums in einer VR-Brille
DE102015217226A1 (de) Vorrichtung und verfahren zur erzeugung eines modells von einem objekt mit überlagerungsbilddaten in einer virtuellen umgebung
EP3347878A2 (de) Verfahren und vorrichtung zum überlagern eines abbilds einer realen szenerie mit einem virtuellen bild und mobiles gerät
DE102013016241A1 (de) Verfahren und Vorrichtung zur augmentierten Darstellung
EP2813999A2 (de) Augmented-Reality-System und Verfahren zum Erzeugen und Anzeigen von Augmented-Reality-Objektdarstellungen für ein Fahrzeug
EP2831839B1 (de) Verfahren zum automatischen betreiben einer überwachungsanlage
DE102007041333B4 (de) Berührungslos arbeitendes Zählsystem
DE102015226749A1 (de) Überwachungsanlage
EP2940624B1 (de) Dreidimensionales virtuelles Modell einer Umgebung für Anwendungen zur Positionsbestimmung
DE102012010799B4 (de) Verfahren zur räumlichen Visualisierung von virtuellen Objekten
DE112012003630B4 (de) Verfahren, anordnung und fahrassistenzsystem zur ermittlung der räumlichen verteilung von objekten relativ zu einem fahrzeug
DE102015112411A1 (de) System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
EP3571091B1 (de) Verfahren und vorrichtung zum darstellen einer umgebung eines fahrzeuges
DE102012100848B4 (de) System und Verfahren zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
EP3446289A1 (de) Verfahren und system zur darstellung einer simulationsumgebung
DE102022201316B3 (de) Markierung und Verfahren zur Positionsbestimmung sowie zugehöriges Kamerasystem
DE102007056835A1 (de) Bildverarbeitunsmodul zur Schätzung einer Objektposition eines Überwachungsobjekts, Verfahren zur Bestimmung einer Objektposition eines Überwachungsobjekts sowie Computerprogramm
DE102020127797B4 (de) Sensorverfahren zum optischen Erfassen von Nutzungsobjekten zur Detektion eines Sicherheitsabstandes zwischen Objekten
DE10136649B4 (de) Verfahren und Vorrichtung zur Objekterkennung von sich bewegenden Kraftfahrzeugen
DE102008014381B4 (de) Bildverarbeitungsvorrichtung
WO2017092734A2 (de) Verfahren zur darstellung einer simulationsumgebung
DE102015201642A1 (de) Vorrichtung und Verfahren zur Darstellung einer Umgebung eines Fahrzeuges

Legal Events

Date Code Title Description
R012 Request for examination validly filed