WO2005057929A2 - 3d-kamerasteuerung - Google Patents

3d-kamerasteuerung Download PDF

Info

Publication number
WO2005057929A2
WO2005057929A2 PCT/EP2004/053128 EP2004053128W WO2005057929A2 WO 2005057929 A2 WO2005057929 A2 WO 2005057929A2 EP 2004053128 W EP2004053128 W EP 2004053128W WO 2005057929 A2 WO2005057929 A2 WO 2005057929A2
Authority
WO
WIPO (PCT)
Prior art keywords
model
environment
user
detection device
control
Prior art date
Application number
PCT/EP2004/053128
Other languages
English (en)
French (fr)
Other versions
WO2005057929A3 (de
Inventor
Soeren Moritz
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to EP04820069A priority Critical patent/EP1692870A2/de
Publication of WO2005057929A2 publication Critical patent/WO2005057929A2/de
Publication of WO2005057929A3 publication Critical patent/WO2005057929A3/de

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19689Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19695Arrangements wherein non-video detectors start video recording or forwarding but do not generate an alarm themselves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Definitions

  • the invention relates to a system and a method for the visual representation of environmental information on the basis of a model
  • Video cameras are increasingly being used to monitor locations (buildings, plants and processes). In video surveillance systems, several cameras are usually used, which cover both different and overlapping viewing areas of the location. The control and selection of the visible area to be displayed is usually done from a central point.
  • the selection is made by a user of the system who selects the camera to be used and - as far as the camera orientation can be influenced - controls the correct orientation.
  • This process can take a lot of time, especially in environments with winding buildings or system parts, because it is not obvious to the user which camera allows a clear view of the part of the building to be viewed (e.g. fire in building 2 room 234).
  • the choice of the camera image to be displayed is now the responsibility of the user. He has to decide which camera has to be used and controlled in order to display a certain area on a visual monitor. Newer systems support him in a purely informative way with the geometric representations (2D / 3D) of the location to be monitored (building, System, process) including the installation locations of the cameras.
  • the geometric representation is also used, among other things, to enable the user to select the camera currently to be used (display and control).
  • the object of the present invention is to specify a system and a method by means of which the selection or control of a detection device, in particular a camera, takes place automatically.
  • the object is achieved by a system for, in particular, visual representation of environmental information, with at least one recording device for recording the environmental information, at least one playback device for reproducing recorded environmental information, at least one model of the environment and a control device for selecting and / or controlling the at least one Detection device based on the model of the environment.
  • the object is further achieved by a method for in particular visual representation of environmental information, in which the environmental information is recorded, the recorded environmental information is reproduced, the environment is mapped in a model and at least one recording device is selected and / or controlled on the basis of the model of the environment becomes.
  • the invention is based on the finding that the selection of information for a user of a large-scale system is relatively difficult. For example, when selecting cameras for building surveillance or when selecting any other detection units that are arranged over a large space or simply in a confusing way. Any form of sensor is conceivable here, which records information and can thereby be aligned in order to record values from a specific direction. The use of such a system is possible both in the area of process sensors, for example flow sensors, and even to adjust the alignment of telescopes for observing space. Such control of infrared cameras would also be advantageous.
  • the user of a video surveillance system is freed from the selection of the camera and its control by using a 3D model of the location to be monitored together with information about the video cameras used (installation location, orientation, optical characteristics). By specifying an area to be viewed, the system determines for the user which camera must be used for this and how this camera is to be controlled with regard to its orientation and focal length.
  • an area to be viewed or monitored can be selected by the user with the aid of a 3D model.
  • the system selects a video camera for the user that is capable of displaying this area.
  • the system also relieves the user in that the system controls the alignment and zoom.
  • the display of the desired area is reduced to fractions of a second.
  • the system can also include a moving camera and, despite the dynamic movement, ensures that the image remains fixed on the area to be viewed.
  • a further advantageous embodiment of the invention is characterized in that the system can be expanded in such a way that cameras mounted on moving parts (for example on a crane platform) can also be included in the calculation.
  • the camera control with a Control system coupled, which detects the current position of the moving part and reports it to the camera control.
  • the camera control can use this information to derive the transformation in order to calculate the current location and orientation information of the camera. Based on this information, the calculation can then be carried out as described below. If the new calculation is carried out continuously, a dynamic system is obtained which, taking into account the visibility areas and the movement of the cameras, always selects the optimal camera and controls it so that the selected visibility area is always kept in the focus of the camera or cameras.
  • the figure represents the location or environment 1 to be monitored in real terms (for example building, system, process), in which information is recorded by means of the detection means 2.
  • the detection means 2 in particular the cameras 2a, 2b and 2c, are used in the exemplary embodiment for video surveillance of the location or the environment 1.
  • the cameras are mounted at a fixed location (x, y, z) and can be controlled optionally (rotation around the x, y, z axis and focal length).
  • the number of Cameras can be of any size.
  • any other detection means can also be selected with the aid of the system according to the invention and their orientation or their movement in space can be controlled.
  • the processing device for processing the recorded information is designed as a video system 3, which on the one hand transmits the video signals of the currently selected camera to a playback device 7b, in particular a monitor, and on the other hand the control data of the control device 5, in particular the camera control Detection devices 2 or cameras.
  • the coupling between video system and cameras, between video system and camera control, and between video system and playback device 7b can be different (e.g. via Ethernet, WLAN, star wiring, etc.).
  • a computer system 4 contains, for example, the component control device 5 and a data memory with the 3D model 6 of the environment 1.
  • the control device 5, in particular the camera control calculates with the aid of the 3D model 6 of the location or the environment 1 and the detection devices 2 and / or Cameras and the user selection of an area to be viewed, the camera 2x to be used and implements their control via the video system or the processing device 3.
  • a data memory on the computer system 4 contains a 3D model 6 of the location or the environment 1 including the necessary information about the cameras 2 (installation location, orientation, optical characteristic data, state).
  • the model description is advantageously as pronounced as described in the VRML 97 ISO standard (3D surface model).
  • a straight line is now formed on the basis of V a and intersected with all surfaces F L of the 3D model 6. If one of these intersections lies between the installation location of the camera and the area P 3D to be viewed, the area connected to the intersection obscures the view of the area to be viewed (exception: area was marked as transparent). In this case, the camera cannot be used and the next camera from the list K L must be viewed. 3. If there is no obstruction of the field of view, check whether the camera orientation can be set according to the specifications of the vector V a . If the camera Ki does not allow this orientation to be set, it cannot be used and the next camera from the list K L must be viewed.
  • the point P 3D does not have to be in the center of the field of view of the camera. It is sufficient if the point P 3D is in the maximum field of view of the camera (minimum focal length).
  • the field of vision is described by a cone, the tip of which lies in P i. This cone is aligned in such a way that the vector that describes the camera orientation and the vector V a form a minimal angle to one another. The restrictions of the camera Ki with regard to its orientation are taken into account.
  • the cone is then cut with the surface on which the point P 3D lies. If P 3D is then within the resulting cut surface, P 3D can be displayed by the camera.
  • the camera K A can display the area to be viewed.
  • the camera K ⁇ is now included in the list of cameras K s that can be used.
  • the values for aligning the camera and, if applicable, values for the zoom to be set are also stored.
  • the setting of the zoom can be derived from the distance of the camera to the viewing point P 3D and a criterion specified by the user for the visibility range (eg display a 10 meter wide field of view), taking into account that P 3D is still in the viewing range of the camera (see Step 3) .
  • the user is informed that no camera can display the area to be viewed. If there is only one camera in the list K s , this is reported as active to the video system and the control of alignment and Zoom is made. If there are several cameras in the list K s , then either the first camera in the list is automatically selected as active or the user is enabled to select a camera as an active camera from the list of cameras that can be used. The camera to be set as active is reported to the video system and the alignment and zoom are controlled.
  • P 2D 2-dimensional point on the display system (7a) P D 3-dimensional point in the 3D model (6), which describes the area to be considered F List of all surfaces that completely describe / represent the 3D model (6)
  • V a vector which describes the straight line and the distance between the point P 3D to be considered and the location PKi of the camera.
  • the invention relates to a system and a method for automatically activating and aligning detection devices 2 of environmental information, in particular cameras, based on a model 6 of the environment 1.
  • a user 9 can use a pointing device 8 on a selection device 8 to select the desired section of the environment 1 to be displayed specify.
  • a control device 5 controls the detection means 2 accordingly and aligns them.
  • the recorded data can be displayed on a display 7b.

Abstract

Die Erfindung betrifft ein System und ein Verfahren zur automatischen Ansteuerung und Ausrichtung von Erfassungsvorrichtungen (2) von Umgebungsinformationen, insbesondere Kameras, auf Basis eines Modells (6) der Umgebung (1). Ein Anwender (9) kann mithilfe eines Zeigegeräts an einer Auswahlvorrichtung (8) den gewünschten darzustellenden Ausschnitt der Umgebung (1) angeben. Eine Steuerungsvorrichtung (5) steuert die Erfassungsmittel (2) entsprechend an und richtet sie aus. Die erfassten Daten können auf einer Anzeige (7b) wiedergegeben werden.

Description

Beschreibung
3D-Kamerasteuerung
Die Erfindung betrifft ein System und ein Verfahren zur visuellen Darstellung von Umgebungsinformationen auf Basis eines Modells
Verstärkt werden Videokameras zur Überwachung von Orten (Ge- bäuden, Anlagen und Prozessen) eingesetzt. Bei Videoüberwachungsanlagen kommen meist mehrere Kameras zum Einsatz, die sowohl unterschiedliche, als auch sich überschneidende Sichtbereiche des Ortes abdecken. Die Ansteuerung und die Auswahl des anzuzeigenden Sichtbereiches erfolgt dabei meist von ei- ner zentralen Stelle aus.
Die Auswahl erfolgt heutzutage durch einen Benutzer des Systems, der die zu verwendende Kamera auswählt und - soweit die Kameraausrichtung beeinflussbar ist - die richtige Ausrich- tung ansteuert. Gerade in Umgebungen mit verwinkelten Gebäuden oder Anlagenteilen kann dieser Vorgang viel Zeit in Anspruch nehmen, weil für den Anwender nicht offensichtlich ist, welche Kamera einen freien Blick auf den zu betrachtenden Gebäudeteil gewährt (z.B. Feuer im Bau 2 Raum 234).
Die Auswahl des anzuzeigenden Kamerabildes obliegt heutzutage der Verantwortung des Anwenders. Er muss entscheiden, welche Kamera eingesetzt und angesteuert werden muss, um einen bestimmten Bereich auf einem Sichtmonitor zur Anzeige zu brin- gen. Neuere Systeme unterstützen ihn dabei rein informativ, durch die geometrischen Darstellungen (2D / 3D) des zu überwachenden Ortes (Gebäude, Anlage, Prozess) inklusive der Aufstellorte der Kameras. Die geometrische Darstellung wird unter anderem auch dazu genutzt, dem Anwender die Auswahl der aktuell zu verwendenden Kamera (Anzeige und Steuerung) zu ermöglichen. Die Aufgabe der vorliegen Erfindung ist, ein System und ein Verfahren anzugeben, mithilfe dessen die eine Auswahl bzw. Ansteuerung einer Erfassungsvorrichtung, insbesondere einer Kamera, automatisch erfolgt.
Die Aufgabe wird gelöst durch System zur insbesondere visuellen Darstellung von Umgebungsinformationen, mit mindestens einer Erfassungsvorrichtung zur Erfassung der UmgebungsInformationen, mindestens einer Wiedergabevorrichtung zur Wieder- gäbe von erfassten Umgebungsinformationen, mindestens einem Modell der Umgebung und einer Steuerungsvorrichtung zur Auswahl und/oder Steuerung der mindestens einen Erfassungsvorrichtung auf Basis des Modells der Umgebung.
Die Aufgabe wird weiterhin gelöst durch ein Verfahren zur insbesondere visuellen Darstellung von Umgebungsinformationen, bei dem die Umgebungsinformationen erfasst werden, die erfassten Umgebungsinformationen wiedergegeben werden, die Umgebung in einem Modell abgebildet wird und mindestens eine Erfassungsvorrichtung auf Basis des Modells der Umgebung ausgewählt und/oder gesteuert wird.
Der Erfindung liegt die Erkenntnis zugrunde, dass bei der Erfassung von Informationen für einen Anwender eines großräumi- gen Systems die Auswahl relativ schwierig ist. Beispielsweise bei der Auswahl von Kameras für die Gebäudeüberwachung oder auch bei der Auswahl beliebiger anderer Erfassungseinheiten, die über einen großen Raum oder einfach nur in unübersichtlicher Weise angeordnet sind. Denkbar ist hier jede Form von Sensoren, die Informationen erfassen und dabei ausgerichtet werden können, um Werte aus einer bestimmten Richtung zu erfassen. Der Einsatz eines derartigen Systems ist sowohl im Umfeld von Prozesssensoren, beispielsweise Strömungssensoren als auch bis hin zur Einstellung der Ausrichtung von Telesko- pen für die Beobachtung des Weltraumes hin möglich. Eine derartige Steuerung auch von Infrarotkameras wäre ebenso vorteilhaft . Der Anwender beispielsweise einer Videoüberwachungsanlage wird von der Auswahl der Kamera und ihrer Ansteuerung befreit, indem ein 3D Modell des zu überwachenden Ortes zusammen mit Informationen über die eingesetzten Videokameras (Aufstellort, Ausrichtung, optischen Kenndaten) zum Einsatz gebracht wird. Das System ermittelt für den Anwender durch Vorgabe eines einzusehenden Bereiches, welche Kamera dafür zum Einsatz gebracht werden muss und wie diese Kamera bzgl. ihrer Ausrichtung und Brennweite anzusteuern ist.
Vorteilhaft hierbei ist, dass ein zu betrachtender bzw. zu überwachender Bereich vom Anwender mit Hilfe eines 3D Modells ausgewählt werden kann. Das System wählt dann für den Anwender eine Videokamera aus, die in der Lage ist, diesen Bereich anzuzeigen. Das System entlastet den Anwender auch dahingehend, dass die Ansteuerung der Ausrichtung und des Zooms vom System übernommen wird. Die Anzeige des gewünschten Bereiches wird auf Bruchteile einer Sekunde verkürzt .
Wird das System mit den Positionsparametern eines beweglichen Teils gekoppelt, kann das System auch eine sich bewegende Kamera mit in die Betrachtung einbeziehen und sorgt trotz der Bewegungsdynamik dafür, dass das Bild auf den zu betrachtenden Bereich fixiert bleibt .
Eine vorteilhafte Ausbildung der Erfindung ist dadurch gekennzeichnet, dass der Anwender die automatische Auswahl und Ansteuerung der Kamera jederzeit aktivieren und deaktivieren kann. Dies erlaubt ihm in einen Modus zu schalten, wo er die volle Kontrolle über die Auswahl und Ansteuerung der Kamera erhält .
Eine weitere vorteilhafte Ausbildung der Erfindung ist dadurch gekennzeichnet, dass das System dahingehend erweitert werden kann, dass auch auf beweglichen Teilen montierte Kameras (z.B. auf einer Kranbühne) mit in die Berechnung einbezogen werden können. Hierzu wird die Kamerasteuerung mit einem Steuersystem gekoppelt, welches die aktuelle Position des beweglichen Teiles erfasst und an die Kamerasteuerung meldet. Aus dieser Information kann die Kamerasteuerung die Transformation ableiten, um die aktuellen Orts- und Ausrichtungsin- formation der Kamera zu berechnen. Auf Basis dieser Informationen kann dann die Berechnung wie weiter unten beschrieben durchgeführt werden. Erfolgt die neue Berechnung kontinuierlich, erhält man ein dynamisches System, welches unter Beachtung der Sichtbarkeitsbereiche und der Bewegung der Kameras immer die optimale Kamera auswählt und so ansteuert, dass der ausgewählte Sichtbarkeitsbereich stets im Fokus der Kamera bzw. der Kameras gehalten wird.
Eine weitere vorteilhafte Ausbildung der Erfindung ist da- durch gekennzeichnet, dass das anstatt eines einzelnen Punktes eine Menge von Punkten zur Beschreibung des zu betrachtenden Bereiches eingesetzt wird. Diese Punktmenge (Anzahl > 2) beschreibt dann eine Fläche die zu betrachten ist. Die Berechnungsverfahren gestaltet sich dann ähnlich wie unten be- schrieben, mit der Ausnahme, dass nun angestrebt wird, dass eine möglichst große Anzahl der Punkte im Sichtfeld einer Kamera zum liegen kommen.
Weitere vorteilhafte Ausführungen der Erfindung finden sich in den Unteransprüchen.
Im Folgenden wird die Erfindung anhand der Figur näher beschrieben und erläutert:
Die Figur stellt den real zu überwachenden Ort bzw. die Umgebung 1 (z.B. Gebäude, Anlage, Prozess) dar, in der Informationen mittels der Erfassungsmittel 2 erfasst werden. Die Erfassungsmittel 2, insbesondere die Kameras 2a, 2b und 2c, werden in dem Ausführungsbeispiel zur Videoüberwachung des Ortes bzw. der Umgebung 1 eingesetzt. Die Kameras sind an einem festen Ort (x,y,z) montiert und optional ansteuerbar (Drehung um die x,y,z-Achse und Brennweite). Die Anzahl der Kameras kann beliebig groß sein. Anstelle der Kameras können mithilfe des erfindungsgemäßen Systems auch beliebige andere Erfassungsmittel ausgewählt und bezüglich ihrer Ausrichtung oder auch ihrer Bewegung im Raum gesteuert werden.
Im Ausführungsbeispiel ist die Verarbeitungsvorrichtung zur Aufbereitung der erfassten Informationen als Videosystem 3 ausgebildet, welches zum einem die Videosignale der aktuell ausgewählten Kamera an eine Wiedergabevorrichtung 7b, insbe- sondere einen Monitor überträgt, zum anderen die Steuerdaten der Steuervorrichtung 5, insbesondere der Kamerasteuerung hin zu den Erfassungsvorrichtungen 2 bzw. Kameras. Dabei kann die Kopplung zwischen Videosystem und Kameras, zwischen Videosystem und Kamerasteuerung sowie zwischen Videosystem und Wie- dergabevorrichtung 7b unterschiedlich ausgeprägt sein (z.B. via Ethernet, WLAN, Sternverkablung, usw.).
Ein Rechnersystem 4, enthält beispielhaft die Komponente Steuerungsvorrichtung 5 und einen Datenspeicher mit dem 3D Modell 6 der Umgebung 1. Die Steuerungsvorrichtung 5, insbesondere die Kamerasteuerung, berechnet mit Hilfe des 3D Modells 6 des Ortes bzw. der Umgebung 1 und der eingesetzten Erfassungsvorrichtungen 2 bzw. Kameras sowie der Anwenderauswahl eines zu betrachtenden Bereiches die einzusetzende Ka e- ra 2x und setzt ihre Ansteuerung über das Videosystem bzw. die Verarbeitungsvorrichtung 3 um.
Ein Datenspeicher auf dem Rechnersystem 4 enthält ein 3D Modell 6 des Ortes bzw. der Umgebung 1 inklusive der notwendi- gen Informationen zu den Kameras 2 (Aufstellort, Ausrichtung, optische Kenndaten, Zustand) . Die Modellbeschreibung ist dabei vorteilhaft so ausgeprägt, wie im VRML 97 ISO-Standard beschrieben (3D Flächenmodell) .
Ein Anzeigesystem 7a zeigt das 3D Modell 6 des Ortes an. Über das Standardsteuerelement 8 (Zeigegerät, Tastatur, Spracheingabe, ...) kann dabei die Sicht auf das Modell 6 verändert werden (Drehen, Zoomen, Verschieben, ... ) . Ein weiteres Anzeigesystem 7b zeigt das Videobild der aktuell ausgewählten Videokamera an. Mittels eines Pointing Device 8 (Zeigegerät wie z.B. eine Computer-Maus oder über die Positionsermittlung mittels eines Touch-Screens) , wird dem Anwender die Auswahl eines zu betrachtenden Bereiches (Punktes) auf dem Anzeigesystem 7a ermöglicht.
Das System arbeitet wie folgt:
Der Anwender wählt mit Hilfe eines Pointing Devices 8 (Zeigegeräte) auf dem Anzeigesystem 7a einen zu betrachtenden Punkt des Ortes über das angezeigte 3D Modell aus . Der zweidimensi- onale Punkt P2D des Pointing Devices 8 wird dabei von der Ka- merasteuerung 5 in einen dreidimensionalen Punkt P3D auf einer Fläche des 3D Modells 6 abgebildet. Dies erfolgt nach den hierfür bekannten Verfahren: Umsetzung der 2D-Position und der aktuellen Sicht auf das 3D Modell 6 in eine Gerade, die mit den Flächen FL des 3D Modells 6 geschnitten wird. Der Schnittpunkt mit der kürzesten Entfernung zum Betrachter wird ausgewählt und als P3D angegeben.
Im nächsten Schritt wird für jede Videokamera Ki aus der Liste der verfügbaren Kameras KL folgendes Verfahren angewandt:
1. Bilden eines Vektors Va zwischen P3D und dem Au stellort PKi der Kamera Kj..
2. Auf Basis von Va wird nun eine Gerade gebildet und mit allen Flächen FL des 3D Modells 6 geschnitten. Liegt einer dieser Schnittpunkte zwischen dem Aufstellort der Kamera und den zu betrachtenden Bereich P3D, verdeckt die mit dem Schnittpunkt verbundene Fläche die Sicht auf den zu betrachtenden Bereich (Ausnahme: Fläche wurde als Transparent ge- kennzeichnet) . In diesem Fall kann die Kamera nicht zum Einsatz kommen und die nächste Kamera aus der Liste KL ist zu betrachten. 3. Liegt keine Verdeckung des Sichtbereiches vor, so ist nun zu überprüfen, ob die Kameraausrichtung entsprechend den Vorgaben des Vektors Va gesetzt werden kann. Erlaubt die Kamera Ki nicht, diese Ausrichtung einzustellen, so kann sie nicht zum Einsatz kommen und die nächste Kamera aus der Liste KL ist zu betrachten.
Der Punkt P3D muss dabei nicht im Mittelpunkt des Sichtbereiches der Kamera liegen. Es reicht aus, wenn sich der Punkt P3D im maximalen Sichtbereich der Kamera (minimale Brennweite) befindet. Der Sichtbereich wird über einen Kegel beschrieben, dessen Spitze in P i liegt. Dieser Kegel wird so ausgerichtet, dass der Vektor, der die Kameraausrichtung beschreibt und der Vektor Va einen minimalen Winkel zueinander bilden. Dabei werden die Einschränkungen der Kamera Ki bzgl. ihrer Ausrichtung berücksichtigt. Der Kegel wird dann mit der Fläche geschnitten, auf der der Punkt P3D liegt. Befindet sich dann P3D innerhalb der resultierenden Schnittfläche, kann P3D von der Kamera angezeigt werden.
4. Nun ist sichergestellt, dass die Kamera KA den zu betrachtenden Bereich anzeigen kann. Die Kamera K± wird nun in die Liste der verwendbaren Kameras Ks aufgenommen. Zusätzlich werden zu der Kamera KA die Werte zur Ausrichtung der Kamera und ggf. Werte für den einzustellenden Zoom mit abgelegt. Die Einstellung des Zooms kann aus der Entfernung der Kamera zum betrachtenden Punkt P3D und einem vom Benutzer vorgegeben Kriterium zum Sichtbarkeitsbereich (z.B. 10 Meter breites Sichtfeld anzeigen) abgeleitet werden, unter Berücksichti- gung, dass P3D noch im Sichtbereich der Kamera liegt (siehe Schritt 3) .
Befindet sich nach diesen Berechnungen keine Kamera in der Liste Ks, so wird dem Anwender gemeldet, dass keine Kamera den zu betrachtenden Bereich darstellen kann. Befindet sich nur eine Kamera in der Liste Ks, so wird diese als aktiv dem Videosystem gemeldet und die Ansteuerung von Ausrichtung und Zoom wird vorgenommen. Befinden sich mehrere Kameras in der Liste Ks, so wird entweder automatisch die erste Kamera in der Liste als aktiv ausgewählt oder dem Anwender wird ermöglicht, eine Kamera als aktive Kamera aus der Liste der verwendbaren Kameras auszuwählen. Die als aktiv zu setzende Kamera wird dem Videosystem gemeldet und die Ansteuerung von Ausrichtung und Zoom wird vorgenommen.
/Abkürzungen:
P2D 2-Dimensionaler Punkt auf dem Anzeigesystem (7a) PD 3-Dimensionaler Punkt im 3D Modell (6), der den zu betrachtenden Bereich beschreibt F Liste aller Flächen, die in Summe das 3D Modell (6) vollständig beschreiben/darstellen
K Liste der vorhandenen und verfügbaren Videokameras (Zustand = verfügbar) Ks Liste der Videokameras, die den zu betrachtenden Punkt P3D anzeigen können Ki Eine Kamera aus der Liste KL
PKi Punkt der den Aufstellort der Kamera beschreibt . Va Vektor der die Gerade und den Abstand zwischen den zu betrachtenden Punkt P3D und den Aufstellort PKi der Kamera beschreibt .
Zusammenfassend betrifft die Erfindung ein System und ein Verfahren zur automatischen Ansteuerung und Ausrichtung von Erfassungsvorrichtungen 2 von Umgebungsinformationen, insbesondere Kameras, auf Basis eines Modells 6 der Umgebung 1. Ein Anwender 9 kann mithilfe eines Zeigegeräts an einer Auswahlvorrichtung 8 den gewünschten darzustellenden Ausschnitt der Umgebung 1 angeben. Eine Steuerungsvorrichtung 5 steuert die Erfassungsmittel 2 entsprechend an und richtet sie aus. Die erfassten Daten können auf einer Anzeige 7b wiedergegeben werden.

Claims

Patentansprüche
1. System zur insbesondere visuellen Darstellung von Umgebungsinformationen, mit - mindestens einer Erfassungsvorrichtung (2) zur Erfassung der Umgebungsinformationen,
- mindestens einer Wiedergabevorrichtung (7b) zur Wiedergabe von erfassten Umgebungsinformationen,
- mindestens einem Modell (6) der Umgebung (1) und - einer Steuerungsvorrichtung (5) zur Auswahl und/oder Steuerung der mindestens einen Erfassungsvorrichtung (2) auf Basis des Modells (6) der Umgebung (1) .
2. System nach Anspruch 1, dadurch gekennzeichnet, dass die Auswahl und/oder Steuerung der mindestens einen Erfassungsvorrichtung (2) durch die Steuerungsvorrichtung (5) automatisch durch einen von einem Anwender (9) des Systems im Modell (6) der Umgebung (1) ausgewählten darzustellenden Be- reich erfolgt.
3. System nach Anspruch 2, dadurch gekennzeichnet, dass die automatische Auswahl und/oder Steuerung durch den Anwen- der (9) aktivierbar und/oder deaktivierbar ist.
4. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Modell (6) der Umgebung (1) als 3D-Modell ausgebildet ist.
5. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mindestens eine Erfassungsvorrichtung (2) als mobile Er- fassungsvorrichtung ausgebildet ist, wobei die Position der mobilen Erfassungsvorrichtung erfasst und an die Steuerungs- vorrichtung (5) gemeldet wird.
6. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Anzeigevorrichtung (7a) zur Anzeige des Modells (6) der Umgebung (1) vorgesehen ist.
7. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass dass die Wiedergabevorrichtung (7b) zur Wiedergabe von, insbesondere aktuellen, visuellen, akustischen oder molekularen Informationen vorgesehen ist, wobei die Erfassungsvorrichtungen (2) als Kameras, Mikrophone und/oder chemische Sensoren ausgebildet sind.
8. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Rechner (4) zur Speicherung des Modells (6) der Umgebung (1) vorgesehen ist.
9. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuerungsvorrichtung (5) auf dem Rechner (4) angeordnet ist .
10. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Auswahlvorrichtung (8) zur Auswahl eines darzustellenden Bereichs durch den Anwender (9) vorgesehen ist.
11. System nach Anspruch 10, dadurch gekennzeichnet, dass die Auswahlvorrichtung (8) als Zeige-Gerät, insbesondere als Mouse und/oder Trackball und/oder Touch Screen ausgebildet ist .
12. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auswahl durch den Anwender (9) durch Angabe eines Punktes und/oder einer Fläche erfolgt.
13. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der mindestens einen Erfassungsvorrichtung (2) eine Verarbeitungsvorrichtung (3) nachgeordnet ist, welche zur Verarbeitung der erfassten Informationen und/oder zur Aufbereitung der Informationen an die Wiedergabevorrichtung (7b) und/oder zur Übertragung der Steuerdaten von der Steuerungsvorrichtung (5) an die mindestens eine Erfassungsvorrichtung (2) vorgesehen ist.
14. Verfahren zur insbesondere visuellen Darstellung von Um- gebungsinformationen, bei dem
- die Umgebungsinformationen erfasst werden,
- die erfassten Umgebungsinformationen wiedergegeben werden,
- die Umgebung (1) in einem Modell (6) abgebildet wird und - mindestens eine Erfassungsvorrichtung (2) auf Basis des Modells (6) der Umgebung (1) ausgewählt und/oder gesteuert wird.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass die mindestens eine Erfassungsvorrichtung (2) durch eine Steuerungsvorrichtung (5) automatisch ausgewählt und/oder gesteuert wird, wobei ein Anwender (9) des Systems im Modell (6) der Umgebung (1) den darzustellenden Bereich ausgewählt.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass die automatische Auswahl und/oder Steuerung durch den Anwender (9) aktiviert und/oder deaktiviert werden kann.
17. Verfahren nach einem der Ansprüche 14 bis 16, dadurch gekennzeichnet, dass die Umgebung (1) als 3D-Modell dargestellt wird.
18. Verfahren nach einem der Ansprüche 14 bis 17, dadurch gekennzeichnet, dass die mindestens eine Erfassungsvorrichtung (2) als mobile Erfassungsvorrichtung ausgebildet ist, wobei die Position der mobilen Erfassungsvorrichtung erfasst und an die Steuerungs- vorrichtung (5) gemeldet wird.
19. Verfahren nach einem der Ansprüche 14 bis 18, dadurch gekennzeichnet, dass das Modell (6) der Umgebung (1) auf einer Anzeigevorrichtung (7a) angezeigt wird.
20. Verfahren nach einem der Ansprüche 14 bis 19, dadurch gekennzeichnet, dass dass insbesondere aktuelle, visuelle, akustische oder molekulare Informationen wiedergegeben werden, wobei die Erfassungsvorrichtungen (2) als Kameras, Mikrophone und/oder che- mische Sensoren ausgebildet sind.
21. Verfahren nach einem der Ansprüche 14 bis 20, dadurch gekennzeichnet, dass das Modell (6) der Umgebung (1) auf einem Rechner (4) gespei- chert ist.
22. Verfahren nach einem der Ansprüche 14 bis 21, dadurch gekennzeichnet, dass die Erfassungsvorrichtungen (2) von einer auf dem Rechner (4) angeordneten Steuerungsvorrichtung (5) ausgewählt und/oder gesteuert werden.
23. Verfahren nach einem der Ansprüche 14 bis 22, dadurch gekennzeichnet, dass ein darzustellender Bereich durch den Anwender (9) mithilfe einer Auswahlvorrichtung (8) ausgewählt wird.
24. Verfahren nach Anspruch 23, dadurch gekennzeichnet, dass ein wiederzugebender Bereich mithilfe eines Zeige-Geräts, insbesondere einer Mouse und/oder eines Trackball und/oder eines Touch Screens ausgewählt wird.
25. Verfahren nach einem der Ansprüche 14 bis 24, dadurch gekennzeichnet, dass der Anwender (9) den wiederzugebenden Bereich durch Angabe eines Punktes und/oder einer Fläche auswählt.
26. Verfahren nach einem Ansprüche 14 bis 25, dadurch gekennzeichnet, dass die erfassten Informationen für die Wiedergabevorrichtung (7b) durch eine Verarbeitungsvorrichtung (3) verarbeitet und/oder zur aufbereitet werden und/oder dass die Steuerdaten von der Steuerungsvorrichtung (5) durch eine Verarbeitungsvorrichtung (3) an die mindestens eine Erfassungsvorrichtung (2) übertragen werden.
PCT/EP2004/053128 2003-12-11 2004-11-26 3d-kamerasteuerung WO2005057929A2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP04820069A EP1692870A2 (de) 2003-12-11 2004-11-26 3d-kamerasteuerung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10358017.4 2003-12-11
DE10358017A DE10358017A1 (de) 2003-12-11 2003-12-11 3D Kamerasteuerung

Publications (2)

Publication Number Publication Date
WO2005057929A2 true WO2005057929A2 (de) 2005-06-23
WO2005057929A3 WO2005057929A3 (de) 2006-04-13

Family

ID=34672602

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2004/053128 WO2005057929A2 (de) 2003-12-11 2004-11-26 3d-kamerasteuerung

Country Status (3)

Country Link
EP (1) EP1692870A2 (de)
DE (1) DE10358017A1 (de)
WO (1) WO2005057929A2 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1045580A2 (de) * 1999-04-16 2000-10-18 Matsushita Electric Industrial Co., Ltd. Gerät und Verfahren zur Kamerasteuerung
US20010022615A1 (en) * 1998-03-19 2001-09-20 Fernandez Dennis Sunga Integrated network for monitoring remote objects
WO2002011449A1 (en) * 2000-08-01 2002-02-07 Koninklijke Philips Electronics N.V. Representative presence for sensor-based security systems and other applications
US6359647B1 (en) * 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system
US20020140813A1 (en) * 2001-03-28 2002-10-03 Koninklijke Philips Electronics N.V. Method for selecting a target in an automated video tracking system
US20030085992A1 (en) * 2000-03-07 2003-05-08 Sarnoff Corporation Method and apparatus for providing immersive surveillance
WO2003051059A1 (en) * 2001-12-13 2003-06-19 Invideo Limited Image mapping

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5128874A (en) * 1990-01-02 1992-07-07 Honeywell Inc. Inertial navigation sensor integrated obstacle detection system
US5424556A (en) * 1993-11-30 1995-06-13 Honeywell Inc. Gradient reflector location sensing system
FR2760277B1 (fr) * 1997-02-28 1999-03-26 Commissariat Energie Atomique Procede et dispositif de localisation d'un objet dans l'espace
US6166744A (en) * 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
DE19947766A1 (de) * 1999-10-02 2001-05-10 Bosch Gmbh Robert Einrichtung zur Überwachung der Umgebung eines einparkenden Fahrzeugs
JP3409117B2 (ja) * 2001-03-30 2003-05-26 オムロン株式会社 光学式反射形センサ
AT412031B (de) * 2001-06-29 2004-08-26 Riegl Laser Measurement Sys Verfahren zur aufnahme eines objektraumes
DE10131720B4 (de) * 2001-06-30 2017-02-23 Robert Bosch Gmbh Head-Up Display System und Verfahren
AT411299B (de) * 2002-03-04 2003-11-25 Riegl Laser Measurement Sys Verfahren zur aufnahme eines objektraumes

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010022615A1 (en) * 1998-03-19 2001-09-20 Fernandez Dennis Sunga Integrated network for monitoring remote objects
US6359647B1 (en) * 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system
EP1045580A2 (de) * 1999-04-16 2000-10-18 Matsushita Electric Industrial Co., Ltd. Gerät und Verfahren zur Kamerasteuerung
US20030085992A1 (en) * 2000-03-07 2003-05-08 Sarnoff Corporation Method and apparatus for providing immersive surveillance
WO2002011449A1 (en) * 2000-08-01 2002-02-07 Koninklijke Philips Electronics N.V. Representative presence for sensor-based security systems and other applications
US20020140813A1 (en) * 2001-03-28 2002-10-03 Koninklijke Philips Electronics N.V. Method for selecting a target in an automated video tracking system
WO2003051059A1 (en) * 2001-12-13 2003-06-19 Invideo Limited Image mapping

Also Published As

Publication number Publication date
EP1692870A2 (de) 2006-08-23
WO2005057929A3 (de) 2006-04-13
DE10358017A1 (de) 2005-07-21

Similar Documents

Publication Publication Date Title
DE69233439T2 (de) Überwachungsvorrichtung mit Steuerung der Kamera und der Linsenmontage
DE69835185T2 (de) Kamerasteuersystem
US5872594A (en) Method for open loop camera control using a motion model to control camera movement
DE19836681A1 (de) Stereoskopisches Aufnahme- und Wiedergabesystem
EP3077863B1 (de) Anordnung zum erstellen eines bildes einer szene
EP2272055A1 (de) Fernbedienung
WO2005045729A1 (de) System und verfahren zur durchführung und visualisierung von simulationen in einer erweiterten realität
DE102006012239A1 (de) Video-Überwachungssystem
DE102005049895A1 (de) Systeme, Verfahren und Vorrichtungen einer Röntgen-Positioniervorrichtung
DE10025110A1 (de) Verfahren und Vorrichtung zur Realisierung eines Informations- und Datenflusses für geodätische Geräte
DE102005021735A1 (de) Videoüberwachungssystem
WO2009062775A1 (de) Überwachungssystem mit zustandserfassungsmodul, verfahren zur selbstüberwachung eines beobachters sowie computerprogramm
WO2014001009A1 (de) Anzeigevorrichtung für ein videoüberwachungssystem sowie videoüberwachungssystem mit der anzeigevorrichtung
WO2020126240A1 (de) Verfahren zum betreiben eines feldgeräts der automatisierungstechnik in einer augmented-reality/mixed-reality-umgebung
WO2017046102A1 (de) Eingabeverfahren und vorrichtung in einem kraftfahrzeug zum auswählen eines zieles einer automatisierten fahrt
WO2013034133A1 (de) Interaktion mit einem dreidimensionalen virtuellen szenario
WO2005057929A2 (de) 3d-kamerasteuerung
WO2006032552A1 (de) Folgekamerasteuerung
DE102006060904B4 (de) Flughafenverkehrsinformations-Anzeigesystem
EP2764698A2 (de) Kooperativer 3d-arbeitsplatz
EP2697702B1 (de) Vorrichtung und verfahren zur gestensteuerung eines bildschirms in einer leitwarte
DE4432480C1 (de) Observationskamerasystem
DE10304073A1 (de) Informationssystem zur dynamischen Wegeleitung
DE10141521C1 (de) Darstellung von Anwenderinformationen
EP1159579B1 (de) Verfahren und vorrichtung zur zieldarstellung und treffererkennung bei schiessanlagen

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004820069

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004820069

Country of ref document: EP