DE10358017A1 - 3D camera control - Google Patents
3D camera control Download PDFInfo
- Publication number
- DE10358017A1 DE10358017A1 DE10358017A DE10358017A DE10358017A1 DE 10358017 A1 DE10358017 A1 DE 10358017A1 DE 10358017 A DE10358017 A DE 10358017A DE 10358017 A DE10358017 A DE 10358017A DE 10358017 A1 DE10358017 A1 DE 10358017A1
- Authority
- DE
- Germany
- Prior art keywords
- environment
- model
- control
- detection device
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19641—Multiple cameras having overlapping views on a single scene
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19678—User interface
- G08B13/19689—Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19695—Arrangements wherein non-video detectors start video recording or forwarding but do not generate an alarm themselves
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
Die Erfindung betrifft ein System und ein Verfahren zur automatischen Ansteuerung und Ausrichtung von Erfassungsvorrichtungen (2) von Umngebungsinformationen, insbesondere Kameras, auf Basis eines Modells (6) der Umgebung (1). Ein Anwender (9) kann mithilfe eines Zeigegeräts an einer Auswahlvorrichtung (8) den gewünschten darzustellenden Ausschnitt der Umgebung (1) angeben. Eine Steuerungsvorrichtung (5) steuert die Erfassungsmittel (2) entsprechend an und richtet sie aus. Die erfassten Daten können auf einer Anzeige (7b) wiedergegeben werden.The invention relates to a system and a method for the automatic control and alignment of detection devices (2) of environmental information, in particular cameras, based on a model (6) of the environment (1). A user (9) can use a pointing device on a selection device (8) to specify the desired section of the environment (1) to be displayed. A control device (5) controls and aligns the detection means (2) accordingly. The acquired data can be displayed on a display (7b).
Description
Die Erfindung betrifft ein System und ein Verfahren zur visuellen Darstellung von Umgebungsinformationen auf Basis eines ModellsThe The invention relates to a system and method for visual presentation of environmental information based on a model
Verstärkt werden Videokameras zur Überwachung von Orten (Gebäuden, Anlagen und Prozessen) eingesetzt. Bei Videoüberwachungsanlagen kommen meist mehrere Kameras zum Einsatz, die sowohl unterschiedliche, als auch sich überschneidende Sichtbereiche des Ortes abdecken. Die Ansteuerung und die Auswahl des anzuzeigenden Sichtbereiches erfolgt dabei meist von einer zentralen Stelle aus.To be strengthened Video cameras for surveillance of places (buildings, Plants and processes). When video surveillance systems come mostly Several cameras are used, which are different as well overlapping Cover visible areas of the place. The control and the selection of the visual range to be displayed is usually done by a central Place out.
Die Auswahl erfolgt heutzutage durch einen Benutzer des Systems, der die zu verwendende Kamera auswählt und – soweit die Kameraausrichtung beeinflussbar ist – die richtige Ausrichtung ansteuert. Gerade in Umgebungen mit verwinkelten Gebäuden oder Anlagenteilen kann dieser Vorgang viel Zeit in Anspruch nehmen, weil für den Anwender nicht offensichtlich ist, welche Kamera einen freien Blick auf den zu betrachtenden Gebäudeteil gewährt (z.B. Feuer im Bau 2 Raum 234).The Selection is made today by a user of the system who selects the camera to use and - as far as the camera orientation can be influenced - the right orientation controls. Especially in environments with winding buildings or Plant parts, this process can take a long time, because for the user is not obvious which camera has a free one View of the part of the building to be considered (for example fire in construction 2 room 234).
Die Auswahl des anzuzeigenden Kamerabildes obliegt heutzutage der Verantwortung des Anwenders. Er muss entscheiden, welche Kamera eingesetzt und angesteuert werden muss, um einen bestimmten Bereich auf einem Sichtmonitor zur Anzeige zu bringen. Neuere Systeme unterstützen ihn dabei rein informativ, durch die geometrischen Darstellungen (2D/3D) des zu überwachenden Ortes (Gebäude, Anlage, Prozess) inklusive der Aufstellorte der Kameras. Die geometrische Darstellung wird unter anderem auch dazu genutzt, dem Anwender die Auswahl der aktuell zu verwendenden Kamera (Anzeige und Steuerung) zu ermöglichen.The Selection of the camera image to be displayed is nowadays the responsibility of the user. He has to decide which camera to use and must be controlled to a certain area on a visual monitor to bring to the display. Newer systems support him thereby purely informative, by the geometric representations (2D / 3D) of the place to be monitored (building, annex, Process) including the installation locations of the cameras. The geometric Presentation is also used, among other things, the user the Selection of the currently used camera (display and control) to enable.
Die Aufgabe der vorliegen Erfindung ist, ein System und ein Verfahren anzugeben, mithilfe dessen die eine Auswahl bzw. Ansteuerung einer Erfassungsvorrichtung, insbesondere einer Kamera, automatisch erfolgt.The The object of the present invention is a system and a method specify by means of which a selection or control of a Detection device, in particular a camera, automatically done.
Die Aufgabe wird gelöst durch System zur insbesondere visuellen Darstellung von Umgebungsinformationen, mit mindestens einer Erfassungsvorrichtung zur Erfassung der Umgebungsinformationen, mindestens einer Wiedergabevorrichtung zur Wiedergabe von erfassten Umgebungsinformationen, mindestens einem Modell der Umgebung und einer Steuerungsvorrichtung zur Auswahl und/oder Steuerung der mindestens einen Erfassungsvorrichtung auf Basis des Modells der Umgebung.The Task is solved by a system for in particular visual presentation of environmental information, with at least one detection device for acquiring the environment information, at least one playback device for reproducing detected Environment information, at least one model of the environment and a control device for selecting and / or controlling the at least one Detection device based on the model of the environment.
Die Aufgabe wird weiterhin gelöst durch ein Verfahren zur insbesondere visuellen Darstellung von Umgebungsinformationen, bei dem die Umgebungsinformationen erfasst werden, die erfassten Umgebungsinformationen wiedergegeben werden, die Umgebung in einem Modell abgebildet wird und mindestens eine Erfassungsvorrichtung auf Basis des Modells der Umgebung ausgewählt und/oder gesteuert wird.The Task is still solved by a method for in particular visual presentation of environmental information, which captures the environmental information that captured Environmental information is rendered in one environment Model is mapped and at least one detection device is selected and / or controlled based on the model of the environment.
Der Erfindung liegt die Erkenntnis zugrunde, dass bei der Erfassung von Informationen für einen Anwender eines großräumigen Systems die Auswahl relativ schwierig ist. Beispielsweise bei der Auswahl von Kameras für die Gebäudeüberwachung oder auch bei der Auswahl beliebiger anderer Erfassungseinheiten, die über einen großen Raum oder einfach nur in unübersichtlicher Weise angeordnet sind. Denkbar ist hier jede Form von Sensoren, die Informationen erfassen und dabei ausgerichtet werden können, um Werte aus einer bestimmten Richtung zu erfassen. Der Einsatz eines derartigen Systems ist sowohl im Umfeld von Prozesssensoren, beispielsweise Strömungssensoren als auch bis hin zur Einstellung der Ausrichtung von Teleskopen für die Beobachtung des Weltraumes hin möglich. Eine derartige Steuerung auch von Infrarotkameras wäre ebenso vorteilhaft.Of the Invention is based on the finding that in the detection of information for a user of a large-scale system the selection is relatively difficult. For example, in the selection from cameras for the building surveillance or also in the selection of any other detection units, the above a big Room or just in confusing Way are arranged. Conceivable here is any form of sensors, to capture the information and thereby align it to To capture values from a particular direction. The use of a Such system is both in the environment of process sensors, for example flow sensors as well as adjusting the orientation of telescopes for observation of space possible. Such control of infrared cameras would be as well advantageous.
Der Anwender beispielsweise einer Videoüberwachungsanlage wird von der Auswahl der Kamera und ihrer Ansteuerung befreit, indem ein 3D Modell des zu überwachenden Ortes zusammen mit Informationen über die eingesetzten Videokameras (Aufstellort, Ausrichtung, optischen Kenndaten) zum Einsatz gebracht wird. Das System ermittelt für den Anwender durch Vorgabe eines einzusehenden Bereiches, welche Kamera dafür zum Einsatz gebracht werden muss und wie diese Kamera bzgl. ihrer Ausrichtung und Brennweite anzusteuern ist.Of the For example, a user of a video surveillance system is called by the selection of the camera and its control freed by a 3D model of the monitored Place together with information about the video cameras used (Location, alignment, optical characteristics) is used. The system determines for the user by specifying an area to be viewed, which Camera for it must be used and how this camera regarding their Alignment and focal length is to control.
Vorteilhaft hierbei ist, dass ein zu betrachtender bzw. zu überwachender Bereich vom Anwender mit Hilfe eines 3D Modells ausgewählt werden kann. Das System wählt dann für den Anwender eine Videokamera aus, die in der Lage ist, diesen Bereich anzuzeigen. Das System entlastet den Anwender auch dahingehend, dass die Ansteuerung der Ausrichtung und des Zooms vom System übernommen wird. Die Anzeige des gewünschten Bereiches wird auf Bruchteile einer Sekunde verkürzt.Advantageous in this case, the area to be considered or monitored by the user can be selected with the help of a 3D model. The system then choose for the Users can choose a video camera that is capable of this area display. The system also relieves the user that the control of the alignment and the zoom are taken over by the system becomes. The display of the desired Range is shortened to fractions of a second.
Wird das System mit den Positionsparametern eines beweglichen Teils gekoppelt, kann das System auch eine sich bewegende Kamera mit in die Betrachtung einbeziehen und sorgt trotz der Bewegungsdynamik dafür, dass das Bild auf den zu betrachtenden Bereich fixiert bleibt.Becomes the system is coupled to the positional parameters of a moving part, The system can also take a moving camera into consideration and, despite the dynamic of movement, ensures that the image remains fixed on the area to be viewed.
Eine vorteilhafte Ausbildung der Erfindung ist dadurch gekennzeichnet, dass der Anwender die automatische Auswahl und Ansteuerung der Kamera jederzeit aktivieren und deaktivieren kann. Dies erlaubt ihm in einen Modus zu schalten, wo er die volle Kontrolle über die Auswahl und Ansteuerung der Kamera erhält.A advantageous embodiment of the invention is characterized in that the user can automatically select and control the camera Activate and deactivate at any time. This allows him in to switch to a mode where he has full control over the Selection and control of the camera receives.
Eine weitere vorteilhafte Ausbildung der Erfindung ist dadurch gekennzeichnet, dass das System dahingehend erweitert werden kann, dass auch auf beweglichen Teilen montierte Kameras (z.B. auf einer Kranbühne) mit in die Berechnung einbezogen werden können. Hierzu wird die Kamerasteuerung mit einem Steuersystem gekoppelt, welches die aktuelle Position des beweglichen Teiles erfasst und an die Kamerasteuerung meldet. Aus dieser Information kann die Kamerasteuerung die Transformation ableiten, um die aktuellen Orts- und Ausrichtungsinformation der Kamera zu berechnen. Auf Basis dieser Informationen kann dann die Berechnung wie weiter unten beschrieben durchgeführt werden. Erfolgt die neue Berechnung kontinuierlich, erhält man ein dynamisches System, welches unter Beachtung der Sichtbarkeitsbereiche und der Bewegung der Kameras immer die optimale Kamera auswählt und so ansteuert, dass der ausgewählte Sichtbarkeitsbereich stets im Fokus der Kamera bzw. der Kameras gehalten wird.A Further advantageous embodiment of the invention is characterized in that that the system can be expanded to include that too mobile mounted cameras (e.g., on a crane platform) can be included in the calculation. This is the camera control coupled with a control system which indicates the current position of the moving part detected and reported to the camera control. From this information, the camera control can transform Derive the current location and orientation information of the Camera to calculate. On the basis of this information can then the Calculation as described below. Done the new one Calculation continuously, you get a dynamic system which respects the visibility areas and the movement of the cameras always selects the optimal camera and so controls that the selected Visibility area always in the focus of the camera or the cameras is held.
Eine weitere vorteilhafte Ausbildung der Erfindung ist dadurch gekennzeichnet, dass das anstatt eines einzelnen Punktes eine Menge von Punkten zur Beschreibung des zu betrachtenden Bereiches eingesetzt wird. Diese Punktmenge (Anzahl > 2) beschreibt dann eine Fläche die zu betrachten ist. Die Berechnungsverfahren gestaltet sich dann ähnlich wie unten beschrieben, mit der Ausnahme, dass nun angestrebt wird, dass eine möglichst große Anzahl der Punkte im Sichtfeld einer Kamera zum liegen kommen.A Further advantageous embodiment of the invention is characterized in that that instead of a single point a lot of points is used to describe the area to be considered. This point quantity (number> 2) then describes an area which is to be considered. The calculation method is then similar to described below, with the exception that it is now desired that a preferably size Number of points in the field of view of a camera come to rest.
Weitere vorteilhafte Ausführungen der Erfindung finden sich in den Unteransprüchen.Further advantageous embodiments The invention can be found in the subclaims.
Im
Folgenden wird die Erfindung anhand der Figur näher beschrieben und erläutert:
Die
Figur stellt den real zu überwachenden
Ort bzw. die Umgebung
The figure represents the real place to be monitored or the environment
Im
Ausführungsbeispiel
ist die Verarbeitungsvorrichtung zur Aufbereitung der erfassten
Informationen als Videosystem
Ein
Rechnersystem
Ein
Datenspeicher auf dem Rechnersystem
Ein
Anzeigesystem
Das
System arbeitet wie folgt:
Der Anwender wählt mit Hilfe eines Pointing
Devices
The user selects with the help of a pointing device
Im nächsten Schritt wird für jede Videokamera Ki aus der Liste der verfügbaren Kameras KL folgendes Verfahren angewandt:
- 1. Bilden eines Vektors Va zwischen P3D und dem Aufstellort PKi der Kamera Ki.
- 2. Auf Basis von Va wird nun eine Gerade
gebildet und mit allen Flächen
FL des 3D Modells
6 geschnitten. Liegt einer dieser Schnittpunkte zwischen dem Aufstellort der Kamera und den zu betrachtenden Bereich P3D, verdeckt die mit dem Schnittpunkt verbundene Fläche die Sicht auf den zu betrachtenden Bereich (Ausnahme: Fläche wurde als Transparent gekennzeichnet). In diesem Fall kann die Kamera nicht zum Einsatz kommen und die nächste Kamera aus der Liste KL ist zu betrachten. - 3. Liegt keine Verdeckung des Sichtbereiches vor, so ist nun zu überprüfen, ob die Kameraausrichtung entsprechend den Vorgaben des Vektors Va gesetzt werden kann. Erlaubt die Kamera Ki nicht, diese Ausrichtung einzustellen, so kann sie nicht zum Einsatz kommen und die nächste Kamera aus der Liste KL ist zu betrachten. Der Punkt P3D muss dabei nicht im Mittelpunkt des Sichtbereiches der Kamera liegen. Es reicht aus, wenn sich der Punkt P3D im maximalen Sichtbereich der Kamera (minimale Brennweite) befindet. Der Sichtbereich wird über einen Kegel beschrieben, dessen Spitze in PKi liegt. Dieser Kegel wird so ausgerichtet, dass der Vektor, der die Kameraausrichtung beschreibt und der Vektor Va einen minimalen Winkel zueinander bilden. Dabei werden die Einschränkungen der Kamera Ki bzgl. ihrer Ausrichtung berücksichtigt. Der Kegel wird dann mit der Fläche geschnitten, auf der der Punkt P3D liegt. Befindet sich dann P3D innerhalb der resultierenden Schnittfläche, kann P3D von der Kamera angezeigt werden.
- 4. Nun ist sichergestellt, dass die Kamera Ki den
zu betrachtenden Bereich anzeigen kann. Die Kamera Ki wird
nun in die Liste der verwendbaren Kameras KS aufgenommen.
Zusätzlich
werden zu der Kamera Ki die Werte zur Ausrichtung
der Kamera und ggf. Werte für
den einzustellenden Zoom mit abgelegt. Die Einstellung des Zooms
kann aus der Entfernung der Kamera zum betrachtenden Punkt P3D und einem vom Benutzer vorgegeben Kriterium
zum Sichtbarkeitsbereich (z.B. 10 Meter breites Sichtfeld anzeigen)
abgeleitet werden, unter Berücksichtigung,
dass P3D noch im Sichtbereich der Kamera
liegt (siehe Schritt
3 ).
- 1. Forming a vector V a between P 3D and the installation site PK i of the camera K i .
- 2. On the basis of V a a straight line is now formed and with all surfaces F L of the 3D model
6 cut. If one of these points of intersection lies between the place of installation of the camera and the area P 3D to be observed, the area connected to the point of intersection obscures the view of the area to be considered (exception: surface was marked as transparent). In this case, the camera can not be used and the next camera from the K L list is to be viewed. - 3. If there is no occlusion of the field of view, it is now necessary to check whether the camera orientation can be set according to the specifications of the vector V a . If the camera does not permit K i to adjust this orientation, it can not be used and the next camera from the K L list is to be viewed. The point P 3D does not have to lie in the center of the field of view of the camera. It is sufficient if the point P 3D is within the maximum field of view of the camera (minimum focal length). The field of view is described by a cone whose peak lies in PK i . This cone is oriented so that the vector describing the camera orientation and the vector V a form a minimum angle to each other. The restrictions of the camera K i are taken into consideration with regard to their orientation. The cone is then cut with the area on which the point P 3D lies. If P 3D is inside the resulting cut surface, P 3D can be displayed by the camera.
- 4. Now it is ensured that the camera K i can display the area to be viewed. The camera K i is now included in the list of usable cameras K S. In addition to the camera K i the values for the alignment of the camera and possibly values for the zoom to be set are also stored. The setting of the zoom can be derived from the distance of the camera to the viewing point P 3D and a criterion specified by the user to the visibility range (eg 10 meters wide field of view), taking into account that P 3D is still in the field of view of the camera (see step
3 ).
Befindet sich nach diesen Berechnungen keine Kamera in der Liste KS, so wird dem Anwender gemeldet, dass keine Kamera den zu betrachtenden Bereich darstellen kann. Befindet sich nur eine Kamera in der Liste KS, so wird diese als aktiv dem Videosystem gemeldet und die Ansteuerung von Ausrichtung und Zoom wird vorgenommen. Befinden sich mehrere Kameras in der Liste KS, so wird entweder automatisch die erste Kamera in der Liste als aktiv ausgewählt oder dem Anwender wird ermöglicht, eine Kamera als aktive Kamera aus der Liste der verwendbaren Kameras auszuwählen. Die als aktiv zu setzende Kamera wird dem Videosystem gemeldet und die Ansteuerung von Ausrichtung und Zoom wird vorgenommen.If there is no camera in the list K S after these calculations, the user is informed that no camera can represent the area to be viewed. If there is only one camera in the K S list, it will be reported as active to the video system and alignment and zoom will be activated. If there are several cameras in the K S list, either the first camera in the list is automatically selected as active or the user is allowed to select a camera as the active camera from the list of usable cameras. The camera to be set as active is reported to the video system and the orientation and zoom are controlled.
Abkürzungen:
Zusammenfassend
betrifft die Erfindung ein System und ein Verfahren zur automatischen
Ansteuerung und Ausrichtung von Erfassungsvorrichtungen
Ein
Anwender
Die
erfassten Daten können
auf einer Anzeige
Claims (26)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10358017A DE10358017A1 (en) | 2003-12-11 | 2003-12-11 | 3D camera control |
PCT/EP2004/053128 WO2005057929A2 (en) | 2003-12-11 | 2004-11-26 | 3d camera control |
EP04820069A EP1692870A2 (en) | 2003-12-11 | 2004-11-26 | 3d camera control |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10358017A DE10358017A1 (en) | 2003-12-11 | 2003-12-11 | 3D camera control |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10358017A1 true DE10358017A1 (en) | 2005-07-21 |
Family
ID=34672602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10358017A Ceased DE10358017A1 (en) | 2003-12-11 | 2003-12-11 | 3D camera control |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP1692870A2 (en) |
DE (1) | DE10358017A1 (en) |
WO (1) | WO2005057929A2 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0436213B1 (en) * | 1990-01-02 | 1995-08-02 | Honeywell Inc. | Obstacle detection system |
EP0731926B1 (en) * | 1993-11-30 | 1999-03-10 | Honeywell Inc. | Gradient reflector location sensing system |
WO1999027496A1 (en) * | 1997-11-26 | 1999-06-03 | Pathfinder Systems, Inc. | System for combining virtual images with real-world scenes |
DE19947766A1 (en) * | 1999-10-02 | 2001-05-10 | Bosch Gmbh Robert | Device for monitoring the surroundings of a parking vehicle |
EP0863413B1 (en) * | 1997-02-28 | 2001-12-19 | Commissariat A L'energie Atomique | Method and apparatus for locating an object in space |
DE10213861A1 (en) * | 2001-03-30 | 2002-11-07 | Omron Tateisi Electronics Co | Optical reflection sensor has display control unit that causes repeatability of measured values obtained by multiple measurements to be displayed on display device |
DE10223478A1 (en) * | 2001-06-29 | 2003-01-09 | Riegl Laser Measurement Sys | Acquiring image of object space involves detecting quality of reconstructed pulses such as shape, width, intensity and/or signal-to-noise ratio, using quality information in further processing |
DE10131720A1 (en) * | 2001-06-30 | 2003-01-16 | Bosch Gmbh Robert | Head-up display system and method |
EP1342989A2 (en) * | 2002-03-04 | 2003-09-10 | Riegl Laser Measurement Systems Gmbh | Method for the recording of an object space |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6697103B1 (en) * | 1998-03-19 | 2004-02-24 | Dennis Sunga Fernandez | Integrated network for monitoring remote objects |
US6359647B1 (en) * | 1998-08-07 | 2002-03-19 | Philips Electronics North America Corporation | Automated camera handoff system for figure tracking in a multiple camera system |
JP4209535B2 (en) * | 1999-04-16 | 2009-01-14 | パナソニック株式会社 | Camera control device |
US7522186B2 (en) * | 2000-03-07 | 2009-04-21 | L-3 Communications Corporation | Method and apparatus for providing immersive surveillance |
WO2002011449A1 (en) * | 2000-08-01 | 2002-02-07 | Koninklijke Philips Electronics N.V. | Representative presence for sensor-based security systems and other applications |
US6771306B2 (en) * | 2001-03-28 | 2004-08-03 | Koninklijke Philips Electronics N.V. | Method for selecting a target in an automated video tracking system |
GB2384128A (en) * | 2001-12-13 | 2003-07-16 | Invideo Ltd | Schematic mapping of surveillance area |
-
2003
- 2003-12-11 DE DE10358017A patent/DE10358017A1/en not_active Ceased
-
2004
- 2004-11-26 EP EP04820069A patent/EP1692870A2/en not_active Ceased
- 2004-11-26 WO PCT/EP2004/053128 patent/WO2005057929A2/en active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0436213B1 (en) * | 1990-01-02 | 1995-08-02 | Honeywell Inc. | Obstacle detection system |
EP0731926B1 (en) * | 1993-11-30 | 1999-03-10 | Honeywell Inc. | Gradient reflector location sensing system |
EP0863413B1 (en) * | 1997-02-28 | 2001-12-19 | Commissariat A L'energie Atomique | Method and apparatus for locating an object in space |
WO1999027496A1 (en) * | 1997-11-26 | 1999-06-03 | Pathfinder Systems, Inc. | System for combining virtual images with real-world scenes |
DE19947766A1 (en) * | 1999-10-02 | 2001-05-10 | Bosch Gmbh Robert | Device for monitoring the surroundings of a parking vehicle |
DE10213861A1 (en) * | 2001-03-30 | 2002-11-07 | Omron Tateisi Electronics Co | Optical reflection sensor has display control unit that causes repeatability of measured values obtained by multiple measurements to be displayed on display device |
DE10223478A1 (en) * | 2001-06-29 | 2003-01-09 | Riegl Laser Measurement Sys | Acquiring image of object space involves detecting quality of reconstructed pulses such as shape, width, intensity and/or signal-to-noise ratio, using quality information in further processing |
DE10131720A1 (en) * | 2001-06-30 | 2003-01-16 | Bosch Gmbh Robert | Head-up display system and method |
EP1342989A2 (en) * | 2002-03-04 | 2003-09-10 | Riegl Laser Measurement Systems Gmbh | Method for the recording of an object space |
Also Published As
Publication number | Publication date |
---|---|
WO2005057929A2 (en) | 2005-06-23 |
WO2005057929A3 (en) | 2006-04-13 |
EP1692870A2 (en) | 2006-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69429028T2 (en) | All-round visibility surveillance system with motionless camera | |
DE102007053812A1 (en) | Video surveillance system configuration module, configuration module monitoring system, video surveillance system configuration process, and computer program | |
WO2009132920A1 (en) | Remote control | |
DE202011003666U1 (en) | Camera system with six axes of rotation for moving a camera | |
DE102006012239A1 (en) | Video surveillance system | |
DE10025110A1 (en) | Method and device for realizing an information and data flow for geodetic devices | |
EP2868098A1 (en) | Display apparatus for a video monitoring system, and video monitoring system having the display apparatus | |
DE102018132921A1 (en) | Method for operating a field device of automation technology in an augmented reality / mixed reality environment | |
DE102010013499A1 (en) | Method for aligning e.g. mobile X-ray device, of optical tracking system of medical treatment system for invasive intervening on target area for patient, involves aligning imaging device towards target point according to wireless signal | |
DE10358017A1 (en) | 3D camera control | |
EP2764698A2 (en) | Cooperative 3d work station | |
EP1912431A2 (en) | Method and device for actuating a pivotable camera | |
DE60108918T2 (en) | Interactive method and apparatus for video broadcasting of a moving video camera | |
EP3640767B1 (en) | Method for determining at least one area in at least one input model for at least one element to be placed | |
DE102018212944A1 (en) | Procedure to support collaboration between humans and robots using data glasses | |
WO2013057192A1 (en) | Method for surveying and visually displaying the physical circumstances of a production plant | |
EP2697702B1 (en) | Device and method for the gesture control of a screen in a control room | |
DE19956266A1 (en) | Monitoring system | |
DE10141521C1 (en) | User information representation system has specific user information assigned to calculated position coordinates of image of environment provided by camera | |
EP4175281B1 (en) | Method and device for producing a communication channel | |
EP1434184B1 (en) | Control of a multicamera system | |
DE102016106080B4 (en) | Mobile medical workstation, system, operating room and procedures for operating control | |
DE4204601B4 (en) | Device for detecting position information with an optical observation unit and method for determining position information | |
DE202021003383U1 (en) | System arrangement and apparatus for establishing a communication channel | |
DE10132929B4 (en) | Method and device for controlling pan-tilt movements of a camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |