WO2007101788A1 - Vorrichtung und verfahren zur visuellen überwachung eines raumbereiches - Google Patents
Vorrichtung und verfahren zur visuellen überwachung eines raumbereiches Download PDFInfo
- Publication number
- WO2007101788A1 WO2007101788A1 PCT/EP2007/051656 EP2007051656W WO2007101788A1 WO 2007101788 A1 WO2007101788 A1 WO 2007101788A1 EP 2007051656 W EP2007051656 W EP 2007051656W WO 2007101788 A1 WO2007101788 A1 WO 2007101788A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- camera module
- camera
- camera modules
- image
- modules
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000012544 monitoring process Methods 0.000 title claims abstract description 8
- 238000004891 communication Methods 0.000 claims abstract description 29
- 230000006854 communication Effects 0.000 claims abstract description 29
- 238000011156 evaluation Methods 0.000 claims abstract description 17
- 238000003384 imaging method Methods 0.000 claims abstract description 9
- 230000007175 bidirectional communication Effects 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000012806 monitoring device Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- RZVAJINKPMORJF-UHFFFAOYSA-N Acetaminophen Chemical compound CC(=O)NC1=CC=C(O)C=C1 RZVAJINKPMORJF-UHFFFAOYSA-N 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 150000001768 cations Chemical class 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- NQLVQOSNDJXLKG-UHFFFAOYSA-N prosulfocarb Chemical compound CCCN(CCC)C(=O)SCC1=CC=CC=C1 NQLVQOSNDJXLKG-UHFFFAOYSA-N 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19613—Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19641—Multiple cameras having overlapping views on a single scene
- G08B13/19643—Multiple cameras having overlapping views on a single scene wherein the cameras play different roles, e.g. different resolution, different camera type, master-slave camera
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19654—Details concerning communication with a camera
- G08B13/19656—Network used to communicate with a camera, e.g. WAN, LAN, Internet
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19654—Details concerning communication with a camera
- G08B13/1966—Wireless systems, other than telephone systems, used to communicate with a camera
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19663—Surveillance related processing done local to the camera
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/009—Signalling of the alarm condition to a substation whose identity is signalled to a central station, e.g. relaying alarm signals in order to extend communication range
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Definitions
- the invention relates to a device and a method for the visual monitoring of a room area.
- the invention has for its object to overcome these disadvantages and to provide a device and a method of the generic type, which allow a significantly increased Flexi ⁇ bility in the installation and the implementation of the monitoring.
- a plug-and-play operation should be aimed for even in large systems.
- availability with regard to security applications is to be increased.
- the object is achieved in that a plurality of camera modules are integrated into a camera module network, wel ⁇ ches with an evaluation device for the purposeful interpretation of image information and / or image-describing
- each Ka ⁇ meramodul at least one, preferably digital change ⁇ benden sensor and at least one communication device for wireless bidirectional communication to at least a further camera module and / or having the evaluation device.
- the camera module network results in a reversible universal arrival monitoring device that is suitable for safety-related applications, for example in the railway environment, ge ⁇ .
- the number of camera modules integrated in the network is virtually unlimited. Preference is highly integrated, intelligent camera modules, examples play as AXIS 214 PTZ Network Camera Company Axis Communi- cation that log in automatically using plug-and-play in Kame ⁇ ramodulnetztechnik and are thus available immediately after their installation for monitoring tasks available ,
- the communication device is configured so that newly integrated in the camera module network camera modules he ⁇ known are, as is the case for example with Bluetooth.
- the camera modules are equipped with at least one digital imaging sensor, for example a CCD charge-coupled device matrix.
- each camera module has at least one communication device for the wireless bidirectional transmission of image information and / or image-describing information.
- image-describing information is sufficient, for example, such that a person with a stroller is on the platform.
- This function on ⁇ is preferably received by comparing Pixelstruktu ⁇ ren with data stored in the evaluation patterns realized.
- At least one of the camera modules has a Kommunikati ⁇ ons worn for the bidirectional transmission of image information / image or descriptive information, and the evaluation device, which according to claim 2 may also comprise multiple servers for different evaluation tasks.
- the camera modules preferably have a very simple mounting device, for. B. an adhesive surface for mounting on building or vehicle interior ceilings or walls. Precise alignment of the camera modules during assembly is not required. They can be glued ad hoc somewhere. It is only necessary to ensure that the range of bidirectional communication is greater than the distance between neighboring camera modules so that the camera module network does not break apart.
- the power supply of the camera modules can z. B. by mains connection or by accumulators, preferably with charging device by solar energy. If unavoidable, the camera modules may be equipped with mechanical devices and / or electric motors for aligning and / or focusing the sensors.
- Each camera module preferably has at least one image-processing computing unit, eg. As a signal processor with the necessary software and infrastructure, such as memory.
- computers are provided in the camera modules for controlling the power supply, the sensors, the image-processing computing units, the communication devices and possibly further functional units.
- a camera module can also serve, for example, as a mere relay station or as a communication node.
- the evaluation device for example in the form of a server unit accepts, in addition to the merging of information of the spatially distributed camera modules and the monitoring and control is preferably of the camera module network bis- toward the target of viewing angle and the display window of a ⁇ individual sensors of the camera modules.
- a method for configuring the communication according to claim 3 does not require manual planning or execution. Such a completely automatic configuration of the communication involves the following steps:
- the camera modules now run continuously for each of the etab ⁇ -profile point-to-point communication links with a suitable method, distance measurement and run through a list of in range similar camera modules with respect to their distances, characteristics and performance parameters.
- the communication device is preferably self-used by a runtime measurement is performed tion patterns of Informa ⁇ .
- precisely one camera module whose spatial position is defined as the origin of a relative coordinate system is selected in the formed camera module network.
- the camera module at the origin of this coordinate system now selects exactly one other camera module with a known distance, the position of which both the direction and also indicates the scaling of a first axis of the relative coordinate system.
- the relative coordinate system is hereby also defined with respect to a second axis in the case of a two-dimensional arrangement of the camera modules and, if appropriate, a third axis in the case of a spatial arrangement of the camera modules.
- redundant communication connections can be reduced as needed, so that some camera modules receive relay functions, up to the formation of communication nodes.
- At least a camera module being ⁇ is selected in the camera module network that communicatively connects the camera module network with at least one server, and thus a gate way between the camera module and the server network arrangement forms.
- the configuration of the image information or image-describing information of the camera modules can be done automatically, without any manual planning or execution.
- the camera modules determine continuously by means of a suitable alignment device ge ⁇ measuring their spatial orientation, and thus the orientation of their imaging sensors in the room.
- ge ⁇ measuring their spatial orientation, and thus the orientation of their imaging sensors in the room.
- the actual viewing angles and actual image sections of the individual sensors of a camera module of the monitoring device are known at all times.
- zoom operations ⁇ Can Change the image can be considered.
- the Aus ⁇ direction measurement can be supported in a simple design by suitable sensors in the camera module. Suitable for this Earth Magnet ⁇ example, field sensors, GPS (Global Positioning System) or tracking transmitter and receiver.
- the broad direction of the camera module network is the Installa ⁇ tion already fixed and the servers and camera modules or becomes known for the purpose of configuration made, so that ideally only a fine configuration must be performed automatically.
- the camera modules first determine which other camera modules can provide an overlapping image area and determine this highly accurately by image comparison with a suitable method of image processing, for example GPM (Global Pattern Matching).
- GPM Global Pattern Matching
- the image section is thus determined relative to the image sections of other camera modules in the room. It is advantageous, but not necessary, to convert all relatively specific image sections in the camera module network to an absolute coordinate system.
- This sensorless method can theoretically be carried out without knowledge of the coarse alignment, but because it requires a relatively complex image processing method.
- the camera modules continuously communicate the actual viewing angles and the actual image sections of their sensors with the aid of the communication devices, so that the actual values of all the imaging sensors in the camera module network and thus also in the servers are known at all times.
- the request will be distributed by the camera modules in camera module network, so that after a finite time the address ⁇ catalyzed camera module receives the request and the A ⁇ position of the target values make accordingly and can also confirm, if necessary in an analogous manner.
- the setting of the sensors can also be controlled cooperatively by the camera modules themselves.
- a camera module requests to an adjacent camera module, be ⁇ agreed to take over services or support their own SITUATE designated setting.
- a camera module 1 has the task of tracking the movement of a person. If the person enters the image area of the camera module 2 device, which can be detected due to the distributing ⁇ in the camera module network th information in the camera module 1, passes the camera module 1, the tracking task with the necessary information to the camera module. 2
- the camera module 1 has the task ⁇ to qualify an object, ie to determine what kind of object is qualitatively. Objective here is merely a brieflybe- written information about such a "person with Kin ⁇ derwagen".
- the camera module 1 white due to the ramodulnetzwerk distributed in Kame ⁇ information that the object also is located in the image area of the camera module 2, which has a different angle than the camera module. 1 Therefore, the camera module 1 requires Ka ⁇ meramodul 2 on at least one frame of the object and pulls it into their own assessment, that is, the determination of the type of the object, with a.
- the camera module may have a qualification cation of the object from the point of view of the camera module 2 ⁇ request and the result in its own processing Bewer ⁇ Include 1 from the camera module. 2
- a self-configuring monitoring device results both with regard to the communication and with regard to the sensor adjustment.
- the image processing by the camera modules and / or the server preferably includes complex functions, in particular the merging of information from multiple sensors - merging - the interpretation of the image contents, the processing of three-dimensional information and the object or person tracking via multiple cameras.
- the classification of objects or persons is an image description. such information: small or large, moving or unmoving, many or individuals, children or adults, elderly or young people, disabled people or people with prams.
- Thereby to minimize the required data rate of the communications devices ie corresponding abstracted information in the camera module ⁇ are preferably already pre-processed, passed network.
- the person tracking preferably only type, location, movement speed, direction of movement and similar information is communicated, but not image content.
- the function of the evaluation device or the server function preferably includes tasks on the basis of abstracted information of many camera modules. This includes, in particular, the merging of abstract information, ie the merging of the person movements classified by individual camera modules on the basis of the image-describing information passed on to the evaluation device, on a qualified passenger flow in a specific observation period, eg. B .: "On the way to the platform are z. Currently three people with prams or wheelchairs.
- the merging tasks also include the merging of information from fixed and movable camera modules, such as in the train station and in the train such:" Three people are leaving the train through the door xyz " ,
- the functions of the evaluation device or the server functions include further abstractions on the basis of the merged information, for example in such a way: "The platform is z. Currently very crowded, but will largely empty due to the outflow to the north. "Interpretation of the merged and abstracted information may also be provided, for example:” No problem on platform 7 ". For these abstractions and interpretations is z.
- B. a comparison method received by the camera modules Information with stored patterns.
- influence or information supply can be seen of an automated rail system pre ⁇ parent control systems.
- FIG. 1 shows an embodiment of a monitoring device according to the invention
- FIG. 2 shows a method sequence for configuring the communication of the monitoring device according to FIG. 1.
- each camera module Ia, Ib, Ic and Id has in this embodiment exactly four imaging sensors IaI, Ia2, Ia3, Ia4 to IdI, Id2, Id3 and Id4, whose views and image sections, which are here indicated gray under ⁇ indicated, partly with those of other camera modules overlap.
- the camera modules Ia, Ib, Ic and Id have been mounted randomly distributed and their sensors IaI, Ia2 to Id4 are purely random.
- the camera modules Ia, Ib, Ic and Id form a camera module network in which they are connected to the camera modules in their environment by point-to-point communication 2.
- the camera module Ic also acts as a gateway to an image processing server 3.
- an object 4 moves through the room and is detected by several camera modules simultaneously and / or sequentially.
- the object 4 is tracked by a plurality of camera modules which cooperatively coordinate for this task via the camera module network by respectively determining the camera module with the best view as the main tracker and passing the main tracker function according to the viewing conditions to adjacent camera modules.
- the picture information On several camera modules is used to obtain statements about the three-dimensionality of the object 4, whereby statements about volume, spatial distribution and motion sequences are possible.
- the server 3 interprets the information of several camera modules and classifies the object 4 as "He ⁇ grown man without luggage, who is very hasty.”
- FIG. 2 schematically shows a method for configuring the communication.
- the camera modules in Example Ia, Ib and Ic identify each other by radio communication and establish point-to-point communication links which allow the camera modules Ia, Ib and Ic to communicate their distances a, b, and c to each other determine.
- the camera modules Ia, Ib and Ic of the camera module network agree on the camera module Ia as the origin of a common relative coordinate system with the coordinates [0; 0].
- the camera module Ia selects the camera module Ib as a partner to define an x-axis of the relative coordinate system by giving the camera module Ib the coordinates [a; 0].
- the camera module Ic determines its coor dinates ⁇ calculated from its geometric distances c to the camera module Ia and b to the camera module Ib.
- the other camera modules determine their coordinates in the same Wei ⁇ se. From the resultant coordinates of the imaging sensors of the individual camera modules Ia, Ib, Ic and Id determ ⁇ men this the exact image area, wherein in Figure 2 the image area 5 of the sensor IdI of the camera module Id is exemplified.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Studio Devices (AREA)
- Alarm Systems (AREA)
Abstract
Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur visuellen Überwachung eines Raumbereiches, wobei vorgesehen ist, dass mehrere Kameramodule (1a, 1b, 1c, 1d) in ein Kameramodulnetzwerk integriert sind, welches mit einer Auswerteeinrichtung zur zielgerichteten Interpretation von Bildinformationen und/oder bildbeschreibenden Informationen der Kameramodule (1a, 1b, 1c, 1d) verbunden ist, wobei jedes Kameramodul (1a, 1b, 1c, 1d) mindesten einen bildgebenden Sensor (1a1, 1a2... 1d3, 1d4) und mindestens eine Kommunikationseinrichtung zur drahtlosen bidirektionalen Kommunikation mit mindestens einem weiteren Kameramodul (1b, 1c, 1d, 1a) und/oder mit der Auswerteeinrichtung aufweist.
Description
Beschreibung
Vorrichtung und Verfahren zur visuellen Überwachung eines Raumbereiches
Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur visuellen Überwachung eines Raumbereiches .
Überwachungen für Sicherheitszwecke erlangen in vielen Anwen- dungsfällen, auch im Umfeld von Transportsystemen, eine zunehmende Bedeutung. Gleichzeitig gibt es erhebliche Fort¬ schritte im Bereich der bildverarbeitenden Technologien. Bekannte Systeme auf der Basis von Überwachungskameras sind je¬ doch wenig anwendungsfreundlich, da sie mit viel Aufwand an- wendungsspezifisch geplant, konfiguriert, eingestellt und ge¬ wartet werden müssen.
Der Erfindung liegt die Aufgabe zugrunde, diese Nachteile zu beseitigen und eine Vorrichtung sowie ein Verfahren gattungs- gemäßer Art anzugeben, die eine erheblich gesteigerte Flexi¬ bilität bei der Installation und der Durchführung der Überwachung ermöglichen. Dabei ist insbesondere ein Plug-and-Play- Betrieb auch bei großen Anlagen anzustreben. Außerdem soll die Verfügbarkeit im Hinblick auf Sicherheitsanwendungen er- höht werden.
Erfindungsgemäß wird die Aufgabe dadurch gelöst, dass mehrere Kameramodule in ein Kameramodulnetzwerk integriert sind, wel¬ ches mit einer Auswerteeinrichtung zur zielgerichteten Inter- pretation von Bildinformationen und/oder bildbeschreibenden
Informationen der Kameramodule verbunden ist, wobei jedes Ka¬ meramodul mindestens einen, vorzugsweise digitalen, bildge¬ benden Sensor und mindestens eine Kommunikationseinrichtung zur drahtlosen bidirektionalen Kommunikation zu mindestens
einem weiteren Kameramodul und/oder mit der Auswerteeinrichtung aufweist .
Durch das Kameramodulnetzwerk ergibt sich eine universell an- wendbare Überwachungsvorrichtung, die auch für sicherheitsrelevante Anwendungen, beispielsweise im Eisenbahnumfeld, ge¬ eignet ist. Die Anzahl der in das Netzwerk integrierten Kameramodule ist dabei quasi unbegrenzt. Bevorzugt handelt es sich um hochintegrierte, intelligente Kameramodule, bei- spielsweise AXIS 214 PTZ Network Camera der Firma Axis Commu- nication, die sich mittels Plug-and-Play selbständig im Kame¬ ramodulnetzwerk anmelden und somit unmittelbar nach ihrer Installation für Überwachungsaufgaben zur Verfügung stehen. Die Kommunikationseinrichtung ist dabei derart ausgebildet, dass neu in das Kameramodulnetzwerk integrierte Kameramodule er¬ kannt werden, wie das beispielsweise bei Bluetooth der Fall ist .
Die Kameramodule sind mit mindestens einem digitalen bildge- benden Sensor, beispielsweise einer CCD-Charge-Coupled- Device-Matrix, ausgestattet. Für die Netzwerkfunktion besitzt jedes Kameramodul mindestens eine Kommunikationseinrichtung zur drahtlosen bidirektionalen Übertragung von Bildinformationen und/oder bildbeschreibenden Informationen.
Nicht für jede Aufgabenstellung ist es zielführend, komplette Bildinhalte der verschiedenen Kameramodule in der Auswerte¬ einrichtung zusammenzusetzen. Häufig genügen bildbeschreibende Informationen, beispielsweise derart, dass sich eine Per- son mit Kinderwagen auf dem Bahnsteig befindet. Diese Funkti¬ on ist vorzugsweise durch Vergleich empfangener Pixelstruktu¬ ren mit in der Auswerteeinrichtung gespeicherten Mustern realisierbar .
Mindestens eines der Kameramodule besitzt eine Kommunikati¬ onseinrichtung für die bidirektionale Übertragung von Bildinformationen und/oder bildbeschreibenden Informationen zu der Auswerteeinrichtung, die gemäß Anspruch 2 auch mehrere Server für unterschiedliche Auswerteaufgaben umfassen kann.
Die Kameramodule besitzen vorzugsweise eine sehr einfache Montageeinrichtung, z. B. eine Klebefläche zur Montage an Gebäude- oder Fahrzeuginnenraumdecken oder -Wänden. Eine präzi- se Ausrichtung der Kameramodule bei der Montage ist dabei nicht erforderlich. Sie können vielmehr ad hoc irgendwo angeklebt werden. Es ist lediglich dafür zu sorgen, dass die Reichweite der bidirektionalen Kommunikation größer ist als der Abstand benachbarter Kameramodule, damit das Kameramodul- netzwerk nicht auseinander bricht.
Die Energieversorgung der Kameramodule kann z. B. durch Netz- anschluss oder durch Akkumulatoren, bevorzugt mit Ladeeinrichtung durch Solarenergie, erfolgen. Falls nicht vermeid- bar, können die Kameramodule mit mechanischen Einrichtungen und/oder Elektromotoren zur Ausrichtung und/oder Fokussierung der Sensoren ausgestattet sein.
Bevorzugt besitzt jedes Kameramodul mindestens eine bildver- arbeitende Recheneinheit, z. B. einen Signalprozessor mit der erforderlichen Software und Infrastruktur, wie beispielsweise Speicher. Darüber hinaus sind in den Kameramodulen Rechner zur Steuerung der Energieversorgung, der Sensoren, der bildverarbeitenden Recheneinheiten, der Kommunikationseinrichtun- gen und ggf. weiterer Funktionseinheiten vorgesehen. Allerdings muss nicht jedes Kameramodul sämtliche Funktionseinhei¬ ten aufweisen. Ein Kameramodul kann beispielsweise auch als bloße Relaisstation oder als Kommunikationsknoten dienen.
Die Auswerteeinrichtung, beispielsweise in Form einer Serveranordnung, übernimmt neben dem Zusammenführen der Informationen der räumlich verteilten Kameramodule vorzugsweise auch die Überwachung und Steuerung des Kameramodulnetzwerkes bis- hin zur Vorgabe von Blickwinkel und Bildausschnitt der ein¬ zelnen Sensoren der Kameramodule.
Ein Verfahren zur Konfiguration der Kommunikation gemäß Anspruch 3 erfordert keine manuelle Planung oder Ausführung. Eine derartige, vollkommen selbsttätige Konfiguration der Kommunikation beinhaltet folgende Schritte:
- Bei eingeschalteter Energieversorgung sucht jedes Kameramodul laufend mit Hilfe seiner Steuereinheit nach kom¬ munikationsbereiten gleichartigen Kameramodulen und nach geeigneten Servern in Reichweite der Kommunikationseinrichtung und etabliert je eine Punkt-zu-Punkt-Kommunika- tionsVerbindung.
- Die Kameramodule führen nun laufend für jede der etab¬ lierten Punkt-zu-Punkt-Kommunikationsverbindungen mit einem geeigneten Verfahren eine Abstandsmessung durch und führen eine Liste der in Reichweite befindlichen gleichartigen Kameramodule bezüglich deren Entfernungen, Eigenschaften und Leistungsparameter. Für die Abstandsmessung wird bevorzugt die Kommunikationseinrichtung selbst genutzt, indem eine Laufzeitmessung von Informa¬ tionsmustern durchgeführt wird.
- Durch ein geeignetes koordinierendes Verfahren wird in dem gebildeten Kameramodulnetzwerk genau ein Kameramodul ausgewählt, dessen räumliche Position als Ursprung eines relativen Koordinatensystems definiert wird.
- Das Kameramodul im Ursprung dieses Koordinatensystems wählt nun genau ein anderes Kameramodul mit bekanntem Abstand aus, dessen Position sowohl die Richtung als
auch die Skalierung einer ersten Achse des relativen Koordinatensystems angibt. Das relative Koordinatensystem ist hiermit auch bezüglich einer zweiten Achse bei zweidimensionaler Anordnung der Kameramodule und gegebenen- falls einer dritten Achse bei räumlicher Anordnung der Kameramodule festgelegt.
- Die weiteren Kameramodule liegen nun jeweils in defi¬ nierten Abständen zu dem ersten und dem zweiten Kameramodul bekannter Position im relativen Koordinatensystem und lassen sich somit mathematisch einfach in diesem Koordinatensystem konfigurieren. Durch geeignete Abstimmung des Vorgangs unter den teilnehmenden Kameramodulen orten sich auf diese Art alle erreichbaren Kameramodule der Überwachungsvorrichtung im relativen Koordinatensys- tem gegenseitig.
- Durch einen geeigneten Algorithmus können nun bedarfsweise redundante Kommunikationsverbindungen abgebaut werden, so dass einige Kameramodule Relais-Funktionen erhalten, bis hin zur Ausbildung von Kommunikationskno- ten.
- Durch ein geeignetes koordinierendes Verfahren wird im Kameramodulnetzwerk mindestens ein Kameramodul ausge¬ wählt, welches das Kameramodulnetzwerk mit mindestens einen Server kommunikativ verbindet und somit ein Gate- way zwischen dem Kameramodulnetzwerk und der Serveranordnung bildet .
Zusätzlich zur Konfiguration der Kommunikation kann gemäß Anspruch 4 auch die Konfiguration der Bildinformationen oder bildbeschreibenden Informationen der Kameramodule selbsttätig, ohne jede manuelle Planung oder Ausführung erfolgen. Dazu sind die folgenden Schritte vorgesehen:
Die Kameramodule bestimmen laufend mit Hilfe einer ge¬ eigneten Einrichtung zur Ausrichtungsmessung ihre räumliche Ausrichtung und damit die Ausrichtung ihrer bildgebenden Sensoren im Raum. Damit sind die Ist-Blick- winkel und Ist-Bildausschnitte der einzelnen Sensoren eines Kameramoduls der Überwachungseinrichtung zu jeder Zeit bekannt . Dabei können auch durch Zoomvorgänge ver¬ änderbare Bildausschnitte berücksichtig werden. Die Aus¬ richtungsmessung kann in einer einfachen Ausführung durch geeignete Sensoren in dem Kameramodul unterstützt werden. Dafür geeignet sind beispielsweise Erdmagnet¬ feldsensoren, GPS-Empfänger (Global Positioning System) oder Peilsender und -empfänger. In einer komplexeren Ausführung, die ohne Sensoren auskommen kann, unter Um- ständen aber ergänzend zur einfachen Ausführung vorteilhaft ist, liegt die grobe Ausrichtung mit der Installa¬ tion des Kameramodulnetzwerkes bereits fest und ist den Servern und Kameramodulen bekannt oder wird zum Zweck der Konfiguration bekannt gemacht, so dass im Idealfall nur noch eine Feinkonfiguration automatisch durchgeführt werden muss. Dazu stellen die Kameramodule zunächst fest, welche anderen Kameramodule einen überlappenden Bildbereich liefern können und bestimmen diesen hochgenau durch Bildvergleich mit einem geeigneten Verfahren der Bildverarbeitung, beispielsweise GPM (Global Pattern Matching) . Der Bildausschnitt wird somit relativ zu den Bildausschnitten anderer Kameramodule im Raum bestimmt. Es ist vorteilhaft, aber nicht notwendig, alle relativ bestimmten Bildausschnitte im Kameramodulnetzwerk auf ein absolutes Koordinatensystem umzurechnen. Dieses sensorlose Verfahren kann theoretisch auch ohne Kenntnis der groben Ausrichtung ausgeführt werden, erfordert denn jedoch ein relativ komplexes Bildverarbeitungsverfahren.
- Die Kameramodule kommunizieren laufend die Ist-Blick¬ winkel und die Ist-Bildausschnitte ihrer Sensoren mit Hilfe der Kommunikationseinrichtungen, so dass die Ist- Werte aller bildgebenden Sensoren im Kameramodulnetzwerk und damit auch in den Servern zu jeder Zeit bekannt sind.
- Bevorzugt werden die Ist-Blickwinkel und Ist-Bildaus¬ schnitte in den Koordinaten angegeben, die durch das o- ben beschriebene relative Koordinatensystem im Raum be- stimmt sind. Somit wissen alle Kameramodule und Server zu jeder Zeit, welche Ausschnitte des Gesamtbildes mit welcher Kamera erfasst werden können. Das Gesamtbild ist dabei die gedachte dreidimensionale redundanzfreie Summe der Bildinformationen der Sensoren der Kameramodule. - Die Einstellung der einzelnen Sensoren kann in einer ersten Ausführungsmöglichkeit von einem oder von mehre¬ ren Servern aus erfolgen, die die geforderten Soll- Blickrichtungen und Soll-Bildausschnitte in Form einer Anforderung in das Kameramodulnetzwerk einspeisen. Die Anfrage wird von den Kameramodulen im Kameramodulnetzwerk verteilt, so dass nach endlicher Zeit das adres¬ sierte Kameramodul die Anforderung erhält und die Ein¬ stellung der Soll-Werte entsprechend vornehmen und ggf. in analoger Weise auch quittieren kann. In einer zwei- ten, ggf. zusätzlichen Ausführungsmöglichkeit kann die Einstellung der Sensoren auch von den Kameramodulen selbst kooperativ gesteuert stattfinden. Dabei fordert ein Kameramodul ein benachbartes Kameramodul auf, be¬ stimmte Leistungen zu übernehmen oder die eigene geeig- nete Einstellung zu unterstützen.
In einem ersten Beispiel hierfür hat ein Kameramodul 1 die Aufgabe, die Bewegung einer Person zu verfolgen. Wenn die Person in den Bildbereich des Kameramoduls 2
gerät, was aufgrund der im Kameramodulnetzwerk verteil¬ ten Informationen im Kameramodul 1 erkannt werden kann, übergibt das Kameramodul 1 die Verfolgungsaufgabe mit den dafür erforderlichen Informationen an das Kameramo- dul 2.
In einem anderen Beispiel hat das Kameramodul 1 die Auf¬ gabe, einen Gegenstand zu qualifizieren, d. h. zu bestimmen, um welche Art Gegenstand es sich qualitativ handelt. Zielsetzung ist hier lediglich eine bildbe- schreibende Information, etwa derart: "Person mit Kin¬ derwagen". Das Kameramodul 1 weiß aufgrund der im Kame¬ ramodulnetzwerk verteilten Information, dass der Gegenstand sich auch im Bildbereich des Kameramoduls 2 befindet, welche einen anderen Blickwinkel als das Kameramo- dul 1 aufweist. Das Kameramodul 1 fordert daher von Ka¬ meramodul 2 mindestens ein Einzelbild des Gegenstandes an und zieht dieses in die eigene Bewertung, d.h. die Bestimmung der Art des Gegenstandes, mit ein. Zusätzlich kann das Kameramodul 1 vom Kameramodul 2 eine Qualifi- zierung des Gegenstandes aus dem Blickwinkel des Kamera¬ moduls 2 anfordern und das Ergebnis in die eigene Bewer¬ tung mit einbeziehen.
Auf diese Weise ergibt sich eine selbstkonfigurierende Über- wachungsvorrichtung sowohl hinsichtlich der Kommunikation als auch hinsichtlich der Sensor Justierung.
Die Bildverarbeitung durch die Kameramodule und/oder die Server beinhaltet bevorzugt komplexe Funktionen, insbesondere das Verschmelzen von Informationen mehrerer Sensoren - Mer- ging -, die Interpretation der Bildinhalte, die Verarbeitung von dreidimensionalen Informationen und die Objekt- oder Personenverfolgung über mehrere Kameras. Bei der Klassifizierung von Objekten oder Personen handelt es sich um bildbeschrei-
bende Informationen derart: klein oder groß, bewegt oder unbewegt, Viele oder Einzelne, Kinder oder Erwachsene, ältere oder junge Menschen, behinderte Menschen oder Menschen mit Kinderwagen. Dabei werden bevorzugt bereits vorverarbeitete, d. h. entsprechend abstrahierte Informationen im Kameramodul¬ netzwerk weitergegeben, um die erforderliche Datenrate der Kommunikationseinrichtungen gering zu halten. Insbesondere bei der Personenverfolgung wird bevorzugt nur Typ, Ort, Bewegungsgeschwindigkeit, Bewegungsrichtung und ähnliche Informa- tion kommuniziert, nicht jedoch Bildinhalte.
Die Funktion der Auswerteeinrichtung bzw. die Serverfunktion beinhaltet bevorzugt Aufgaben auf der Basis abstrahierter In¬ formationen von vielen Kameramodulen. Dazu gehört insbesonde- re das Merging von abstrakten Informationen, d. h. das Zusammenführen der von einzelnen Kameramodulen klassifizierten Personenbewegungen anhand der an die Auswerteeinrichtung weitergereichten bildbeschreibenden Informationen, zu einem qualifizierten Personendurchfluss in einem bestimmten Betrach- tungszeitraum, z. B.: „Auf den Zuwegen zum Bahnsteig befinden sich z. Zt. drei Personen mit Kinderwagen oder Rollstühlen". Zu dem Merging-Aufgaben gehört auch das Zusammenführen von Informationen aus festen und beweglichen Kameramodulen, z. B. im Bahnhof und im Zug derart: „Drei Personen verlassen gerade den Zug durch die Tür xyz". Neben dem Merging beinhalten die Funktionen der Auswerteeinrichtung bzw. die Serverfunktionen weitere Abstraktionen auf der Basis der zusammengeführten Informationen, beispielsweise derart: „Der Bahnsteig ist z. Zt. sehr voll, wird sich jedoch aufgrund des Abflusses nach Nor- den weitgehend leeren". Auch Interpretation der zusammengeführten und abstrahierten Informationen kann vorgesehen sein, beispielsweise derart: „Kein Problem auf Bahnsteig 7". Für diese Abstraktionen und Interpretationen eignet sich z. B. ein Vergleichsverfahren der von den Kameramodulen empfangenen
Informationen mit hinterlegten Mustern. Darüber hinaus kann auch eine Beeinflussung oder Informationsversorgung übergeordneter Leitsysteme eines automatisierten Bahnsystems vorge¬ sehen sein.
Nachfolgend wird die Erfindung anhand figürlicher Darstellungen näher erläutert. Es zeigen:
Figur 1 eine Ausführungsform einer erfindungsgemäßen Überwachungseinrichtung und Figur 2 einen Verfahrensablauf zur Konfiguration der Kommunikation der Überwachungsvorrichtung gemäß Figur 1.
In beiden Figuren sind vier Kameramodule Ia, Ib, Ic und Id dargestellt, die an einer Raumdecke eines Bahnhofs verteilt angebracht sind. Jedes Kameramodul Ia, Ib, Ic und Id besitzt bei dieser Ausführungsform genau vier bildgebende Sensoren IaI, Ia2, Ia3, Ia4 bis IdI, Id2, Id3 und Id4, deren Blickrichtungen und Bildausschnitte, die hier grau unterlegt ange¬ deutet sind, sich teilweise mit denen anderer Kameramodule überschneiden. Die Kameramodule Ia, Ib, Ic und Id wurden willkürlich verteilt befestigt und ihre Sensoren IaI, Ia2 bis Id4 sind rein zufällig ausgerichtet. Die Kameramodule Ia, Ib, Ic und Id bilden ein Kameramodulnetzwerk, in dem sie mit den Kameramodulen in ihrer Umgebung durch Punkt-zu-Punkt- Kommunikation 2 verbunden sind. Das Kameramodul Ic fungiert außerdem als Gateway zu einem Bildverarbeitungs-Server 3. Im Beispiel bewegt sich ein Objekt 4 durch den Raum und wird von mehreren Kameramodulen gleichzeitig und/oder nacheinander er- fasst. Das Objekt 4 wird von mehreren Kameramodulen verfolgt, die sich für diese Aufgabe kooperativ über das Kameramodul¬ netzwerk abstimmen, indem jeweils das Kameramodul mit der besten Sicht als Hauptverfolger bestimmt wird und die Haupt¬ verfolgerfunktion entsprechend den Sichtverhältnissen an benachbarte Kameramodule weitergegeben wird. Die Bildinformati-
on mehrerer Kameramodule wird genutzt, um Aussagen zur Drei- dimensionalität des Objekts 4 zu erhalten, wodurch Aussagen zu Volumen, räumlicher Verteilung und Bewegungsabläufen möglich sind. Der Server 3 interpretiert die Informationen meh- rerer Kameramodule und klassifiziert das Objekt 4 als „Er¬ wachsener Mensch ohne Gepäck, der es sehr eilig hat".
In Figur 2 ist ein Verfahren zur Konfiguration der Kommunikation schematisch dargestellt. Zunächst identifizieren sich die Kameramodule, im Beispiel Ia, Ib und Ic gegenseitig auf funktechnischem Weg und etablieren Punkt-zu-Punkt-Kommunika- tionsverbindungen, welche es den Kameramodulen Ia, Ib und Ic ermöglichen, ihre Entfernungen a, b, und c zueinander zu ermitteln. Die Kameramodule Ia, Ib und Ic des Kameramodulnetz- werks einigen sich auf das Kameramodul Ia als Ursprung eines gemeinsamen relativen Koordinatensystems mit den Koordinaten [0;0] . Das Kameramodul Ia sucht sich das Kameramodul Ib als Partner aus, um eine x-Achse des relativen Koordinatensystems zu definieren, indem das Kameramodul Ib die Koordinaten [a;0] erhält. Anschließend bestimmt das Kameramodul Ic seine Koor¬ dinaten rechnerisch aus seinen geometrischen Abständen c zum Kameramodul Ia und b zum Kameramodul Ib. Auf die gleiche Wei¬ se bestimmen auch die weiteren Kameramodule ihre Koordinaten. Aus den sich daraus ergebenden Koordinaten der bildgebenden Sensoren der einzelnen Kameramodule Ia, Ib, Ic und Id bestim¬ men diese den genauen Bildbereich, wobei in Figur 2 beispielhaft der Bildbereich 5 des Sensors IdI des Kameramoduls Id dargestellt ist.
Claims
1. Vorrichtung zur visuellen Überwachung eines Raumbereiches, dadurch gekennzeichnet, dass mehrere Kameramodule (Ia, Ib, Ic, Id) in ein Kameramo¬ dulnetzwerk integriert sind, welches mit einer Auswerteeinrichtung zur zielgerichteten Interpretation von Bildinformationen und/oder bildbeschreibenden Informationen der Kameramodule (Ia, Ib, Ic, Id) verbunden ist, wobei jedes Kameramo- dul (Ia, Ib, Ic, Id) mindestens einen bildgebenden Sensor
(IaI, Ia2, Ia3, Ia4; IbI... Ic4; IdI, Id2, Id3, Id4) und min¬ destens eine Kommunikationseinrichtung zur drahtlosen bidirektionalen Kommunikation mit mindestens einem weiteren Kameramodul (Ib, Ic, Id, Ia) und/oder mit der Auswerteeinrichtung aufweist .
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Auswerteeinrichtung mindestens einen Server (3) um- fasst.
3. Verfahren zur Konfiguration der Kommunikation bei einer Vorrichtung nach einem der vorangehenden Ansprüche, gekennzeichnet durch folgende Schritte: - die Kameramodule (Ia, Ib, Ic, Id) etablieren mindestens eine Punkt-zu-Punkt-Kommunikation (2) mit mindestens einem weiteren Kameramodul (Ib, Ic, Id, Ia) ,
- die Kameramodule (Ia, Ib, Ic, Id) ermitteln für jede etab¬ lierte Punkt-zu-Punkt-Kommunikation (2) den Abstand (a, b, c) zwischen den beteiligten Kameramodulen (Ia, Ib, Ic),
- ein erstes Kameramodul (Ia) wird als Ursprung eines rela¬ tiven Koordinatensystems definiert, - das erste Kameramodul (Ia) wählt ein zweites Kameramodul
(Ib) mit bekanntem Abstand (a) aus, dessen Position Richtung und Skalierung einer ersten Achse (x) des relativen Koordinatensystems angibt und - die Positionen weiterer Kameramodule (Ic) werden anhand der ermittelten Abstände (b, c) relativ zu den Positionen des ersten (Ia) und des zweiten Kameramoduls (Ib) im rela¬ tiven Koordinatensystem bestimmt.
4. Verfahren zur Konfiguration der Bildinformationen und/oder bildbeschreibenden Informationen der Kameramodule (Ia, Ib, Ic, Id) nach Anspruch 3, gekennzeichnet durch folgende Schritte:
- die Kameramodule (Ia, Ib, Ic, Id) ermitteln die Ist- Blickwinkel und die Ist-Bildausschnitte ihrer bildgebenden Sensoren (IaI, Ia2...; Id3, Id4) in dem relativen Koordinatensystem,
- die Kameramodule (Ia, Ib, Ic, Id) übermitteln die Ist- Blickwinkel und die Ist-Bildausschnitte mit Hilfe ihrer Kommunikationseinrichtungen über das Kameramodulnetzwerk an die Auswerteeinrichtung,
- die Auswerteeinrichtung ermittelt zielgerichtete kameramo- dulspezifische Soll-Blickwinkel und Soll-Bildausschnitte und übermittelt diese über das Kameramodulnetzwerk an die einzelnen Kameramodule (Ia, Ib, Ic, Id) und
- die Kameramodule (Ia, Ib, Ic, Id) stellen Blickwinkel und Bildausschnitte ihrer bildgebenden Sensoren (IaI, Ia2...; Id3, Id4) entsprechend der übermittelten Soll-Werte ein.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006010955.4 | 2006-03-03 | ||
DE102006010955A DE102006010955B3 (de) | 2006-03-03 | 2006-03-03 | Verfahren zur visuellen Überwachung eines Raumbereiches |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2007101788A1 true WO2007101788A1 (de) | 2007-09-13 |
Family
ID=38110140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2007/051656 WO2007101788A1 (de) | 2006-03-03 | 2007-02-21 | Vorrichtung und verfahren zur visuellen überwachung eines raumbereiches |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102006010955B3 (de) |
WO (1) | WO2007101788A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012127312A1 (fr) * | 2011-03-22 | 2012-09-27 | Applications Techniques Études Réalisations Mécaniques Électroniques Systèmes | Système de surveillance |
EP3175308A4 (de) * | 2014-07-29 | 2018-04-25 | Samsung Electronics Co., Ltd. | Verfahren und vorrichtung zum mapping von sensorposition und ereignisoperation mit verwendung einer überwachungsvorrichtung |
CN109089107A (zh) * | 2017-06-14 | 2018-12-25 | 宁波舜宇光电信息有限公司 | 批量摄像模组测试设备及其测试系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4402608A (en) * | 1980-10-02 | 1983-09-06 | Solid Photography Inc. | Room scanning system using multiple camera and projector sensors |
US5164827A (en) * | 1991-08-22 | 1992-11-17 | Sensormatic Electronics Corporation | Surveillance system with master camera control of slave cameras |
WO2000008856A1 (en) * | 1998-08-07 | 2000-02-17 | Koninklijke Philips Electronics N.V. | Figure tracking in a multiple camera system |
US6028954A (en) * | 1988-11-18 | 2000-02-22 | Industrial Science & Technology, Kozo Iizuka, Director-General Of Agency | Method and apparatus for three-dimensional position measurement |
US20050057653A1 (en) * | 2002-05-07 | 2005-03-17 | Matsushita Electric Industrial Co., Ltd. | Surveillance system and a surveillance camera |
WO2005034060A1 (en) * | 2003-10-09 | 2005-04-14 | Moreton Bay Corporation Pty Ltd | System and method for image monitoring |
US6989745B1 (en) * | 2001-09-06 | 2006-01-24 | Vistascape Security Systems Corp. | Sensor device for use in surveillance system |
EP1619897A1 (de) * | 2004-07-22 | 2006-01-25 | Matsushita Electric Industrial Co., Ltd. | Kameraverbundsystem, Kameravorrichtung und Steuerverfahren für den Kameraverbund |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19744294C2 (de) * | 1997-10-07 | 1999-07-29 | Videocon Ag | Verfahren und Vorrichtung zum Überwachen eines Zielbereichs von einem entfernten Standort aus |
US7212228B2 (en) * | 2002-01-16 | 2007-05-01 | Advanced Telecommunications Research Institute International | Automatic camera calibration method |
GB2389978A (en) * | 2002-06-17 | 2003-12-24 | Raymond Joseph Lambert | Event-triggered security monitoring apparatus |
-
2006
- 2006-03-03 DE DE102006010955A patent/DE102006010955B3/de not_active Expired - Fee Related
-
2007
- 2007-02-21 WO PCT/EP2007/051656 patent/WO2007101788A1/de active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4402608A (en) * | 1980-10-02 | 1983-09-06 | Solid Photography Inc. | Room scanning system using multiple camera and projector sensors |
US6028954A (en) * | 1988-11-18 | 2000-02-22 | Industrial Science & Technology, Kozo Iizuka, Director-General Of Agency | Method and apparatus for three-dimensional position measurement |
US5164827A (en) * | 1991-08-22 | 1992-11-17 | Sensormatic Electronics Corporation | Surveillance system with master camera control of slave cameras |
WO2000008856A1 (en) * | 1998-08-07 | 2000-02-17 | Koninklijke Philips Electronics N.V. | Figure tracking in a multiple camera system |
US6989745B1 (en) * | 2001-09-06 | 2006-01-24 | Vistascape Security Systems Corp. | Sensor device for use in surveillance system |
US20050057653A1 (en) * | 2002-05-07 | 2005-03-17 | Matsushita Electric Industrial Co., Ltd. | Surveillance system and a surveillance camera |
WO2005034060A1 (en) * | 2003-10-09 | 2005-04-14 | Moreton Bay Corporation Pty Ltd | System and method for image monitoring |
EP1619897A1 (de) * | 2004-07-22 | 2006-01-25 | Matsushita Electric Industrial Co., Ltd. | Kameraverbundsystem, Kameravorrichtung und Steuerverfahren für den Kameraverbund |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012127312A1 (fr) * | 2011-03-22 | 2012-09-27 | Applications Techniques Études Réalisations Mécaniques Électroniques Systèmes | Système de surveillance |
FR2973142A1 (fr) * | 2011-03-22 | 2012-09-28 | Atermes | Systeme de surveillance |
CN103548064A (zh) * | 2011-03-22 | 2014-01-29 | 机电系统技术应用研究工程公司 | 监视系统 |
EP3175308A4 (de) * | 2014-07-29 | 2018-04-25 | Samsung Electronics Co., Ltd. | Verfahren und vorrichtung zum mapping von sensorposition und ereignisoperation mit verwendung einer überwachungsvorrichtung |
CN109089107A (zh) * | 2017-06-14 | 2018-12-25 | 宁波舜宇光电信息有限公司 | 批量摄像模组测试设备及其测试系统 |
Also Published As
Publication number | Publication date |
---|---|
DE102006010955B3 (de) | 2007-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3070564B1 (de) | Fahrzeugverbund und verfahren zum bilden und betreiben eines fahrzeugverbundes | |
EP3371800B1 (de) | Verfahren und vorrichtung zur auswahl und übertragung von sensordaten von einem ersten zu einem zweiten kraftfahrzeug | |
DE102006041569B4 (de) | Verfahren zur Fahrzeug-zu-Fahrzeug-Kommunikation | |
EP1987370B1 (de) | Sensor-/aktor-anordnung und verfahren zum lokalisieren bzw. leiten von beweglichen objekten und/oder personen auf einer fläche mit hilfe einer sensor-/aktor-anordnung | |
EP3440654B1 (de) | Verfahren und system zur erfassung von geparkten fahrzeugen | |
DE102013215208A1 (de) | Verfahren und Vorrichtung zur Einparkunterstützung eines Fahrzeuges | |
EP3552194B1 (de) | Verfahren zur bereitstellung von ergebnisdaten, die von einem kraftfahrzeugumfeld abhängen | |
DE102017213601A1 (de) | Verfahren zum Erstellen einer Objektkarte für eine Fabrikumgebung | |
DE102016218934A1 (de) | Verfahren zum Datenaustausch und Datenfusionierung von Umfelddaten | |
EP3774499B1 (de) | Verfahren zur überwachung und steuerung eines fernbedienten park- oder manövriervorgangs eines fahrzeugs | |
EP1273516A1 (de) | Einrichtung zum Erfassen optischer Informationen | |
DE112018003025T5 (de) | Bildgebungssystem für ein fahrzeug, serversystem und bildgebungsverfahren für ein fahrzeug | |
DE102019129169A1 (de) | Systeme und Verfahren zum Bestimmen der Parkplatzverfügbarkeit auf Etagen von mehrstöckigen Einheiten | |
EP4116790B1 (de) | Steuer- und navigationsvorrichtung für ein autonom bewegtes system und autonom bewegtes system | |
EP3475922A1 (de) | Verfahren und fahrzeugsteuersystem zum erzeugen von abbildungen eines umfeldmodells und entsprechendes fahrzeug | |
WO2014090819A2 (de) | Überwachungsanlage für einen überwachungsbereich, verfahren sowie computerprogramm | |
DE102006010955B3 (de) | Verfahren zur visuellen Überwachung eines Raumbereiches | |
EP3511920B1 (de) | Parkassistenzsystem mit entfernter konfiguration eines lokalen neuronalen netzes | |
EP2064684A1 (de) | Verfahren zum betreiben mindestens einer kamera | |
WO2017089364A1 (de) | Multifunktionale kameraeinheit zur kopplung an einem ersten mobilen trägersystem | |
DE102017223585A1 (de) | Verfahren und Vorrichtung zur Auswahl und Übertragung von Sensordaten von einem ersten zu einem zweiten Kraftfahrzeug | |
DE102019129612A1 (de) | Fahrzeugverwaltungsystem, fahrzeug, verwaltungsvorrichtung, steuerverfahren und computerprogramm | |
DE102017200158A1 (de) | Verfahren und Vorrichtung zum Betreiben eines an einer ersten Position abgestellten Kraftfahrzeugs | |
DE10001252B4 (de) | Überwachungssystem | |
EP3267700B1 (de) | Verfahren zum austausch und anzeigen von standortbezogenen informationen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
DPE2 | Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101) | ||
121 | Ep: the epo has been informed by wipo that ep was designated in this application | ||
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 07704678 Country of ref document: EP Kind code of ref document: A1 |