WO2009146756A1 - Image processing apparatus with calibration module, method for calibration and computer program - Google Patents

Image processing apparatus with calibration module, method for calibration and computer program Download PDF

Info

Publication number
WO2009146756A1
WO2009146756A1 PCT/EP2008/065529 EP2008065529W WO2009146756A1 WO 2009146756 A1 WO2009146756 A1 WO 2009146756A1 EP 2008065529 W EP2008065529 W EP 2008065529W WO 2009146756 A1 WO2009146756 A1 WO 2009146756A1
Authority
WO
WIPO (PCT)
Prior art keywords
detectors
surveillance
monitoring
area
image processing
Prior art date
Application number
PCT/EP2008/065529
Other languages
German (de)
French (fr)
Inventor
Marcel Merkel
Hartmut Loos
Jan Karl Warzelhan
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to EP08874527A priority Critical patent/EP2300961A1/en
Publication of WO2009146756A1 publication Critical patent/WO2009146756A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Definitions

  • Image processing device with calibration module with calibration module, method for calibration and computer program
  • DE 10 2006 027120 A1 proposes an image processing method for detecting and processing visual obstacles in a surveillance scene, wherein a plurality of state data records of a surveillance object are detected, each having an object position and a size measured at the object position, ie height, of the surveillance object Include an image sequence in an image. By comparing the measured size of the monitored object with a modeled, perspective size of the monitored object at the same object position, one of the visual obstacles is concluded.
  • the image processing method is based on the fact that the monitoring object is assigned to a class, for example persons, of whom a middle one belongs or usual size is known and based on this size, the modeled, perspective size is determined.
  • the invention relates to an image processing device which is suitable and / or designed as an additional module or as an integral part of a video surveillance system.
  • the video surveillance system preferably includes a plurality of surveillance cameras directed to relevant surveillance areas in a real 3D scene.
  • at least one monitoring object, but also several monitoring objects, and at least one masking geometry or several, can be present in the surveillance area (s)
  • the detection module is designed in terms of programming and / or circuitry such that the quantity of the subarea detectors after the evaluation are subdivided into a positive quantity and a negative quantity and optionally into a neutral quantity.
  • the positive quantity are assigned to partial area detectors which have positively recognized the respective corresponding partial area of the monitored object.
  • the negative quantity relates to the subarea detectors for which the associated subarea of the surveillance object was not recognized. Partial range detectors are classified in the optional neutral quantity, which have not provided any information for any other reason.
  • the image processing device has a calibration module, which is formed by circuitry and / or programming technology, based on a detected monitoring object with a negative quantity, a depth map and / or a masking geometry for the
  • Calibrate monitoring area in particular to generate and / or to update.
  • the depth map is preferably formed as a relation between the spatial and / or 3D properties of the surveillance area and the image of the surveillance area by the video camera, ie the 2D image of the surveillance scene in the image plane of the video camera.
  • each point of the monitored area, ie the surveillance scene is assigned a real, three-dimensional object point in the surveillance area.
  • Depth card can also be calibrated in monitoring areas where almost no floor surface of the monitoring area can be seen.
  • the amount of subregion detectors is specific and / or selective for a surveillance object type or genus.
  • a corresponding surveillance object type are, for example, persons, in particular adult persons or children, cars, motorcycles, shopping carts, etc. Because the quantity of subarea detectors is specifically or selectively designed for a surveillance object type, expert knowledge of the interpretation of the detection results
  • Monitoring object type are introduced. For example, an average adult size of 1.80 m is assumed.
  • the calibration module is formed, so that when a negative amount Masking geometry is identified or suspected in the region of the subset detectors of the negative set.
  • the subarea detectors of a common set assign a defined spatial relation to one another, which is given by the surveillance object type. For example, divide one person into several
  • Partial area detectors which comprise a head detector, a body detector and a bed detector as subareas detectors, can, in the assignment of the head detector and the body detector to the positive quantities and the Beindetektors to the negative amount to a concealment geometry in the area of Beindetektors, ie vertically below the head. and / or the Beindetektors be closed.
  • the surveillance object in the case of a monitoring object with a negative quantity, is extrapolated using the positive quantity and a depth line or edge and / or a
  • the monitoring object is extrapolated in a vertical, ground-facing direction of the surveillance area in order to generate the depth edge.
  • the position information of the depth edge or the foot point which is concealed in the current situation of the monitoring area by a Verdeckungsgeometrie, can be used to calibrate the depth map.
  • Another object of the invention relates to a method for calibration, in particular generation and / or updating, a depth map and / or concealment geometry in a surveillance area, preferably using the image processing apparatus according to one of the preceding claims or as just described with the features of the claim 8th.
  • a set of partial area detectors is applied to a surveillance object, wherein the partial area detectors detect different partial areas of the surveillance object, in particular independently of one another.
  • first moving objects are segmented from the background, in particular the scene background, which takes place, for example, by subtracting a current image from a scene reference image.
  • One or the set of partial area detectors is applied to each found object.
  • a single set of subarea detectors suffices. For monitoring areas in which several monitoring object types can occur, several quantities can optionally be used.
  • the set of partial area detectors is designed to detect a person. It is particularly preferred that the quantity of subarea detectors has at least one cardinality of two, wherein preferably at least four subareate detectors are arranged vertically one above the other with respect to the surveillance area.
  • the subarea detectors may be adjacent, adjacent and / or overlapping each other.
  • FIG. 2 shows a schematic representation of a set of partial area detectors on
  • Figure 3 is a schematic application example of the amount of
  • a base point 4 of the moving monitoring object 2 represents the free end of the vertical extent of the monitored object 2 in the direction of the ground.
  • Determination of the foot 4 is implemented by the moving monitoring object 2 is circumscribed by a so-called bounding box 5 and the center of the foot edge 6 of the bounding box 5 is interpreted as foot 4.
  • Other monitoring objects 2 can also be detected by this procedure.
  • the bounding box 5 is determined by known image processing algorithms, wherein, for example, in a first step, the moved monitoring object is separated from the substantially static background and then segmented. The segmented regions are subsequently circumscribed with search rectangles or bounding boxes 5, and the content of the search rectangles is verified as searched surveillance objects 2 via classification devices.
  • FIG. 2 shows a modified approach for detecting the surveillance object 2 as an exemplary embodiment of the invention, wherein subareas detectors 7 a to 7 e are used instead of a detector covering the entire surveillance object 2, each covering only a specific subarea of the surveillance object 2.
  • the head detector 7 a for the detection of the head
  • the shoulder detector 7 b for detecting the shoulder area
  • the upper body detector 7 c for detection of the upper body
  • the center body detector 7 d for detection of the hip area
  • the foot detector 7e designed for the detection of the feet / legs.
  • the knowledge of the concealment edge 10 can be used to supplement a collection about the concealment geometries in the surveillance area 1, the base point 4 can be used to calibrate a depth map, that is a relation between the course of a horizontal plane in the surveillance area 1 with the two-dimensional image of the surveillance area 1, be used.
  • FIG. 4 shows a schematic block diagram of a video surveillance system 11, which is connected to a plurality of surveillance cameras 12, which are designed and / or arranged to monitor one or more surveillance areas 1.
  • the image data recorded by the surveillance cameras 12 are forwarded to an image processing device 13, which is designed to calibrate masking geometries or a depth map, respectively.
  • moving monitoring objects 2 are segmented from the background of the surveillance area or zones 1.
  • the segmentation is carried out, for example, by subtracting the current surveillance image from a scene reference image.
  • At least one set of partial area detectors 7 a to e is executed on one, some or each segmented monitoring object 2, the partial area detectors 7 a to e depending on the result, for example a classification device of the partial area detector 7 a to e, into a positive quantity 8 or a negative quantity 9 are divided.
  • the data of the detected and partially concealed monitoring object 2 are transferred from the detection module 15 into a first obscuring geometry estimation module 16 and into a second footfall estimation module 17.
  • the second estimation module 17 extrapolates as described
  • Monitoring object 2 passes the estimated foot point 4 together with the further information of the monitoring object 2 to a database 19, which includes information about a depth map, that is, about the depth extent of the monitored area monitored 1.
  • a database 19 which includes information about a depth map, that is, about the depth extent of the monitored area monitored 1.
  • Both databases 18 and 19 can so in the monitoring mode optionally calibrated for the first time, supplemented or constantly updated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

With the aim of relieving the load on monitoring personnel and improving the monitoring quality, image processing methods have been proposed which automatically evaluate the recorded video data using digital image processing. Customary methods involve moving monitored objects being isolated from the essentially static scene background, tracked over time and an alarm being triggered in the event of relevant movements. However, the video data first of all show only a two-dimensional representation of the monitoring areas. Tracking the monitored object over time - also called trajectory - without further evaluation thus provides no inference of the actual trajectory of the monitored object in the monitoring area. An image processing apparatus 13 for a video monitoring system for monitoring a monitoring area 1, which may have at least one monitored object 2 and at least one concealment geometry 3, with a detection module 15 which is designed to detect one of the monitored objects 2 is proposed, wherein the monitored object 2 is detected on the basis of a set of subarea detectors 7a-e which detect different subareas of the monitored object 2, and wherein detection of the monitored object 2 prompts the set of subarea detectors 7a-e to be divided into a positive set 8 of subarea detectors which have identified the associated subarea of the monitored object 2 and into a negative set 9 of subarea detectors which have not identified the associated subarea of the monitored object 2, with a calibration module 16, 17 which is designed to calibrate a depth map and/or a concealment geometry for the monitoring area 1 on the basis of a detected monitoring object 2 with a negative quantity 8.

Description

Beschreibung description
Titeltitle
Bildverarbeitungsvorrichtung mit Kalibrierungsmodul, Verfahren zur Kalibrierung sowie ComputerprogrammImage processing device with calibration module, method for calibration and computer program
Stand der TechnikState of the art
Die Erfindung betrifft eine Bildverarbeitungsvorrichtung für ein Videoüberwachungssystem zur Überwachung eines Überwachungsbereichs, welcher mindestens ein Überwachungsobjekt und mindestens eine Verdeckungsgeometrie aufweisen kann, mit einem Detektionsmodul, welches ausgebildet ist, eines der Überwachungsobjekte zu detektieren, wobei die Detektion des Überwachungsobjekts auf Basis einer Menge von Teilbereichsdetektoren erfolgt, die unterschiedliche Teilbereiche des Überwachungsobjekts detektieren, und wobei bei der Detektion des Überwachungsobjekts die Menge der Detailbereichsdetektoren in eine Positivmenge vonThe invention relates to an image processing apparatus for a video surveillance system for monitoring a surveillance area, which may have at least one surveillance object and at least one masking geometry, with a detection module, which is designed to detect one of the monitored objects, wherein the detection of the monitored object is based on a set of partial area detectors , which detect different portions of the surveillance object, and wherein upon detection of the surveillance object, the amount of the detail area detectors into a positive amount of
Teilbereichsdetektoren, welche den zugeordneten Teilbereich des Überwachungsobjekts erkannt haben, und in eine Negativmenge von Teilbereichsdetektoren, welche den zugeordneten Teilbereich des Überwachungsobjekts nicht erkannt haben, unterteilt wird. Die Erfindung betrifft auch ein Verfahren zur Kalibrierung sowie ein entsprechendes Computerprogramm.Subarea detectors, which have detected the associated portion of the surveillance object, and in a negative amount of subarea detectors, which have not recognized the associated portion of the surveillance object is divided. The invention also relates to a method for calibration and to a corresponding computer program.
Videoüberwachungssysteme werden oftmals zur Überwachung von öffentlichen Plätzen oder Gebäuden, wie zum Beispiel Bahnhöfen, Straßenkreuzungen, Bibliotheken, Krankenhäusern etc., jedoch auch für Privatbereiche, wie zum Beispiel als Fabriküberwachung etc. eingesetzt. Derartige Videoüberwachungssysteme umfassen üblicherweise eine oder mehrere Überwachungskameras, welche auf relevante Überwachungsbereiche gerichtet sind. Die von den Überwachungskameras erzeugten Videodaten werden bei vielen Ausführungsformen in einer Überwachungszentrale zusammengeführt und dort entweder manuell durch Überwachungspersonal oder automatisiert ausgewertet. Mit dem Ziel, Überwachungspersonal zu entlasten und die Überwachungsqualität zu verbessern, sind Bildverarbeitungsverfahren vorgeschlagen worden, welche die aufgenommenen Videodaten automatisiert über digitale Bildverarbeitung auswerten. Bei üblichen Verfahren werden bewegte Überwachungsobjekte vom im Wesentlichen statischen Szenenhintergrund getrennt, über die Zeit verfolgt und bei relevanten Bewegungen ein Alarm ausgelöst. Allerdings zeigen die Videodaten zunächst nur eine zweidimensionale Darstellung der Überwachungsbereiche bzw. 2D-Abbildungen der Überwachungsbereiche in der Bildebene der Überwachungskameras. Eine Verfolgung des Überwachungsobjekts über die Zeit - auch Trajektorie genannt - gibt ohne weitereVideo surveillance systems are often used to monitor public places or buildings, such as train stations, intersections, libraries, hospitals, etc., but also for private use, such as factory surveillance. Such video surveillance systems typically include one or more surveillance cameras directed to relevant surveillance areas. The video data generated by the surveillance cameras are combined in many embodiments in a monitoring center and there evaluated either manually by monitoring personnel or automated. With the aim of relieving monitoring personnel and improving the quality of surveillance, image processing methods have been proposed which evaluate the recorded video data automatically via digital image processing. In conventional methods, moving monitoring objects are separated from the essentially static scene background, tracked over time and triggered an alarm for relevant movements. However, the video data initially only show a two-dimensional representation of the surveillance areas or 2D images of the surveillance areas in the image plane of the surveillance cameras. A tracking of the surveillance object over time - also called trajectory - gives without further
Auswertung somit keinen Rückschluss auf die tatsächliche Bewegungsbahn des Überwachungsobjekts in dem Überwachungsbereich bzw. auf die Bewegungsbahn in der realen 3D-Szene. Mithilfe einer so genannten Tiefenkarte, welche einen Zusammenhang zwischen dem abgebildeten Überwachungsbereich - auch Überwachungsszene genannt - und den tatsächlichen räumlichen Verhältnissen darstellt, ist es möglich, einenEvaluation thus no conclusion on the actual trajectory of the monitored object in the surveillance area or on the trajectory in the real 3D scene. By means of a so-called depth map, which shows a connection between the monitored area - also called surveillance scene - and the actual spatial conditions, it is possible to use a
Zusammenhang zwischen der zweidimensionalen Bewegung des Überwachungsobjekts auf dem Videobild und der tatsächlichen Trajektorie des Überwachungsobjekts in dem Überwachungsbereich bzw. in der realen 3D-Szene herzustellen.Establish the relationship between the two-dimensional movement of the surveillance object on the video image and the actual trajectory of the surveillance object in the surveillance area or in the real 3D scene.
Ein anderes Problem in diesem Zusammenhang ergibt sich durch die Existenz von weiteren Objekten, insbesondere stationären und/oder quasi-stationären Objekten in dem Überwachungsbereich, welche das Überwachungsobjekt abschnittsweise und/oder temporär verdecken. Derartige Verdeckungsobjekte erschweren die Erkennung und die Verfolgung der Überwachungsobjekte.Another problem in this context results from the existence of further objects, in particular stationary and / or quasi-stationary objects in the surveillance area, which obscure the surveillance object in sections and / or temporarily. Such obscuration obstructs the detection and tracking of the surveillance objects.
In diesem Zusammenhang schlägt die Druckschrift DE 10 2006 027120 Al ein Bildverarbeitungsverfahren zur Erkennung und Verarbeitung von Sichthindernissen in einer Überwachungsszene vor, wobei mehrere Zustandsdatensätze eines Überwachungsobjekts erfasst werden, die jeweils eine Objektposition und eine an der Objektposition gemessene Größe, also Höhe, des Überwachungsobjekts in einem Bild eine Bildersequenz umfassen. Durch einen Vergleich der gemessenen Größe des Überwachungsobjekts mit einer modellierten, perspektivischen Größe des Überwachungsobjekts an der gleichen Objektposition wird auf eines der Sichthindernisse geschlossen. Das Bildverarbeitungsverfahren beruht darauf, dass das Überwachungsobjekt einer Klasse, z.B. Personen, zugeordnet wird, von der eine mittlere oder übliche Größe bekannt ist und auf Basis dieser Größe die modellierte, perspektivische Größe ermittelt wird.In this context, DE 10 2006 027120 A1 proposes an image processing method for detecting and processing visual obstacles in a surveillance scene, wherein a plurality of state data records of a surveillance object are detected, each having an object position and a size measured at the object position, ie height, of the surveillance object Include an image sequence in an image. By comparing the measured size of the monitored object with a modeled, perspective size of the monitored object at the same object position, one of the visual obstacles is concluded. The image processing method is based on the fact that the monitoring object is assigned to a class, for example persons, of whom a middle one belongs or usual size is known and based on this size, the modeled, perspective size is determined.
In dem wissenschaftlichen Artikel von M. A. Sotelo, I. Renno, J. Orwell und G. Jones:„Pedestrian Detection Using SVM and Multi-Feature Combination", IEEEIn the scientific article by M.A. Sotelo, I. Renno, J. Orwell and G. Jones: "Pedestrian Detection Using SVM and Multi-Feature Combination", IEEE
Intelligent Transportation Systems Conference, September 17-20 2006 wird zur Detektion von Passanten vorgeschlagen, zum einen in einem klassischen Ansatz einer Person über eine sogenannte Bounding-Box, welche den gesamten Passanten umschließt, zur Detektion zu verwenden. Alternativ wird ein Komponenten- Ansatz beschrieben, wobei der Körper der Person in mehrere Teilbereiche unterteilt wird und jederIntelligent Transportation Systems Conference, September 17-20 2006 is proposed for the detection of passers-by, in a classical approach of a person using a so-called bounding box, which encloses the entire passers-by, to use for detection. Alternatively, a component approach is described wherein the body of the person is divided into several sections and each one
Teilbereich unabhängig voneinander durch einen spezifischen Detektor oder Klassifizierer gelernt wird. Die einzelnen lokalen Teilbereiche des Körpers werden in einem weiteren Schritt zu der Person in der Gesamtheit zusammengesetzt. Dieser wissenschaftliche Artikel bildet wohl den nächstkommenden Stand der Technik.Subarea is independently learned by a specific detector or classifier. The individual local parts of the body are assembled in a further step to the person in the totality. This scientific article is probably the closest state of the art.
Offenbarung der ErfindungDisclosure of the invention
Im Rahmen der Erfindung wird eine Bildverarbeitungsvorrichtung mit den Merkmalen des Anspruchs 1 , ein Verfahren zur Kalibrierung mit den Merkmalen des Anspruchs 8 sowie ein Computerprogramm mit den Merkmalen des Anspruchs 11 vorgeschlagen.In the context of the invention, an image processing apparatus with the features of claim 1, a method for calibration with the features of claim 8 and a computer program with the features of claim 11 is proposed.
Bevorzugte oder vorteilhafte Ausführungsformen der Erfindung ergeben sich aus den Unteransprüchen, der nachfolgenden Beschreibung und den beigefügten Figuren.Preferred or advantageous embodiments of the invention will become apparent from the subclaims, the following description and the accompanying figures.
Die Erfindung betrifft eine Bildverarbeitungsvorrichtung, welche als ein Zusatzmodul oder als ein integraler Teil eines Videoüberwachungssystems geeignet und/oder ausgebildet ist. Das Videoüberwachungssystem umfasst vorzugsweise eine Mehrzahl von Überwachungskameras, welche auf relevante Überwachungsbereiche in einer realen 3D- Szene gerichtet ist. In dem oder den Überwachungsbereichen können - je nach tatsächlichem Ereignis - mindestens ein Überwachungsobjekt, jedoch auch mehrere Überwachungsobjekte, und mindestens eine Verdeckungsgeometrie bzw. mehrereThe invention relates to an image processing device which is suitable and / or designed as an additional module or as an integral part of a video surveillance system. The video surveillance system preferably includes a plurality of surveillance cameras directed to relevant surveillance areas in a real 3D scene. Depending on the actual event, at least one monitoring object, but also several monitoring objects, and at least one masking geometry or several, can be present in the surveillance area (s)
Verdeckungsgeometrien erscheinen. Die Verdeckungsgeometrie kann als eine temporäre, quasi-stationäre oder stationäre Geometrie ausgebildet sein. Unter Verdeckungsgeometrie wird vorzugsweise jedes Objekt verstanden, welches zu einer optischen Verdeckung des Überwachungsobjekts führt bzw. führen kann. Es kann beispielsweise als eine Mauer, eine Bank, ein Schrank, ein Regal, eine Treppe etc. ausgebildet sein. Die Bildverarbeitungsvorrichtung umfasst ein Detektionsmodul, welches programmtechnisch und/oder schaltungstechnisch ausgebildet ist, eines der Überwachungsobjekte zu detektieren. Zu dem Schritt des Detektierens wird vorzugsweise auch das Segmentieren und/oder Erkennen und/oder Klassifizieren desMasking geometries appear. The masking geometry may be formed as a temporary, quasi-stationary or stationary geometry. Concealment geometry is preferably understood to mean any object which leads or can lead to an optical concealment of the surveillance object. It may be formed, for example, as a wall, a bench, a cabinet, a shelf, a staircase, etc. The image processing device comprises a detection module, which is designed in terms of programming technology and / or circuitry to detect one of the monitored objects. The step of detecting is preferably also the segmentation and / or recognition and / or classification of the
Überwachungsobjekts gezählt.Monitored object.
Die Detektion erfolgt dabei auf Basis einer Menge von Teilbereichsdetektoren, welche jeweils unterschiedliche Teilbereiche des Überwachungsobjekts detektieren. Die Teilbereichsdetektoren können beispielsweise analog zu den Teilbereichsdetektoren in dem eingangs gewürdigten wissenschaftlichen Artikel von Sotelo et al. ausgebildet sein. Bei einer möglichen Umsetzung der Erfindung sind die Teilbereichsdetektoren als Klassifizierungseinrichtungen ausgebildet, welche den Bildinhalt eines Suchbereichs, oftmals als rechteckige Bounding-Box ausgebildet, auf die Existenz des Teilbereichs untersuchen.The detection takes place on the basis of a set of partial area detectors, which respectively detect different partial areas of the monitored object. The partial area detectors can be used, for example, in analogy to the partial area detectors in the scientific article by Sotelo et al. be educated. In one possible implementation of the invention, the subareas detectors are designed as classification devices which examine the image content of a search area, often designed as a rectangular bounding box, for the existence of the subarea.
Das Detektionsmodul ist programmtechnisch und/oder schaltungstechnisch ausgebildet, dass die Menge der Teilbereichsdetektoren nach der Auswertung in eine Positivmenge und in eine Negativmenge und optional in eine Neutralmenge unterteilt werden. Der Positivmenge werden Teilbereichsdetektoren zugeordnet, welche den jeweils korrespondierenden Teilbereich des Überwachungsobjekts positiv erkannt haben. Die Negativmenge betrifft die Teilbereichsdetektoren, bei denen der zugeordnete Teilbereich des Überwachungsobjekts nicht erkannt wurde. In die optionale Neutralmenge werden Teilbereichsdetektoren eingeordnet, welche aus beliebigen anderen Gründen keine Aussage geliefert haben.The detection module is designed in terms of programming and / or circuitry such that the quantity of the subarea detectors after the evaluation are subdivided into a positive quantity and a negative quantity and optionally into a neutral quantity. The positive quantity are assigned to partial area detectors which have positively recognized the respective corresponding partial area of the monitored object. The negative quantity relates to the subarea detectors for which the associated subarea of the surveillance object was not recognized. Partial range detectors are classified in the optional neutral quantity, which have not provided any information for any other reason.
Die Erfindung schlägt nun vor, dass die Bildverarbeitungsvorrichtung ein Kalibrierungsmodul aufweist, welches schaltungstechnisch und/oder programmtechnisch ausgebildet ist, auf Basis von einem detektierten Überwachungsobjekt mit einer Negativmenge eine Tiefenkarte und/oder eine Verdeckungsgeometrie für denThe invention now proposes that the image processing device has a calibration module, which is formed by circuitry and / or programming technology, based on a detected monitoring object with a negative quantity, a depth map and / or a masking geometry for the
Überwachungsbereich zu kalibrieren, insbesondere zu erzeugen und/oder zu aktualisieren.Calibrate monitoring area, in particular to generate and / or to update.
Es ist eine Überlegung der Erfindung, dass durch Zusatzwissen oder a priori- Wissen, nachfolgend auch Expertenwissen genannt, über das Überwachungsobjekt auf Basis der Negativmenge, also auf Basis von nicht-erkannten Teilbereichen des Überwachungsobjekts, auf Eigenschaften des Überwachungsbereichs geschlossen wird.It is a consideration of the invention that by additional knowledge or a priori knowledge, hereinafter also referred to as expert knowledge, on the surveillance object based on Negative quantity, that is based on unrecognized subregions of the monitoring object, is closed to properties of the monitoring area.
Insbesondere kann auf Verdeckungsgeometrien, welche die Teilbereiche des Überwachungsobjekts der Teilbereichsdetektoren der Negativmenge verdecken, geschlossen werden und/oder auf Eigenschaften einer Tiefenkarte des Üb erwachungsb er eichs .In particular, it is possible to deduce occlusion geometries which obscure the subareas of the surveillance object of the subarea detectors of the negative amount and / or properties of a depth map of the surveillance sig.
Die Tiefenkarte ist vorzugsweise als eine Relation zwischen den räumlichen und/oder 3D Eigenschaften des Überwachungsbereichs und der Abbildung des Überwachungsbereichs durch die Videokamera, also der 2D Abbildung der Überwachungsszene in die Bildebene der Videokamera ausgebildet. Beispielsweise wird jedem Punkt des abgebildeten Überwachungsbereichs, also der Überwachungsszene, ein realer, dreidimensionaler Objektpunkt in dem Überwachungsbereich zugeordnet.The depth map is preferably formed as a relation between the spatial and / or 3D properties of the surveillance area and the image of the surveillance area by the video camera, ie the 2D image of the surveillance scene in the image plane of the video camera. For example, each point of the monitored area, ie the surveillance scene, is assigned a real, three-dimensional object point in the surveillance area.
Der Vorteil der Bildverarbeitungsvorrichtung ist hinsichtlich der Kalibrierung von Verdeckungsgeometrien in der hohen Aussagekraft zu sehen, da nach einem positiven Erkennen eines Teilbereichs des Überwachungsobjekts und einem Nicht-Erkennen von weiteren Teilbereichen des Überwachungsobjekts die letztgenannten Teilbereiche verdeckt sein müssen. Im Hinblick auf die Tiefenkarte liegt ein Vorteil darin, dass dieWith regard to the calibration of masking geometries, the advantage of the image processing device can be seen in the high significance, since after a positive recognition of a partial area of the monitored object and a non-recognition of further partial areas of the monitored object, the last-mentioned partial areas must be covered. With regard to the depth map, there is an advantage in that the
Tiefenkarte auch in Überwachungsbereichen kalibriert werden kann, bei denen nahezu keine Bodenfläche des Überwachungsbereiches zu erkennen ist.Depth card can also be calibrated in monitoring areas where almost no floor surface of the monitoring area can be seen.
Bei einer bevorzugten Weiterbildung der Erfindung ist die Menge der Teilbereichsdetektoren spezifisch und/oder selektiv für eine Überwachungsobjektart beziehungsweise -gattung ausgebildet. Eine entsprechende Überwachungsobjektart sind zum Beispiel Personen, insbesondere erwachsene Personen oder Kinder, Autos, Motorräder, Einkaufswagen etc. Dadurch, dass die Menge der Teilbereichsdetektoren spezifisch beziehungsweise selektiv für eine Überwachungsobjektart ausgebildet ist, kann bei der Interpretation der Detektionsergebnisse Expertenwissen über dieIn a preferred embodiment of the invention, the amount of subregion detectors is specific and / or selective for a surveillance object type or genus. A corresponding surveillance object type are, for example, persons, in particular adult persons or children, cars, motorcycles, shopping carts, etc. Because the quantity of subarea detectors is specifically or selectively designed for a surveillance object type, expert knowledge of the interpretation of the detection results
Überwachungsobjektart eingebracht werden. So ist beispielsweise eine Durchschnittsgröße einer erwachsenen Person von 1,80 m anzunehmen.Monitoring object type are introduced. For example, an average adult size of 1.80 m is assumed.
Bei einer besonders bevorzugten Ausführungsform der Erfindung ist das Kalibrierungsmodul ausgebildet, so dass bei einer Negativmenge eine Verdeckungsgeometrie in dem Bereich der Teilbereichsdetektoren der Negativmenge identifiziert oder vermutet wird. Allgemein bei der Erfindung und insbesondere bei dieser Ausfuhrungsform ist es bevorzugt, wenn die Teilbereichsdetektoren einer gemeinsamen Menge eine definierte räumliche Relation zueinander zuweisen, welche durch die Überwachungsobjektart gegeben ist. Teilt man beispielsweise eine Person in mehrereIn a particularly preferred embodiment of the invention, the calibration module is formed, so that when a negative amount Masking geometry is identified or suspected in the region of the subset detectors of the negative set. Generally in the invention, and in particular in this embodiment, it is preferred if the subarea detectors of a common set assign a defined spatial relation to one another, which is given by the surveillance object type. For example, divide one person into several
Teilbereichsdetektoren auf, welche einen Kopfdetektor, einen Körperdetektor und einen Beindetektor als Teilbereichsdetektoren umfassen, so kann bei der Zuordnung des Kopfdetektors und des Körperdetektors zu der Positivmengen und des Beindetektors zu der Negativmenge auf eine Verdeckungsgeometrie in dem Bereich des Beindetektors, also vertikal unterhalb des Kopf- und/oder des Beindetektors geschlossen werden.Partial area detectors, which comprise a head detector, a body detector and a bed detector as subareas detectors, can, in the assignment of the head detector and the body detector to the positive quantities and the Beindetektors to the negative amount to a concealment geometry in the area of Beindetektors, ie vertically below the head. and / or the Beindetektors be closed.
Durch die vorgeschlagene Bildverarbeitungsvorrichtung wird somit vorzugsweise zwischen benachbarten und/oder angrenzenden und/oder überlappenden Teilbereichsdetektoren einer Positivmenge und einer Negativmenge eine Verdeckungslinie oder -kante als Randlinie einer Verdeckungsgeometrie identifiziert beziehungsweise vermutet.The proposed image processing device thus preferably identifies or suspects a concealment line or edge as an edge line of a masking geometry between adjacent and / or adjacent and / or overlapping partial area detectors of a positive quantity and a negative quantity.
Bei einer möglichen Alternative oder einer Weiterbildung der Erfindung wird bei einem Überwachungsobjekt mit einer Negativmenge das Überwachungsobjekt unter Verwendung der Positivmenge extrapoliert und eine Tiefenlinie oder -kante und/oder einIn a possible alternative or further development of the invention, in the case of a monitoring object with a negative quantity, the surveillance object is extrapolated using the positive quantity and a depth line or edge and / or a
Fußpunkt dieses Überwachungsobjekts erzeugt. Beispielhaft ausgedrückt wird bei einer Detektion einer Person durch das Erkennen eines Kopfes durch einen Kopfdetektor und eines Körpers durch einen Körperdetektor die Person unter Bezugnahme von Durchschnittswerten von Personen, also zum Beispiel einer Größe von 1,80 m, in der Länge extrapoliert. Auf diese Weise wird auf die vermutliche Position des Fußbereichs der Person geschlossen. Der Abschluss des vermuteten Fußbereichs wird als Tiefenkante, also die in vertikaler Richtung abschließende Kante der Person, interpretiert. Nachdem das Überwachungsobjekt je nach Position in dem Überwachungsbereich perspektivisch größer oder kleiner ist, wird die Extrapolation für das Überwachungsobjekt durch ergänzende Auswertung der Teilbereichsdetektoren aus der Positivmenge durch einen perspektivischen Korrekturfaktor korrigiert. So wird beispielsweise über eine bestimmte Kopfgröße auf oder über ein Verhältnis zwischen Kopf und Körper auf den perspektivischen Korrekturfaktor geschlossen. Dabei ist es im Allgemeinen besonders bevorzugt, wenn das Überwachungsobjekt in eine vertikale, zum Boden gerichtete Richtung des Überwachungsbereichs extrapoliert wird, um die Tiefenkante zu erzeugen. Mit diesem Vorgehen kann die Lageinformation der Tiefenkante oder des Fußpunkts, welche in der aktuellen Situation des Überwachungsbereichs durch eine Verdeckungsgeometrie verdeckt ist, zur Kalibrierung der Tiefenkarte eingesetzt werden.Base point of this monitoring object generated. By way of example, when a person is detected by the detection of a head by a head detector and a body by a body detector, the person is extrapolated in length by taking averages of persons, for example, a height of 1.80 m. In this way, the probable position of the foot area of the person is closed. The conclusion of the presumed foot area is interpreted as the depth edge, ie the vertical edge of the person. After the monitoring object is perspectively larger or smaller depending on the position in the surveillance area, the extrapolation for the surveillance object is corrected by supplementary evaluation of the subarea detectors from the positive quantity by a perspective correction factor. For example, the perspective correction factor is determined by a specific head size on or via a relationship between the head and the body. In this case, it is generally particularly preferred if the monitoring object is extrapolated in a vertical, ground-facing direction of the surveillance area in order to generate the depth edge. With this procedure, the position information of the depth edge or the foot point, which is concealed in the current situation of the monitoring area by a Verdeckungsgeometrie, can be used to calibrate the depth map.
Ein weiterer Gegenstand der Erfindung betrifft ein Verfahren zur Kalibrierung, insbesondere Erzeugung und/oder Aktualisierung, einer Tiefenkarte und/oder einer Verdeckungsgeometrie in einem Überwachungsbereich, vorzugsweise unter Verwendung der Bildverarbeitungsvorrichtung nach einem der vorhergehenden Ansprüche beziehungsweise wie sie soeben beschrieben wurden mit den Merkmalen des Anspruchs 8.Another object of the invention relates to a method for calibration, in particular generation and / or updating, a depth map and / or concealment geometry in a surveillance area, preferably using the image processing apparatus according to one of the preceding claims or as just described with the features of the claim 8th.
Bei dem Verfahren wird in einem ersten Schritt eine Menge von Teilbereichsdetektoren auf ein Überwachungsobjekt angewandt, wobei die Teilbereichsdetektoren unterschiedliche Teilbereiche des Überwachungsobjekts, insbesondere unabhängig voneinander, detektieren. Bei einer möglichen Realisierung werden als Vorbereitung für diesen Schritt zunächst bewegte Objekte vom Hintergrund, insbesondere dem Szenenhintergrund segmentiert, was beispielsweise durch Subtraktion eines aktuellen Bildes von einem Szenenreferenzbild erfolgt. Auf jedes gefundene Objekt wird eine beziehungsweise die Menge von Teilbereichsdetektoren angewandt. In einem Szenario, in denen nur Personen als Überwachungsobjektart vorkommen können, reicht eine einzige Menge an Teilbereichsdetektoren. Bei Überwachungsbereichen, in denen mehrere Überwachungsobjektarten vorkommen können, können optional mehrere Mengen eingesetzt werden.In the method, in a first step, a set of partial area detectors is applied to a surveillance object, wherein the partial area detectors detect different partial areas of the surveillance object, in particular independently of one another. In one possible implementation, as a preparation for this step, first moving objects are segmented from the background, in particular the scene background, which takes place, for example, by subtracting a current image from a scene reference image. One or the set of partial area detectors is applied to each found object. In a scenario in which only persons can exist as a surveillance object type, a single set of subarea detectors suffices. For monitoring areas in which several monitoring object types can occur, several quantities can optionally be used.
Bei der Detektion und/oder Verifizierung des Überwachungsobjekts wird die Menge derIn the detection and / or verification of the monitored object, the amount of
Teilbereichsdetektoren mindestens in eine Positivmenge und eine Negativmenge unterteilt. Ist die Negativmenge nicht leer, das heißt, erkennen nicht alle Teilbereichsdetektoren "ihren Teilbereich" des Überwachungsobjekts, so deutet dies auf eine Verdeckung an der Position des Teilbereichsdetektors hin. Im Hinblick auf das genannte Beispiel mit der Person als Überwachungsobjektart sind typischerweise diePartial area detectors divided into at least a positive amount and a negative amount. If the negative quantity is not empty, that is, if not all partial area detectors recognize "their partial area" of the monitored object, this indicates a masking at the position of the partial area detector. With regard to the said example with the person as monitoring object type are typically the
Beine und/oder Teile des Oberkörpers verdeckt. Bei einer ersten möglichen Alternative werden die verdeckten Teilbereiche als von einer Verdeckungsgeometrie verdeckt vermutet oder identifiziert. Bei einer Alternative oder einer Weiterführung des Verfahrens wird die Höhe, Tiefe bzw. vertikale Erstreckung des Überwachungsobjekts geschätzt, indem Expertenwissen über die Dimensionen oder Ausdehnungen der verdeckten Teilbereiche eingesetzt wird.Legs and / or parts of the upper body hidden. In a first possible alternative, the hidden portions are suspected or identified as hidden by a masking geometry. In an alternative or a continuation of the method becomes the height, depth or vertical extent of the monitored object estimated by using expert knowledge of the dimensions or dimensions of the hidden subsections.
Bei einer praktischen Realisierung der Erfindung ist die Menge der Teilbereichsdetektoren zur Detektion einer Person ausgebildet. Es ist besonders bevorzugt, dass die Menge der Teilbereichsdetektoren mindestens eine Mächtigkeit von zwei aufweist, wobei bevorzugt mindestens vier Teilbereichsdetektoren vertikal bezüglich des Überwachungsbereichs übereinander angeordnet sind. Die Teilbereichsdetektoren können angrenzend, benachbart und/oder überlappend zueinander angeordnet sein.In a practical implementation of the invention, the set of partial area detectors is designed to detect a person. It is particularly preferred that the quantity of subarea detectors has at least one cardinality of two, wherein preferably at least four subareate detectors are arranged vertically one above the other with respect to the surveillance area. The subarea detectors may be adjacent, adjacent and / or overlapping each other.
Ein letzter Gegenstand der Erfindung betrifft ein Computerprogramm mit Programmcodemitteln mit den Merkmalen des Anspruchs 11.A last subject of the invention relates to a computer program with program code means having the features of claim 11.
Kurze Beschreibung der ZeichnungenBrief description of the drawings
Weitere Merkmale, Vorteile und Wirkungen der Erfindung ergeben sich aus der Beschreibung bevorzugter Ausführungsbeispiele der Erfindung sowie den beigefügten Figuren. Dabei zeigen:Further features, advantages and effects of the invention will become apparent from the description of preferred embodiments of the invention and the accompanying figures. Showing:
Figur l a - c schematisierte Videobilder eines Überwachungsbereichs mit einemFigure l a - c schematic video images of a surveillance area with a
Überwachungsobjekt zur Veranschaulichung des erfindungsgemäßenMonitoring object to illustrate the inventive
Verfahrens;procedure;
Figur 2 eine schematische Darstellung einer Menge von Teilbereichsdetektoren amFIG. 2 shows a schematic representation of a set of partial area detectors on
Beispiel einer Person;Example of a person;
Figur 3 ein schematisiertes Anwendungsbeispiel der Menge derFigure 3 is a schematic application example of the amount of
Teilbereichsdetektoren in Figur 2;Subrange detectors in Figure 2;
Figur 4 Ein Blockdiagramm zur Illustration einer erfindungsgemäßen Vorrichtung.Figure 4 is a block diagram illustrating an apparatus according to the invention.
Ausführungsform(en) der Erfindung Die Figuren 1 a und 1 b zeigen ein schematisiertes Videobild eines Überwachungsbereichs 1, welcher im dargestellten Beispiel als eine Ladenszene ausgebildet ist. In der Ladenszene ist ein bewegtes Überwachungsobjekt in Form einer Person 2 dargestellt, die gemäß der Figur 1 a halb verdeckt hinter einem Regal 3 und gemäß der Figur 1 b unverdeckt neben dem Regal 3 angeordnet ist.Embodiment (s) of the invention Figures 1 a and 1 b show a schematic video image of a monitoring area 1, which is formed in the example shown as a store scene. In the shop scene, a moving surveillance object in the form of a person 2 is shown, which is arranged half hidden behind a shelf 3 and according to the figure 1 b uncovered next to the shelf 3 according to the figure 1 a.
Insbesondere zur Kalibrierung eine Tiefenkarte und/oder von Verdeckungsgeometrien ist es interessant, einen Fußpunkt 4 des bewegten Überwachungsobjekt 2 zu ermitteln. Der Fußpunkt 4 repräsentiert dabei das freie Ende der vertikalen Erstreckung des Überwachungsobjekts 2 in Richtung des Bodens. Eine typische Herangehensweise zurIn particular, for calibration of a depth map and / or masking geometries, it is interesting to determine a base point 4 of the moving monitoring object 2. The foot point 4 represents the free end of the vertical extent of the monitored object 2 in the direction of the ground. A typical approach to
Ermittlung des Fußpunkts 4 wird umgesetzt, indem das bewegte Überwachungsobjekt 2 durch eine sogenannte Bounding-Box 5 umschrieben wird und der Mittelpunkt der Fußkante 6 der Bounding-Box 5 als Fußpunkt 4 interpretiert wird. Es können auch andere Überwachungsobjekte 2 durch dieses Vorgehen detektiert werden. Die Bounding-Box 5 wird durch bekannte Bildverarbeitungsalgorithmen ermittelt, wobei zum Beispiel in einem ersten Schritt das bewegte Überwachungsobjekt von dem im Wesentlichen statischen Hintergrund getrennt und dann segmentiert wird. Die segmentierten Bereiche werden nachfolgend mit Suchrechtecken bzw. Bounding-Boxen 5 umschrieben und der Inhalt der Suchrechtecke als gesuchte Überwachungsobjekte 2 über Klassifizierungseinrichtungen verifiziert.Determination of the foot 4 is implemented by the moving monitoring object 2 is circumscribed by a so-called bounding box 5 and the center of the foot edge 6 of the bounding box 5 is interpreted as foot 4. Other monitoring objects 2 can also be detected by this procedure. The bounding box 5 is determined by known image processing algorithms, wherein, for example, in a first step, the moved monitoring object is separated from the substantially static background and then segmented. The segmented regions are subsequently circumscribed with search rectangles or bounding boxes 5, and the content of the search rectangles is verified as searched surveillance objects 2 via classification devices.
Wie sich aus einem Vergleich der Figuren 1 a und 1 b ergibt, konnte in der Figur Ib ein richtiger Fußpunkt 4, welcher die vertikale Erstreckung des Überwachungsobjekts 2 in Richtung Boden repräsentiert, ermittelt werden. In der Figur Ia handelt es sich bei dem Fußpunkt 4 jedoch nicht um den tatsächlichen Fußpunkt, sondern um einen Punkt, welcher in der Körpermitte des Überwachungsobjekts 2 angeordnet ist. Derartige unzutreffende Fußpunkte 4 wie in der Figur Ia können zu Fehlinterpretation der Ereignisse in dem Überwachungsbereich 1 führen.As can be seen from a comparison of FIGS. 1 a and 1 b, a correct foot point 4, which represents the vertical extent of the monitoring object 2 in the direction of the floor, could be determined in FIG. In FIG. 1a, however, the foot point 4 is not the actual foot point but a point which is arranged in the center of the body of the monitored object 2. Such inaccurate footsteps 4 as in FIG. 1a may lead to misinterpretation of the events in the surveillance area 1.
Die Figur 2 zeigt einen abgewandelten Ansatz zur Detektion des Überwachungsobjekts 2 als ein Ausführungsbeispiel der Erfindung, wobei statt eines das gesamte Überwachungsobjekt 2 abdeckenden Detektors Teilbereichsdetektoren 7 a bis 7 e eingesetzt werden, welche jeweils nur einen spezifischen Teilbereich des Überwachungsobjekts 2 abdecken. So ist der Kopfdetektor 7 a zur Detektion des Kopfes, der Schulterdetektor 7 b zur Detektion des Schulterbereichs, der Oberkörperdetektor 7 c zu Detektion des Oberkörpers, der Mittelkörperdetektor 7 d zur Detektion des Hüftbereichs und der Fußdetektor 7e zur Detektion der Füße/Beine ausgebildet. Die Teilbereichsdetektoren 7 a bis e sind abschnittsweise überlappend angeordnet (vgl. Teilbereichsdetektoren 7 a bis 7 c), teilweise aneinander grenzend angeordnet (vgl. Teilbereichsdetektoren 7 c bis e) und teilweise beabstandet (nicht dargestellt) platziert und weisen eine definierte und/oder inhaltsbegründete relative Anordnung zueinander auf. Die Teilbereichsdetektoren 7a-e sind beispielsweise so angeordnet, dass der Kopfdetektor 7 a nicht zwischen dem Mittelkörperdetektor 7 e und dem Fußdetektor 7 e liegen kann.FIG. 2 shows a modified approach for detecting the surveillance object 2 as an exemplary embodiment of the invention, wherein subareas detectors 7 a to 7 e are used instead of a detector covering the entire surveillance object 2, each covering only a specific subarea of the surveillance object 2. Thus, the head detector 7 a for the detection of the head, the shoulder detector 7 b for detecting the shoulder area, the upper body detector 7 c for detection of the upper body, the center body detector 7 d for detection of the hip area and the foot detector 7e designed for the detection of the feet / legs. The subareas detectors 7 a to e are arranged overlapping in sections (compare subarea detectors 7 a to 7 c), partially adjoining (see subarea detectors 7 c to e) and partially spaced (not shown) and have a defined and / or content-based relative arrangement to each other. The partial area detectors 7a-e are arranged, for example, such that the head detector 7a can not lie between the central body detector 7e and the foot detector 7e.
Die Figur 3 zeigt in einer schematischen Darstellung die Menge der Teilbereichsdetektoren 7 a bis 7 e, welche auf ein beziehungsweise das Überwachungsobjekt 2 in dem Überwachungsbereichs 1 in der Figur 1 angewendet wurde. Durch die Verdeckung durch das Regal 3 detektieren nur die Teilbereichsdetektoren 7 a bis c die zugeordneten Teilbereiche positiv, dieFIG. 3 shows, in a schematic representation, the quantity of the subarea detectors 7 a to 7 e which was applied to one or the surveillance object 2 in the surveillance area 1 in FIG. Due to the masking by the shelf 3, only the partial area detectors 7 a to c detect the associated partial areas positively, the
Teilbereichsdetektoren 7 d und e können jedoch den zugeordneten Teilbereich nicht erkennen. Die Teilbereichsdetektoren 7 a bis c werden einer Positivmenge 8, die Teilbereichsdetektoren 7 d und e einer Negativmenge 9 zugeordnet.However, partial area detectors 7 d and e can not recognize the assigned partial area. The partial area detectors 7 a to c are assigned to a positive quantity 8, the partial area detectors 7 d and e to a negative quantity 9.
Aus der Verteilung der Teilbereichsdetektoren 7 a bis 7 e in die Positivmenge 8 beziehungsweise Negativmenge 9 können Schlussfolgerungen über die Geometrie des Überwachungsbereichs 1 beziehungsweise des Überwachungsobjekts 2 gezogen werden.From the distribution of the partial area detectors 7 a to 7 e into the positive quantity 8 or negative quantity 9, conclusions can be drawn about the geometry of the surveillance area 1 or of the surveillance object 2.
Als eine erste Schlussfolgerung kann zwischen dem Teilbereichsdetektor 7 c und dem Teilbereichsdetektor 7 d, also zwischen einem Teilbereichsdetektor der Positivmenge 8 und einem Teilbereichsdetektor der Negativmenge 9, welche unmittelbar aneinander benachbart angeordnet sind eine Verdeckungskante 10 identifiziert oder zumindest vermutet werden. Die Verdeckungskante 10 beschreibt dabei eine Randlinie einer Verdeckungsgeometrie, wie zum Beispiel dem Regal 3.As a first conclusion, between the partial area detector 7c and the partial area detector 7d, that is, between a partial area detector of the positive quantity 8 and a partial area detector of the negative quantity 9 which are directly adjacent to each other, a concealment edge 10 can be identified or at least suspected. The concealment edge 10 describes an edge line of a concealment geometry, such as the shelf 3.
Als eine Alternative oder ergänzende Schlussfolgerung kann das Überwachungsobjekt 2 in Richtung des Fußpunkts 4 extrapoliert oder geschätzt werden, indem aus den Eigenschaften der Teilbereichsdetektoren 7 a bis c der Positivmenge 8 auf die Eigenschaften der verdeckten Teilbereichsdetektoren 7 d und e der Negativmenge 9 geschlossen wird. Mögliche informationsträchtige Eigenschaften sind dabei: die relative Anordnung der Teilbereichsdetektoren 7 a bis c der Positivmenge 8, Länge und/oder Höhe der einzelnen Teilbereichsdetektoren 7 a bis c der Positivmenge 8, Detailinformationen der von den Teilbereichsdetektoren 7 a bis 7 c der Positivmenge 8 umschlossenen Teilbereiche des Überwachungsobjekts 2, eine Schätzung der Tiefenposition der, einiger oder aller Teilbereichsdetektoren 7 a bis c der Positivmenge, etc..As an alternative or supplementary conclusion, the monitoring object 2 can be extrapolated or estimated in the direction of the foot 4 by deducing from the properties of the subareas detectors 7 a to c of the positive quantity 8 the properties of the hidden subareas detectors 7 d and e of the negative quantity 9. Possible information-rich properties are: the relative Arrangement of the partial area detectors 7 a to c of the positive quantity 8, length and / or height of the individual partial area detectors 7 a to c of the positive quantity 8, detailed information of the subareas of the monitored object 2 enclosed by the partial area detectors 7 a to 7 c of the positive quantity 8, an estimate of the depth position of, some or all of the partial area detectors 7 a to c of the positive quantity, etc.
Durch die Extrapolation oder Schätzung des Überwachungsobjekts 2 ist es möglich, wie es in der Figur 1 c gezeigt ist, ausgehend von einem teilverdeckten ÜberwachungsobjektBy extrapolating or estimating the monitored object 2, it is possible, as shown in FIG. 1 c, to proceed from a partially concealed surveillance object
2 über eine Schätzung auf die Verdeckungskante 10 beziehungsweise den Fußpunkt 4 zu schließen. Die Kenntnis der Verdeckungskante 10 kann zur Ergänzung einer Sammlung über die Verdeckungsgeometrien in dem Überwachungsbereich 1 genutzt werden, der Fußpunkt 4 kann zur Kalibrierung einer Tiefenkarte, also einer Relationen zwischen dem Verlauf einer horizontalen Ebene in dem Überwachungsbereich 1 mit der zweidimensionalen Abbildung des Überwachungsbereichs 1 , verwendet werden.2 about an estimate on the Verdeckungskante 10 and 4 to close the foot. The knowledge of the concealment edge 10 can be used to supplement a collection about the concealment geometries in the surveillance area 1, the base point 4 can be used to calibrate a depth map, that is a relation between the course of a horizontal plane in the surveillance area 1 with the two-dimensional image of the surveillance area 1, be used.
Die Figur 4 zeigt ein schematisches Blockdiagramm eines Videoüberwachungssystems 11, welches mit einer Mehrzahl von Überwachungskameras 12 verbunden sind, die zur Überwachung eines oder mehrerer Überwachungsbereiche 1 ausgebildet und/oder angeordnet sind. Die von den Überwachungskameras 12 aufgenommenen Bilddaten werden an eine Bildverarbeitungsvorrichtung 13, welche zur Kalibrierung von Verdeckungsgeometrien beziehungsweise einer Tiefenkarte ausgebildet ist, weitergegeben.FIG. 4 shows a schematic block diagram of a video surveillance system 11, which is connected to a plurality of surveillance cameras 12, which are designed and / or arranged to monitor one or more surveillance areas 1. The image data recorded by the surveillance cameras 12 are forwarded to an image processing device 13, which is designed to calibrate masking geometries or a depth map, respectively.
In einem ersten Schritt werden in einem Segmentierungsmodul 14 bewegte Überwachungsobjekte 2 von dem Hintergrund des oder der Überwachungsbereiche 1 segmentiert. Die Segmentierung erfolgt beispielsweise durch eine Subtraktion des aktuellen Überwachungsbilds von einem Szenenreferenzbild.In a first step, in a segmentation module 14, moving monitoring objects 2 are segmented from the background of the surveillance area or zones 1. The segmentation is carried out, for example, by subtracting the current surveillance image from a scene reference image.
Die durch diesen Schritt segmentierten Überwachungsobjekte 2 werden in einem Detektionsmodul 15 jeweils durch eine Menge von Teilbereichsdetektoren 7 a bis 7 e verifiziert. Sofern in dem Überwachungsbereich 1 als Überwachungsobjekte 2 nur Personen vorkommen können oder detektiert werden sollen, ist eine einzige Menge von Teilbereichsdetektoren 7 a bis e ausreichend, welche spezifisch auf das Überwachungsobjekt „Person" abgestimmt sind aus. Bei komplexeren Überwachungsbereichen 1 können auch verschiedenartige Mengen von Teilbereichsdetektoren verwendet werden, wobei jede Menge spezifisch oder selektiv auf eine Art Überwachungsobjekt abgestimmt ist, so kann zum Beispiel eine erste Menge auf Personen, eine zweite Menge auf Fahrräder, eine dritte Menge auf Autos, eine vierteThe monitoring objects 2 segmented by this step are respectively verified in a detection module 15 by a set of partial area detectors 7 a to 7 e. If only persons can or should be detected in the monitoring area 1 as monitoring objects 2, a single quantity of subarea detectors 7 a to e is sufficient, which are specific to the In the case of more complex monitoring areas 1, different sets of subareas detectors may also be used, each set being specifically or selectively tuned to a type of surveillance object, for example a first set for persons, a second set for bicycles, a third lot on cars, a fourth
Menge auf Kinder, etc. abgestimmt sein.Amount to be matched to children, etc.
Auf eines, einige oder jedes segmentierte Überwachungsobjekt 2 wird mindestens eine Menge von Teilbereichsdetektoren 7 a bis e ausgeführt, wobei die Teilbereichsdetektoren 7a bis e in Abhängigkeit des Ergebnisses, zum Beispiel einer Klassifizierungseinrichtung des Teilbereichsdetektors 7 a bis e, in eine Positivmenge 8 beziehungsweise eine Negativmenge 9 eingeteilt werden.At least one set of partial area detectors 7 a to e is executed on one, some or each segmented monitoring object 2, the partial area detectors 7 a to e depending on the result, for example a classification device of the partial area detector 7 a to e, into a positive quantity 8 or a negative quantity 9 are divided.
Erkennen nicht alle Teilbereichsdetektoren 7 a bis e einer Menge das zugeordnete Überwachungsobjekt 2, also in diesem Beispiel die Personen 2, so deutet dies auf eineDo not detect all sub-area detectors 7 a to e a set the associated monitoring object 2, so in this example, the persons 2, this indicates a
Verdeckung an der Position des Überwachungsobjekts 2 in dem Überwachungsbereich 1 hin. Typischerweise sind dabei die Beine und/oder Teile des Oberkörpers der Person 2 verdeckt. In diesem Fall werden die Daten des detektierten und teilverdeckten Überwachungsobjekts 2 von dem Detektionsmodul 15 in ein erstes Schätzmodul 16 für eine Verdeckungsgeometrie und in ein zweites Schätzmodul 17 für einen Fußpunkt übergeben.Masking at the position of the monitoring object 2 in the monitoring area 1 out. Typically, the legs and / or parts of the upper body of the person 2 are covered. In this case, the data of the detected and partially concealed monitoring object 2 are transferred from the detection module 15 into a first obscuring geometry estimation module 16 and into a second footfall estimation module 17.
In dem ersten Schätzmodul 16 für die Verdeckungsgeometrie wird anhand der Übergänge beziehungsweise Randlagen der Teilbereichsdetektoren der Positivmenge 8 und der Negativmenge 9 auf eine Verdeckungskante 10 geschlossen. Diese abgeleiteteIn the first estimation module 16 for the masking geometry, a cover edge 10 is used on the basis of the transitions or peripheral positions of the subarea detectors of the positive quantity 8 and the negative quantity 9. This derived
Verdeckungskante 10 wird in eine Datenbank 18, welche Informationen über Verdeckungsgeometrien sammelt, übergeben, wodurch eine Modellierung des Überwachungsbereichs 1 hinsichtlich der Verdeckungsgeometrien ermöglicht wird.Masking edge 10 is transferred to a database 18 which collects information about masking geometries, thereby allowing modeling of the monitoring area 1 with respect to the masking geometries.
Das zweite Schätzmodul 17 extrapoliert in der beschriebenen Weise dasThe second estimation module 17 extrapolates as described
Überwachungsobjekt 2 und übergibt den geschätzten Fußpunkt 4 zusammen mit den weiteren Informationen des Überwachungsobjekts 2 an eine Datenbank 19, welche Information über eine Tiefenkarte, also über die Tiefenerstreckung des abgebildeten Überwachungsbereichs 1 beinhaltet. Beide Datenbanken 18 beziehungsweise 19 können so im Überwachungsbetrieb wahlweise erstmalig kalibriert, ergänzt oder stetig aktualisiert werden.Monitoring object 2 and passes the estimated foot point 4 together with the further information of the monitoring object 2 to a database 19, which includes information about a depth map, that is, about the depth extent of the monitored area monitored 1. Both databases 18 and 19 can so in the monitoring mode optionally calibrated for the first time, supplemented or constantly updated.
Zusammengefasst erlaubt die vorgeschlagene Vorrichtung beziehungsweise das vorgeschlagene Verfahren die Analyse von Teilverdeckungen in demIn summary, the proposed device or the proposed method allows the analysis of partial occlusions in the
Überwachungsbereich 1 zu verbessern und zugleich eine Tiefenstaffelung der Szene in dem Überwachungsbereich 1 zu erlernen. Die dadurch verbesserte modellierte Szenengeometrie kann in der Objektverfolgung verwendet werden, um das automatische Videoüberwachungssystem 11 leistungsfähiger zu machen. To improve monitoring area 1 and at the same time to learn a depth graduation of the scene in the monitoring area 1. The thereby improved modeled scene geometry can be used in object tracking to make the automatic video surveillance system 11 more efficient.

Claims

Ansprüche claims
1. Bildverarbeitungsvorrichtung (13) für ein Videoüberwachungssystem zur Überwachung eines Überwachungsbereichs (1), welcher mindestens ein Überwachungsobjekt (2) und mindestens eine Verdeckungsgeometrie (3) aufweisen kann,1. An image processing device (13) for a video surveillance system for monitoring a surveillance area (1), which may have at least one surveillance object (2) and at least one masking geometry (3),
mit einem Detetektionsmodul (15), welches ausgebildet ist, eines der Überwachungsobjekte (2) zu detektieren,with a detection module (15) which is designed to detect one of the monitoring objects (2),
wobei die Detektion des Überwachungsobjekts (2) auf Basis einer Menge von Teilbereichsdetektoren (7 a - e) erfolgt, die unterschiedliche Teilbereiche deswherein the detection of the surveillance object (2) is performed on the basis of a set of partial area detectors (7 a - e), the different partial areas of the
Überwachungsobjekts (2) detektieren, und wobei bei der Detektion des Überwachungsobjekts (2) die Menge der Teilbereichsdetektoren (7 a - e) in eine Positivmenge (8) von Teilbereichsdetektoren, welche den zugeordneten Teilbereich des Überwachungsobjekts (2) erkannt haben, und in eine Negativmenge (9) von Teilbereichsdetektoren, welche den zugeordneten Teilbereich des ÜberwachungsobjektsMonitoring object (2) detect, and wherein in the detection of the monitoring object (2) the amount of the subareas detectors (7 a - e) in a positive set (8) of subrange detectors, which have detected the associated portion of the surveillance object (2), and in a Negative quantity (9) of partial area detectors, which determine the assigned partial area of the monitored object
(2) nicht erkannt haben, unterteilt wird,(2) have not been recognized, divided,
gekennzeichnet durchmarked by
ein Kalibrierungsmodul (16,17), welches ausgebildet ist, auf Basis von einem detektiertena calibration module (16,17), which is formed on the basis of a detected
Überwachungsobjekt (2) mit einer Negativmenge (9) eine Tiefenkarte und/oder eine Verdeckungsgeometrie für den Überwachungsbereich (1) zu kalibrieren.Monitoring object (2) with a negative amount (9) to calibrate a depth map and / or concealment geometry for the surveillance area (1).
2. Bildverarbeitungsvorrichtung (13) nach Anspruch 1, dadurch gekennzeichnet, dass die Menge der Teilbereichsdetektoren (7 a-e) spezifisch und/oder selektiv für eine2. Image processing device (13) according to claim 1, characterized in that the amount of sub-area detectors (7 a-e) specifically and / or selectively for a
Überwachungsobjektart oder -gattung ausgebildet ist.Monitoring object type or genus is formed.
3. Bildverarbeitungsvorrichtung (13) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass bei einer Negativmenge (9) eine Verdeckungsgeometrie (3) in dem Bereich der Teilbereichsdetektoren der Negativmenge (9) identifiziert und/oder vermutet wird.3. image processing device (13) according to claim 1 or 2, characterized in that at a negative amount (9) a Verdeckungsgeometrie (3) in the Area of the partial area detectors of the negative amount (9) is identified and / or suspected.
4. Bildverarbeitungsvorrichtung (13) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zwischen angrenzenden Teilbereichsdetektoren einer4. image processing device (13) according to any one of the preceding claims, characterized in that between adjacent subareas detectors a
Positivmenge (8) und einer Negativmenge (9) eine Verdeckungslinie (10) einer Verdeckungsgeometrie identifiziert und/oder vermutet wird.Positive amount (8) and a negative amount (9) a masking line (10) of a masking geometry is identified and / or suspected.
5. Bildverarbeitungsvorrichtung (13) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei einem Überwachungsobjekt (2) mit einer5. Image processing device (13) according to any one of the preceding claims, characterized in that in a monitoring object (2) with a
Negativmenge (9) das Überwachungsobjekt unter Verwendung der Positivmenge (8) extrapoliert und eine Tiefenlinie (6) erzeugt wird.Negative quantity (9) the surveillance object is extrapolated using the positive set (8) and a depth line (6) is generated.
6. Bildverarbeitungsvorrichtung (13) nach Anspruch 5, dadurch gekennzeichnet, dass das Überwachungsobjekt (2) in eine vertikale Richtung des Überwachungsbereichs6. image processing apparatus (13) according to claim 5, characterized in that the monitoring object (2) in a vertical direction of the monitored area
(1) extrapoliert wird.(1) is extrapolated.
7. Bildverarbeitungsvorrichtung (13) nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass die Lageinformation der Tiefenlinie (6) zur Kalibrierung der Tiefenkarte eingesetzt wird.7. image processing device (13) according to claim 5 or 6, characterized in that the position information of the depth line (6) is used for calibration of the depth map.
8. Verfahren zur Kalibrierung einer Tiefenkarte und/oder einer Verdeckungsgeometrie in einem Überwachungsbereich (1), welcher mit einem Videoüberwachungssystem überwacht wird, wobei der Überwachungsbereich (1) mindestens ein Überwachungsobjekt (2) und mindestens eine Verdeckungsgeometrie (3) aufweisen kann,8. A method of calibrating a depth map and / or masking geometry in a surveillance area (1) monitored by a video surveillance system, the surveillance area (1) having at least one surveillance object (2) and at least one masking geometry (3),
wobei eine Menge von Teilbereichsdetektoren (7 a - e) auf ein Überwachungsobjekt (2) angewandt wird, wobei die Teilbereichsdetektoren (7 a - e) unterschiedliche Teilbereiche des Überwachungsobjekts (2) detektieren,wherein a set of subarea detectors (7 ae) is applied to a surveillance object (2), the subarea detectors (7 ae) detecting different subareas of the surveillance object (2),
wobei die Menge der Teilbereichsdetektoren (7 a - e) in eine Positivmenge (8) von Teilbereichsdetektoren, welche den zugeordneten Teilbereich des Überwachungsobjektswherein the set of subarea detectors (7 a - e) into a positive set (8) of subarea detectors which the associated subarea of the surveillance object
(2) erkannt haben, und in eine Negativmenge (9) von Teilbereichsdetektoren, welche den zugeordneten Teilbereich des Überwachungsobjekts nicht erkannt haben, unterteilt wird, und wobei auf Basis von einem detektierten Überwachungsobjekt (2) mit einer Negativmenge (9) die Tiefenkarte und/oder die Verdeckungsgeometrie für den Überwachungsbereich (1) kalibriert wird.(2) have been detected and subdivided into a negative set (9) of sub-area detectors that have not recognized the associated sub-area of the surveillance object, and wherein the depth map and / or the masking geometry for the monitoring area (1) is calibrated on the basis of a detected monitoring object (2) with a negative quantity (9).
9. Bildverarbeitungsvorrichtung (13) und/oder Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Menge der Teilbereichsdetektoren (7 a - e) zur Detektion einer Person (2) ausgebildet ist.9. image processing device (13) and / or method according to any one of the preceding claims, characterized in that the set of partial area detectors (7 a - e) for detecting a person (2) is formed.
10. Bildverarbeitungsvorrichtung (13) und/oder Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Menge der Teilbereichsdetektoren (7 a - e) mindestens eine Mächtigkeit von vier aufweist.10. image processing device (13) and / or method according to any one of the preceding claims, characterized in that the amount of sub-area detectors (7 a - e) has at least one cardinality of four.
11. Computerprogramm mit Programm-Code Mitteln, um alle Schritte des Verfahrens nach einem der Ansprüche 8 bis 10 durchzuführen, wenn das Programm auf einem Computer und/oder einer Bildverarbeitungsvorrichtung (13) nach einem der vorhergehenden Ansprüche ausgeführt wird. Computer program with program code means for carrying out all the steps of the method according to one of the claims 8 to 10, when the program is executed on a computer and / or an image processing device (13) according to one of the preceding claims.
PCT/EP2008/065529 2008-06-06 2008-11-14 Image processing apparatus with calibration module, method for calibration and computer program WO2009146756A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP08874527A EP2300961A1 (en) 2008-06-06 2008-11-14 Image processing apparatus with calibration module, method for calibration and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102008002275.6 2008-06-06
DE102008002275A DE102008002275A1 (en) 2008-06-06 2008-06-06 Image processing device with calibration module, method for calibration and computer program

Publications (1)

Publication Number Publication Date
WO2009146756A1 true WO2009146756A1 (en) 2009-12-10

Family

ID=40688430

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2008/065529 WO2009146756A1 (en) 2008-06-06 2008-11-14 Image processing apparatus with calibration module, method for calibration and computer program

Country Status (3)

Country Link
EP (1) EP2300961A1 (en)
DE (1) DE102008002275A1 (en)
WO (1) WO2009146756A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130063556A1 (en) * 2011-09-08 2013-03-14 Prism Skylabs, Inc. Extracting depth information from video from a single camera
CN110991485A (en) * 2019-11-07 2020-04-10 成都傅立叶电子科技有限公司 Performance evaluation method and system of target detection algorithm
CN113534136A (en) * 2020-04-22 2021-10-22 郑州宇通客车股份有限公司 Method and system for detecting left children in car
CN115002110A (en) * 2022-05-20 2022-09-02 深圳市云帆自动化技术有限公司 Offshore platform unmanned data transmission system based on multi-protocol conversion

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3080752A1 (en) * 2013-12-14 2016-10-19 Viacam SARL Camera-based tracking system for the determination of physical, physiological and/or biometric data and/or for risk assessment
FR3015730B1 (en) * 2013-12-20 2017-07-21 Thales Sa METHOD FOR DETECTING PEOPLE AND OR OBJECTS IN A SPACE

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006027120A1 (en) 2006-06-12 2007-12-13 Robert Bosch Gmbh Image processing method, video surveillance system and computer program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BO WU ET AL: "Detection of Multiple, Partially Occluded Humans in a Single Image by Bayesian Combination of Edgelet Part Detectors", COMPUTER VISION, 2005. ICCV 2005. TENTH IEEE INTERNATIONAL CONFERENCE ON BEIJING, CHINA 17-20 OCT. 2005, PISCATAWAY, NJ, USA,IEEE, vol. 1, 17 October 2005 (2005-10-17), pages 90 - 97, XP010854775, ISBN: 978-0-7695-2334-7 *
GREENHILL ET AL: "Occlusion analysis: Learning and utilising depth maps in object tracking", IMAGE AND VISION COMPUTING, ELSEVIER, GUILDFORD, GB, vol. 26, no. 3, 4 December 2007 (2007-12-04), pages 430 - 441, XP022374462, ISSN: 0262-8856 *
See also references of EP2300961A1 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130063556A1 (en) * 2011-09-08 2013-03-14 Prism Skylabs, Inc. Extracting depth information from video from a single camera
CN110991485A (en) * 2019-11-07 2020-04-10 成都傅立叶电子科技有限公司 Performance evaluation method and system of target detection algorithm
CN113534136A (en) * 2020-04-22 2021-10-22 郑州宇通客车股份有限公司 Method and system for detecting left children in car
CN113534136B (en) * 2020-04-22 2023-07-28 宇通客车股份有限公司 Method and system for detecting left-over children in vehicle
CN115002110A (en) * 2022-05-20 2022-09-02 深圳市云帆自动化技术有限公司 Offshore platform unmanned data transmission system based on multi-protocol conversion
CN115002110B (en) * 2022-05-20 2023-11-03 深圳市云帆自动化技术有限公司 Unmanned data transmission system of offshore platform based on multiprotocol conversion

Also Published As

Publication number Publication date
EP2300961A1 (en) 2011-03-30
DE102008002275A1 (en) 2009-12-10

Similar Documents

Publication Publication Date Title
DE102018006765B4 (en) PROCEDURE AND SYSTEM (S) FOR THE MANAGEMENT OF CARGO VEHICLES
EP2297701B1 (en) Video analysis
WO2009146756A1 (en) Image processing apparatus with calibration module, method for calibration and computer program
DE102014210820A1 (en) Method for detecting large and passenger vehicles from fixed cameras
WO2009003793A2 (en) Device for identifying and/or classifying movement patterns in an image sequence of a surveillance scene, method and computer program
EP2324461A1 (en) Monitoring system, method and computer program for detecting and/or tracking a monitoring object
DE102018118423A1 (en) SYSTEMS AND METHOD FOR TRACKING MOVING OBJECTS IN VIDEO MONITORING
DE19621612C2 (en) Device for monitoring a section of track in a train station
EP2875498B1 (en) Monitoring system with a position-dependent protected area, method for monitoring a monitoring area and computer program
EP2521070A2 (en) Method and system for recording a static or dynamic scene, for determining raw events and detecting free areas in an area under observation
DE4332753A1 (en) Process for the detection of moving objects
DE102005006989A1 (en) Procedure for monitoring a surveillance area
WO2012110654A1 (en) Method for evaluating a plurality of time-offset pictures, device for evaluating pictures, and monitoring system
DE102007000449A1 (en) System for automatic counting of objects on moving or moved subsurface, has sensor for detecting electromagnetic radiation and for producing image sequences, memory unit and analysis unit
EP2219155B1 (en) Apparatus, method and computer programme for segmenting an object in an image, and video surveillance system
DE112022002520T5 (en) Procedure for automatic calibration of cameras and creation of maps
DE102012200504A1 (en) Analysis device for evaluating monitoring scene of e.g. airport for early detection of abnormal events, has output device outputting object list of moving objects, where each object satisfies spatial condition including specification
EP4107654A1 (en) Method and device for generating combined scenarios
DE102021206625A1 (en) Computer-implemented method and system for supporting an imaging sensor installation and training method
DE102006027120A1 (en) Image processing method, video surveillance system and computer program
DE102018101014B3 (en) A method of detecting characteristic features of a light pattern in an image thereof captured by a vehicle camera
EP3352111B1 (en) Method for identifying critical events
DE102008057176B4 (en) Automated 3D reconstruction method and monitoring device
AT501882A1 (en) PROCEDURE FOR DETECTING OBJECTS
DE102019210518A1 (en) Method for recognizing an object in sensor data, driver assistance system and computer program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08874527

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008874527

Country of ref document: EP