EP0749619A1 - System und verfahren zur bildauswertung - Google Patents

System und verfahren zur bildauswertung

Info

Publication number
EP0749619A1
EP0749619A1 EP95911286A EP95911286A EP0749619A1 EP 0749619 A1 EP0749619 A1 EP 0749619A1 EP 95911286 A EP95911286 A EP 95911286A EP 95911286 A EP95911286 A EP 95911286A EP 0749619 A1 EP0749619 A1 EP 0749619A1
Authority
EP
European Patent Office
Prior art keywords
image
image data
objects
data
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP95911286A
Other languages
English (en)
French (fr)
Inventor
Claudio Dornier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seisma AG
Original Assignee
SQ Services AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE4407528A external-priority patent/DE4407528C2/de
Application filed by SQ Services AG filed Critical SQ Services AG
Publication of EP0749619A1 publication Critical patent/EP0749619A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change

Definitions

  • the invention relates to a system and a method for image evaluation according to the preambles of claims 1 and 20, respectively.
  • a method for image evaluation in which a video signal supplied by a surveillance television camera is digitized by means of an A / D converter, stored in a correspondingly dimensioned image memory and with the digitized video signal of a subsequent picture is compared. From the difference between the two pieces of image information, changes of the smallest extent can be determined and very precisely localized, the achievable resolution being determined by the camera used.
  • the high information content of the image information obtained in this way results in a low reaction speed when responding to changes due to the limited processing speeds of the processors normally used.
  • DE-PS 36 28 816 discloses a system for image evaluation of the type mentioned in the introduction, in which a predetermined number of sample values belonging to a fixed subfield are combined to form a total value which is stored in a reference memory. For each new full image, the difference between the current and the stored total values of corresponding subfields is formed and compared with a threshold value. If the threshold is exceeded, an alarm is triggered for the corresponding subfield.
  • a threshold value If no further information about the change in the image content is evaluated in the known motion detectors, the problem arises that image changes due to changing lighting conditions (sun, clouds, reflections on reflecting surfaces, etc.), fluctuations of Mounting masts of the surveillance camera or other irrelevant movements (snow, birds, etc.) lead to frequent false alarms.
  • the invention is therefore based on the object of providing a system and a method for image evaluation by means of which an alarm triggering in the event of irrelevant image changes is reliably avoided.
  • FIG. 1 is a block diagram of a system for image evaluation according to a first embodiment
  • 3 shows an object list updated after correlation of the current objects with the stored objects and supplemented after object tracking
  • FIG. 4 is a schematic representation of the camera assembly and a vertical building in the field of view
  • FIG. 5 shows an image generated by means of the camera shown in FIG. 4 to show perspective size changes
  • FIG. 6 shows a block diagram of a system for image evaluation according to a second exemplary embodiment
  • FIG. 9 is a block diagram of a system for image evaluation according to a third exemplary embodiment.
  • the block diagram shown in Fig. 1 shows a first embodiment of a system for image evaluation.
  • the video signal supplied by a camera 1 is digitized by means of an analog / digital converter 2.
  • the camera 1 can be a conventional video surveillance camera but also an infrared or thermal imaging camera for generating the video signal.
  • the digitized pixel data can optionally be combined to reduce the amount of data by a reduction stage 3, as described, for example, in DE-PS 36 28 816, by adding individual pixel data in groups to new pixel data, or directly in a first image memory 4 ( LIVE memory) can be saved.
  • the reduced or digitized image in full resolution is periodically stored in a second image memory 5 (REFERENCE memory).
  • a difference image generating device 6 which can be implemented by a signal processor or a hard-wired arithmetic circuit, forms for each new image the difference between corresponding, possibly reduced pixel data of the "LIVE image” and the "REFERENCE image".
  • the difference image generating device 6 comprises a subtraction part 60, an amount formation part 61 and a threshold value comparator part 62. After the amount formation, the difference between the pixel data of a certain pixel is compared with a threshold value, which represents the decision threshold for a pixel change. This "sensitivity threshold" eliminates changes caused by signal noise.
  • a binary value "1" is written into a binary image memory 7 if the threshold value is undershot.
  • the pixels with the binary value "1" thus represent marked pixels in which an image change was found.
  • an object extractor 8 which can be implemented, for example, by a microprocessor, for coherently marked pixels, all coherent pixels being Points examined, wherein all connected pixels are assigned to a so-called object. Accordingly, an object corresponds to a coherent image area that has changed within a certain time period that is dependent on the storage cycle of the second image memory.
  • Object data of the extracted objects are stored in an object list.
  • the objects are, for example, as a rectangle or the like circumscribing the maximum horizontal and vertical extent of the marked pixel area. Are defined.
  • FIG. 2 shows a memory section of the binary image memory 7 in the form of a coordinate system in which the marked pixels are designated by "X".
  • two marked pixel areas that have changed with respect to the reference image have been extracted as objects 1 and 2.
  • the extracted objects are rectangular, their heights H 1, H 2 or widths B 1 , B2 depending on the extent of the marked pixel regions.
  • FIG. 2 shows an object list in which the coordinates x, y of the object center M, the object height H, the object width B and the number P x of the binary marked pixels are stored for each extracted object.
  • the current object list is compared and updated with a stored object list of the previous image by means of an object correlator 9 which can also be implemented by a microprocessor.
  • the objects extracted from the current binary image are shaped or similar to the objects found in the previous image by means of a plausibility check, such as checking for a minimum distance. assigned. and objects to which no object has been assigned for a certain period of time are deleted again.
  • An object tracking unit 11 calculates a vector which results from the difference between the detection point, namely the center of a new object, and the stored center point M (x; y) of the associated correlated object of the previous image. From the calculated vector, a distance covered s is determined as the amount of the vector, a horizontal and vertical directional component Rpj or Ry and an average speed v using the previous duration T of the object in question.
  • FIG. 3 shows an object list updated after the correlation, which was supplemented by the data calculated by means of the object tracking unit.
  • the current center of detection of an object is represented by the coordinates x n , y n and the last stored center of the object is represented by the coordinates x n - ⁇ , Yn- l • ° i e values H n _ ⁇ , B n _ ⁇ and P x - indicate the last stored height, width and number of the marked pixels of the object.
  • the updated object list is supplemented by the determined values for the amount of the movement vector s, the average speed v, the previous duration T and the movement direction components R H and Ry.
  • Object 1 has, for example, a current detection center (2; 0).
  • the last saved center has the coordinates (3.5, -1.5). According to the Pythagorean Theorem, this results in a distance to:
  • a subsequent feature extraction unit 12 which can again be implemented by means of a microprocessor, reads the image data in the area of the alarm-relevant object rectangles from the first image memory 4 and extracts image content features for the object in this image section according to known image processing methods.
  • this feature extraction only occurs for alarm-relevant objects, i.e. for objects that have a predetermined direction, size, speed, etc.
  • the size of the extracted rectangle and the number of marked pixels found within the rectangle are used to determine the object size.
  • an alarm object checking unit 13 all features of the extracted and tracked objects are identified with a Compare the predetermined list of required feature criteria and an alarm is only triggered and all the criteria are met and the video signal is switched to a monitor 14, the alarm objects with the associated vectors being faded in.
  • the differentiation of alarm-relevant changes from non-relevant ones is carried out, among other things, with the aid of the object size.
  • the real height and width of an object at a certain distance from the camera can be calculated from these parameters.
  • FIG. 5 also shows a resulting video image during the mounting of the surveillance camera K shown in FIG. 4.
  • a size in pixels e.g. 40 x 10 can be calculated for each y-coordinate.
  • FIG. 6 shows a second exemplary embodiment of the system for image evaluation, in which the above-mentioned problem can be avoided.
  • the evaluation device 10 evaluates the difference image directly with regard to predetermined features that determine the alarm relevance, such as, for example, the object size, and generates it in the event of an alarm-relevant change an alarm signal, whereupon the video signal is switched to the monitor 14.
  • the image parts in the present motion detector are marked by a one-time adjustment process which do not decrease in perspective (see dashed lines in FIG. 5).
  • the adjustment process is carried out by the operator by means of an input device 21 such as a keyboard, a mouse or a light pen, the video image being switched to the monitor.
  • an input device 21 such as a keyboard, a mouse or a light pen
  • the marking takes place by moving or enlarging and reducing the size of the dashed areas which are brought into line with the desired image sections.
  • the object size in the marked areas is determined without taking into account the reduction in perspective.
  • the coordinates of the marked difference image points are compared with the coordinates of the marked image sections.
  • Such a correction of the object size determination can of course also be used in the system according to the first exemplary embodiment shown in FIG. 1, the correction of the perspective size change in this case taking place in the feature extraction unit 12.
  • FIG. 7 Such a development of the system is shown in the block diagram shown in FIG. 7.
  • data of striking, unchangeable image content such as contours independent of the lighting conditions are stored in a read-only memory 17 and compared with the current image information in a comparison device 16 immediately after switching on or continuously at specific time intervals.
  • a warning signal is forwarded via a signal line 20 to a display device on the monitor 14 for displaying the change in position.
  • the contours are marked, for example, after the surveillance camera 1 has been installed.
  • a contour image is generated by means of a contour circuit 15, to which the digitized data of the memory 4 is supplied, all contours which have a high jump in contrast being displayed in color.
  • a suitably prepared contour image is fed to the monitor 14 via a signal line 19.
  • the marking is preferably done by input via an input device 18 such as a keyboard, a mouse or a light pen, since the system cannot independently recognize which contours cannot be changed. For example, the contours of a parked vehicle must not be marked as reference contours.
  • FIG 8 shows an example of a contour image generated in this way, in which marked reference contour sections K 1 and K 2 are shown in dashed lines.
  • marked reference contour sections K 1 and K 2 are shown in dashed lines.
  • two contour sections arranged at right angles to one another are marked in order to ensure reliable detection of each change in position.
  • FIG. 9 shows a block diagram of a third exemplary embodiment of the system for image evaluation, in which the false alarm frequency can be reduced by a so-called auto-parameterization.
  • the programming of the feature criteria of the evaluation device 10 or the threshold value of the threshold value comparator part 62 of the difference image generating device 6 is adapted to the current environmental influences.
  • the detection sensitivity to the current environmental influences such as snow, rain, fog, passing clouds or the like.
  • the threshold would be reduced, thereby increasing the detection sensitivity.
  • Unique features that are detected by the pre-evaluation device 22 are, for example, many small objects that move in a preferred direction in the case of snowfall, a movement that occurs only in a limited area in the case of shadows from trees, etc.
  • the auto-parameterization therefore makes it possible to adapt the sensitivity and object evaluation criteria of the motion detector to the prevailing environmental conditions in such a way that the criteria for alarm relevance are set higher in the case of poor visibility or a strongly moving image background.
  • a motion detector and a motion detection method are disclosed, according to which a differential image obtained from a digitized video signal from a surveillance camera 1 and in which changing pixels are marked is examined for contiguous pixels (objects) by means of an object extractor 8.
  • the extracted objects are assigned to stored objects of a previous image, and then the object data obtained are checked for alarm relevance with regard to predetermined object features. An alarm is triggered when the object features are fulfilled.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

Es werden ein System und ein Verfahren zur Bildauswertung offenbart, gemäss denen ein aus einem digitalisierten Videosignal einer Überwachungskamera gewonnenes Differenzbild, in dem sich ändernde Bildpunkte markiert sind, mittels eines Objektextraktors auf zusammenhängende Bildpunkte (Objekte) untersucht wird. Die extrahierten Objekte werden gespeicherten Objekten eines vorangegangenes Bildes zugeordnet, und anschliessend werden die gewonnenen Objekdaten hinsichtlich vorbestimmter Objektmerkmale auf Relevanz überprüft. Bei Erfüllung der Objektmerkmale wird ein Meldesignal abgegeben.

Description

SYSTEM UND VERFAHREN ZUR BILDAUSWERTUNG
Beschreibung:
Die Erfindung bezieht sich auf ein System und ein Verfahren zur Bildauswertung gemäß den Oberbegriffen der Patentansprüche 1 bzw. 20.
Aus der DE-PS 24 26 803 ist ein Verfahren zur Bildauswertung bekannt, bei dem ein von einer Überwachungs-Fernsehkamera ge¬ liefertes Videosignal mittels eines A/D-Umsetzers bildweise digitalisiert, in einem entsprechend dimensionierten Bildspei¬ cher gespeichert und mit dem digitalisierten Videosignal eines nachfolgenden Bilds verglichen wird. Aus der Differenz der beiden Bildinformationen lassen sich Änderungen geringsten Ausmaßes feststellen und sehr genau lokalisieren, wobei die erzielbare Auflösung durch die verwendete Kamera bestimmt ist.
Der hohe Informationsgehalt der auf diese Weise gewonnen Bild¬ information hat allerdings aufgrund der beschränkten Verarbei¬ tungsgeschwindigkeiten der üblicherweise verwendeten Prozesso- ren eine geringe Reaktionsgeschwindigkeit beim Ansprechen auf Änderungen zur Folge.
Zur Erhöhung der Reaktionsgeschwindigkeit wurden daher Systeme vorgeschlagen, bei denen alle logischen Verknüpfungen auf Ba- sis von Feldern durchgeführt werden.
Beispielsweise offenbart die DE-PS 36 28 816 ein System zur Bildauswertung der eingangs genannten Art, bei dem eine vorbe¬ stimmte Anzahl von zu einem festen Teilfeld gehörigen Abtast- werten zu einem Summenwert zusammengefaßt werden, der in einem Referenzspeicher gespeichert wird. Für jedes neue Vollbild wird die Differenz zwischen den aktuellen und den gespeicher¬ ten Summenwerten entsprechender Teilfelder gebildet und mit einem Schwellwert verglichen. Bei Überschreitung des Schwell- werts wird ein Alarm für das entsprechende Teilfeld ausgelöst. Da jedoch bei den bekannten Bewegungsmeldern keine weiteren Informationen über die Änderung des Bildinhalts ausgewertet werden, ergibt sich die Problematik, daß Bildänderungen auf¬ grund von wechselnden Beleuchtungsverhältnissen (Sonne, Wol¬ ken, Spiegelungen an reflektierenden Flächen, etc.), Schwan¬ kungen von Montagemasten der Überwachungskamera oder sonstigen irrelevanten Bewegungen (Schnee, Vögel, etc.) zu häufigen Fehlalarmen führen.
Der Erfindung liegt daher die Aufgabe zugrunde, ein System und ein Verfahren zur Bildauswertung zu schaffen, durch die zuver¬ lässig eine Alarmauslösung bei irrelevanten Bildänderungen vermieden wird.
Diese Aufgabe wird erfindungsgemäß mit einem System zur Bild¬ auswertung gemäß den Patentansprüchen 1, 13, 15, oder 17 bzw. einem Verfahren gemäß Patentanspruch 20 gelöst.
Durch die Zusammenfassung der sich ändernden Bildbereiche zu Objekten, die zur weiteren Verarbeitung herangezogen werden, und/oder durch eine zusätzlichen Auswertung der Umweltbedin¬ gungen im zu überwachenden Bildbereich ist es möglich, Objekte einer Sicherheitsanalyse hinsichtlich vorbestimmter Objekt- merkmale zu unterziehen und einen Alarm nur dann auszulösen, wenn ein Objekt als alarmrelevant eingestuft wird. Dies führt zu einer erheblichen Verbesserung der Zuverlässigkeit des Be¬ wegungsmelders bei gleichzeitig kurzer Reaktionszeit.
Vorteilhafte Ausgestaltungen der Erfindung sind in den Unter¬ ansprüchen aufgeführt.
Die Erfindung wird nachstehend anhand von Ausführungsbeispie¬ len unter Bezugnahme auf die Zeichnung näher beschrieben. Es zeigen: Fig. 1 ein Blockschaltbild eines Systems zur Bildauswertung gemäß einem ersten Ausführungsbeispiel,
Fig. 2 das Prinzip der Zusammenfassung von markierten Bild- punkten eines Differenzbildes zu Objekten und eine zugehörige Objektliste,
Fig. 3 eine nach einer Korrelation der aktuellen mit den ge¬ speicherten Objekten aktualisierte sowie nach der Objektver- folgung ergänzte Objektliste,
Fig. 4 eine schematische Darstellung der Kameramontage und eines im Blickfeld befindlichen senkrecht stehenden Gebäudes,
Fig. 5 ein mittels der in Fig. 4 gezeigten Kamera erzeugtes Bild zur Darstellung perspektivischer Größenänderungen,
Fig. 6 ein Blockschaltbild eines Systems zur Bildauswertung gemäß einem zweiten Ausführungsbeispiel,
Fig. 7 ein Blockschaltbild eines erweiterten zweiten Ausführungsbeispiels,
Fig. 8 ein Konturbild mit Referenzkonturabschnitten, und
Fig. 9 ein Blockschaltbild - eines Systems zur Bildauswertung gemäß einem dritten Ausführungsbeispiel.
Das in Fig. 1 dargestellte Blockschaltbild zeigt ein erstes Ausführungsbeispiel eines Systems zur Bildauswertung. Das von einer Kamera 1 gelieferte Videosignal wird mittels eines Ana- log/Digital-Wandlers 2 digitalisiert. Die Kamera 1 kann eine übliche Videoüberwachungskamera aber auch eine Infrarot- oder Wärmebildkamera zur Erzeugung des Videosignals sein. Die digitalisierten Bildpunktdaten können wahlweise zur Reduk¬ tion der Datenmenge durch eine Reduzierstufe 3, wie sie z.B. in der DE-PS 36 28 816 beschrieben ist, durch gruppenweises Addieren einzelner Bildpunktdaten zu neuen Bildpunktdaten zu- sammengefaßt werden oder direkt in einem ersten Bildspeicher 4 (LIVE-Speicher) gespeichert werden.
In periodischen Abständen wird das reduzierte oder in voller Auflösung digitalisierte Bild in einem zweiten Bildspeicher 5 (REFERENZ-Speicher) gespeichert.
Eine Differenzbild-Erzeugungseinrichtung 6, die durch einen Signalprozessor oder eine festverdrahtete Rechenschaltung realisierbar ist, bildet für jedes neue Bild den Differenzbetrag zwischen einander entsprechenden, ggf. reduzierten Bildpunktendaten des "LIVE-Bilds" und des "REFERENZ-Bilds". Die Differenzbild-Erzeugungseinrichtung 6 umfaßt einen Subtraktionsteil 60, einen Betragsbildungsteil 61 sowie einen Schwellwertvergleicherteil 62. Die Differenz der Bildpunktdaten eines bestimmten Bildpunktes wird nach der Betragsbildung mit einem Schwellwert verglichen, der die Entscheidungsschwelle für eine Bildpunktänderung darstellt. Durch diese "Empfindlichkeits-schwelle" werden durch Signalrauschen hervorgerufene Änderungen eliminiert.
Bei Überschreiten des Schwellwerts wird ein Binärwert "l" und bei Unterschreiten des Schwellwerts ein Binärwert "0" in einen Binärbildspeicher 7 eingeschrieben. Die Bildpunkte mit dem Bi¬ närwert "1" stellen also markierte Bildpunkte dar, bei denen eine Bildveränderung festgestellt wurde.
Nachfolgend wird das so gebildete Binärbild mittels eines Ob¬ jektextraktors 8, der beispielsweise durch einen Mikroprozes¬ sor realisierbar ist, auf zusammenhängende markierte Bild- punkte untersucht, wobei alle zusammenhängenden Bildpunkte ei- punkte untersucht, wobei alle zusammenhängenden Bildpunkte ei¬ nem sogenannten Objekt zugeordnet werden. Demgemäß entspricht ein Objekt einem zusammenhängenden Bildbereich, der sich in¬ nerhalb eines bestimmten, von dem Speicherzyklus des zweiten Bildspeichers abhängigen Zeitraums geändert hat. In einer Ob¬ jektliste werden Objektdaten der extrahierten Objekte gespei¬ chert. Die Objekte werden beispielsweise als ein die maximale horizontale und vertikale Ausdehnung des markierten Bildpunktbereichs umschreibendes Rechteck odgl. definiert.
Fig. 2 zeigt einen Speicherausschnitt des Binärbildspeichers 7 in Form eines Koordinatensystems, bei dem die markierten Bild¬ punkte mit "X" bezeichnet sind. Im vorliegenden Fall sind zwei markierte Bildpunktbereiche, die sich bezüglich des Referenz- bilds geändert haben, als Objekte 1 und 2 extrahiert worden. Die extrahierten Objekte sind rechteckförmig, wobei deren Hö¬ hen Hι_, H2 bzw. Breiten Bi, B2 von der Ausdehnung der markier¬ ten Bildpunktbereiche abhängen. Neben dem Speicherauschnitt zeigt Fig. 2 eine Objektliste, in der für jedes extrahierte Objekt die Koordinaten x, y des Objektmittelpunkts M, die Ob¬ jekthöhe H, die Objektbreite B und die Anzahl Px der binären markierten Bildpunkte gespeichert sind.
Im weiteren Verlauf der Verarbeitung werden nicht mehr einzel- ne Bildpunkte sondern lediglich die extrahierten Objekte ver¬ wendet, wodurch sich die - Verarbeitungsgeschwindigkeit be¬ trächtlich erhöht.
Die aktuelle Objektliste wird mit einer gespeicherten Objekt- liste des vorhergehenden Bildes mittels eines ebenfalls durch einen Mikroprozessor realisierbaren Objektkorrelators 9 ver¬ glichen und aktualisiert. Dabei werden die aus dem aktuellen Binärbild extrahierten Objekte den in dem vorhergehenden Bild gefundenen Objekten durch Plausibilitätsprüfung, wie z.B. Prü- fung auf minimale Entfernung, ähnliche Form odgl. zugeordnet. und Objekte, denen über eine bestimmte Zeitdauer kein Objekt zugeordnet wurde, werden wieder gelöscht.
Im folgenden wird die Auswertung der Objektdaten mit dem Ziel der Erfassung alarmrelevanter Objekte und anschließender Alarmauslösung beschrieben. Dies geschieht in einer Auswer¬ tungseinrichtung 10.
Eine Objektverfolgungseinheit 11 berechnet einen Vektor, der sich aus dem Unterschied des Erfassungspunktes, nämlich des Mittelpunktes eines neuen Objekts, und dem gespeicherten Mit¬ telpunkt M(x;y) des zugeordneten korrelierten Objekts des vor¬ angegangenen Bilds ergibt. Aus dem berechneten Vektor werden eine zurückgelegte Strecke s als Betrag des Vektors, eine ho- rizontale und vertikale Richtungskomponente Rpj bzw. Ry sowie eine mittlere Geschwindigkeit v unter Ansetzen der bisherigen Bestanddauer T des betreffenden Objekts ermittelt.
Fig. 3 zeigt eine nach der Korrelation aktualisierte Objekt- liste, die durch die mittels der Objektverfolgugseinheit er¬ rechneten Daten ergänzt wurde. Dabei wird der aktuelle Erfas¬ sungsmittelpunkt eines Objekts durch die Koordinaten xn, yn dargestellt und der zuletzt gespeicherte Mittelpunkt des Ob¬ jekts durch die Koordinaten xn-ι, Yn-l • °ie Werte Hn_ι , Bn_ι und Px - geben die zuletzt gespeicherte Höhe, Breite bzw. An¬ zahl der markierten Bildpunkte des Objekts an.
Nach Auswertung der neuen Objektdaten durch die Objektverfol¬ gungseinheit 11 wird die aktualisierte Objektliste durch die ermittelten Werte für den Betrag des Bewegungsvektors s, die mittlere Geschwindigkeit v, die bisherige Bestanddauer T und die Bewegungsrichtungskomponenten RH und Ry ergänzt.
Das Objekt 1 weist beispielsweise einen aktuellen Erfassungs- mittelpunkt (2;0) auf. Der zuletzt gespeicherte Mittelpunkt hat die Koordinaten (3,5,-1,5). Daraus ergibt sich gemäß dem Satz des Pythagoras eine Wegstrecke zu:
S = ((Xn - Xn_ι)2 + (yn - yn_1)2)0,5 = (1,52 + 1,52)0'5
= 2,1.
Für die Richtungskoordinaten ergeben sich die Werte:
RH = xn - xn_ι = -1,5 = γn " Yn-1 = "1,5.
Wird eine bisherige Bestanddauer T = 2 des Objekts 1 angenom¬ men, so ergibt sich eine mittlere Geschwindigkeit von:
v = s/T = 1,05.
Eine nachfolgende, wiederum mittels Mikroprozessor realisier¬ bare Merkmalsextraktionseinheit 12 liest die Bilddaten im Be- reich der alarmrelevanten Objektrechtecke aus dem ersten Bild¬ speicher 4 aus und extrahiert in diesem Bildausschnitt nach bekannten Bildverarbeitungsverfahren Bildinhaltsmerkmale für das Objekt. Diese Merkmalsextraktion geschieht allerdings nur für alarmrelevante Objekte, d.h. für Objekte, die eine vorbe- stimmte Richtung, Größe, Geschwindigkeit usw. aufweisen. Dabei wird zur Bestimmung der Objektgröße die Größe des extrahierten Rechtecks sowie die innerhalb des Rechtecks gefundene Anzahl markierter Bildpunkte herangezogen.
Bei der anschließenden objektbezogenen Bildverarbeitung können auch einfache Merkmale wie beispielsweise die Farbe des Ob¬ jekts extrahiert werden.
In einer Alarmobjektprüfungseinheit 13 werden schließlich alle Merkmale der extrahierten und verfolgten Objekte mit einer vorbestimmten Liste erforderlicher Merkmalskriterien vergli¬ chen und nur bei gleichzeitiger Erfüllung aller Kriterien wird ein Alarm ausgelöst und das Videosignal auf einen Monitor 14 geschaltet, wobei die Alarmobjekte mit den zugehörigen Vekto- ren eingeblendet werden.
Im folgenden wird anhand der Fig. 4 und 5 die Objektgrößenprü¬ fung zur Bestimmung alarmrelevanter Objekte näher erläutert.
Die Unterscheidung alarmrelevanter Änderungen von nicht rele¬ vanten wird unter anderem mit Hilfe der Objektgröße durchge¬ führt. Es besteht dabei ein fester Zusammenhang zwischen der realen Größe eines Objekts und der sich auf dem Bildschirm er¬ gebenden Größe bzw. der Anzahl der Bildpunkte in einem digita- lisierten Videobild.
Dieser Zusammenhang ist abhängig von folgenden Parametern:
- Brennweite des Objektivs O - Diagonale des Bildaufnehmers (z.B. 2/3")
- Höhe M-fj der Überwachungskamera K
- Neigungswinkel r der Überwachungskamera K
Aus diesen Parametern läßt sich die reale Höhe und Breite ei- nes Objekts in einem bestimmten Abstand von der Kamera berech¬ nen.
Eine für Video-Überwachungsanlagen typische Montage ist in Fig. 4 dargestellt. Ferner zeigt Fig. 5 ein sich ergebendes Videobild bei der in Fig. 4 gezeigten Montage der Überwa¬ chungskamera K.
Aufgrund dieser überhöhten Montage erscheint der reale Vorder¬ grund am unteren Bildschirmteil und der reale Horizont H am oberen Bildschirmteil. Unter der Annahme, daß sich der Koordi- natenursprung U in der linken oberen Ecke des Bildschirms be¬ findet, wird eine perspektivische Objektgröße mit steigender y-Koordinate in proportionaler Weise größer.
Dies bedeutet, daß für ein reales Objekt (z.B. einen Menschen mit 180 cm x 50 cm) für jede y-Koordinate eine Größe in Bild¬ punkten (z.B. 40 x 10) berechnet werden kann.
Befindet sich allerdings ein senkrecht stehendes Objekt wie beispielsweise eine Gebäudemauer G im Bildbereich der Kamera, so darf im Bereich der Gebäudemauer G keine perspektivische Größenanpassung durchgeführt werden, da sich ansonsten eine falsche Objektgröße ergibt.
In Fig. 5 wird diese Problematik verdeutlicht. Man erkennt, daß Personen Pl und P3 auf dem Bildschirm in Abhängigkeit von der y-Koordinate in unterschiedlicher Größe erscheinen. Perso¬ nen P2 und P4 hingegen, die sich an der Gebäudemauer G befin¬ den, werden unabhängig von der y-Koordinate immer gleich groß dargestellt, da sich im Bereich der Gebäudemauer G keine per¬ spektivische Wirkung ergibt.
Das in Fig. 6 dargestellte Blockschaltbild zeigt ein zweites Ausführungsbeispiel des Systems zur Bildauswertung, bei dem die oben erwähnte Problematik vermeidbar ist.
Die mit den in Fig. 1 gezeigten, identischen Schaltungsteile weisen dieselben Bezugszeichen auf. Auf eine Beschreibung die¬ ser Schaltungsteile wird daher verzichtet.
Bei diesem Ausführungsbeispiel wertet die Auswertungseinrich¬ tung 10 das Differenzbild direkt hinsichtlich vorbestimmter, die Alarmrelevanz bestimmender Merkmale wie beispielsweise der Objektgröße aus und erzeugt bei einer alarmrelevanten Änderung ein Alarmsignal, woraufhin das Videosignal auf den Monitor 14 geschaltet wird.
Zur Vermeidung einer fehlerhaften Objektgrößenprüfung werden im vorliegenden Bewegungsmelder durch einen einmaligen Ein¬ stellvorgang die Bildteile markiert, die sich nicht perspekti¬ visch verkleinern (siehe gestrichelte Linien in Fig. 5).
Der Einstellvorgang geschieht durch die Bedienungsperson mit- tels einer Eingabevorichtung 21 wie beispielsweise einer Ta¬ statur, einer Maus oder eines Lichtgriffels, wobei das Video¬ bild auf den Monitor geschaltet wird. Die Markierung geschieht wie bei bekannten Desktop-Programmen durch Verschieben bzw. Vergrößern und Verkleinern eingeblendeter gestrichelter Berei- ehe, die mit den gewünschten Bildausschnitten in Deckung ge¬ bracht werden.
Dementsprechend wird bei der Überprüfung der Alarmrelevanz durch die Auswertungseinrichtung 10 die Objektgröße in den markierten Bereichen ohne Berücksichtigung der perspektivi¬ schen Verkleinerung ermittelt. Hierzu werden die Koordinaten der markierten Differenzbildpunkte mit den Koordinaten der markierten Bildauschnitte verglichen.
Eine derartige Korrektur der Objektgrößenbestimmung kann selbstverständlich auch im System gemäß dem in Fig. 1 gezeig¬ ten ersten Ausführungsbeispiel angewendet werden, wobei die Korrektur der perspektivischen Größenänderung in diesem Fall in der Merkmalsextraktionseinheit 12 geschieht.
Bei einer derartigen Voreinstellung fester Bildteile kann je¬ doch eine Veränderung der Kameraposition bei abgeschaltetem System, beispielsweise durch Fremdeinwirkung, neben der Über¬ wachung eines falschen Bildbereichs auch zu einer fehlerhaften Objektgrößenermittlung führen. Aus diesem Grunde werden zur Erfassung einer eventuellen Ver¬ änderung der Kameraposition markante Bildinhalte wie z.B. von den Beleuchtungsverhältnissen unabhängige Konturen in einem nichtflüchtigen Speicher des Systems gespeichert und sofort nach dem Einschalten, bzw. kontinuierlich in einem bestimmten Zeitabstand mit der aktuellen Bildinformation verglichen.
In dem in Fig. 7 gezeigten Blockschaltbild ist eine derartige Weiterbildung des Systems dargestellt.
Zur Erkennung von Positionveränderungen der Kamera während des ausgeschalteten Zustands werden Daten markanter, nicht verän¬ derlicher Bildinhalte wie z.B. von den Beleuchtungsverhältnis- sen unabhängige Konturen in einem Festspeicher 17 gespeichert und sofort nach dem Einschalten bzw. kontinuierlich in be¬ stimmten Zeitabständen mit der aktuellen Bildinformation in einer Vergleichseinrichtung 16 verglichen.
Bei Feststellung einer Konturveränderung wird ein Warnsignal über eine Signalleitung 20 an eine an dem Monitor 14 befindli¬ che Anzeigeeinrichtung zur Anzeige der Positionsveränderung weitergeleitet.
Die Konturen werden beispielsweise nach der Installation der Überwachungskamera 1 markiert. Zur Erleichterung der Einstel¬ lung wird dabei mittels einer Konturschaltung 15, der die di¬ gitalisierten Daten des Speichers 4 zugeführt werden, ein Kon¬ turbild erzeugt, wobei alle Konturen, die einen hohen Kon- trastsprung aufweisen, farbig dargestellt werden.
Über eine Signalleitung 19 wird ein entsprechend aufbereitetes Kontorbild dem Monitor 14 zugeführt. Die Markierung geschieht vorzugsweise durch Eingabe über eine Eingabevorrichtung 18 wie beispielsweise eine Tastatur, eine Maus oder einen Lichtgriffel, da das System nicht selbständig erkennen kann, welche Konturen nicht veränderbar sind. Bei- spielsweise dürfen die Konturen eines geparkten Fahrzeugs nicht als Referenzkonturen markiert werden.
Fig. 8 zeigt ein Beispiel eines so erzeugten Konturbildes, bei dem markierte Referenzkonturabschnitte Kl und K2 gestrichelt dargestellt sind. Vorzugsweise werden zwei möglichst im rech¬ ten Winkel zueinander angeordnete Konturabschnitte markiert, um eine zuverlässige Erfassung jeder Positionsveränderung zu gewährleisten.
Fig. 9 zeigt ein Blockschaltbild eines dritten Ausführungsbei- spiels des Systems zur Bildauswertung, bei dem die Fehlalarm¬ häufigkeit durch eine sogenannte Autoparametrisierung verrin¬ gerbar ist.
Auch bei diesem Blockschaltbild weisen die mit den in Fig. 1 gezeigten, identischen Schaltungsteile dieselben Bezugszeichen auf. Auf eine Beschreibung dieser Schaltungsteile wird daher auch hier verzichtet.
Bei der Autoparametrisierung wird die Programmierung der Merk¬ malskriterien der Auswertungseinrichtung 10 oder der Schwell¬ wert des Schwellwertvergleicherteils 62 der Differenzbild- Erzeugungseinrichtung 6 an die aktuellen Umwelteinflüsse ange¬ paßt.
Dies geschieht automatisch durch Auswerten eindeutig fester Merkmale des Videobildes mittels einer Vorauswertungseinrich¬ tung 22, die in Abhängigkeit vorbestimmter Merkmale des Video¬ bilds die Programmierung oder einzelne Parameter der Auswer- tungseinrichtung 10 wechselt und/oder den Entscheidungs- schwellwert des Schwellwertvergleicherteils 62 verändert.
Durch Veränderung des oben erwähnten Schwellwerts kann bei¬ spielsweise die Erfassungsempfindlichkeit an die aktuellen Um¬ welteinflüsse wie beispielsweise Schneefall, Regen, Nebel, vorbeiziehende Wolken odgl. angepaßt werden. Bei Nebel würde zum Beispiel der Schwellwert verringert werden, um dadurch die Erfassungsempfindlichkeit zu erhöhen.
Eindeutige Merkmale, die durch die Vorauswertungseinrichtung 22 erfaßt werden, sind beispielsweise bei Schneefall viele kleine Objekte, die sich in einer Vorzugsrichtung bewegen, bei von Bäumen stammenden Schatten eine Bewegung, die nur in einem begrenzten Bereich stattfindet, usw.
Durch die Autoparametrisierung ist also eine Anpassung der Empfindlichkeit und Objektauswertungskriterien des Bewegungs¬ melders an die vorherrschenden Umweltbedingungen in der Weise möglich, daß bei schlechter Sicht oder stark bewegtem Bildhin¬ tergrund die Kriterien für die Alarmrelevanz höher angesetzt sind.
Zusammengefaßt werden ein Bewegungsmelder sowie ein Bewe- gungsmeldeverfahren offenbart, gemäß denen ein aus einem digi¬ talisierten Videosignal einer Überwachungskamera 1 gewonnenes Differenzbild, in dem sich ändernde Bildpunkte markiert sind, mittels eines Objektextraktors 8 auf zusammenhängende Bild¬ punkte (Objekte) untersucht wird. Die extrahierten Objekte werden gespeicherten Objekten eines vorangegangenes Bildes zu¬ geordnet, und anschließend werden die gewonnenen Objektdaten hinsichtlich vorbestimmter Objektmerkmale auf Alarmrelevanz überprüft. Bei Erfüllung der Objektmerkmale wird ein Alarm ausgelöst.

Claims

Patentansprüche:
1. Bildauswertesystem zum Auswerten von einem zu überwachenden Bildbereich entsprechenden Bilddaten mit: einem Referenzbildspeicher zur Speicherung der Bilddaten eines Bildes als Referenzbilddaten und einer Differenzbild-Erzeu¬ gungseinrichtung zum Vergleichen von aktuellen Bilddaten mit den Referenzbilddaten und zum Erzeugen eines Differenzbildes, in dem Bildpunkte markiert sind, deren Bilddaten sich geändert haben , gekennzeichnet durch a) eine Objektextraktionseinrichtung (8) zum Zusammenfassen von zusammenhängenden markierten Differenzbildpunkten zu Ob¬ jekten, b) einen Objektspeicher zum Speichern von Objektdaten für die Objekte, c) eine O jektkorrelationseihrichtung (9) zum Zuordnen neuer Objekte der aktuellen Bilddaten zu den entsprechenden gespei¬ cherten Objekten, und d) eine Auswertungseinrichtung (10) zur Meldungsabgabe bei Übereinstimmung vorbestimmter Objektmerkmale der Objektdaten einander entsprechender Objekte.
2. System nach Anspruch 1, gekennzeichnet durch eine Bildauf¬ nahmevorrichtung (1) wie eine Videokamera, eine Infrarotkamera oder eine Wärmebild-Kamera und einen Analog/Digital-Umsetzer (2) zur Eingabe der Bilddaten.
3. System nach Anspruch 1 oder 2, gekennzeichnet durch einen Bildspeicher (4) zur Speicherung der aktuellen Bilddaten.
4. System nach einem der Ansprüche 1 bis 3, dadurch gekenn- zeichnet, daß die Differenzbild-Erzeugungseinrichtung (6) aus einem Subtraktionsteil (60) zum bildpunktweisen Subtrahieren der aktuellen Bilddaten von den gespeicherten Bilddaten, einem Betragsbildungsteil (61) zum Bilden des Betrags des Sub¬ traktionsergebnisses und einem Schwellwertvergleicherteil (62) besteht, der die Differenzbilddaten mit einer Empfindlich¬ keitsschwelle vergleicht und jeden Bildpunkt bei Überschreiten des Schwellwerts markiert.
5. System nach Anspruch 4, dadurch gekennzeichnet, daß die Entscheidungsschwelle des Schwellwertvergleicherteils (62) in Abhängigkeit vorbestimmter, von den Umweltbedingungen im Bild¬ bereich abhängiger Merkmale veränderbar ist.
6. System nach Anspruch 4 oder 5, dadurch gekennzeichnet, daß der Schwellwertvergleicherteil (62) für die Bildpunkte jewei¬ lige Binärwerte erzeugt, die in einem Binärbildspeicher (7) gespeichert werden.
7. System nach einem der vorangehenden Ansprüche, gekennzeich- net durch eine Reduzierstufe (3), die Bilddaten von Bildpunkt¬ gruppen zu Summenwerten aufaddiert und als reduzierte Bild¬ punktdaten an die Differenzbild-Erzeugungseinrichtung (6) ab¬ gibt, um dadurch die Datenmenge zu verringern.
8. System nach einem der vorangehenden Ansprüche, dadurch ge¬ kennzeichnet, daß der Referenzbildspeicher (5) periodisch auf die aktuellen Bilddaten umgeschrieben wird.
9. System nach einem der vorangehenden Ansprüche, dadurch ge¬ kennzeichnet, daß die Objektextraktionseinrichtung (8) eine Objektliste mit den Objektdaten der herausgegriffenen Objekte erstellt und im Objektspeicher abspeichert.
10. System nach einem der vorangehenden Ansprüche, dadurch ge¬ kennzeichnet, daß die Auswertungseinrichtung (10) eine Objekt¬ verfolgungseinheit (11) zur Berechnung eines Bewegungsvektors, einer zurückgelegten Strecke (s) und einer mittleren Geschwin¬ digkeit (v) aus den Koordinaten eines zugeordneten Objekts, eine Merkmalsextraktionseinheit (12) zur Feststellung relevan¬ ter Objekte durch Vergleich der Objektdaten mit vorbestimmter Kriterien, zum Auslesen der Bilddaten im Bereich alarmrelevan¬ ter Objekte und zum Extrahieren von Bildinhaltsmerkmalen der ausgelesenen Bilddaten und eine Meldeobjektprüfungseinheit (13) aufweist, die bei Erfüllung aller vorbestimmten Kriterien eine Meldung auslöst und/oder die Bilddaten an einer Anzeige¬ einrichtung (14) ausgibt, wobei die relevanten Objekte mit den zugehörigen Vektoren eingeblendet werden.
11. System nach Anspruch 10, dadurch gekennzeichnet, daß die Merkmalsextraktionseinheit (12) eine als Kriterium für die Re¬ levanz verwendete Objektgröße bei in vorbestimmten Bildaus¬ schnitten befindlichen Objekten ohne Berücksichtigung der per¬ spektivischen Größenveränderung auswertet, wobei die vorbe- stimmten Bildausschnitte durch eine Bedienungsperson markier¬ bar sind.
12. System nach einem der vorangehenden Ansprüche, dadurch ge¬ kennzeichnet, daß die zur Ermittlung der Relevanz herangezoge- nen vorbestimmten Objektmerkmale der Auswertungseinrichtung (10) in Abhängigkeit vorbestimmter, von den Umweltbedingungen im Bildbereich abhängiger Merkmale veränderbar sind.
13. Bildauswertesystem zum Auswerten von einem zu überwachen¬ den Bildbereich entsprechenden Bilddaten mit: einem Referenzbildspeicher zur Speicherung der Bilddaten eines Bildes als Referenzbilddaten und einer Differenzbild-Erzeu¬ gungseinrichtung zum Vergleichen von aktuellen Bilddaten mit den Referenzbilddaten und zum Erzeugen eines Differenzbildes, in dem Bildpunkte markiert sind, deren Bilddaten sich geändert haben, gekennzeichnet durch eine Auswertungseinrichtung (10) zur Meldungsabgäbe bei vorbe- stimmten relevanten Merkmalen der geänderten Bilddaten, wobei die Auswertungseinrichtung (10) derart voreinstellbar ist, daß die als Kriterium für die Relevanz verwendete Objektgröße bei in voreingestellten Bildausschnitten befindlichen Objekten oh¬ ne Berücksichtigung der perspektivischen Größenänderung ausge- wertet wird.
14. System nach Anspruch 13, gekennzeichnet durch eine Einga¬ bevorrichtung (21), mittels der die Bildausschnitte für die Auswertungseinrichtung (10) einstellbar sind.
15. Bildauswertesystem zum Auswerten von einem zu überwachen¬ den Bildbereich entsprechenden Bilddaten mit: einem Referenzbildspeicher zur Speicherung der Bilddaten eines Bildes als Referenzbilddaten und einer Differenzbild-Erzeu-^ gungseinrichtung zum Vergleichen von aktuellen Bilddaten mit den Referenzbilddaten und zum Erzeugen eines Differenzbildes, in dem Bildpunkte markiert sind, deren Bilddaten sich geändert haben, gekennzeichnet durch eine Vorauswertungseinrichtung (22), die die Programmierung einer zur Meldungsabgabe bei vorbestimmten relevanten Merkma¬ len der geänderten Bilddaten verwendeten Auswertungseinrich¬ tung (10) in Abhängigkeit vorbestimmter, von den Umweltbedin- gungen im Bildbereich abhängiger Merkmale verändert.
16. System nach Anspruch 15, dadurch gekennzeichnet, daß die Vorauswertungseinrichtung (22) eine zur Erzeugung des Diffe¬ renzbildes verwendete Empfindlichkeitsschwelle in Abhängigkeit der vorbestimmten Merkmale verändert.
17. Bildauswertesystem zum Auswerten von einem zu überwachen¬ den Bildbereich entsprechenden Bilddaten mit: einem Referenzbildspeicher zur Speicherung der Bilddaten eines Bildes als Referenzbilddaten und einer Differenzbild-Erzeu¬ gungseinrichtung zum Vergleichen von aktuellen Bilddaten mit den Referenzbilddaten und zum Erzeugen eines Differenzbildes, in dem Bildpunkte markiert sind, deren Bilddaten sich geändert haben, gekennzeichnet durch a) eine Konturschaltung (15) zur Erzeugung eines Konturbilds aus den Bilddaten, b) einen nichtflüchtigen Speicher (17) , in den Daten von Referenzkonturabschnitten (Kl, K2) markanter, nicht veränder- licher Bildausschnitte eingespeichert werden, und c) eine Vergleichseinrichtung (16) zum Vergleichen der Daten der gespeicherten Referenzkonturabschnitte (Kl, K2) mit den Bilddaten und zum Erzeugen eines Warnsignals (20) bei fehlender Übereinstimmung.
18. System nach Anspruch 17, dadurch gekennzeichnet, daß die Konturschaltung (15) das Konturbild in der Weise erzeugt, daß alle Kontrastsprünge, die eine bestimmte Höhe überschreiten, farbig dargestellt sind, wobei das Konturbild auf einem Moni¬ tor (14) dargestellt wird.
19. System nach Anspruch 18, gekennzeichnet durch eine Eingabevorrichtung (18) zur Eingabe der Referenzkonturab¬ schnitte (Klf K2) anhand des am Monitor (14) angezeigten Kon¬ turbilds.
20. Verfahren zur Bildauswertung, bei dem einem zu überwachen¬ den Bildbereich entsprechende Bilddaten als Referenzbilddaten gespeichert werden und ein Differenzbild erzeugt wird, bei dem diejenigen Bildpunkte markiert sind, deren Bilddaten sich ge¬ ändert haben, dadurch gekennzeichnet, daß a) zusammenhängende markierte Bildpunkte zu Objekten zusammen¬ gefaßt werden, b) Objektdaten der erfaßten Objekte gespeichert werden, c) neue Objekte aus den aktuellen Bilddaten zu den entspre- chenden gespeicherten Objekten zugeordnet werden, und d) die Objektdaten zugeordneter Objekte bei Erfüllung vorbe¬ stimmter Kriterien gespeichert und zum Auslösen einer Meldung ausgewertet werden.
21. Verfahren nach Anspruch 20, dadurch gekennzeichnet, daß das Differenzbild durch bildpunktweises Subtrahieren der ge¬ speicherten Referenzbilddaten von den aktuellen Bilddaten ge¬ wonnen wird.
22. Verfahren nach Anspruch 20, dadurch gekennzeichnet, daß das Differenzbild durch Addition von Gruppen einzelner Bild¬ punkte zu Summenwerten und durch anschließendes Subtrahieren gespeicherter Referenz-Summenwerte von den aktuellen Summen¬ werten erzeugt wird.
23. Verfahren nach einem der Ansprüche 20 bis 22, dadurch ge¬ kennzeichnet, daß das Differenzbild zur Eliminierung von. durch Signalrauschen hervorgerufenen Änderungen mit einer Empfind- lichkeitsschwelle bewertet wird, wobei die Entscheidungs¬ schwelle in Abhängigkeit vorbestimmter, von den Umweltbedin¬ gungen im überwachten Bildbereich abhängiger Merkmale verän¬ dert wird.
24. Verfahren nach Anspruch 23, dadurch gekennzeichnet, daß das Differenzbild ein Binärbild ist, wobei ein Bildpunkt bei Überschreiten der Empfindlichkeitsschwelle markiert wird.
25. Verfahren nach Anspruch 24, dadurch gekennzeichnet, daß die binär markierten Bildpunkte in der Weise zusammengefaßt werden, daß jeweils alle zusammenhängenden Bildpunkte einem einzigen Objekt zugeordnet werden und daß die Objekte durch ein die maximale horizontale und vertikale Abmessung der zu¬ sammengefaßten Bildpunkte umschreibendes Rechteck definiert werden.
26. Verfahren nach Anspruch 25, dadurch gekennzeichnet, daß die Größe des Rechtecks und die innerhalb des Rechtecks be¬ findliche Anzahl von markierten Bildpunkten für die Ermittlung der tatsächliche Objektgröße verwendet werden.
27. Verfahren nach Anspruch 25 oder 26, dadurch gekennzeich¬ net, daß eine weitere Merkmalserfassung in dem Bildbereich der gespeicherten Bilddaten durchgeführt wird, die dem umschrei- benden Rechteck des Objekts entsprechen.
28. Verfahren nach Anspruch 27, dadurch gekennzeichnet, daß die weitere Merkmalserfassung nur für solche Objekte durchge- führt wird, die aufgrund der vorbestimmten Objektmerkmale als relevant erachtet werden.
29. Verfahren nach Anspruch 27 oder 28, dadurch gekennzeich- net, daß bei der Merkmalserfassung die Farbe des Objekts er¬ faßt wird.
30. Verfahren nach einem der Ansprüche 20 bis 29, dadurch ge¬ kennzeichnet, daß nach dem Zusammenfassen der Bildpunkte zu Objekten nur noch die Objekte bearbeitet werden.
31. Verfahren nach einem der Ansprüche 20 bis 30, dadurch ge¬ kennzeichnet, daß die Objekte der aktuellen Bilddaten durch Plausibilitätsprüfung den gespeicherten Objekten zugeordnet werden.
32. Verfahren nach einem der Ansprüche 20 bis 31, dadurch ge¬ kennzeichnet, daß nicht zuordenbare Objekte als neue Objekte gespeichert werden.
33. Verfahren nach einem der Ansprüche 20 bis 32, dadurch ge¬ kennzeichnet, daß Objekte, denen über einen bestimmten Zeit¬ raum kein neues Objekt zugeordnet wurde, wieder gelöscht wer¬ den.
34. Verfahren nach einem der Ansprüche 20 bis 33, dadurch ge¬ kennzeichnet, daß für jedes Objekt Objektkoordinaten (x, y) gespeichert werden und bei jeder Zuordnung eines aktuellen Ob¬ jekts die"Richtung und der Betrag des Vektors zwischen den ge- speicherten Objektkoordinaten (xn_ι, Yn-l) und den aktuellen Objektkoordinaten (xn, yn) berechnet werden.
35. Verfahren nach Anspruch 34, dadurch gekennzeichnet, daß als Objektkoordinaten (x, y) der Mittelpunkt (M) eines umschreibenden Rechtecks der Objekt-Bildpunkte gewählt wird.
36. Verfahren nach Anspruch 34 oder 35, dadurch gekennzeich¬ net, daß aus dem Vektor die Bewegungsrichtung (RH# RV) di-e zurückgelegte Strecke (s) und unter Ansetzen der für diese Strecke benötigten Zeit (T) die mittlere Geschwindigkeit (v) des Objekts berechnet werden.
37. Verfahren nach einem der Ansprüche 20 bis 36, dadurch ge¬ kennzeichnet, daß erst nach Erfüllung aller vorbestimmten Kri¬ terien eine Meldung ausgelöst wird.
38. Verfahren nach einem der Ansprüche 20 bis 37, dadurch ge¬ kennzeichnet, daß eine für die Ermittlung der Relevanz erfor¬ derliche Objektgrößenbestimmung bei in vorbestimmten Bildaus¬ schnitten befindlichen Objekten ohne Berücksichtigung der per¬ spektivischen Größenveränderung durchgeführt wird, wobei die vorbestimmten Bildausschnitte durch eine Bedienungsperson be¬ stimmt werden.
39. Verfahren nach einem der Ansprüche 20 bis 38, dadurch ge¬ kennzeichnet, daß in einem nichtflüchtigen Speicher vorbe- stimmte Referenzkonturabschnitte (Kl, K2) gespeichert werden, die zum Feststellen einer Veränderung der Position einer Bild¬ aufnahmevorrichtung herangezogen werden.
40. Verfahren nach einem der ^Ansprüche 20 bis 39, dadurch gekennzeichnet, daß die zur Feststellung der Alarmrelevanz herangezogenen vorbestimmten Kriterien in Abhängigkeit vorbestimmter, von den Umweltbedingungen im überwachten Bildbereich abhängiger Merkmale verändert werden.
EP95911286A 1994-03-07 1995-03-03 System und verfahren zur bildauswertung Withdrawn EP0749619A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE4407528A DE4407528C2 (de) 1994-03-07 1994-03-07 Bewegungsmelder und Verfahren zur Bewegungsmeldung
DE4407528 1994-03-07
PCT/EP1995/000783 WO1995024702A1 (de) 1994-03-07 1995-03-03 System und verfahren zur bildauswertung

Publications (1)

Publication Number Publication Date
EP0749619A1 true EP0749619A1 (de) 1996-12-27

Family

ID=6512061

Family Applications (1)

Application Number Title Priority Date Filing Date
EP95911286A Withdrawn EP0749619A1 (de) 1994-03-07 1995-03-03 System und verfahren zur bildauswertung

Country Status (4)

Country Link
EP (1) EP0749619A1 (de)
FI (1) FI963495A (de)
NO (1) NO963737L (de)
WO (1) WO1995024702A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19603766A1 (de) * 1996-02-02 1997-08-07 Christian Gieselmann Verfahren zum Erkennen gerichteter Bewegungen sowie Alarmanlage zur Durchführung des Verfahrens
DE19603935A1 (de) * 1996-02-03 1997-08-07 Bosch Gmbh Robert Verfahren zum Erkennen von Änderungen in einem Überwachungsbereich
EP0967584B1 (de) * 1998-04-30 2004-10-20 Texas Instruments Incorporated Automatische Videoüberwachungsanlage
DK1079350T3 (da) * 1999-07-17 2004-02-02 Siemens Building Tech Ag Indretning til rumovervågning
NZ571839A (en) 2006-03-29 2010-05-28 Univ Curtin Tech Testing surveillance camera installations

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2538653B1 (fr) * 1982-05-28 1989-03-31 Thomson Csf Procede d'estimation des translations subies par des objets representes dans une sequence d'images et dispositif mettant en oeuvre ce procede
DE3628816C1 (en) * 1986-08-25 1987-11-19 Ind Technik Ips Gmbh Method and device for automatically checking a video signal
JPH0335399A (ja) * 1989-06-30 1991-02-15 Toshiba Corp 変化領域統合装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO9524702A1 *

Also Published As

Publication number Publication date
NO963737D0 (no) 1996-09-06
WO1995024702A1 (de) 1995-09-14
FI963495A (fi) 1996-10-10
NO963737L (no) 1996-09-06
FI963495A0 (fi) 1996-09-06

Similar Documents

Publication Publication Date Title
DE4407528C2 (de) Bewegungsmelder und Verfahren zur Bewegungsmeldung
AT506928B1 (de) Verfahren zur videoanalyse
DE69815977T2 (de) Gegen globale veränderungen unempfindlicher videobewegungsdetektor
DE3634628C2 (de)
DE69635980T2 (de) Verfahren und vorrichtung zur detektierung von objektbewegung in einer bilderfolge
AT502551B1 (de) Verfahren und bildauswertungseinheit zur szenenanalyse
EP0815539B1 (de) Verfahren zur erkennung bewegter objekte in zeitlich aufeinander folgenden bildern
DE10301469A1 (de) Infrarotbildverarbeitungsvorrichtung
DE4332753C2 (de) Verfahren zur Erkennung bewegter Objekte
EP1346330B1 (de) Video-rauchdetektionssystem
DE10042935B4 (de) Verfahren zum Überwachen eines vorbestimmten Bereichs und entsprechendes System
DE3214254A1 (de) Verfahren zum erkennen von bewegungen in video-kamera-bildern
EP0543148B1 (de) Verfahren und Vorrichtung zum Erkennen von Veränderungen im Bildinhalt eines Videobildes
EP0777864B1 (de) System und verfahren zur bildauswertung
EP0749619A1 (de) System und verfahren zur bildauswertung
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
DE69233637T2 (de) Bildanalysator
EP0710927B1 (de) Verfahren zur objektorientierten Erkennung bewegter Objekte
DE19641000C2 (de) Verfahren und Anordnung zur automatischen Erkennung der Anzahl von Personen in einer Personenschleuse
JPH05300516A (ja) 動画処理装置
DE19749136C2 (de) Verfahren und Vorrichtung zum Erfassen von Bewegungen
EP3453001A1 (de) Detektionsvorrichtung, verfahren zur detektion eines ereignisses und computerprogramm
EP0515890B1 (de) Verfahren zur Überwachung von Gelände
DE102004020467A1 (de) Videoüberwachungs- und Alarmsystem

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IE IT LI LU MC NL PT SE

17P Request for examination filed

Effective date: 19961126

17Q First examination report despatched

Effective date: 19990222

18D Application deemed to be withdrawn

Effective date: 19990907

D18D Application deemed to be withdrawn (deleted)
19U Interruption of proceedings before grant

Effective date: 19991123

19W Proceedings resumed before grant after interruption of proceedings

Effective date: 20001201

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: SEISMA AG

18D Application deemed to be withdrawn

Effective date: 20031001