EP0749619A1 - System and process for evaluating images - Google Patents

System and process for evaluating images

Info

Publication number
EP0749619A1
EP0749619A1 EP95911286A EP95911286A EP0749619A1 EP 0749619 A1 EP0749619 A1 EP 0749619A1 EP 95911286 A EP95911286 A EP 95911286A EP 95911286 A EP95911286 A EP 95911286A EP 0749619 A1 EP0749619 A1 EP 0749619A1
Authority
EP
European Patent Office
Prior art keywords
image
image data
objects
data
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP95911286A
Other languages
German (de)
French (fr)
Inventor
Claudio Dornier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seisma AG
Original Assignee
SQ Services AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE4407528A external-priority patent/DE4407528C2/en
Application filed by SQ Services AG filed Critical SQ Services AG
Publication of EP0749619A1 publication Critical patent/EP0749619A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change

Definitions

  • the invention relates to a system and a method for image evaluation according to the preambles of claims 1 and 20, respectively.
  • a method for image evaluation in which a video signal supplied by a surveillance television camera is digitized by means of an A / D converter, stored in a correspondingly dimensioned image memory and with the digitized video signal of a subsequent picture is compared. From the difference between the two pieces of image information, changes of the smallest extent can be determined and very precisely localized, the achievable resolution being determined by the camera used.
  • the high information content of the image information obtained in this way results in a low reaction speed when responding to changes due to the limited processing speeds of the processors normally used.
  • DE-PS 36 28 816 discloses a system for image evaluation of the type mentioned in the introduction, in which a predetermined number of sample values belonging to a fixed subfield are combined to form a total value which is stored in a reference memory. For each new full image, the difference between the current and the stored total values of corresponding subfields is formed and compared with a threshold value. If the threshold is exceeded, an alarm is triggered for the corresponding subfield.
  • a threshold value If no further information about the change in the image content is evaluated in the known motion detectors, the problem arises that image changes due to changing lighting conditions (sun, clouds, reflections on reflecting surfaces, etc.), fluctuations of Mounting masts of the surveillance camera or other irrelevant movements (snow, birds, etc.) lead to frequent false alarms.
  • the invention is therefore based on the object of providing a system and a method for image evaluation by means of which an alarm triggering in the event of irrelevant image changes is reliably avoided.
  • FIG. 1 is a block diagram of a system for image evaluation according to a first embodiment
  • 3 shows an object list updated after correlation of the current objects with the stored objects and supplemented after object tracking
  • FIG. 4 is a schematic representation of the camera assembly and a vertical building in the field of view
  • FIG. 5 shows an image generated by means of the camera shown in FIG. 4 to show perspective size changes
  • FIG. 6 shows a block diagram of a system for image evaluation according to a second exemplary embodiment
  • FIG. 9 is a block diagram of a system for image evaluation according to a third exemplary embodiment.
  • the block diagram shown in Fig. 1 shows a first embodiment of a system for image evaluation.
  • the video signal supplied by a camera 1 is digitized by means of an analog / digital converter 2.
  • the camera 1 can be a conventional video surveillance camera but also an infrared or thermal imaging camera for generating the video signal.
  • the digitized pixel data can optionally be combined to reduce the amount of data by a reduction stage 3, as described, for example, in DE-PS 36 28 816, by adding individual pixel data in groups to new pixel data, or directly in a first image memory 4 ( LIVE memory) can be saved.
  • the reduced or digitized image in full resolution is periodically stored in a second image memory 5 (REFERENCE memory).
  • a difference image generating device 6 which can be implemented by a signal processor or a hard-wired arithmetic circuit, forms for each new image the difference between corresponding, possibly reduced pixel data of the "LIVE image” and the "REFERENCE image".
  • the difference image generating device 6 comprises a subtraction part 60, an amount formation part 61 and a threshold value comparator part 62. After the amount formation, the difference between the pixel data of a certain pixel is compared with a threshold value, which represents the decision threshold for a pixel change. This "sensitivity threshold" eliminates changes caused by signal noise.
  • a binary value "1" is written into a binary image memory 7 if the threshold value is undershot.
  • the pixels with the binary value "1" thus represent marked pixels in which an image change was found.
  • an object extractor 8 which can be implemented, for example, by a microprocessor, for coherently marked pixels, all coherent pixels being Points examined, wherein all connected pixels are assigned to a so-called object. Accordingly, an object corresponds to a coherent image area that has changed within a certain time period that is dependent on the storage cycle of the second image memory.
  • Object data of the extracted objects are stored in an object list.
  • the objects are, for example, as a rectangle or the like circumscribing the maximum horizontal and vertical extent of the marked pixel area. Are defined.
  • FIG. 2 shows a memory section of the binary image memory 7 in the form of a coordinate system in which the marked pixels are designated by "X".
  • two marked pixel areas that have changed with respect to the reference image have been extracted as objects 1 and 2.
  • the extracted objects are rectangular, their heights H 1, H 2 or widths B 1 , B2 depending on the extent of the marked pixel regions.
  • FIG. 2 shows an object list in which the coordinates x, y of the object center M, the object height H, the object width B and the number P x of the binary marked pixels are stored for each extracted object.
  • the current object list is compared and updated with a stored object list of the previous image by means of an object correlator 9 which can also be implemented by a microprocessor.
  • the objects extracted from the current binary image are shaped or similar to the objects found in the previous image by means of a plausibility check, such as checking for a minimum distance. assigned. and objects to which no object has been assigned for a certain period of time are deleted again.
  • An object tracking unit 11 calculates a vector which results from the difference between the detection point, namely the center of a new object, and the stored center point M (x; y) of the associated correlated object of the previous image. From the calculated vector, a distance covered s is determined as the amount of the vector, a horizontal and vertical directional component Rpj or Ry and an average speed v using the previous duration T of the object in question.
  • FIG. 3 shows an object list updated after the correlation, which was supplemented by the data calculated by means of the object tracking unit.
  • the current center of detection of an object is represented by the coordinates x n , y n and the last stored center of the object is represented by the coordinates x n - ⁇ , Yn- l • ° i e values H n _ ⁇ , B n _ ⁇ and P x - indicate the last stored height, width and number of the marked pixels of the object.
  • the updated object list is supplemented by the determined values for the amount of the movement vector s, the average speed v, the previous duration T and the movement direction components R H and Ry.
  • Object 1 has, for example, a current detection center (2; 0).
  • the last saved center has the coordinates (3.5, -1.5). According to the Pythagorean Theorem, this results in a distance to:
  • a subsequent feature extraction unit 12 which can again be implemented by means of a microprocessor, reads the image data in the area of the alarm-relevant object rectangles from the first image memory 4 and extracts image content features for the object in this image section according to known image processing methods.
  • this feature extraction only occurs for alarm-relevant objects, i.e. for objects that have a predetermined direction, size, speed, etc.
  • the size of the extracted rectangle and the number of marked pixels found within the rectangle are used to determine the object size.
  • an alarm object checking unit 13 all features of the extracted and tracked objects are identified with a Compare the predetermined list of required feature criteria and an alarm is only triggered and all the criteria are met and the video signal is switched to a monitor 14, the alarm objects with the associated vectors being faded in.
  • the differentiation of alarm-relevant changes from non-relevant ones is carried out, among other things, with the aid of the object size.
  • the real height and width of an object at a certain distance from the camera can be calculated from these parameters.
  • FIG. 5 also shows a resulting video image during the mounting of the surveillance camera K shown in FIG. 4.
  • a size in pixels e.g. 40 x 10 can be calculated for each y-coordinate.
  • FIG. 6 shows a second exemplary embodiment of the system for image evaluation, in which the above-mentioned problem can be avoided.
  • the evaluation device 10 evaluates the difference image directly with regard to predetermined features that determine the alarm relevance, such as, for example, the object size, and generates it in the event of an alarm-relevant change an alarm signal, whereupon the video signal is switched to the monitor 14.
  • the image parts in the present motion detector are marked by a one-time adjustment process which do not decrease in perspective (see dashed lines in FIG. 5).
  • the adjustment process is carried out by the operator by means of an input device 21 such as a keyboard, a mouse or a light pen, the video image being switched to the monitor.
  • an input device 21 such as a keyboard, a mouse or a light pen
  • the marking takes place by moving or enlarging and reducing the size of the dashed areas which are brought into line with the desired image sections.
  • the object size in the marked areas is determined without taking into account the reduction in perspective.
  • the coordinates of the marked difference image points are compared with the coordinates of the marked image sections.
  • Such a correction of the object size determination can of course also be used in the system according to the first exemplary embodiment shown in FIG. 1, the correction of the perspective size change in this case taking place in the feature extraction unit 12.
  • FIG. 7 Such a development of the system is shown in the block diagram shown in FIG. 7.
  • data of striking, unchangeable image content such as contours independent of the lighting conditions are stored in a read-only memory 17 and compared with the current image information in a comparison device 16 immediately after switching on or continuously at specific time intervals.
  • a warning signal is forwarded via a signal line 20 to a display device on the monitor 14 for displaying the change in position.
  • the contours are marked, for example, after the surveillance camera 1 has been installed.
  • a contour image is generated by means of a contour circuit 15, to which the digitized data of the memory 4 is supplied, all contours which have a high jump in contrast being displayed in color.
  • a suitably prepared contour image is fed to the monitor 14 via a signal line 19.
  • the marking is preferably done by input via an input device 18 such as a keyboard, a mouse or a light pen, since the system cannot independently recognize which contours cannot be changed. For example, the contours of a parked vehicle must not be marked as reference contours.
  • FIG 8 shows an example of a contour image generated in this way, in which marked reference contour sections K 1 and K 2 are shown in dashed lines.
  • marked reference contour sections K 1 and K 2 are shown in dashed lines.
  • two contour sections arranged at right angles to one another are marked in order to ensure reliable detection of each change in position.
  • FIG. 9 shows a block diagram of a third exemplary embodiment of the system for image evaluation, in which the false alarm frequency can be reduced by a so-called auto-parameterization.
  • the programming of the feature criteria of the evaluation device 10 or the threshold value of the threshold value comparator part 62 of the difference image generating device 6 is adapted to the current environmental influences.
  • the detection sensitivity to the current environmental influences such as snow, rain, fog, passing clouds or the like.
  • the threshold would be reduced, thereby increasing the detection sensitivity.
  • Unique features that are detected by the pre-evaluation device 22 are, for example, many small objects that move in a preferred direction in the case of snowfall, a movement that occurs only in a limited area in the case of shadows from trees, etc.
  • the auto-parameterization therefore makes it possible to adapt the sensitivity and object evaluation criteria of the motion detector to the prevailing environmental conditions in such a way that the criteria for alarm relevance are set higher in the case of poor visibility or a strongly moving image background.
  • a motion detector and a motion detection method are disclosed, according to which a differential image obtained from a digitized video signal from a surveillance camera 1 and in which changing pixels are marked is examined for contiguous pixels (objects) by means of an object extractor 8.
  • the extracted objects are assigned to stored objects of a previous image, and then the object data obtained are checked for alarm relevance with regard to predetermined object features. An alarm is triggered when the object features are fulfilled.

Abstract

A system and process for evaluating images are disclosed, according to which a differential image, which is obtained from a digitized video signal from a monitoring camera and in which changing pixels are marked, is examined for coherent pixels (objects) by an object extractor. The extracted objects are associated with stored objects of a preceding image and the object data recovered are then checked for relevance with respect to predetermined object features. If the object features are satisfied, a status signal is emitted.

Description

SYSTEM UND VERFAHREN ZUR BILDAUSWERTUNG IMAGE EVALUATION SYSTEM AND METHOD
Beschreibung:Description:
Die Erfindung bezieht sich auf ein System und ein Verfahren zur Bildauswertung gemäß den Oberbegriffen der Patentansprüche 1 bzw. 20.The invention relates to a system and a method for image evaluation according to the preambles of claims 1 and 20, respectively.
Aus der DE-PS 24 26 803 ist ein Verfahren zur Bildauswertung bekannt, bei dem ein von einer Überwachungs-Fernsehkamera ge¬ liefertes Videosignal mittels eines A/D-Umsetzers bildweise digitalisiert, in einem entsprechend dimensionierten Bildspei¬ cher gespeichert und mit dem digitalisierten Videosignal eines nachfolgenden Bilds verglichen wird. Aus der Differenz der beiden Bildinformationen lassen sich Änderungen geringsten Ausmaßes feststellen und sehr genau lokalisieren, wobei die erzielbare Auflösung durch die verwendete Kamera bestimmt ist.From DE-PS 24 26 803 a method for image evaluation is known, in which a video signal supplied by a surveillance television camera is digitized by means of an A / D converter, stored in a correspondingly dimensioned image memory and with the digitized video signal of a subsequent picture is compared. From the difference between the two pieces of image information, changes of the smallest extent can be determined and very precisely localized, the achievable resolution being determined by the camera used.
Der hohe Informationsgehalt der auf diese Weise gewonnen Bild¬ information hat allerdings aufgrund der beschränkten Verarbei¬ tungsgeschwindigkeiten der üblicherweise verwendeten Prozesso- ren eine geringe Reaktionsgeschwindigkeit beim Ansprechen auf Änderungen zur Folge.However, the high information content of the image information obtained in this way results in a low reaction speed when responding to changes due to the limited processing speeds of the processors normally used.
Zur Erhöhung der Reaktionsgeschwindigkeit wurden daher Systeme vorgeschlagen, bei denen alle logischen Verknüpfungen auf Ba- sis von Feldern durchgeführt werden.To increase the reaction speed, systems have therefore been proposed in which all the logic operations are carried out on the basis of fields.
Beispielsweise offenbart die DE-PS 36 28 816 ein System zur Bildauswertung der eingangs genannten Art, bei dem eine vorbe¬ stimmte Anzahl von zu einem festen Teilfeld gehörigen Abtast- werten zu einem Summenwert zusammengefaßt werden, der in einem Referenzspeicher gespeichert wird. Für jedes neue Vollbild wird die Differenz zwischen den aktuellen und den gespeicher¬ ten Summenwerten entsprechender Teilfelder gebildet und mit einem Schwellwert verglichen. Bei Überschreitung des Schwell- werts wird ein Alarm für das entsprechende Teilfeld ausgelöst. Da jedoch bei den bekannten Bewegungsmeldern keine weiteren Informationen über die Änderung des Bildinhalts ausgewertet werden, ergibt sich die Problematik, daß Bildänderungen auf¬ grund von wechselnden Beleuchtungsverhältnissen (Sonne, Wol¬ ken, Spiegelungen an reflektierenden Flächen, etc.), Schwan¬ kungen von Montagemasten der Überwachungskamera oder sonstigen irrelevanten Bewegungen (Schnee, Vögel, etc.) zu häufigen Fehlalarmen führen.For example, DE-PS 36 28 816 discloses a system for image evaluation of the type mentioned in the introduction, in which a predetermined number of sample values belonging to a fixed subfield are combined to form a total value which is stored in a reference memory. For each new full image, the difference between the current and the stored total values of corresponding subfields is formed and compared with a threshold value. If the threshold is exceeded, an alarm is triggered for the corresponding subfield. However, since no further information about the change in the image content is evaluated in the known motion detectors, the problem arises that image changes due to changing lighting conditions (sun, clouds, reflections on reflecting surfaces, etc.), fluctuations of Mounting masts of the surveillance camera or other irrelevant movements (snow, birds, etc.) lead to frequent false alarms.
Der Erfindung liegt daher die Aufgabe zugrunde, ein System und ein Verfahren zur Bildauswertung zu schaffen, durch die zuver¬ lässig eine Alarmauslösung bei irrelevanten Bildänderungen vermieden wird.The invention is therefore based on the object of providing a system and a method for image evaluation by means of which an alarm triggering in the event of irrelevant image changes is reliably avoided.
Diese Aufgabe wird erfindungsgemäß mit einem System zur Bild¬ auswertung gemäß den Patentansprüchen 1, 13, 15, oder 17 bzw. einem Verfahren gemäß Patentanspruch 20 gelöst.This object is achieved according to the invention with a system for image evaluation according to patent claims 1, 13, 15 or 17 or a method according to patent claim 20.
Durch die Zusammenfassung der sich ändernden Bildbereiche zu Objekten, die zur weiteren Verarbeitung herangezogen werden, und/oder durch eine zusätzlichen Auswertung der Umweltbedin¬ gungen im zu überwachenden Bildbereich ist es möglich, Objekte einer Sicherheitsanalyse hinsichtlich vorbestimmter Objekt- merkmale zu unterziehen und einen Alarm nur dann auszulösen, wenn ein Objekt als alarmrelevant eingestuft wird. Dies führt zu einer erheblichen Verbesserung der Zuverlässigkeit des Be¬ wegungsmelders bei gleichzeitig kurzer Reaktionszeit.By combining the changing image areas into objects that are used for further processing, and / or by an additional evaluation of the environmental conditions in the image area to be monitored, it is possible to subject objects to a security analysis with regard to predetermined object features and only an alarm to be triggered when an object is classified as alarm relevant. This leads to a considerable improvement in the reliability of the motion detector with a short response time.
Vorteilhafte Ausgestaltungen der Erfindung sind in den Unter¬ ansprüchen aufgeführt.Advantageous embodiments of the invention are listed in the subclaims.
Die Erfindung wird nachstehend anhand von Ausführungsbeispie¬ len unter Bezugnahme auf die Zeichnung näher beschrieben. Es zeigen: Fig. 1 ein Blockschaltbild eines Systems zur Bildauswertung gemäß einem ersten Ausführungsbeispiel,The invention is described below with reference to exemplary embodiments with reference to the drawing. Show it: 1 is a block diagram of a system for image evaluation according to a first embodiment,
Fig. 2 das Prinzip der Zusammenfassung von markierten Bild- punkten eines Differenzbildes zu Objekten und eine zugehörige Objektliste,2 the principle of combining marked pixels of a difference image into objects and an associated object list,
Fig. 3 eine nach einer Korrelation der aktuellen mit den ge¬ speicherten Objekten aktualisierte sowie nach der Objektver- folgung ergänzte Objektliste,3 shows an object list updated after correlation of the current objects with the stored objects and supplemented after object tracking,
Fig. 4 eine schematische Darstellung der Kameramontage und eines im Blickfeld befindlichen senkrecht stehenden Gebäudes,4 is a schematic representation of the camera assembly and a vertical building in the field of view,
Fig. 5 ein mittels der in Fig. 4 gezeigten Kamera erzeugtes Bild zur Darstellung perspektivischer Größenänderungen,5 shows an image generated by means of the camera shown in FIG. 4 to show perspective size changes,
Fig. 6 ein Blockschaltbild eines Systems zur Bildauswertung gemäß einem zweiten Ausführungsbeispiel,6 shows a block diagram of a system for image evaluation according to a second exemplary embodiment,
Fig. 7 ein Blockschaltbild eines erweiterten zweiten Ausführungsbeispiels,7 is a block diagram of an expanded second embodiment;
Fig. 8 ein Konturbild mit Referenzkonturabschnitten, und8 is a contour image with reference contour sections, and
Fig. 9 ein Blockschaltbild - eines Systems zur Bildauswertung gemäß einem dritten Ausführungsbeispiel.9 is a block diagram of a system for image evaluation according to a third exemplary embodiment.
Das in Fig. 1 dargestellte Blockschaltbild zeigt ein erstes Ausführungsbeispiel eines Systems zur Bildauswertung. Das von einer Kamera 1 gelieferte Videosignal wird mittels eines Ana- log/Digital-Wandlers 2 digitalisiert. Die Kamera 1 kann eine übliche Videoüberwachungskamera aber auch eine Infrarot- oder Wärmebildkamera zur Erzeugung des Videosignals sein. Die digitalisierten Bildpunktdaten können wahlweise zur Reduk¬ tion der Datenmenge durch eine Reduzierstufe 3, wie sie z.B. in der DE-PS 36 28 816 beschrieben ist, durch gruppenweises Addieren einzelner Bildpunktdaten zu neuen Bildpunktdaten zu- sammengefaßt werden oder direkt in einem ersten Bildspeicher 4 (LIVE-Speicher) gespeichert werden.The block diagram shown in Fig. 1 shows a first embodiment of a system for image evaluation. The video signal supplied by a camera 1 is digitized by means of an analog / digital converter 2. The camera 1 can be a conventional video surveillance camera but also an infrared or thermal imaging camera for generating the video signal. The digitized pixel data can optionally be combined to reduce the amount of data by a reduction stage 3, as described, for example, in DE-PS 36 28 816, by adding individual pixel data in groups to new pixel data, or directly in a first image memory 4 ( LIVE memory) can be saved.
In periodischen Abständen wird das reduzierte oder in voller Auflösung digitalisierte Bild in einem zweiten Bildspeicher 5 (REFERENZ-Speicher) gespeichert.The reduced or digitized image in full resolution is periodically stored in a second image memory 5 (REFERENCE memory).
Eine Differenzbild-Erzeugungseinrichtung 6, die durch einen Signalprozessor oder eine festverdrahtete Rechenschaltung realisierbar ist, bildet für jedes neue Bild den Differenzbetrag zwischen einander entsprechenden, ggf. reduzierten Bildpunktendaten des "LIVE-Bilds" und des "REFERENZ-Bilds". Die Differenzbild-Erzeugungseinrichtung 6 umfaßt einen Subtraktionsteil 60, einen Betragsbildungsteil 61 sowie einen Schwellwertvergleicherteil 62. Die Differenz der Bildpunktdaten eines bestimmten Bildpunktes wird nach der Betragsbildung mit einem Schwellwert verglichen, der die Entscheidungsschwelle für eine Bildpunktänderung darstellt. Durch diese "Empfindlichkeits-schwelle" werden durch Signalrauschen hervorgerufene Änderungen eliminiert.A difference image generating device 6, which can be implemented by a signal processor or a hard-wired arithmetic circuit, forms for each new image the difference between corresponding, possibly reduced pixel data of the "LIVE image" and the "REFERENCE image". The difference image generating device 6 comprises a subtraction part 60, an amount formation part 61 and a threshold value comparator part 62. After the amount formation, the difference between the pixel data of a certain pixel is compared with a threshold value, which represents the decision threshold for a pixel change. This "sensitivity threshold" eliminates changes caused by signal noise.
Bei Überschreiten des Schwellwerts wird ein Binärwert "l" und bei Unterschreiten des Schwellwerts ein Binärwert "0" in einen Binärbildspeicher 7 eingeschrieben. Die Bildpunkte mit dem Bi¬ närwert "1" stellen also markierte Bildpunkte dar, bei denen eine Bildveränderung festgestellt wurde.If the threshold value is exceeded, a binary value "1" is written into a binary image memory 7 if the threshold value is undershot. The pixels with the binary value "1" thus represent marked pixels in which an image change was found.
Nachfolgend wird das so gebildete Binärbild mittels eines Ob¬ jektextraktors 8, der beispielsweise durch einen Mikroprozes¬ sor realisierbar ist, auf zusammenhängende markierte Bild- punkte untersucht, wobei alle zusammenhängenden Bildpunkte ei- punkte untersucht, wobei alle zusammenhängenden Bildpunkte ei¬ nem sogenannten Objekt zugeordnet werden. Demgemäß entspricht ein Objekt einem zusammenhängenden Bildbereich, der sich in¬ nerhalb eines bestimmten, von dem Speicherzyklus des zweiten Bildspeichers abhängigen Zeitraums geändert hat. In einer Ob¬ jektliste werden Objektdaten der extrahierten Objekte gespei¬ chert. Die Objekte werden beispielsweise als ein die maximale horizontale und vertikale Ausdehnung des markierten Bildpunktbereichs umschreibendes Rechteck odgl. definiert.The binary image formed in this way is then examined by means of an object extractor 8, which can be implemented, for example, by a microprocessor, for coherently marked pixels, all coherent pixels being Points examined, wherein all connected pixels are assigned to a so-called object. Accordingly, an object corresponds to a coherent image area that has changed within a certain time period that is dependent on the storage cycle of the second image memory. Object data of the extracted objects are stored in an object list. The objects are, for example, as a rectangle or the like circumscribing the maximum horizontal and vertical extent of the marked pixel area. Are defined.
Fig. 2 zeigt einen Speicherausschnitt des Binärbildspeichers 7 in Form eines Koordinatensystems, bei dem die markierten Bild¬ punkte mit "X" bezeichnet sind. Im vorliegenden Fall sind zwei markierte Bildpunktbereiche, die sich bezüglich des Referenz- bilds geändert haben, als Objekte 1 und 2 extrahiert worden. Die extrahierten Objekte sind rechteckförmig, wobei deren Hö¬ hen Hι_, H2 bzw. Breiten Bi, B2 von der Ausdehnung der markier¬ ten Bildpunktbereiche abhängen. Neben dem Speicherauschnitt zeigt Fig. 2 eine Objektliste, in der für jedes extrahierte Objekt die Koordinaten x, y des Objektmittelpunkts M, die Ob¬ jekthöhe H, die Objektbreite B und die Anzahl Px der binären markierten Bildpunkte gespeichert sind.2 shows a memory section of the binary image memory 7 in the form of a coordinate system in which the marked pixels are designated by "X". In the present case, two marked pixel areas that have changed with respect to the reference image have been extracted as objects 1 and 2. The extracted objects are rectangular, their heights H 1, H 2 or widths B 1 , B2 depending on the extent of the marked pixel regions. In addition to the memory section, FIG. 2 shows an object list in which the coordinates x, y of the object center M, the object height H, the object width B and the number P x of the binary marked pixels are stored for each extracted object.
Im weiteren Verlauf der Verarbeitung werden nicht mehr einzel- ne Bildpunkte sondern lediglich die extrahierten Objekte ver¬ wendet, wodurch sich die - Verarbeitungsgeschwindigkeit be¬ trächtlich erhöht.In the further course of the processing, it is no longer individual pixels that are used, but only the extracted objects, as a result of which the processing speed increases considerably.
Die aktuelle Objektliste wird mit einer gespeicherten Objekt- liste des vorhergehenden Bildes mittels eines ebenfalls durch einen Mikroprozessor realisierbaren Objektkorrelators 9 ver¬ glichen und aktualisiert. Dabei werden die aus dem aktuellen Binärbild extrahierten Objekte den in dem vorhergehenden Bild gefundenen Objekten durch Plausibilitätsprüfung, wie z.B. Prü- fung auf minimale Entfernung, ähnliche Form odgl. zugeordnet. und Objekte, denen über eine bestimmte Zeitdauer kein Objekt zugeordnet wurde, werden wieder gelöscht.The current object list is compared and updated with a stored object list of the previous image by means of an object correlator 9 which can also be implemented by a microprocessor. The objects extracted from the current binary image are shaped or similar to the objects found in the previous image by means of a plausibility check, such as checking for a minimum distance. assigned. and objects to which no object has been assigned for a certain period of time are deleted again.
Im folgenden wird die Auswertung der Objektdaten mit dem Ziel der Erfassung alarmrelevanter Objekte und anschließender Alarmauslösung beschrieben. Dies geschieht in einer Auswer¬ tungseinrichtung 10.The evaluation of the object data is described below with the aim of detecting alarm-relevant objects and then triggering the alarm. This takes place in an evaluation device 10.
Eine Objektverfolgungseinheit 11 berechnet einen Vektor, der sich aus dem Unterschied des Erfassungspunktes, nämlich des Mittelpunktes eines neuen Objekts, und dem gespeicherten Mit¬ telpunkt M(x;y) des zugeordneten korrelierten Objekts des vor¬ angegangenen Bilds ergibt. Aus dem berechneten Vektor werden eine zurückgelegte Strecke s als Betrag des Vektors, eine ho- rizontale und vertikale Richtungskomponente Rpj bzw. Ry sowie eine mittlere Geschwindigkeit v unter Ansetzen der bisherigen Bestanddauer T des betreffenden Objekts ermittelt.An object tracking unit 11 calculates a vector which results from the difference between the detection point, namely the center of a new object, and the stored center point M (x; y) of the associated correlated object of the previous image. From the calculated vector, a distance covered s is determined as the amount of the vector, a horizontal and vertical directional component Rpj or Ry and an average speed v using the previous duration T of the object in question.
Fig. 3 zeigt eine nach der Korrelation aktualisierte Objekt- liste, die durch die mittels der Objektverfolgugseinheit er¬ rechneten Daten ergänzt wurde. Dabei wird der aktuelle Erfas¬ sungsmittelpunkt eines Objekts durch die Koordinaten xn, yn dargestellt und der zuletzt gespeicherte Mittelpunkt des Ob¬ jekts durch die Koordinaten xn-ι, Yn-l • °ie Werte Hn_ι , Bn_ι und Px - geben die zuletzt gespeicherte Höhe, Breite bzw. An¬ zahl der markierten Bildpunkte des Objekts an.3 shows an object list updated after the correlation, which was supplemented by the data calculated by means of the object tracking unit. The current center of detection of an object is represented by the coordinates x n , y n and the last stored center of the object is represented by the coordinates x n -ι, Yn- l • ° i e values H n _ι, B n _ι and P x - indicate the last stored height, width and number of the marked pixels of the object.
Nach Auswertung der neuen Objektdaten durch die Objektverfol¬ gungseinheit 11 wird die aktualisierte Objektliste durch die ermittelten Werte für den Betrag des Bewegungsvektors s, die mittlere Geschwindigkeit v, die bisherige Bestanddauer T und die Bewegungsrichtungskomponenten RH und Ry ergänzt.After evaluation of the new object data by the object tracking unit 11, the updated object list is supplemented by the determined values for the amount of the movement vector s, the average speed v, the previous duration T and the movement direction components R H and Ry.
Das Objekt 1 weist beispielsweise einen aktuellen Erfassungs- mittelpunkt (2;0) auf. Der zuletzt gespeicherte Mittelpunkt hat die Koordinaten (3,5,-1,5). Daraus ergibt sich gemäß dem Satz des Pythagoras eine Wegstrecke zu:Object 1 has, for example, a current detection center (2; 0). The last saved center has the coordinates (3.5, -1.5). According to the Pythagorean Theorem, this results in a distance to:
S = ((Xn - Xn_ι)2 + (yn - yn_1)2)0,5 = (1,52 + 1,52)0'5 S = (( Xn - X n _ι) 2 + (y n - y n _ 1 ) 2 ) 0.5 = (1.5 2 + 1.5 2 ) 0 ' 5
= 2,1.= 2.1.
Für die Richtungskoordinaten ergeben sich die Werte:The values for the direction coordinates are:
RH = xn - xn_ι = -1,5 = γn " Yn-1 = "1,5.R H = x n - x n _ι = -1.5 = γ n "Yn-1 =" 1.5.
Wird eine bisherige Bestanddauer T = 2 des Objekts 1 angenom¬ men, so ergibt sich eine mittlere Geschwindigkeit von:If a previous duration T = 2 of object 1 is assumed, the average speed is:
v = s/T = 1,05.v = s / T = 1.05.
Eine nachfolgende, wiederum mittels Mikroprozessor realisier¬ bare Merkmalsextraktionseinheit 12 liest die Bilddaten im Be- reich der alarmrelevanten Objektrechtecke aus dem ersten Bild¬ speicher 4 aus und extrahiert in diesem Bildausschnitt nach bekannten Bildverarbeitungsverfahren Bildinhaltsmerkmale für das Objekt. Diese Merkmalsextraktion geschieht allerdings nur für alarmrelevante Objekte, d.h. für Objekte, die eine vorbe- stimmte Richtung, Größe, Geschwindigkeit usw. aufweisen. Dabei wird zur Bestimmung der Objektgröße die Größe des extrahierten Rechtecks sowie die innerhalb des Rechtecks gefundene Anzahl markierter Bildpunkte herangezogen.A subsequent feature extraction unit 12, which can again be implemented by means of a microprocessor, reads the image data in the area of the alarm-relevant object rectangles from the first image memory 4 and extracts image content features for the object in this image section according to known image processing methods. However, this feature extraction only occurs for alarm-relevant objects, i.e. for objects that have a predetermined direction, size, speed, etc. The size of the extracted rectangle and the number of marked pixels found within the rectangle are used to determine the object size.
Bei der anschließenden objektbezogenen Bildverarbeitung können auch einfache Merkmale wie beispielsweise die Farbe des Ob¬ jekts extrahiert werden.In the subsequent object-related image processing, simple features such as the color of the object can also be extracted.
In einer Alarmobjektprüfungseinheit 13 werden schließlich alle Merkmale der extrahierten und verfolgten Objekte mit einer vorbestimmten Liste erforderlicher Merkmalskriterien vergli¬ chen und nur bei gleichzeitiger Erfüllung aller Kriterien wird ein Alarm ausgelöst und das Videosignal auf einen Monitor 14 geschaltet, wobei die Alarmobjekte mit den zugehörigen Vekto- ren eingeblendet werden.Finally, in an alarm object checking unit 13, all features of the extracted and tracked objects are identified with a Compare the predetermined list of required feature criteria and an alarm is only triggered and all the criteria are met and the video signal is switched to a monitor 14, the alarm objects with the associated vectors being faded in.
Im folgenden wird anhand der Fig. 4 und 5 die Objektgrößenprü¬ fung zur Bestimmung alarmrelevanter Objekte näher erläutert.The object size check for determining alarm-relevant objects is explained in more detail below with reference to FIGS. 4 and 5.
Die Unterscheidung alarmrelevanter Änderungen von nicht rele¬ vanten wird unter anderem mit Hilfe der Objektgröße durchge¬ führt. Es besteht dabei ein fester Zusammenhang zwischen der realen Größe eines Objekts und der sich auf dem Bildschirm er¬ gebenden Größe bzw. der Anzahl der Bildpunkte in einem digita- lisierten Videobild.The differentiation of alarm-relevant changes from non-relevant ones is carried out, among other things, with the aid of the object size. There is a fixed relationship between the real size of an object and the size or number of pixels in a digitized video image that results on the screen.
Dieser Zusammenhang ist abhängig von folgenden Parametern:This relationship depends on the following parameters:
- Brennweite des Objektivs O - Diagonale des Bildaufnehmers (z.B. 2/3")- Focal length of the lens O - Diagonal of the image sensor (e.g. 2/3 ")
- Höhe M-fj der Überwachungskamera K- Height M- f j of the surveillance camera K
- Neigungswinkel r der Überwachungskamera K- Inclination angle r of the surveillance camera K
Aus diesen Parametern läßt sich die reale Höhe und Breite ei- nes Objekts in einem bestimmten Abstand von der Kamera berech¬ nen.The real height and width of an object at a certain distance from the camera can be calculated from these parameters.
Eine für Video-Überwachungsanlagen typische Montage ist in Fig. 4 dargestellt. Ferner zeigt Fig. 5 ein sich ergebendes Videobild bei der in Fig. 4 gezeigten Montage der Überwa¬ chungskamera K.A typical assembly for video surveillance systems is shown in FIG. 4. FIG. 5 also shows a resulting video image during the mounting of the surveillance camera K shown in FIG. 4.
Aufgrund dieser überhöhten Montage erscheint der reale Vorder¬ grund am unteren Bildschirmteil und der reale Horizont H am oberen Bildschirmteil. Unter der Annahme, daß sich der Koordi- natenursprung U in der linken oberen Ecke des Bildschirms be¬ findet, wird eine perspektivische Objektgröße mit steigender y-Koordinate in proportionaler Weise größer.Because of this excessive mounting, the real foreground appears on the lower part of the screen and the real horizon H on the upper part of the screen. Assuming that the coordinator If the origin of the data U is found in the upper left corner of the screen, a perspective object size increases proportionally with increasing y-coordinate.
Dies bedeutet, daß für ein reales Objekt (z.B. einen Menschen mit 180 cm x 50 cm) für jede y-Koordinate eine Größe in Bild¬ punkten (z.B. 40 x 10) berechnet werden kann.This means that for a real object (e.g. a person with 180 cm x 50 cm) a size in pixels (e.g. 40 x 10) can be calculated for each y-coordinate.
Befindet sich allerdings ein senkrecht stehendes Objekt wie beispielsweise eine Gebäudemauer G im Bildbereich der Kamera, so darf im Bereich der Gebäudemauer G keine perspektivische Größenanpassung durchgeführt werden, da sich ansonsten eine falsche Objektgröße ergibt.If, however, there is a vertically standing object, such as a building wall G in the image area of the camera, no perspective size adjustment may be carried out in the area of the building wall G, since otherwise the object size will be incorrect.
In Fig. 5 wird diese Problematik verdeutlicht. Man erkennt, daß Personen Pl und P3 auf dem Bildschirm in Abhängigkeit von der y-Koordinate in unterschiedlicher Größe erscheinen. Perso¬ nen P2 und P4 hingegen, die sich an der Gebäudemauer G befin¬ den, werden unabhängig von der y-Koordinate immer gleich groß dargestellt, da sich im Bereich der Gebäudemauer G keine per¬ spektivische Wirkung ergibt.This problem is illustrated in FIG. 5. It can be seen that persons P1 and P3 appear on the screen in different sizes depending on the y coordinate. Persons P2 and P4, on the other hand, who are located on the building wall G are always displayed the same size regardless of the y-coordinate, since there is no perspective effect in the area of the building wall G.
Das in Fig. 6 dargestellte Blockschaltbild zeigt ein zweites Ausführungsbeispiel des Systems zur Bildauswertung, bei dem die oben erwähnte Problematik vermeidbar ist.The block diagram shown in FIG. 6 shows a second exemplary embodiment of the system for image evaluation, in which the above-mentioned problem can be avoided.
Die mit den in Fig. 1 gezeigten, identischen Schaltungsteile weisen dieselben Bezugszeichen auf. Auf eine Beschreibung die¬ ser Schaltungsteile wird daher verzichtet.The identical circuit parts shown in FIG. 1 have the same reference numerals. A description of these circuit parts is therefore omitted.
Bei diesem Ausführungsbeispiel wertet die Auswertungseinrich¬ tung 10 das Differenzbild direkt hinsichtlich vorbestimmter, die Alarmrelevanz bestimmender Merkmale wie beispielsweise der Objektgröße aus und erzeugt bei einer alarmrelevanten Änderung ein Alarmsignal, woraufhin das Videosignal auf den Monitor 14 geschaltet wird.In this exemplary embodiment, the evaluation device 10 evaluates the difference image directly with regard to predetermined features that determine the alarm relevance, such as, for example, the object size, and generates it in the event of an alarm-relevant change an alarm signal, whereupon the video signal is switched to the monitor 14.
Zur Vermeidung einer fehlerhaften Objektgrößenprüfung werden im vorliegenden Bewegungsmelder durch einen einmaligen Ein¬ stellvorgang die Bildteile markiert, die sich nicht perspekti¬ visch verkleinern (siehe gestrichelte Linien in Fig. 5).In order to avoid an incorrect object size check, the image parts in the present motion detector are marked by a one-time adjustment process which do not decrease in perspective (see dashed lines in FIG. 5).
Der Einstellvorgang geschieht durch die Bedienungsperson mit- tels einer Eingabevorichtung 21 wie beispielsweise einer Ta¬ statur, einer Maus oder eines Lichtgriffels, wobei das Video¬ bild auf den Monitor geschaltet wird. Die Markierung geschieht wie bei bekannten Desktop-Programmen durch Verschieben bzw. Vergrößern und Verkleinern eingeblendeter gestrichelter Berei- ehe, die mit den gewünschten Bildausschnitten in Deckung ge¬ bracht werden.The adjustment process is carried out by the operator by means of an input device 21 such as a keyboard, a mouse or a light pen, the video image being switched to the monitor. As with known desktop programs, the marking takes place by moving or enlarging and reducing the size of the dashed areas which are brought into line with the desired image sections.
Dementsprechend wird bei der Überprüfung der Alarmrelevanz durch die Auswertungseinrichtung 10 die Objektgröße in den markierten Bereichen ohne Berücksichtigung der perspektivi¬ schen Verkleinerung ermittelt. Hierzu werden die Koordinaten der markierten Differenzbildpunkte mit den Koordinaten der markierten Bildauschnitte verglichen.Accordingly, when the alarm relevance is checked by the evaluation device 10, the object size in the marked areas is determined without taking into account the reduction in perspective. For this purpose, the coordinates of the marked difference image points are compared with the coordinates of the marked image sections.
Eine derartige Korrektur der Objektgrößenbestimmung kann selbstverständlich auch im System gemäß dem in Fig. 1 gezeig¬ ten ersten Ausführungsbeispiel angewendet werden, wobei die Korrektur der perspektivischen Größenänderung in diesem Fall in der Merkmalsextraktionseinheit 12 geschieht.Such a correction of the object size determination can of course also be used in the system according to the first exemplary embodiment shown in FIG. 1, the correction of the perspective size change in this case taking place in the feature extraction unit 12.
Bei einer derartigen Voreinstellung fester Bildteile kann je¬ doch eine Veränderung der Kameraposition bei abgeschaltetem System, beispielsweise durch Fremdeinwirkung, neben der Über¬ wachung eines falschen Bildbereichs auch zu einer fehlerhaften Objektgrößenermittlung führen. Aus diesem Grunde werden zur Erfassung einer eventuellen Ver¬ änderung der Kameraposition markante Bildinhalte wie z.B. von den Beleuchtungsverhältnissen unabhängige Konturen in einem nichtflüchtigen Speicher des Systems gespeichert und sofort nach dem Einschalten, bzw. kontinuierlich in einem bestimmten Zeitabstand mit der aktuellen Bildinformation verglichen.With such a presetting of fixed image parts, however, a change in the camera position when the system is switched off, for example due to external influences, in addition to monitoring an incorrect image area, can also lead to incorrect object size determination. For this reason, in order to detect a possible change in the camera position, striking image contents, such as contours independent of the lighting conditions, are stored in a non-volatile memory of the system and are compared with the current image information immediately after being switched on or continuously at a specific time interval.
In dem in Fig. 7 gezeigten Blockschaltbild ist eine derartige Weiterbildung des Systems dargestellt.Such a development of the system is shown in the block diagram shown in FIG. 7.
Zur Erkennung von Positionveränderungen der Kamera während des ausgeschalteten Zustands werden Daten markanter, nicht verän¬ derlicher Bildinhalte wie z.B. von den Beleuchtungsverhältnis- sen unabhängige Konturen in einem Festspeicher 17 gespeichert und sofort nach dem Einschalten bzw. kontinuierlich in be¬ stimmten Zeitabständen mit der aktuellen Bildinformation in einer Vergleichseinrichtung 16 verglichen.To detect changes in the position of the camera during the switched-off state, data of striking, unchangeable image content, such as contours independent of the lighting conditions are stored in a read-only memory 17 and compared with the current image information in a comparison device 16 immediately after switching on or continuously at specific time intervals.
Bei Feststellung einer Konturveränderung wird ein Warnsignal über eine Signalleitung 20 an eine an dem Monitor 14 befindli¬ che Anzeigeeinrichtung zur Anzeige der Positionsveränderung weitergeleitet.If a change in contour is detected, a warning signal is forwarded via a signal line 20 to a display device on the monitor 14 for displaying the change in position.
Die Konturen werden beispielsweise nach der Installation der Überwachungskamera 1 markiert. Zur Erleichterung der Einstel¬ lung wird dabei mittels einer Konturschaltung 15, der die di¬ gitalisierten Daten des Speichers 4 zugeführt werden, ein Kon¬ turbild erzeugt, wobei alle Konturen, die einen hohen Kon- trastsprung aufweisen, farbig dargestellt werden.The contours are marked, for example, after the surveillance camera 1 has been installed. In order to facilitate the setting, a contour image is generated by means of a contour circuit 15, to which the digitized data of the memory 4 is supplied, all contours which have a high jump in contrast being displayed in color.
Über eine Signalleitung 19 wird ein entsprechend aufbereitetes Kontorbild dem Monitor 14 zugeführt. Die Markierung geschieht vorzugsweise durch Eingabe über eine Eingabevorrichtung 18 wie beispielsweise eine Tastatur, eine Maus oder einen Lichtgriffel, da das System nicht selbständig erkennen kann, welche Konturen nicht veränderbar sind. Bei- spielsweise dürfen die Konturen eines geparkten Fahrzeugs nicht als Referenzkonturen markiert werden.A suitably prepared contour image is fed to the monitor 14 via a signal line 19. The marking is preferably done by input via an input device 18 such as a keyboard, a mouse or a light pen, since the system cannot independently recognize which contours cannot be changed. For example, the contours of a parked vehicle must not be marked as reference contours.
Fig. 8 zeigt ein Beispiel eines so erzeugten Konturbildes, bei dem markierte Referenzkonturabschnitte Kl und K2 gestrichelt dargestellt sind. Vorzugsweise werden zwei möglichst im rech¬ ten Winkel zueinander angeordnete Konturabschnitte markiert, um eine zuverlässige Erfassung jeder Positionsveränderung zu gewährleisten.8 shows an example of a contour image generated in this way, in which marked reference contour sections K 1 and K 2 are shown in dashed lines. Preferably, two contour sections arranged at right angles to one another are marked in order to ensure reliable detection of each change in position.
Fig. 9 zeigt ein Blockschaltbild eines dritten Ausführungsbei- spiels des Systems zur Bildauswertung, bei dem die Fehlalarm¬ häufigkeit durch eine sogenannte Autoparametrisierung verrin¬ gerbar ist.FIG. 9 shows a block diagram of a third exemplary embodiment of the system for image evaluation, in which the false alarm frequency can be reduced by a so-called auto-parameterization.
Auch bei diesem Blockschaltbild weisen die mit den in Fig. 1 gezeigten, identischen Schaltungsteile dieselben Bezugszeichen auf. Auf eine Beschreibung dieser Schaltungsteile wird daher auch hier verzichtet.In this block diagram as well, the identical circuit parts shown in FIG. 1 have the same reference numerals. A description of these circuit parts is therefore also omitted here.
Bei der Autoparametrisierung wird die Programmierung der Merk¬ malskriterien der Auswertungseinrichtung 10 oder der Schwell¬ wert des Schwellwertvergleicherteils 62 der Differenzbild- Erzeugungseinrichtung 6 an die aktuellen Umwelteinflüsse ange¬ paßt.In the case of auto-parameterization, the programming of the feature criteria of the evaluation device 10 or the threshold value of the threshold value comparator part 62 of the difference image generating device 6 is adapted to the current environmental influences.
Dies geschieht automatisch durch Auswerten eindeutig fester Merkmale des Videobildes mittels einer Vorauswertungseinrich¬ tung 22, die in Abhängigkeit vorbestimmter Merkmale des Video¬ bilds die Programmierung oder einzelne Parameter der Auswer- tungseinrichtung 10 wechselt und/oder den Entscheidungs- schwellwert des Schwellwertvergleicherteils 62 verändert.This is done automatically by evaluating clearly fixed features of the video image by means of a pre-evaluation device 22 which, depending on predetermined features of the video image, the programming or individual parameters of the evaluation. device 10 changes and / or changes the decision threshold of the threshold value comparator part 62.
Durch Veränderung des oben erwähnten Schwellwerts kann bei¬ spielsweise die Erfassungsempfindlichkeit an die aktuellen Um¬ welteinflüsse wie beispielsweise Schneefall, Regen, Nebel, vorbeiziehende Wolken odgl. angepaßt werden. Bei Nebel würde zum Beispiel der Schwellwert verringert werden, um dadurch die Erfassungsempfindlichkeit zu erhöhen.By changing the above-mentioned threshold value, for example, the detection sensitivity to the current environmental influences, such as snow, rain, fog, passing clouds or the like. be adjusted. In the case of fog, for example, the threshold would be reduced, thereby increasing the detection sensitivity.
Eindeutige Merkmale, die durch die Vorauswertungseinrichtung 22 erfaßt werden, sind beispielsweise bei Schneefall viele kleine Objekte, die sich in einer Vorzugsrichtung bewegen, bei von Bäumen stammenden Schatten eine Bewegung, die nur in einem begrenzten Bereich stattfindet, usw.Unique features that are detected by the pre-evaluation device 22 are, for example, many small objects that move in a preferred direction in the case of snowfall, a movement that occurs only in a limited area in the case of shadows from trees, etc.
Durch die Autoparametrisierung ist also eine Anpassung der Empfindlichkeit und Objektauswertungskriterien des Bewegungs¬ melders an die vorherrschenden Umweltbedingungen in der Weise möglich, daß bei schlechter Sicht oder stark bewegtem Bildhin¬ tergrund die Kriterien für die Alarmrelevanz höher angesetzt sind.The auto-parameterization therefore makes it possible to adapt the sensitivity and object evaluation criteria of the motion detector to the prevailing environmental conditions in such a way that the criteria for alarm relevance are set higher in the case of poor visibility or a strongly moving image background.
Zusammengefaßt werden ein Bewegungsmelder sowie ein Bewe- gungsmeldeverfahren offenbart, gemäß denen ein aus einem digi¬ talisierten Videosignal einer Überwachungskamera 1 gewonnenes Differenzbild, in dem sich ändernde Bildpunkte markiert sind, mittels eines Objektextraktors 8 auf zusammenhängende Bild¬ punkte (Objekte) untersucht wird. Die extrahierten Objekte werden gespeicherten Objekten eines vorangegangenes Bildes zu¬ geordnet, und anschließend werden die gewonnenen Objektdaten hinsichtlich vorbestimmter Objektmerkmale auf Alarmrelevanz überprüft. Bei Erfüllung der Objektmerkmale wird ein Alarm ausgelöst. In summary, a motion detector and a motion detection method are disclosed, according to which a differential image obtained from a digitized video signal from a surveillance camera 1 and in which changing pixels are marked is examined for contiguous pixels (objects) by means of an object extractor 8. The extracted objects are assigned to stored objects of a previous image, and then the object data obtained are checked for alarm relevance with regard to predetermined object features. An alarm is triggered when the object features are fulfilled.

Claims

Patentansprüche: Claims:
1. Bildauswertesystem zum Auswerten von einem zu überwachenden Bildbereich entsprechenden Bilddaten mit: einem Referenzbildspeicher zur Speicherung der Bilddaten eines Bildes als Referenzbilddaten und einer Differenzbild-Erzeu¬ gungseinrichtung zum Vergleichen von aktuellen Bilddaten mit den Referenzbilddaten und zum Erzeugen eines Differenzbildes, in dem Bildpunkte markiert sind, deren Bilddaten sich geändert haben , gekennzeichnet durch a) eine Objektextraktionseinrichtung (8) zum Zusammenfassen von zusammenhängenden markierten Differenzbildpunkten zu Ob¬ jekten, b) einen Objektspeicher zum Speichern von Objektdaten für die Objekte, c) eine O jektkorrelationseihrichtung (9) zum Zuordnen neuer Objekte der aktuellen Bilddaten zu den entsprechenden gespei¬ cherten Objekten, und d) eine Auswertungseinrichtung (10) zur Meldungsabgabe bei Übereinstimmung vorbestimmter Objektmerkmale der Objektdaten einander entsprechender Objekte. 1. Image evaluation system for evaluating image data corresponding to an image area to be monitored, with: a reference image memory for storing the image data of an image as reference image data and a difference image generation device for comparing current image data with the reference image data and for generating a difference image in which pixels are marked whose image data have changed, characterized by a) an object extraction device (8) for combining related marked difference image points into objects, b) an object memory for storing object data for the objects, c) an object correlation direction (9) for assigning new ones Objects of the current image data relating to the corresponding stored objects, and d) an evaluation device (10) for issuing a message if predetermined object characteristics of the object data of mutually corresponding objects match.
2. System nach Anspruch 1, gekennzeichnet durch eine Bildauf¬ nahmevorrichtung (1) wie eine Videokamera, eine Infrarotkamera oder eine Wärmebild-Kamera und einen Analog/Digital-Umsetzer (2) zur Eingabe der Bilddaten.2. System according to claim 1, characterized by an image recording device (1) such as a video camera, an infrared camera or a thermal imaging camera and an analog / digital converter (2) for inputting the image data.
3. System nach Anspruch 1 oder 2, gekennzeichnet durch einen Bildspeicher (4) zur Speicherung der aktuellen Bilddaten.3. System according to claim 1 or 2, characterized by an image memory (4) for storing the current image data.
4. System nach einem der Ansprüche 1 bis 3, dadurch gekenn- zeichnet, daß die Differenzbild-Erzeugungseinrichtung (6) aus einem Subtraktionsteil (60) zum bildpunktweisen Subtrahieren der aktuellen Bilddaten von den gespeicherten Bilddaten, einem Betragsbildungsteil (61) zum Bilden des Betrags des Sub¬ traktionsergebnisses und einem Schwellwertvergleicherteil (62) besteht, der die Differenzbilddaten mit einer Empfindlich¬ keitsschwelle vergleicht und jeden Bildpunkt bei Überschreiten des Schwellwerts markiert.4. System according to one of claims 1 to 3, characterized in that the difference image generating device (6) from a subtraction part (60) for pixel-by-pixel subtraction of the current image data from the stored image data, an amount forming part (61) for forming the amount of the subtraction result and a threshold value comparator part (62) which compares the difference image data with a sensitivity threshold and marks each pixel when the threshold value is exceeded.
5. System nach Anspruch 4, dadurch gekennzeichnet, daß die Entscheidungsschwelle des Schwellwertvergleicherteils (62) in Abhängigkeit vorbestimmter, von den Umweltbedingungen im Bild¬ bereich abhängiger Merkmale veränderbar ist.5. System according to claim 4, characterized in that the decision threshold of the threshold value comparator part (62) can be changed as a function of predetermined features which are dependent on the environmental conditions in the image area.
6. System nach Anspruch 4 oder 5, dadurch gekennzeichnet, daß der Schwellwertvergleicherteil (62) für die Bildpunkte jewei¬ lige Binärwerte erzeugt, die in einem Binärbildspeicher (7) gespeichert werden.6. System according to claim 4 or 5, characterized in that the threshold value comparator part (62) for the pixels generates respective binary values which are stored in a binary image memory (7).
7. System nach einem der vorangehenden Ansprüche, gekennzeich- net durch eine Reduzierstufe (3), die Bilddaten von Bildpunkt¬ gruppen zu Summenwerten aufaddiert und als reduzierte Bild¬ punktdaten an die Differenzbild-Erzeugungseinrichtung (6) ab¬ gibt, um dadurch die Datenmenge zu verringern. 7. System according to one of the preceding claims, characterized by a reduction stage (3) which adds up image data from pixel groups to sum values and outputs it as reduced pixel data to the difference image generating device (6), thereby reducing the amount of data to reduce.
8. System nach einem der vorangehenden Ansprüche, dadurch ge¬ kennzeichnet, daß der Referenzbildspeicher (5) periodisch auf die aktuellen Bilddaten umgeschrieben wird.8. System according to any one of the preceding claims, characterized ge indicates that the reference image memory (5) is periodically rewritten to the current image data.
9. System nach einem der vorangehenden Ansprüche, dadurch ge¬ kennzeichnet, daß die Objektextraktionseinrichtung (8) eine Objektliste mit den Objektdaten der herausgegriffenen Objekte erstellt und im Objektspeicher abspeichert.9. System according to one of the preceding claims, characterized ge indicates that the object extraction device (8) creates an object list with the object data of the picked objects and stores them in the object memory.
10. System nach einem der vorangehenden Ansprüche, dadurch ge¬ kennzeichnet, daß die Auswertungseinrichtung (10) eine Objekt¬ verfolgungseinheit (11) zur Berechnung eines Bewegungsvektors, einer zurückgelegten Strecke (s) und einer mittleren Geschwin¬ digkeit (v) aus den Koordinaten eines zugeordneten Objekts, eine Merkmalsextraktionseinheit (12) zur Feststellung relevan¬ ter Objekte durch Vergleich der Objektdaten mit vorbestimmter Kriterien, zum Auslesen der Bilddaten im Bereich alarmrelevan¬ ter Objekte und zum Extrahieren von Bildinhaltsmerkmalen der ausgelesenen Bilddaten und eine Meldeobjektprüfungseinheit (13) aufweist, die bei Erfüllung aller vorbestimmten Kriterien eine Meldung auslöst und/oder die Bilddaten an einer Anzeige¬ einrichtung (14) ausgibt, wobei die relevanten Objekte mit den zugehörigen Vektoren eingeblendet werden.10. System according to any one of the preceding claims, characterized ge indicates that the evaluation device (10) has an object tracking unit (11) for calculating a motion vector, a distance traveled (s) and an average speed (v) from the coordinates of an assigned object, a feature extraction unit (12) for determining relevant objects by comparing the object data with predetermined criteria, for reading out the image data in the area of objects relevant to alarms and for extracting image content features of the read out image data, and a reporting object checking unit (13) which when all predetermined criteria are met, a message is triggered and / or the image data is output on a display device (14), the relevant objects being displayed with the associated vectors.
11. System nach Anspruch 10, dadurch gekennzeichnet, daß die Merkmalsextraktionseinheit (12) eine als Kriterium für die Re¬ levanz verwendete Objektgröße bei in vorbestimmten Bildaus¬ schnitten befindlichen Objekten ohne Berücksichtigung der per¬ spektivischen Größenveränderung auswertet, wobei die vorbe- stimmten Bildausschnitte durch eine Bedienungsperson markier¬ bar sind.11. System according to claim 10, characterized in that the feature extraction unit (12) evaluates an object size used as a criterion for the relevance for objects located in predetermined image sections without taking into account the perspective size change, the predetermined image sections being determined by an operator can be marked.
12. System nach einem der vorangehenden Ansprüche, dadurch ge¬ kennzeichnet, daß die zur Ermittlung der Relevanz herangezoge- nen vorbestimmten Objektmerkmale der Auswertungseinrichtung (10) in Abhängigkeit vorbestimmter, von den Umweltbedingungen im Bildbereich abhängiger Merkmale veränderbar sind.12. System according to one of the preceding claims, characterized ge indicates that the used for determining the relevance A predetermined object features of the evaluation device (10) can be changed as a function of predetermined features which are dependent on the environmental conditions in the image area.
13. Bildauswertesystem zum Auswerten von einem zu überwachen¬ den Bildbereich entsprechenden Bilddaten mit: einem Referenzbildspeicher zur Speicherung der Bilddaten eines Bildes als Referenzbilddaten und einer Differenzbild-Erzeu¬ gungseinrichtung zum Vergleichen von aktuellen Bilddaten mit den Referenzbilddaten und zum Erzeugen eines Differenzbildes, in dem Bildpunkte markiert sind, deren Bilddaten sich geändert haben, gekennzeichnet durch eine Auswertungseinrichtung (10) zur Meldungsabgäbe bei vorbe- stimmten relevanten Merkmalen der geänderten Bilddaten, wobei die Auswertungseinrichtung (10) derart voreinstellbar ist, daß die als Kriterium für die Relevanz verwendete Objektgröße bei in voreingestellten Bildausschnitten befindlichen Objekten oh¬ ne Berücksichtigung der perspektivischen Größenänderung ausge- wertet wird.13. Image evaluation system for evaluating image data corresponding to the image area to be monitored, comprising: a reference image memory for storing the image data of an image as reference image data and a difference image generation device for comparing current image data with the reference image data and for generating a difference image in the pixels are marked, the image data of which have changed, characterized by an evaluation device (10) for issuing messages in the case of predetermined relevant features of the changed image data, the evaluation device (10) being presettable in such a way that the object size used as a criterion for the relevance is preset in Objects of the image are evaluated without taking the perspective size change into account.
14. System nach Anspruch 13, gekennzeichnet durch eine Einga¬ bevorrichtung (21), mittels der die Bildausschnitte für die Auswertungseinrichtung (10) einstellbar sind.14. System according to claim 13, characterized by an input device (21) by means of which the image sections for the evaluation device (10) can be adjusted.
15. Bildauswertesystem zum Auswerten von einem zu überwachen¬ den Bildbereich entsprechenden Bilddaten mit: einem Referenzbildspeicher zur Speicherung der Bilddaten eines Bildes als Referenzbilddaten und einer Differenzbild-Erzeu-^ gungseinrichtung zum Vergleichen von aktuellen Bilddaten mit den Referenzbilddaten und zum Erzeugen eines Differenzbildes, in dem Bildpunkte markiert sind, deren Bilddaten sich geändert haben, gekennzeichnet durch eine Vorauswertungseinrichtung (22), die die Programmierung einer zur Meldungsabgabe bei vorbestimmten relevanten Merkma¬ len der geänderten Bilddaten verwendeten Auswertungseinrich¬ tung (10) in Abhängigkeit vorbestimmter, von den Umweltbedin- gungen im Bildbereich abhängiger Merkmale verändert.15. Image evaluation system for evaluating image data corresponding to the image area to be monitored, comprising: a reference image memory for storing the image data of an image as reference image data and a difference image generation device for comparing current image data with the reference image data and for generating a difference image in which Pixels are marked, the image data of which have changed, identified by a pre-evaluation device (22), which changes the programming of an evaluation device (10) used for the notification of predetermined relevant characteristics of the changed image data as a function of predetermined features which are dependent on the environmental conditions in the image area.
16. System nach Anspruch 15, dadurch gekennzeichnet, daß die Vorauswertungseinrichtung (22) eine zur Erzeugung des Diffe¬ renzbildes verwendete Empfindlichkeitsschwelle in Abhängigkeit der vorbestimmten Merkmale verändert.16. System according to claim 15, characterized in that the pre-evaluation device (22) changes a sensitivity threshold used to generate the differential image as a function of the predetermined features.
17. Bildauswertesystem zum Auswerten von einem zu überwachen¬ den Bildbereich entsprechenden Bilddaten mit: einem Referenzbildspeicher zur Speicherung der Bilddaten eines Bildes als Referenzbilddaten und einer Differenzbild-Erzeu¬ gungseinrichtung zum Vergleichen von aktuellen Bilddaten mit den Referenzbilddaten und zum Erzeugen eines Differenzbildes, in dem Bildpunkte markiert sind, deren Bilddaten sich geändert haben, gekennzeichnet durch a) eine Konturschaltung (15) zur Erzeugung eines Konturbilds aus den Bilddaten, b) einen nichtflüchtigen Speicher (17) , in den Daten von Referenzkonturabschnitten (Kl, K2) markanter, nicht veränder- licher Bildausschnitte eingespeichert werden, und c) eine Vergleichseinrichtung (16) zum Vergleichen der Daten der gespeicherten Referenzkonturabschnitte (Kl, K2) mit den Bilddaten und zum Erzeugen eines Warnsignals (20) bei fehlender Übereinstimmung.17. Image evaluation system for evaluating image data corresponding to the image area to be monitored, comprising: a reference image memory for storing the image data of an image as reference image data and a difference image generation device for comparing current image data with the reference image data and for generating a difference image in the pixels are marked, the image data of which have changed, characterized by a) a contour circuit (15) for generating a contour image from the image data, b) a non-volatile memory (17), in the data of reference contour sections (K1, K2) more prominent, not changeable Licher image sections are stored, and c) a comparison device (16) for comparing the data of the stored reference contour sections (Kl, K2) with the image data and for generating a warning signal (20) in the event of a mismatch.
18. System nach Anspruch 17, dadurch gekennzeichnet, daß die Konturschaltung (15) das Konturbild in der Weise erzeugt, daß alle Kontrastsprünge, die eine bestimmte Höhe überschreiten, farbig dargestellt sind, wobei das Konturbild auf einem Moni¬ tor (14) dargestellt wird.18. System according to claim 17, characterized in that the contour circuit (15) generates the contour image in such a way that all jumps in contrast that exceed a certain height are shown in color, the contour image being shown on a monitor (14).
19. System nach Anspruch 18, gekennzeichnet durch eine Eingabevorrichtung (18) zur Eingabe der Referenzkonturab¬ schnitte (Klf K2) anhand des am Monitor (14) angezeigten Kon¬ turbilds.19. System according to claim 18, characterized by an input device (18) for entering the reference contour sections (Kl f K2) on the basis of the contour image displayed on the monitor (14).
20. Verfahren zur Bildauswertung, bei dem einem zu überwachen¬ den Bildbereich entsprechende Bilddaten als Referenzbilddaten gespeichert werden und ein Differenzbild erzeugt wird, bei dem diejenigen Bildpunkte markiert sind, deren Bilddaten sich ge¬ ändert haben, dadurch gekennzeichnet, daß a) zusammenhängende markierte Bildpunkte zu Objekten zusammen¬ gefaßt werden, b) Objektdaten der erfaßten Objekte gespeichert werden, c) neue Objekte aus den aktuellen Bilddaten zu den entspre- chenden gespeicherten Objekten zugeordnet werden, und d) die Objektdaten zugeordneter Objekte bei Erfüllung vorbe¬ stimmter Kriterien gespeichert und zum Auslösen einer Meldung ausgewertet werden.20. A method for image evaluation in which image data corresponding to an image area to be monitored is stored as reference image data and a difference image is generated in which those image points whose image data have changed are marked, characterized in that a) connected marked image points are combined to form objects, b) object data of the detected objects are stored, c) new objects are assigned from the current image data to the corresponding stored objects, and d) the object data of assigned objects are saved when predetermined criteria are met and for Triggering a message can be evaluated.
21. Verfahren nach Anspruch 20, dadurch gekennzeichnet, daß das Differenzbild durch bildpunktweises Subtrahieren der ge¬ speicherten Referenzbilddaten von den aktuellen Bilddaten ge¬ wonnen wird.21. The method according to claim 20, characterized in that the difference image is obtained by pixel-by-pixel subtraction of the stored reference image data from the current image data.
22. Verfahren nach Anspruch 20, dadurch gekennzeichnet, daß das Differenzbild durch Addition von Gruppen einzelner Bild¬ punkte zu Summenwerten und durch anschließendes Subtrahieren gespeicherter Referenz-Summenwerte von den aktuellen Summen¬ werten erzeugt wird. 22. The method according to claim 20, characterized in that the difference image is generated by adding groups of individual pixels to sum values and then subtracting stored reference sum values from the current sum values.
23. Verfahren nach einem der Ansprüche 20 bis 22, dadurch ge¬ kennzeichnet, daß das Differenzbild zur Eliminierung von. durch Signalrauschen hervorgerufenen Änderungen mit einer Empfind- lichkeitsschwelle bewertet wird, wobei die Entscheidungs¬ schwelle in Abhängigkeit vorbestimmter, von den Umweltbedin¬ gungen im überwachten Bildbereich abhängiger Merkmale verän¬ dert wird.23. The method according to any one of claims 20 to 22, characterized in that the difference image for the elimination of. changes caused by signal noise are evaluated with a sensitivity threshold, the decision threshold being changed as a function of predetermined features which are dependent on the environmental conditions in the monitored image area.
24. Verfahren nach Anspruch 23, dadurch gekennzeichnet, daß das Differenzbild ein Binärbild ist, wobei ein Bildpunkt bei Überschreiten der Empfindlichkeitsschwelle markiert wird.24. The method according to claim 23, characterized in that the difference image is a binary image, a pixel being marked when the sensitivity threshold is exceeded.
25. Verfahren nach Anspruch 24, dadurch gekennzeichnet, daß die binär markierten Bildpunkte in der Weise zusammengefaßt werden, daß jeweils alle zusammenhängenden Bildpunkte einem einzigen Objekt zugeordnet werden und daß die Objekte durch ein die maximale horizontale und vertikale Abmessung der zu¬ sammengefaßten Bildpunkte umschreibendes Rechteck definiert werden.25. The method according to claim 24, characterized in that the binary marked pixels are combined in such a way that in each case all connected pixels are assigned to a single object and that the objects by a rectangle circumscribing the maximum horizontal and vertical dimensions of the combined pixels To be defined.
26. Verfahren nach Anspruch 25, dadurch gekennzeichnet, daß die Größe des Rechtecks und die innerhalb des Rechtecks be¬ findliche Anzahl von markierten Bildpunkten für die Ermittlung der tatsächliche Objektgröße verwendet werden.26. The method according to claim 25, characterized in that the size of the rectangle and the number of marked pixels located within the rectangle are used for determining the actual object size.
27. Verfahren nach Anspruch 25 oder 26, dadurch gekennzeich¬ net, daß eine weitere Merkmalserfassung in dem Bildbereich der gespeicherten Bilddaten durchgeführt wird, die dem umschrei- benden Rechteck des Objekts entsprechen.27. The method according to claim 25 or 26, characterized gekennzeich¬ net that a further feature detection is carried out in the image area of the stored image data, which correspond to the circumscribing rectangle of the object.
28. Verfahren nach Anspruch 27, dadurch gekennzeichnet, daß die weitere Merkmalserfassung nur für solche Objekte durchge- führt wird, die aufgrund der vorbestimmten Objektmerkmale als relevant erachtet werden.28. The method according to claim 27, characterized in that the further feature detection is carried out only for such objects. is performed, which are considered relevant based on the predetermined object features.
29. Verfahren nach Anspruch 27 oder 28, dadurch gekennzeich- net, daß bei der Merkmalserfassung die Farbe des Objekts er¬ faßt wird.29. The method according to claim 27 or 28, characterized in that the color of the object is detected in the feature detection.
30. Verfahren nach einem der Ansprüche 20 bis 29, dadurch ge¬ kennzeichnet, daß nach dem Zusammenfassen der Bildpunkte zu Objekten nur noch die Objekte bearbeitet werden.30. The method according to any one of claims 20 to 29, characterized in that only the objects are processed after combining the pixels into objects.
31. Verfahren nach einem der Ansprüche 20 bis 30, dadurch ge¬ kennzeichnet, daß die Objekte der aktuellen Bilddaten durch Plausibilitätsprüfung den gespeicherten Objekten zugeordnet werden.31. The method according to any one of claims 20 to 30, characterized in that the objects of the current image data are assigned to the stored objects by a plausibility check.
32. Verfahren nach einem der Ansprüche 20 bis 31, dadurch ge¬ kennzeichnet, daß nicht zuordenbare Objekte als neue Objekte gespeichert werden.32. The method according to any one of claims 20 to 31, characterized in that non-assignable objects are stored as new objects.
33. Verfahren nach einem der Ansprüche 20 bis 32, dadurch ge¬ kennzeichnet, daß Objekte, denen über einen bestimmten Zeit¬ raum kein neues Objekt zugeordnet wurde, wieder gelöscht wer¬ den.33. The method according to any one of claims 20 to 32, characterized in that objects to which no new object has been assigned over a certain period of time are deleted again.
34. Verfahren nach einem der Ansprüche 20 bis 33, dadurch ge¬ kennzeichnet, daß für jedes Objekt Objektkoordinaten (x, y) gespeichert werden und bei jeder Zuordnung eines aktuellen Ob¬ jekts die"Richtung und der Betrag des Vektors zwischen den ge- speicherten Objektkoordinaten (xn_ι, Yn-l) und den aktuellen Objektkoordinaten (xn, yn) berechnet werden. 34. The method as claimed in one of claims 20 to 33, characterized in that object coordinates (x, y) are stored for each object and the " direction and the amount of the vector between the stored values each time a current object is assigned Object coordinates (x n _ι, Yn- l ) and the current object coordinates (x n , y n ) are calculated.
35. Verfahren nach Anspruch 34, dadurch gekennzeichnet, daß als Objektkoordinaten (x, y) der Mittelpunkt (M) eines umschreibenden Rechtecks der Objekt-Bildpunkte gewählt wird.35. The method according to claim 34, characterized in that the center point (M) of a circumscribing rectangle of the object image points is selected as the object coordinates (x, y).
36. Verfahren nach Anspruch 34 oder 35, dadurch gekennzeich¬ net, daß aus dem Vektor die Bewegungsrichtung (RH# RV) di-e zurückgelegte Strecke (s) und unter Ansetzen der für diese Strecke benötigten Zeit (T) die mittlere Geschwindigkeit (v) des Objekts berechnet werden.36. The method according to claim 34 or 35, characterized in that from the vector the direction of movement (RH # RV) d i- e distance (s) and, taking the time required for this distance (T), the average speed ( v) the object can be calculated.
37. Verfahren nach einem der Ansprüche 20 bis 36, dadurch ge¬ kennzeichnet, daß erst nach Erfüllung aller vorbestimmten Kri¬ terien eine Meldung ausgelöst wird.37. The method according to any one of claims 20 to 36, characterized in that a message is only triggered after all predetermined criteria have been met.
38. Verfahren nach einem der Ansprüche 20 bis 37, dadurch ge¬ kennzeichnet, daß eine für die Ermittlung der Relevanz erfor¬ derliche Objektgrößenbestimmung bei in vorbestimmten Bildaus¬ schnitten befindlichen Objekten ohne Berücksichtigung der per¬ spektivischen Größenveränderung durchgeführt wird, wobei die vorbestimmten Bildausschnitte durch eine Bedienungsperson be¬ stimmt werden.38. Method according to one of claims 20 to 37, characterized in that an object size determination required for determining the relevance is carried out for objects located in predetermined image sections without taking into account the perspective size change, the predetermined image sections being carried out by an operator can be determined.
39. Verfahren nach einem der Ansprüche 20 bis 38, dadurch ge¬ kennzeichnet, daß in einem nichtflüchtigen Speicher vorbe- stimmte Referenzkonturabschnitte (Kl, K2) gespeichert werden, die zum Feststellen einer Veränderung der Position einer Bild¬ aufnahmevorrichtung herangezogen werden.39. The method as claimed in one of claims 20 to 38, characterized in that predetermined reference contour sections (K1, K2) are stored in a non-volatile memory and are used to determine a change in the position of an image recording device.
40. Verfahren nach einem der ^Ansprüche 20 bis 39, dadurch gekennzeichnet, daß die zur Feststellung der Alarmrelevanz herangezogenen vorbestimmten Kriterien in Abhängigkeit vorbestimmter, von den Umweltbedingungen im überwachten Bildbereich abhängiger Merkmale verändert werden. 40. The method according to any one of ^ claims 20 to 39, characterized in that the predetermined criteria used to determine the alarm relevance are changed as a function of predetermined features dependent on the environmental conditions in the monitored image area.
EP95911286A 1994-03-07 1995-03-03 System and process for evaluating images Withdrawn EP0749619A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE4407528A DE4407528C2 (en) 1994-03-07 1994-03-07 Motion detectors and motion detection methods
DE4407528 1994-03-07
PCT/EP1995/000783 WO1995024702A1 (en) 1994-03-07 1995-03-03 System and process for evaluating images

Publications (1)

Publication Number Publication Date
EP0749619A1 true EP0749619A1 (en) 1996-12-27

Family

ID=6512061

Family Applications (1)

Application Number Title Priority Date Filing Date
EP95911286A Withdrawn EP0749619A1 (en) 1994-03-07 1995-03-03 System and process for evaluating images

Country Status (4)

Country Link
EP (1) EP0749619A1 (en)
FI (1) FI963495A (en)
NO (1) NO963737L (en)
WO (1) WO1995024702A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19603766A1 (en) * 1996-02-02 1997-08-07 Christian Gieselmann Intruder movement detection for surveillance and alarm system
DE19603935A1 (en) * 1996-02-03 1997-08-07 Bosch Gmbh Robert Movement detection within a surveillance area
EP0967584B1 (en) * 1998-04-30 2004-10-20 Texas Instruments Incorporated Automatic video monitoring system
DE59907024D1 (en) * 1999-07-17 2003-10-23 Siemens Building Tech Ag Room surveillance facility
AU2007231552B2 (en) 2006-03-29 2011-10-20 Dti Group Ltd Testing surveillance camera installations

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2538653B1 (en) * 1982-05-28 1989-03-31 Thomson Csf METHOD FOR ESTIMATING TRANSLATIONS SUBJECT TO OBJECTS REPRESENTED IN A SEQUENCE OF IMAGES AND DEVICE IMPLEMENTING THIS METHOD
DE3628816C1 (en) * 1986-08-25 1987-11-19 Ind Technik Ips Gmbh Method and device for automatically checking a video signal
JPH0335399A (en) * 1989-06-30 1991-02-15 Toshiba Corp Change area integrating device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO9524702A1 *

Also Published As

Publication number Publication date
NO963737D0 (en) 1996-09-06
WO1995024702A1 (en) 1995-09-14
NO963737L (en) 1996-09-06
FI963495A0 (en) 1996-09-06
FI963495A (en) 1996-10-10

Similar Documents

Publication Publication Date Title
DE4407528C2 (en) Motion detectors and motion detection methods
AT506928B1 (en) METHOD OF VIDEO ANALYSIS
DE69815977T2 (en) AGAINST GLOBAL CHANGES IN NON-SENSITIVE VIDEO MOTION DETECTOR
DE3634628C2 (en)
DE69635980T2 (en) METHOD AND DEVICE FOR DETECTING OBJECT MOVEMENT IN A PICTURE
AT502551B1 (en) METHOD AND PICTURE EVALUATION UNIT FOR SCENE ANALYSIS
EP0815539B1 (en) Method of detecting moving objects in chronologically successive images
DE10301469A1 (en) Infrared image processing device
EP1346330B1 (en) Video smoke detection system
DE4332753A1 (en) Process for the detection of moving objects
DE3214254C2 (en)
DE10042935B4 (en) Method for monitoring a predetermined area and system
EP0543148B1 (en) Method and device for detecting changes in a video image
EP0777864B1 (en) Image-evaluation system and process
EP0749619A1 (en) System and process for evaluating images
DE10049366A1 (en) Security area monitoring method involves using two image detection units whose coverage areas overlap establishing monitored security area
DE69233637T2 (en) image analyzer
DE19641000C2 (en) Method and arrangement for the automatic detection of the number of people in a security gate
JPH05300516A (en) Animation processor
EP0710927A2 (en) Method for object-oriented recognition of moving objects
DE19749136C2 (en) Method and device for detecting movements
WO2017190882A1 (en) Detection device, method for detection of an event, and computer program
DE19744694B4 (en) Video motion detection device
EP0515890B1 (en) Terrain monitoring method
DE102006027120A1 (en) Image processing method, video surveillance system and computer program

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IE IT LI LU MC NL PT SE

17P Request for examination filed

Effective date: 19961126

17Q First examination report despatched

Effective date: 19990222

18D Application deemed to be withdrawn

Effective date: 19990907

D18D Application deemed to be withdrawn (deleted)
19U Interruption of proceedings before grant

Effective date: 19991123

19W Proceedings resumed before grant after interruption of proceedings

Effective date: 20001201

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: SEISMA AG

18D Application deemed to be withdrawn

Effective date: 20031001