DE112018004661T5 - Schattenerkennungsverfahren für ein Überwachungsvideobild, System davon undSchattenentfernungsverfahren - Google Patents

Schattenerkennungsverfahren für ein Überwachungsvideobild, System davon undSchattenentfernungsverfahren Download PDF

Info

Publication number
DE112018004661T5
DE112018004661T5 DE112018004661.3T DE112018004661T DE112018004661T5 DE 112018004661 T5 DE112018004661 T5 DE 112018004661T5 DE 112018004661 T DE112018004661 T DE 112018004661T DE 112018004661 T5 DE112018004661 T5 DE 112018004661T5
Authority
DE
Germany
Prior art keywords
value
shadow
detection value
detection
gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018004661.3T
Other languages
English (en)
Inventor
Zhaolong Jin
Wenyi Zou
Weidong Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Keda Technology Co Ltd
Original Assignee
Suzhou Keda Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Keda Technology Co Ltd filed Critical Suzhou Keda Technology Co Ltd
Publication of DE112018004661T5 publication Critical patent/DE112018004661T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/49Analysis of texture based on structural texture description, e.g. using primitives or placement rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Die vorliegende Anmeldung offenbart ein Schattenerkennungsverfahren für ein Überwachungsvideobild, ein System davon und ein Schattenentfernungsverfahren. Das Schattenerkennungsverfahren für ein Überwachungsvideobild umfasst die folgenden Schritte: Erfassen eines aktuellen Rahmens und eines Hintergrundrahmens aus den Quellendaten; Erfassen erster Kandidatenschattenbereiche aus dem aktuellen Rahmen; Berechnen eines Schattenerkennungswerts des lokalen ternären Modus aller ersten Kandidatenschattenbereiche und Auswählen zweiter Kandidatenschattenbereiche; Berechnen eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts der jeweiligen zweiten Kandidatenschattenbereiche; Schätzen eines Schattenschwellenwerts, eines Farbtonschwellenwerts und eines Sättigungsschwellenwerts und eines Gradientenschwellenwerts des lokalen ternären Modus; Berechnen eines Schattenerkennungswerts, eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts des lokalen ternären Modus der jeweiligen ersten Kandidatenschattenbereiche; Auswählen eines ersten Kandidatenschattenbereichs, dessen Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus sich jeweils in dem Schwellenwertbereich befinden, als Schattenbereich.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Anmeldung betrifft das technische Gebiet der Bildverarbeitung, insbesondere ein Schattenerkennungsverfahren für ein Überwachungsvideobild, ein Schattenerkennungssystem für ein Überwachungsvideobild, und ein Schattenentfernungsverfahren für ein Überwachungsvideobild unter Verwendung des Schattenerkennungsverfahrens für ein Überwachungsvideobild.
  • STAND DER TECHNIK
  • Überwachungssystem ist eines der am weitesten verbreiteten Systeme in Sicherheitssystemen. In Hinsicht auf die Überwachungstechnik sind die Schatten in der Überwachungsszene (einschließlich der Schatten des Überwachungsziels und der Schatten anderer Hintergrundobjekte usw.) immer ein wichtiger Faktor, der die Überwachung und Erkennung des Überwachungsziels stört, insbesondere ist unter Lichtbedingungen ein Überwachungsziel, das sich in einem Bewegungszustand befindet, immer mit den projizierten Schatten begleitet, nämlich weist der vom Überwachungsziel projizierte Schatten ähnliche Bewegungseigenschaften wie das Überwachungsziel auf, da der entsprechende Hintergrundbereich ebenfalls einen hohen Unterscheidungsgrad aufweist, kann der Schatten leicht gemeinsam mit dem Überwachungsziel in dem Bewegungszustand erkannt werden.
  • Wenn der Schatten fehlerhaft als Überwachungsziel angesehen und gleichzeitig erkannt wird, kann es leicht zu einer Adhäsion, Verschmelzung und Verzerrung der geometrischen Attribute des Überwachungsziels führen. Daher ist es für die intelligente Videoanalyse von großer Bedeutung, wie ein sich bewegendes Überwachungsziel in einer Überwachungsvideoszene erkannt, die Interferenz der von ihm projizierten Schatten beseitigt und die Integrität des Überwachungsziels so weit wie möglich sichergestellt werden kann.
  • INHALT DER VORLIEGENDEN ERFINDUNG
  • Hinsichtlich der oben geschilderten Mängel aus dem Stand der Technik zielt die vorliegende Anmeldung darauf ab, ein Schattenerkennungsverfahren für ein Überwachungsvideobild, ein Schattenerkennungssystem für ein Überwachungsvideobild und ein Schattenentfernungsverfahren für ein Überwachungsvideobild unter Verwendung des Schattenerkennungsverfahrens für ein Überwachungsvideobild zur Verfügung zu stellen, wobei mit dem Schattenerkennungsverfahren für ein Überwachungsvideobild, dem Schattenerkennungssystem und dem Schattenentfernungsverfahren für ein Überwachungsvideobild die Schatten wirksam erkannt und entfernt werden können, um der Einfluss der Schatten auf die Integrität des Überwachungsziels zum höchsten Grad zu verringern.
  • Gemäß einem Aspekt der vorliegenden Anmeldung wird ein Schattenerkennungsverfahren für ein Überwachungsvideobild zur Verfügung gestellt, wobei das Schattenerkennungsverfahren für ein Überwachungsvideobild die folgenden Schritte umfasst:S10: Erfassen eines aktuellen Rahmens und eines Hintergrundrahmens aus den Quellendaten; S20: Erfassen erster Kandidatenschattenbereiche aus dem aktuellen Rahmen, wobei die Helligkeit der ersten Kandidatenschattenbereiche niedriger als die Helligkeit der entsprechenden Bereiche in dem Hintergrundrahmen ist; S30: Berechnen eines Schattenerkennungswerts des lokalen ternären Modus aller ersten Kandidatenschattenbereiche und Auswählen der ersten Kandidatenschattenbereiche, deren Schattenerkennungswert des lokalen ternären Modus größer als ein erster Schwellenwert ist, als zweite Kandidatenschattenbereiche; S40: Berechnen eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts der jeweiligen zweiten Kandidatenschattenbereiche;S50: Schätzen eines entsprechenden Schattenschwellenwerts, Farbtonschwellenwerts und Sättigungsschwellenwerts und Gradientenschwellenwerts des lokalen ternären Modus in Übereinstimmung mit dem ermittelten Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus der zweiten Kandidatenschattenbereiche; S60:
    • Berechnen eines Schattenerkennungswerts, eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts des lokalen ternären Modus der jeweiligen ersten Kandidatenschattenbereiche;S70: Auswählen eines ersten Kandidatenschattenbereichs, dessen Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus sich jeweils in dem Bereich des Schattenschwellenwerts, des Farbtonschwellenwerts und des Sättigungsschwellenwerts und des Gradientenschwellenwerts des lokalen ternären Modus befinden, als Schattenbereich.
  • Gemäß einem anderen Aspekt der vorliegenden Anmeldung wird weiterhin ein Schattenentfernungsverfahren für ein Überwachungsvideobild zur Verfügung gestellt, wobei das Schattenentfernungsverfahren für ein Überwachungsvideobild zumindest die folgenden Schritte zum Realisieren des Schattenerkennungsverfahrens für ein Überwachungsvideobild umfasst:S10: Erfassen eines aktuellen Rahmens und eines Hintergrundrahmens aus den Quellendaten; S20: Erfassen erster Kandidatenschattenbereiche aus dem aktuellen Rahmen, wobei die Helligkeit der ersten Kandidatenschattenbereiche niedriger als die Helligkeit der entsprechenden Bereiche in dem Hintergrundrahmen ist;S30: Berechnen eines Schattenerkennungswerts des lokalen ternären Modus aller ersten Kandidatenschattenbereiche und Auswählen der ersten Kandidatenschattenbereiche, deren Schattenerkennungswert des lokalen ternären Modus größer als ein erster Schwellenwert ist, als zweite Kandidatenschattenbereiche;S40: Berechnen eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts der jeweiligen zweiten Kandidatenschattenbereiche;S50: Schätzen eines entsprechenden Schattenschwellenwerts, Farbtonschwellenwerts und Sättigungsschwellenwerts und Gradientenschwellenwerts des lokalen ternären Modus in Übereinstimmung mit dem ermittelten Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus der zweiten Kandidatenschattenbereiche;S60: Berechnen eines Schattenerkennungswerts, eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts des lokalen ternären Modus der jeweiligen ersten Kandidatenschattenbereiche;S70: Auswählen eines ersten Kandidatenschattenbereichs, dessen Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus sich jeweils in dem Bereich des Schattenschwellenwerts, des Farbtonschwellenwerts und des Sättigungsschwellenwerts und des Gradientenschwellenwerts des lokalen ternären Modus befinden, als Schattenbereich.
  • Gemäß einem weiteren Aspekt der vorliegenden Anmeldung wird ein Schattenerkennungssystem für ein Überwachungsvideobild zur Verfügung gestellt, wobei das Schattenerkennungssystem für ein Überwachungsvideobild Folgendes umfasst: ein Extraktionsmodul zum Erfassen eines aktuellen Rahmens, eines Hintergrundrahmens oder eines Vordergrundrahmens aus den Quellendaten; ein Erfassungsmodul für die ersten Kandidatenschattenbereiche zum Erfassen erster Kandidatenschattenbereiche aus dem aktuellen Rahmen, wobei die Helligkeit der ersten Kandidatenschattenbereiche niedriger als die Helligkeit der entsprechenden Bereiche in dem Hintergrundrahmen ist; ein Erfassungsmodul für die zweiten Kandidatenschattenbereiche zum Berechnen eines Schattenerkennungswerts des lokalen ternären Modus aller ersten Kandidatenschattenbereiche und Auswählen der ersten Kandidatenschattenbereiche, deren Schattenerkennungswert des lokalen ternären Modus größer als ein erster Schwellenwert ist, als zweite Kandidatenschattenbereiche; ein erstes Berechnungsmodul zum Berechnen eines Farbtonerkennungswerts und Sättigungserkennungswerts und eines Gradientenerkennungswerts der jeweiligen zweiten Kandidatenschattenbereiche; ein Schwellenwertschätzungsmodul zum Schätzen eines entsprechenden Schattenschwellenwerts, Farbtonschwellenwerts und Sättigungsschwellenwerts und Gradientenschwellenwerts des lokalen ternären Modus in Übereinstimmung mit dem ermittelten Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus der zweiten Kandidatenschattenbereiche; ein zweites Berechnungsmodul zum Berechnen eines Schattenerkennungswerts, eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts des lokalen ternären Modus der jeweiligen ersten Kandidatenschattenbereiche; ein Schattenbereichsauswahlmodul zum Auswählen eines ersten Kandidatenschattenbereichs, dessen Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus sich jeweils in dem Bereich des Schattenschwellenwerts, des Farbtonschwellenwerts und des Sättigungsschwellenwerts und des Gradientenschwellenwerts des lokalen ternären Modus befinden, als Schattenbereich.
  • Bei dem Schattenerkennungsverfahren für ein Überwachungsvideobild, dem Schattenerkennungssystem für ein Überwachungsvideobild und dem Schattenentfernungsverfahren für ein Überwachungsvideobild unter Verwendung des Schattenerkennungsverfahrens für ein Überwachungsvideobild in einer Ausführungsform der vorliegenden Anmeldung werden im Vergleich zum Stand der Technik zuerst die ersten Kandidatenschattenbereiche (grobe Schattenkandidatenbereiche) erfasst, und ein kleiner Teil der wahren zweiten Kandidatenschattenbereiche wird aus den ersten Kandidatenschattenbereichen extrahiert und zum Schätzen der Schwellenparameter der drei nachfolgenden Schattendetektoren verwendet, dann werden auf dem Prinzip der Texturkonsistenz und Chrominanzkonstanz zwischen den Schattenbereichen und den entsprechenden Hintergrundbereichen basiert die drei Schattendetektoren verwendet, um relativ genaue Schattenbereiche parallel aus den ersten Kandidatenschattenbereichen zu extrahieren, anschließend werden alle relativ genaue Schattenbereiche gemeinsam gefiltert, um genauere Schattenbereiche zu erhalten. Aufgrund dessen haben die mit dem Schattenerkennungsverfahren für ein Überwachungsvideobild gemäß der vorliegenden Anmeldung erfassten Schattenbereiche eine signifikante Erkennungswirkung für die Schattenbereiche eines sich im Bewegungszustand befindlichen Überwachungsziels in meisten häufig vorkommenden Innenszenen, und die erkannten Schattenbereiche sind ziemlich genau. Darüber hinaus kann der Algorithmus als ein separates Modul für die Überwachungsszene verwendet werden, im Zusammenhang mit den Hintergrundmodellierungs- oder Hintergrunddifferenzalgorithmen kann der Algorithmus auf der Grundlage, dass ein Videorahmen (aktueller Rahmen), Vordergrundrahmen und Hintergrundrahmen in Echtzeit erhalten werden, realisiert und verwendet werden, um den Einfluss der Schatten auf die Integrität des Ziels zum höchsten Grad zu verringern, wodurch das nach dem Entfernen der Schattenbereiche erhaltene Überwachungsziel relativ genau und vollständig ist, was förderlich für die Überwachung des Überwachungsziels ist.
  • Figurenliste
  • Im Zusammenhang mit Figuren wird die nicht-beschränkende Ausführungsform näher erläutert, so dass die anderen Merkmale, das Ziel und die Vorteile der vorliegenden Anmeldung deutlicher werden.
    • 1 zeigt ein Ablaufdiagramm eines Schattenerkennungsverfahrens für ein Bild in einer Ausführungsform der vorliegenden Anmeldung.
    • 2 zeigt ein Ablaufdiagramm der jeweiligen Schritte zum Erfassen der ersten Kandidatenschattenbereiche in dem Schattenerkennungsverfahren für ein Bild in einer Ausführungsform der vorliegenden Anmeldung.
    • 3 zeigt ein Ablaufdiagramm der Berechnung des Schattenerkennungswerts des verbesserten lokalen ternären Modus in dem Schattenerkennungsverfahren für ein Bild in einer Ausführungsform der vorliegenden Anmeldung.
    • 4 zeigt ein Ablaufdiagramm der Berechnung des Berechnungswerts des verbesserten lokalen ternären Modus in dem Schattenerkennungsverfahren für ein Bild in einer Ausführungsform der vorliegenden Anmeldung.
    • 5 zeigt ein schematische Darstellung des Berechnungsergebnisses des Berechnungswerts des verbesserten lokalen ternären Modus in dem Schattenerkennungsverfahren für ein Bild in einer Ausführungsform der vorliegenden Anmeldung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Hier werden die beispielhaften Ausführungsformen im Zusammenhang mit Figuren näher erläutert. Allerdings können die beispielhaften Ausführungsformen in verschiedenen Formen ausgeführt werden und sollen nicht derart verstanden werden, dass sie auf die hier erläuterten Ausführungsformen beschränkt sind; im Gegenteil wird die vorliegende Anmeldung durch die bereitgestellten Ausführungsformen umfassend und vollständig gemacht, und das Konzept der beispielhaften Ausführungsformen wird umfassend an den Fachmann auf diesem Gebiet weitergegeben. Die gleichen Bezugszeichen in Figuren stehen für gleiche oder ähnliche Struktur, deshalb wird eine wiederholte Erläuterung für sie weggelassen.
  • Gemäß der Hauptidee der vorliegenden Anmeldung umfasst ein Schattenerkennungsverfahren für ein Überwachungsvideobild gemäß der vorliegenden Anmeldung die folgenden Schritte: Erfassen eines aktuellen Rahmens und eines Hintergrundrahmens aus den Quellendaten; Erfassen erster Kandidatenschattenbereiche aus dem aktuellen Rahmen, wobei die Helligkeit der ersten Kandidatenschattenbereiche niedriger als die Helligkeit der entsprechenden Bereiche in dem Hintergrundrahmen ist; Berechnen eines Schattenerkennungswerts des lokalen ternären Modus aller ersten Kandidatenschattenbereiche und Auswählen der ersten Kandidatenschattenbereiche, deren Schattenerkennungswert des lokalen ternären Modus größer als ein erster Schwellenwert ist, als zweite Kandidatenschattenbereiche; Berechnen eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts der jeweiligen zweiten Kandidatenschattenbereiche; Schätzen eines entsprechenden Schattenschwellenwerts, Farbtonschwellenwerts und Sättigungsschwellenwerts und Gradientenschwellenwerts des lokalen ternären Modus in Übereinstimmung mit dem ermittelten Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus der zweiten Kandidatenschattenbereiche; Berechnen eines Schattenerkennungswerts, eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts des lokalen ternären Modus der jeweiligen ersten Kandidatenschattenbereiche; Auswählen eines ersten Kandidatenschattenbereichs, dessen Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus sich jeweils in dem Bereich des Schattenschwellenwerts, des Farbtonschwellenwerts und des Sättigungsschwellenwerts und des Gradientenschwellenwerts des lokalen ternären Modus befinden, als Schattenbereich.
  • Im Zusammenhang mit Figuren und Ausführungsformen wird der technische Inhalt der vorliegenden Anmeldung im Folgenden näher erläutert.
  • Siehe 1, 1 zeigt ein Ablaufdiagramm eines Schattenerkennungsverfahrens für ein Bild in einer Ausführungsform der vorliegenden Anmeldung. Insbesondere werden in dem Schattenerkennungsverfahren für ein Überwachungsvideobild gemäß der vorliegenden Anmeldung hauptsächlich zwei Farbräume: Farbton-, Sättigungs- und Helligkeitsfarbraum (HSV) und Rot-, Grün- und Blaufarbraum (RGB); und zwei Texturen: Gradient und lokale Raummuster, verwendet. Die Hauptidee in dem Algorithmus des Schattenerkennungsverfahrens für ein Überwachungsvideobild liegt darin, zuerst die Kandidatenschattenbereiche (erste Kandidatenschattenbereiche und zweite Kandidatenschattenbereiche usw. im folgenden Text) zu extrahieren und dann die Schattenbereiche aus den Kandidatenschattenbereichen zu extrahieren, wobei die extrahierten Schattenbereiche relativ genau sind. Wie in 1 dargestellt, umfasst das Schattenerkennungsverfahren für ein Überwachungsvideobild in einer Ausführungsform der vorliegenden Anmeldung die folgenden Schritte:
    • Schritt S10: Erfassen eines aktuellen Rahmens und eines Hintergrundrahmens aus den Quellendaten. Dabei beziehen sich die Quellendaten auf die durch die Überwachungsvorrichtung erfassten Originalbilder oder Videodaten, wobei der aktuelle Rahmen sich auf die in Echtzeit erfassten aktuellen Bilder bezieht, und wobei der Hintergrundrahmen sich auf die mit dem Hintergrundmodellierungs- oder Hintergrunddifferenzalgorithmus und anderen Verfahren aus den Überwachungsbilder oder Videos extrahierten Hintergrundbildern ohne Überwachungsziel bezieht. In einer bevorzugten Ausführungsform der vorliegenden Anmeldung umfasst der Schritt S10 bevorzugt weiterhin einen Schritt zum gleichzeitigen Erfassen des Vordergrundrahmens aus den Quellendaten, der sich auf die im Betriebsvorgang der Überwachungsvorrichtung vor dem Zeitpunkt des aktuellen Rahmens aufgezeichneten Überwachungsbilder bezieht.
    • Schritt S20: Erfassen erster Kandidatenschattenbereiche aus dem aktuellen Rahmen. Die Helligkeit der ersten Kandidatenschattenbereiche ist niedriger als die Helligkeit der entsprechenden Bereiche in dem Hintergrundrahmen. Insbesondere basiert der Schritt hauptsächlich auf der Annahme, dass der Schattenbereich dunkler als der entsprechende Hintergrundbereich ist, und diese Annahme trifft in den meisten Fällen zu. Deshalb können mit der Annahme grobe Kandidatenschattenbereiche (d.h. die oben geschilderten ersten Kandidatenschattenbereiche) extrahiert werden, deshalb ist die Helligkeit der erfassten ersten Kandidatenschattenbereiche niedriger als die Helligkeit der entsprechenden Bereiche in dem Hintergrundrahmen. Es sollte darauf hingewiesen werden, dass es sich bei dem Hintergrundrahmen um ein Bild ohne Überwachungsziel handelt, nämlich sind die Bilder in dem aktuellen Rahmen außer dem Überwachungsziel und den Schattenbereichen gleich wie die Bilder in dem Hintergrundrahmen, deshalb weisen die ersten Kandidatenschattenbereiche in dem aktuellen Rahmen und die entsprechenden Bereiche in dem Hintergrund tatsächlich gleiche Positionen auf.
  • Bevorzugt können die Schattenbereiche möglicherweise durch die Geräusche gestört werden. Aufgrund dessen umfassen die im Schritt S20 tatsächlich erfassten ersten Kandidatenschattenbereiche die meisten tatsächlichen Schattenbereiche und ein Überwachungsziel, das fälschlicherweise als Schattenbereich erkannt wird, wenn die Beurteilung rein mit der Annahme der niedrigen Chromatizität erfolgt, kann es dazu führen, dass eine größere Fläche fälschlicherweise als Schattenbereich erkannt wird. In einer Ausführungsform der vorliegenden Anmeldung hat der Erfinder bei statistischer Analyse des Überwachungsziels und des Schattenbereichs herausgefunden, dass der Verhältniswert der Spektralfrequenz des Schattenbereichs in den jeweiligen Farbkanälen im Rot-Grün-Blau(RGB)-Farbraum im Vergleich zu dem Verhältniswert der Spektralfrequenz eines entsprechenden Hintergrundbereichs in den jeweiligen Farbkanälen eine kleinere Änderung aufweist, während der Verhältniswert der Spektralfrequenz des Überwachungsziels in den jeweiligen Farbkanälen im Vergleich zu dem Verhältniswert der Spektralfrequenz eines entsprechenden Hintergrundbereichs in den jeweiligen Farbkanälen eine größere Änderung aufweist, mit dieser Eigenschaft ist es förderlich dafür, die meisten Überwachungsziele, die fälschlicherweise als Schattenbereich erkannt werden, von den erkannten Schattenkandidatenbereichen zu unterscheiden. Siehe 2, 2 zeigt ein Ablaufdiagramm der jeweiligen Schritte zum Erfassen der ersten Kandidatenschattenbereiche in dem Schattenerkennungsverfahren für ein Bild in einer Ausführungsform der vorliegenden Anmeldung. Insbesondere umfasst der Schritt S20 in einer bevorzugten Ausführungsform der vorliegenden Anmeldung weiterhin die folgenden Schritte:
    • Schritt S201: Berechnen der Helligkeit der jeweiligen Bereiche in dem aktuellen Rahmen und dem Hintergrundrahmen und Auswählen eines Bereichs in dem aktuellen Rahmen, dessen Helligkeit niedriger als die Helligkeit eines entsprechenden Bereichs in dem Hintergrundrahmen ist, als erster Bereich.
    • Schritt S202: Berechnen von drei ersten Verhältniswerten der Spektralfrequenzen zwischen dem ersten Bereich und einem dem ersten Bereich entsprechenden zweiten Bereich in dem Hintergrundrahmen jeweils im roten, grünen und blauen Farbkanal und Berechnen von drei zweiten Verhältniswerten der Spektralfrequenzen zwischen einem dem ersten Bereich entsprechenden dritten Bereich in dem Vordergrundrahmen und dem zweiten Bereich jeweils im roten, grünen und blauen Kanal. Dabei handelt es sich bei dem ersten Bereich, dem zweiten Bereich und dem dritten Bereich im Wesentlichen um denselben Bereich.
  • Insbesondere ist im Schritt S202 das Verfahren zum Berechnen von drei ersten Verhältniswerten jeweils wie folgt: Ψ r = C b / C g B b / B g , Ψ g = C b / C r B b / B r , Ψ b = C g / C r B g / B r ,
    Figure DE112018004661T5_0001
    Dabei steht Ψr für den ersten Verhältniswert der Spektralfrequenzen in dem roten Kanal, Ψg für den ersten Verhältniswert der Spektralfrequenzen in dem grünen Kanal, und Ψb für den ersten Verhältniswert der Spektralfrequenzen in dem blauen Kanal; wobei Cr für die Spektralfrequenz des aktuellen Rahmens in dem roten Kanal, Cg für die Spektralfrequenz des aktuellen Rahmens in dem grünen Kanal und Cb für die Spektralfrequenz des aktuellen Rahmens in dem blauen Kanal steht; und wobei Br für die Spektralfrequenz des Hintergrundrahmens in dem roten Kanal, Bg für die Spektralfrequenz des Hintergrundrahmens in dem grünen Kanal und Bb für die Spektralfrequenz des Hintergrundrahmens in dem blauen Kanal steht.
  • Entsprechend ist das Verfahren zum Berechnen von drei zweiten Verhältniswerten zwischen den Spektralfrequenzen eines dem ersten Bereich entsprechenden dritten Bereichs in dem Vordergrundrahmen und des zweiten Bereichs jeweils im roten, grünen und blauen Kanal gleich wie das Verfahren zum Berechnen der ersten Verhältniswerte, dabei werden nur die entsprechenden Parameter des aktuellen Rahmens ersetzt, während die einschlägigen Parameter des Hintergrundrahmens erhalten werden, z.B. wird Cg durch die Spektralfrequenz des Vordergrundrahmens in dem roten Kanal ersetzt, und die anderen Parameter des aktuellen Rahmens werden analog dazu ersetzt, hier wird es nicht näher erläutert.
  • Schritt S203: Auswählen eines ersten Bereichs, in dem der Differenzwert zwischen dem ersten Verhältniswert und dem zweiten Verhältniswert kleiner als ein zweiter Schwellenwert ist, als ein erster Kandidatenschattenbereich. Dabei kann der zweite Schwellenwert nach tatsächlichen Bedürfnissen konfiguriert und eingestellt werden.
  • Schritt S30: Berechnen eines Schattenerkennungswerts des lokalen ternären Modus aller ersten Kandidatenschattenbereiche und Auswählen der ersten Kandidatenschattenbereiche, deren Schattenerkennungswert des lokalen ternären Modus größer als ein erster Schwellenwert ist, als zweite Kandidatenschattenbereiche. Insbesondere werden in der vorliegenden Anmeldung die Schattenbereiche hauptsächlich durch drei Schattendetektoren erkannt, und jeder Schattendetektor weist entsprechende Parameterschwellenwerte auf, allerdings sind die Szenen in dem Überwachungsvideo variabel, wenn für jede Szene eine Gruppe von Parameterschwellenwerten zu konfigurieren ist, wird die Anwendung des Algorithmus beschränkt, deshalb sollen genauere Parameterschwellenwerte im Voraus prognostiziert werden. Auf der Grundlage vom Schritt S20 zum Erfassen der ersten Kandidatenschattenbereiche werden in der vorliegenden Anmeldung Detektoren des verbesserten lokalen ternären Modus (Improved Local Ternary Pattern) (im Folgenden als ILTP-Detektoren) verwendet, um alle extrahierten ersten Kandidatenschattenbereiche zu filtern, genaue Schattenbereiche (nämlich diese Schattenbereiche haben höhere Erkennungskriterien, wodurch die ausgewählten Bereiche im Wesentlichen die endgültigen Schattenbereiche darstellen) auszuwählen und auf diesen genauen Schattenbereichen basierend die Schwellenparameter von drei Schattendetektoren zum Erkennen der anderen ersten Kandidatenschattenbereiche (Farbton- und Sättigungsdetektor und Gradientendetektor) zu schätzen. Es sollte darauf hingewiesen werden, dass in diesem Schritt die ILTP-Detektoren ausgewählt werden, da im Vergleich zu den durch den Farbton- und Sättigungsdetektor (HS) und den Gradientendetektor (Gradient) erkannten Schattenbereichen die durch die ILTP-Detektoren erkannten Schattenbereiche eine bessere Genauigkeit und weiniger Zielstörungen aufweisen.
  • Siehe 3, 3 zeigt ein Ablaufdiagramm der Berechnung des Schattenerkennungswerts des verbesserten lokalen ternären Modus in dem Schattenerkennungsverfahren für ein Bild in einer Ausführungsform der vorliegenden Anmeldung. Insbesondere umfasst das Berechnen des Schattenerkennungswerts des verbesserten lokalen ternären Modus gemäß der vorliegenden Anmeldung die folgenden Schritte:
    • Schritt S301: Berechnen eines Berechnungswerts des lokalen ternären Modus aller Pixelpunkte in den ersten Kandidatenschattenbereichen oder den zweiten Kandidatenschattenbereichen in dem aktuellen Rahmen. Insbesondere wird bezüglich des Schritts S30 ein Berechnen des Berechnungswerts des verbesserten lokalen ternären Modus (ILTP-Berechnungswert) der vorliegenden Anmeldung für die Pixelpunkte in den ersten Kandidatenschattenbereichen durchgeführt.
    • Schritt S302: Berechnen eines Berechnungswerts des lokalen ternären Modus für jeden entsprechenden Pixelpunkt mit gleicher Position in dem Hintergrundrahmen.
    • Schritt S303: Berechnen der Anzahl der Pixelpunkte in den ersten Kandidatenschattenbereichen oder den zweiten Kandidatenschattenbereichen in dem aktuellen Rahmen mit einem gleichen Berechnungswert des lokalen ternären Modus wie die entsprechenden Pixelpunkte in dem Hintergrundrahmen, wobei die Anzahl der Pixelpunkte als Schattenerkennungswert des lokalen ternären Modus verwendet wird. Insbesondere werden in diesem Schritt die im Schritt S301 und S302 ermittelten ILTP-Berechnungswert der jeweiligen Pixel punkte miteinander verglichen, wenn der ILTP-Berechnungswert eines Pixelpunkts des aktuellen Rahmens im Schritt S301 gleich wie der ILTP-Berechnungswert eines entsprechenden Pixelpunkts (nämlich an derselben Position) im Schritt S302 ist, kann der Pixelpunkt als 1 Pixelpunkt gezählt werden. Weiter werden alle Pixelpunkt in dem ersten Kandidatenbereich analog dazu berechnet, wobei die Pixelpunkte, die die obigen Bedingungen erfüllen, akkumuliert werden, dann kann der Schattenerkennungswert des lokalen ternären Modus ermittelt werden.
  • Siehe 4, 4 zeigt ein Ablaufdiagramm der Berechnung des Berechnungswerts des verbesserten lokalen ternären Modus in dem Schattenerkennungsverfahren für ein Bild in einer Ausführungsform der vorliegenden Anmeldung. Wie in 4 dargestellt, umfasst das Verfahren zum Berechnen des Berechnungswerts des lokalen ternären Modus im Schritt S301 und S302 zumindest die folgenden Schritte:
    • Schritt S3001: Einstellen eines Rauschtoleranzwerts.
    • Schritt S3002: Vergleichen des Graustufenwerts der die Pixelpunkte umgebenden jeweiligen Nachbarschaftspixelpunkte mit dem Graustufenwert der Pixelpunkte. Dabei sind die Vergleichsergebnisse wie folgt, d.h. nur drei Werte werden ermittelt. Wenn der Differenzwert zwischen den Graustufenwerten eines Nachbarschaftspixelpunkts und des Pixelpunkts kleiner als der Rauschtoleranzwert ist, ist der Markierungswert des Nachbarschaftspixelpunkts ein erster Wert; wenn der Graustufenwert eines Nachbarschaftspixelpunkts größer oder gleich der Summe zwischen dem Graustufenwert des Pixelpunkts und dem Rauschtoleranzwert ist, ist der Markierungswert des Nachbarschaftspixelpunkts ein zweiter Wert; wenn der Graustufenwert eines Nachbarschaftspixelpunkts kleiner oder gleich der Differenzwert zwischen dem Graustufenwert des Pixelpunkts und dem Rauschtoleranzwert ist, ist der Markierungswert des Nachbarschaftspixelpunkts ein dritter Wert.
  • Siehe 5, 5 zeigt ein schematische Darstellung des Berechnungsergebnisses des Berechnungswerts des verbesserten lokalen ternären Modus in dem Schattenerkennungsverfahren für ein Bild in einer Ausführungsform der vorliegenden Anmeldung. In der Ausführungsform gemäß 5 sind der erkannte Pixelpunkt und seine mehreren Nachbarschaftspixelpunkte in einem Neun-Quadrat-Gittermuster angeordnet, wobei der Pixelpunkt in der Peripherie 8 Nachbarschaftspixelpunkte, die um den Pixelpunkt herum angeordnet sind, umfasst. In 5 ist der Graustufenwert des erkannten Pixelpunkts 90, der Rauschtoleranzwert t 6, der erste Wert 01, der zweite Wert 10 und der dritte Wert 00. Weiter wird mit dem Vergleichsverfahren im Schritt S3002 ein in der oberen linken Ecke des erkannten Pixelpunkts befindlicher Nachbarschaftspixelpunkt als 01 markiert, ein auf der linken Seite des erkannten Pixelpunkts befindlicher Nachbarschaftspixelpunkt als 00 markiert und ein oberhalb des erkannten Pixelpunkts befindlicher Nachbarschaftspixelpunkt als 10 markiert, nachdem die 8 in der Peripherie befindlichen Nachbarschaftspixelpunkte analog dazu markiert wurden (siehe Neun-Gitter gemäß 5 nach Markieren), wird der Schritt S3003 durchgeführt.
  • Schritt S3003: Zusammensetzen eines ersten Arrays aus allen Markierungswerte der Nachbarschaftspixelpunkte in einer ersten Reihenfolge. In der Ausführungsform gemäß 5 handelt es sich bei der ersten Reihenfolge darum, dass von einem in der oberen linken Ecke des durch 8 Nachbarschaftspixelpunkte gebildeten Neun-Quadrat-Gitters befindlichen Nachbarschaftspixelpunkt ausgehend eine Anordnung nacheinander im Uhrzeigersinn erfolgt, um ein erstes Array zu bilden. Da alle Nachbarschaftspixelpunkte jeweils durch den ersten Wert 01, den zweiten Wert 10 und den dritten Wert 00 markiert werden, handelt es sich bei dem ersten Array tatsächlich um eine durch 01, 10 und 00 gebildete Folge von Zahlen. Wie in 5 dargestellt, wird nach dem Schritt S3003 ein erstes Array 0110011001001000 gebildet.
  • Schritt S3004: Vergleichen des Graustufenwerts jedes Nachbarschaftspixelpunkts mit dem Graustufenwert eines anderen Nachbarschaftspixelpunkts, der am weitesten vom Nachbarschaftspixelpunkt entfernt ist. Wenn der Differenzwert zwischen den Graustufenwerten von zwei Nachbarschaftspixelpunkten keiner als der Rauschtoleranzwert ist, ist der gebildete Wert ein erster Wert; wenn der Graustufenwert eines Nachbarschaftspixelpunkts größer oder gleich
    der Summe zwischen dem Graustufenwert eines anderen Nachbarschaftspixelpunkts, der am weitesten von dem Nachbarschaftspixelpunkt entfernt ist, und dem Rauschtoleranzwert ist, ist der gebildete Wert ein zweiter Wert; wenn der Graustufenwert eines Nachbarschaftspixelpunkts kleiner oder gleich dem Differenzwert zwischen dem Graustufenwert eines anderen Nachbarschaftspixelpunkts, der am weitesten von dem Nachbarschaftspixelpunkt entfernt ist, und dem Rauschtoleranzwert ist, ist der gebildete Wert ein dritter Wert. Insbesondere gesagt, werden mit dem Berechnungswert des lokalen ternären Modus aus dem Stand der Technik nur der erkannte Pixelpunkt und die umgebenden Nachbarschaftspixelpunkte miteinander verglichen, während die Korrelationsinformationen zwischen den Nachbarschaftspixelpunkt ignoriert, wodurch genau die Fähigkeit des lokalen ternären Modus zum Ausdrücken verstärkt werden kann. Deshalb werden in der vorliegenden Anmeldung die Korrelationsinformationen zwischen den Nachbarschaftspixelpunkten auch beinhaltet, um die Fähigkeit des Berechnungswerts des bestehenden lokalen ternären Modus zum Ausdrücken zu verbessern, wodurch der erkannte Schattenbereich genauer wird. Somit ist das Vergleichsverfahren in diesem Schritt gleich wie im Schritt S3003, der Unterschied liegt darin, dass die zum Vergleichen verwendeten Pixelpunkte unterschiedlich sind, wobei im Schritt S3004 meistens mehrere Nachbarschaftspixelpunkte miteinander verglichen werden. In einer Ausführungsform gemäß 5 handelt es sich bei den zum Vergleichen verwendeten Nachbarschaftspixelpunkten jeweils um ein Vergleichen zwischen den Nachbarschaftspixelpunkten in Richtung der beiden diagonalen Linien, in vertikaler Richtung und in horizontaler Richtung des zu erkennenden Pixelpunkts, wie in 5 dargestellt, werden die Vergleichsergebnisse in einer
    Figure DE112018004661T5_0002
    -förmigen Tabelle aufgezeichnet; zuerst handelt es sich bei dem in dem in der oberen linken Ecke der
    Figure DE112018004661T5_0002
    -förmigen Tabelle befindlichen leeren Feld aufgezeichneten Wert um ein Ergebnis nach dem Vergleichen zwischen einem in der oberen linken Ecke des Neun-Quadrat-Gitters befindlichen Nachbarschaftspixelpunkt und einem in der unteren rechten Ecke befindlichen Nachbarschaftspixelpunkt, nämlich werden der Graustufenwert 89 und der Graustufenwert 91 miteinander verglichen, da der Differenzwert zwischen 89 und 91 kleiner als der Rauschtoleranzwert 6 ist, wird der Wert in der oberen linken Ecke der EB-förmigen Tabelle als der erste Wert 01 aufgezeichnet; analog dazu handelt es sich bei dem Wert in dem in der oberen rechten Ecke der
    Figure DE112018004661T5_0002
    -förmigen Tabelle um ein Ergebnis nach dem Vergleichen zwischen einem in der oberen rechten Ecke des Neun-Quadrat-Gitters befindlichen Nachbarschaftspixelpunkt und einem in der unteren linken Ecke befindlichen Nachbarschaftspixelpunkt; bei dem Wert in dem in der unteren linken Ecke der
    Figure DE112018004661T5_0002
    -förmigen Tabelle handelt es sich um ein Ergebnis nach dem Vergleichen zwischen zwei Nachbarschaftspixelpunkten in horizontaler Richtung in dem Neun-Quadrat-Gitter (nämlich auf der linken und rechten Seite des erkannten Pixelpunkts befindlich); bei dem Wert in dem in der oberen rechten Ecke der
    Figure DE112018004661T5_0002
    -förmigen Tabelle handelt es sich um ein Ergebnis nach dem Vergleichen zwischen zwei Nachbarschaftspixelpunkten in vertikaler Richtung in dem Neun-Quadrat-Gitter (nämlich auf der oberen und unteren Seite des erkannten Pixelpunkts befindlich).
  • Schritt S3005: Zusammensetzen eines zweiten Arrays aus allen gebildeten Werten in einer zweiten Reihenfolge. In der Ausführungsform gemäß 5 handelt es sich bei der zweiten Reihenfolge insbesondere ebenfalls darum, dass von der oberen linken Ecke in der
    Figure DE112018004661T5_0002
    -förmigen Tabelle ausgehend eine Anordnung nacheinander im Uhrzeigersinn erfolgt. Analog zu dem ersten Array umfasst in dieser Ausführungsform das zweite Array vier Werte, wie in 5 dargestellt, ist das zweite Array 01100010.
  • Schritt S3006: Überlagern des ersten Arrays und des zweiten Arrays und Bilden eines Berechnungswerts für den lokalen ternären Modus. In der Ausführungsform gemäß 5 wird nach dem unmittelbaren Überlagern des zweiten Arrays mit dem ersten Array die Folge von Zahlen als der Berechnungswert des lokalen ternären Modus verwendet (der Berechnungswert des lokalen ternären Modus gemäß 5 ist 011001100100100001100010). Der Berechnungswert des lokalen ternären Modus gemäß 5 besteht aus 12 Werten. Wenn im RGB-Farbraum drei Farbkanäle zusammenfassend berücksichtigt werden, umfasst der endgültige ILTP-Berechnungswert 36 Werte.
  • Weiter wird für den erkannten Pixelpunkt in dem aktuellen Rahmen und einen entsprechenden Pixelpunkt in dem Hintergrundrahmen jeweils eine Berechnung des Berechnungswerts des lokalen ternären Modus durchgeführt, um zu beurteilen, ob die Berechnungswerte des lokalen ternären Modus der beiden Pixelpunkte miteinander identisch sind, wobei die Anzahl der gleichen Pixelpunkte berechnet wird (Schritt S303).
    Bei der Anzahl handelt es sich um den im Schritt S30 endgültig erhaltenen Schattenerkennungswert des lokalen ternären Modus eines ersten Kandidatenschattenbereichs. Wenn der Schattenerkennungswert des lokalen ternären Modus eines ersten Kandidatenschattenbereichs größer als der erste Schwellenwert ist, wird der erste Kandidatenschattenbereich als ein zweiter Kandidatenschattenbereich ausgewählt.
  • Es sollte darauf hingewiesen werden, dass 5 nur ein Beispiel darstellt und es darauf nicht beschränkt ist. Im tatsächlichen Erkennungsprozess können nach tatsächlichen Bedürfnissen die Parameter wie die erste Reihenfolge, die zweite Reihenfolge sowie der erste Wert, der zweite Wert und der dritte Wert eingestellt werden. Darüber hinaus ist es sogar ausführbar, dass der erkannte Pixelpunkt und seine Nachbarschaftspixelpunkte nicht im Neun-Quadrat-Gittermuster ausgebildet sind, z.B. können in einigen Ausführungsformen die Nachbarschaftspixelpunkte ebenfalls ringförmig um den erkannten Pixelpunkt herum verteilt sein, hier wird es nicht näher erläutert.
  • Schritt S40: Berechnen eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts der jeweiligen zweiten Kandidatenschattenbereiche. Insbesondere handelt es sich bei dem Farbtonerkennungswert um einen Durchschnittswert der Differenzwerte zwischen den Farbtonwerten aller Pixelpunkte in dem zweiten Kandidatenschattenbereich und aller entsprechenden Pixelpunkte in dem Hintergrundrahmen; analog dazu handelt es sich bei dem Sättigungserkennungswert um einen Durchschnittswert der Differenzwerte zwischen den Sättigungswerten aller Pixelpunkte in dem zweiten Kandidatenschattenbereich und aller entsprechenden Pixelpunkte in dem Hintergrundrahmen.
  • Schritt S50: Schätzen eines entsprechenden Schattenschwellenwerts, Farbtonschwellenwerts und Sättigungsschwellenwerts und Gradientenschwellenwerts des lokalen ternären Modus in Übereinstimmung mit dem ermittelten Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus der zweiten Kandidatenschattenbereiche. Da insbesondere im Schritt S30 die Korrelationsinformationen zwischen den Nachbarschaftspixelpunkten in dem Berechnungsverfahren gemäß der vorliegenden Anmeldung hinzugefügt werden und somit die Fähigkeit des lokalen ternären Modus zum Ausdrücken verbessert wird, sind die erhaltenen zweiten Kandidatenschattenbereiche sehr genau, und diese stellen im Wesentlichen die endgültigen Schattenbereiche dar. Aufgrund dessen können in Übereinstimmung mit dem ermittelten Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus in den zweiten Kandidatenschattenbereichen ein Schattenschwellenwert, Farbtonschwellenwert und Sättigungsschwellenwert und Gradientenschwellenwert des lokalen ternären Modus zum Erkennen aller ersten Kandidatenschattenbereiche geschätzt werden. Dabei kann das Schätzen mit dem Verfahren durchgeführt werden, dass der Durchschnittswert der Schattenerkennungswerte des lokalen ternären Modus aller zweiten Kandidatenschattenbereiche als Schattenschwellenwert des lokalen ternären Modus verwendet wird, wobei der Durchschnittswert der Farbtonerkennungswert und Sättigungserkennungswert aller zweiten Kandidatenschattenbereiche als Farbtonschwellenwert und Sättigungsschwellenwert verwendet wird, und wobei der Durchschnittswert der Gradientenerkennungswerte aller zweiten Kandidatenschattenbereiche als Gradientenschwellenwert verwendet wird. Oder der Durchschnittswert kann auch nach tatsächlichen Bedürfnissen eingestellt und dann als endgültiger Schwellenwert verwendet werden, hier wird es nicht näher erläutert.
  • Da die zweiten Kandidatenschattenbereiche mittels der Schattenerkennungswerte des verbesserten lokalen ternären Modus der vorliegenden Anmeldung erkannt werden, weisen die ausgewählten zweiten Kandidatenschattenbereiche eine gute Genauigkeit und weiniger Zielstörungen auf, wobei die Schwellenparameter der zum Feststellen aller folgenden ersten Kandidatenschattenbereiche verwendeten jeweiligen Schattendetektoren eine bessere Repräsentativität und Genauigkeit aufweisen.
  • Schritt S60: Berechnen eines Schattenerkennungswerts, eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts des lokalen ternären Modus der jeweiligen ersten Kandidatenschattenbereiche. In diesem Schritt ist das Verfahren zum Berechnen des Schattenerkennungswerts, des Farbtonerkennungswerts und Sättigungserkennungswerts und des Gradientenerkennungswerts des lokalen ternären Modus gleich wie das Verfahren im Schritt S30 und S50.
  • Schritt S70: Auswählen eines ersten Kandidatenschattenbereichs, dessen Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus sich jeweils in dem Bereich des Schattenschwellenwerts, des Farbtonschwellenwerts und des Sättigungsschwellenwerts und des Gradientenschwellenwerts des lokalen ternären Modus befinden, als Schattenbereich. Insbesondere kann in diesem Schritt das Verfahren im Schritt S30 verwendet werden, um zu beurteilen, ob der Schattenerkennungswert des lokalen ternären Modus der ersten Kandidatenschattenbereiche sich in dem Bereich des Schattenschwellenwerts des lokalen ternären Modus befindet, dabei soll nur der erste Schwellenwert nur den Schattenschwellenwert des lokalen ternären Modus im Schritt S50 ersetzt werden.
  • Bevorzugt ist das Verfahren zum Erkennen des Farbtons und der Sättigung wie folgt:
    Figure DE112018004661T5_0003
  • Dabei steht C i h .
    Figure DE112018004661T5_0004
    für den Farbtonwert des Pixelpunkts in dem aktuellen Rahmen, B i h
    Figure DE112018004661T5_0005
    für den Farbtonwert des Pixelpunkts in dem Hintergrundrahmen, C i s
    Figure DE112018004661T5_0006
    für den Sättigungswert des Pixelpunkts in dem aktuellen Rahmen, B i s
    Figure DE112018004661T5_0007
    für den Sättigungswert des Pixelpunkts in dem Hintergrundrahmen, τh für den Farbtonschwellenwert und τs für den Sättigungsschwellenwert;
    wenn der Farbtondurchschnittswert der ersten Kandidatenschattenbereiche kleiner als der Farbtonschwellenwert und der Sättigungsdurchschnittswert kleiner als der Sättigungsschwellenwert ist, beträgt der Ausgabewert des Farbtonerkennungswerts und Sättigungserkennungswerts der ersten Kandidatenschattenbereiche in dem Bereich des Farbtonschwellenwerts und Sättigungsschwellenwerts 1; sonst überschreitet der Farbtonerkennungswert und Sättigungserkennungswert der ersten Kandidatenschattenbereiche den Bereich des Farbton- und Sättigungsschwellenwerts, wobei der Ausgabewert 0 beträgt. Dabei handelt es sich bei dem Farbtondurchschnittswert der ersten Kandidatenschattenbereiche um einen Durchschnittswert der Differenzwerte zwischen den Farbtonwerten aller Pixelpunkte in den ersten Kandidatenschattenbereichen und aller entsprechenden Pixelpunkte in dem Hintergrundrahmen; analog dazu handelt es sich bei dem Sättigungsdurchschnittswert der ersten Kandidatenschattenbereiche um einen Durchschnittswert der Differenzwerte zwischen den Sättigungswerten aller Pixelpunkte in den ersten Kandidatenschattenbereichen und aller entsprechenden Pixelpunkte in dem Hintergrundrahmen. In Übereinstimmung mit dem Ausgabewert von 1 oder 0 kann es beurteilt werden, ob der Farbtonerkennungswert und Sättigungserkennungswert der ersten Kandidatenschattenbereiche sich in dem Bereich des Farbtonschwellenwerts und des Sättigungsschwellenwerts befindet. Es sollte darauf hingewiesen werden, dass im Vergleich zu der mittels der herkömmlichen Farbtons-, Sättigungs- und Helligkeitsdetektoren (HSV) durchgeführten Berechnung und Analyse für den H-, S- und V-Kanal des aktuellen Rahmens und Hintergrundrahmens die Berechnung des V-Kanals bei der Farbton- und Sättigungserkennung gemäß der vorliegenden Anmeldung weggelassen, wobei mittels des H- und S-Kanals hauptsächlich die Chrominanzinvarianz vereinheitlich ausgedrückt wird, während die Nachbarschaftsinformationen (wie Nachbarschaftspixelpunkte) mittels des H- und S-Kanals vollständig verwendet werden. Da der Farbtonschwellenwert und der Sättigungsschwellenwert in Übereinstimmung mit den zweiten Kandidatenschattenbereichen berechnet werden, ändern sie sich abhängig von der Szene. Unter Verwendung der einzelnen isolierten Pixelpunkte und Nachbarschaftsinformationen können die durch eine plötzliche Beleuchtungsänderung verursachten Interferenzen verringert werden, um die Fehlerkennungen zu reduzieren und die Erkennungsgenauigkeit zu verbessern.
  • Bevorzugt ist das Verfahren zur Gradientenerkennung wie folgt:
    Figure DE112018004661T5_0008
    Figure DE112018004661T5_0009
    • Dabei steht ∇I für den horizontalen Gradientenwert des Pixelpunkts, ∇y für den vertikalen Gradientenwert des Pixelpunkts, ∇ für den Gradientenwert des Pixelpunkts, θ für den Winkelwert, c ( i j )
      Figure DE112018004661T5_0010
      für den Gradientenwert eines in dem aktuellen Rahmen befindlichen Pixelpunkts in einem Farbkanal, B ( i j )
      Figure DE112018004661T5_0011
      für den Gradientenwert eines in dem Hintergrundrahmen befindlichen entsprechenden Pixelpunkts in demselben Farbkanal, φm für den Gradientenschwellenwert, c ( θ i j )
      Figure DE112018004661T5_0012
      für den Winkelwert eines in dem aktuellen Rahmen befindlichen Pixelpunkts in einem Farbkanal, B ( θ i j )
      Figure DE112018004661T5_0013
      für den Winkelwert eines in dem Hintergrundrahmen befindlichen entsprechenden Pixelpunkts in demselben Farbkanal und φd für den Winkelschwellenwert;
    • Wenn der Durchschnittswert aller Gradientendifferenzwerte zwischen allen Pixelpunkten in dem aktuellen Rahmen und den entsprechenden Pixelpunkten in dem Hintergrundrahmen in dem roten, grünen und blauen Kanal kleiner als der Gradientenschwellenwert ist und der Durchschnittswert aller Winkeldifferenzwerte zwischen allen Pixelpunkten in dem aktuellen Rahmen und den entsprechenden Pixelpunkten in dem Hintergrundrahmen in dem roten, grünen und blauen Kanal kleiner als der Winkelschwellenwert ist, befindet sich der Gradientenerkennungswert der ersten Kandidatenschattenbereiche in dem Bereich des Gradientenschwellenwerts, wobei der Ausgabewert 1 beträgt; sonst
    • überschreitet der Gradientenerkennungswert der ersten Kandidatenschattenbereiche den Bereich des Gradientenschwellenwert, wobei der Ausgabewert 0 beträgt. In Übereinstimmung mit dem Ausgabewert von 1 oder 0 kann es beurteilt werden, ob der Gradientenerkennungswert der ersten Kandidatenschattenbereiche sich in dem Bereich des Gradientenschwellenwerts befindet.
  • Bevorzugt stellt die vorliegende Anmeldung weiterhin ein Schattenentfernungsverfahren für ein Überwachungsvideobild zur Verfügung, wobei das Schattenentfernungsverfahren für ein Überwachungsvideobild zumindest das Schattenerkennungsverfahren für ein Überwachungsvideobild gemäß 1 bis 5 umfasst. Insbesondere umfasst das Verfahren nach Auswählen der Schattenbereiche weiterhin die folgenden Schritte:
    • Erfassen eines Vordergrundrahmens aus den Quellendaten;
    • Entfernen der Schattenbereiche in dem aktuellen Rahmen durch die Mittelwertfilterung und die Lochfüllung im Zusammenhang mit dem Vordergrundrahmen.
  • Da das Schattenentfernungsverfahren für ein Überwachungsvideobild das Schattenerkennungsverfahren für ein Überwachungsvideobild gemäß 1 bis 5 verwendet, sind die erkannten Schattenbereiche sehr genau, nach dem Hinzufügen der Nachbearbeitungsalgorithmen wie der Mittelwertfilterung und Lochfüllung kann eine Abscheidung der Schattenbereiche von dem Überwachungsziel erreicht werden, und nach dem Beseitigen der Störung der Schattenbereiche sind die Form und die Kontur des Überwachungsziels relativ vollständig und genau, wodurch dem weiteren Identifizieren und Kategorisieren und anderen Mustererkennungsalgorithmen genaue wirksame Daten zur Verfügung gestellt werden.
  • Bevorzugt stellt die vorliegende Anmeldung weiterhin ein Schattenerkennungssystem für ein Überwachungsvideobild zur Verfügung, um das obige Schattenerkennungsverfahren für ein Überwachungsvideobild zu realisieren. Das Schattenerkennungssystem für ein Überwachungsvideobild umfasst hauptsächlich: ein Extraktionsmodul, ein Erfassungsmodul für die ersten Kandidatenschattenbereiche, ein Erfassungsmodul für die zweiten Kandidatenschattenbereiche, ein erstes Berechnungsmodul, ein Schwellenwertschätzungsmodul, ein zweites Berechnungsmodul und ein Schattenberei chsauswahlmodul.
  • Das Extraktionsmodul wird zum Erfassen eines aktuellen Rahmens, eines Hintergrundrahmens oder eines Vordergrundrahmens aus den Quellendaten verwendet.
  • Das Erfassungsmodul für die ersten Kandidatenschattenbereiche wird zum Erfassen erster Kandidatenschattenbereiche aus dem aktuellen Rahmen verwendet, wobei die Helligkeit der ersten Kandidatenschattenbereiche niedriger als die Helligkeit der entsprechenden Bereiche in dem Hintergrundrahmen ist.
  • Das Erfassungsmodul für die zweiten Kandidatenschattenbereiche wird dazu verwendet, einen Schattenerkennungswert des lokalen ternären Modus aller ersten Kandidatenschattenbereiche zu berechnen und die ersten Kandidatenschattenbereiche, deren Schattenerkennungswert des lokalen ternären Modus größer als ein erster Schwellenwert ist, als zweite Kandidatenschattenbereiche auszuwählen.
  • Das erste Berechnungsmodul wird zum Berechnen eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts der jeweiligen zweiten Kandidatenschattenbereiche verwendet.
  • Das Schwellenwertschätzungsmodul wird dazu verwendet, einen entsprechenden Schattenschwellenwert, Farbtonschwellenwert und Sättigungsschwellenwert und Gradientenschwellenwert des lokalen ternären Modus in Übereinstimmung mit dem ermittelten Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus der zweiten Kandidatenschattenbereiche zu schätzen.
  • Das zweite Berechnungsmodul wird zum Berechnen eines Schattenerkennungswerts, eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts des lokalen ternären Modus der jeweiligen ersten Kandidatenschattenbereiche verwendet.
  • Das Schattenbereichsauswahlmodul wird dazu verwendet, einen ersten Kandidatenschattenbereich, dessen Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus sich jeweils in dem Bereich des Schattenschwellenwerts, des Farbtonschwellenwerts und des Sättigungsschwellenwerts und des Gradientenschwellenwerts des lokalen ternären Modus befinden, als Schattenbereich auszuwählen
  • Zusammenfassend gesagt, werden bei dem Schattenerkennungsverfahren für ein Überwachungsvideobild, dem Schattenerkennungssystem für ein Überwachungsvideobild und dem Schattenentfernungsverfahren für ein Überwachungsvideobild unter Verwendung des Schattenerkennungsverfahrens für ein Überwachungsvideobild in einer Ausführungsform der vorliegenden Anmeldung im Vergleich zum Stand der Technik zuerst die ersten Kandidatenschattenbereiche (grobe Schattenkandidatenbereiche) erfasst, und ein kleiner Teil der wahren zweiten Kandidatenschattenbereiche wird aus den ersten Kandidatenschattenbereichen extrahiert und zum Schätzen der Schwellenparameter der drei nachfolgenden Schattendetektoren verwendet, dann werden auf dem Prinzip der Texturkonsistenz und Chrominanzkonstanz zwischen den Schattenbereichen und den entsprechenden Hintergrundbereichen basiert die drei Schattendetektoren verwendet, um relativ genaue Schattenbereiche parallel aus den ersten Kandidatenschattenbereichen zu extrahieren, anschließend werden alle relativ genaue Schattenbereiche gemeinsam gefiltert, um genauere Schattenbereiche zu erhalten. Aufgrund dessen haben die mit dem Schattenerkennungsverfahren für ein Überwachungsvideobild gemäß der vorliegenden Anmeldung erfassten Schattenbereiche eine signifikante Erkennungswirkung für die Schattenbereiche eines sich im Bewegungszustand befindlichen Überwachungsziels in meisten häufig vorkommenden Innenszenen, und die erkannten Schattenbereiche sind ziemlich genau. Darüber hinaus kann der Algorithmus als ein separates Modul für die Überwachungsszene verwendet werden, im Zusammenhang mit den Hintergrundmodellierungs- oder Hintergrunddifferenzalgorithmen kann der Algorithmus auf der Grundlage, dass ein Videorahmen (aktueller Rahmen), Vordergrundrahmen und Hintergrundrahmen in Echtzeit erhalten werden, realisiert und verwendet werden, um den Einfluss der Schatten auf die Integrität des Ziels zum höchsten Grad zu verringern, wodurch das nach dem Entfernen der Schattenbereiche erhaltene Überwachungsziel relativ genau und vollständig ist, was förderlich für die Überwachung des Überwachungsziels ist.
  • Obwohl die optionalen Ausführungsformen der vorliegenden Anmeldung wie oben erläutert sind, ist die vorliegende Anmeldung nicht darauf beschränkt. Der Fachmann auf dem technischen Gebiet der vorliegenden Anmeldung können ohne Abweichung von dem Gedanken und Umfang der vorliegenden Anmeldung verschiedene Änderungen und Modifikationen durchführen. Aufgrund soll der Schutzumfang der vorliegenden Anmeldung durch die Ansprüche definiert werden.

Claims (11)

  1. Schattenerkennungsverfahren für ein Überwachungsvideobild, dadurch gekennzeichnet, dass das Schattenerkennungsverfahren für ein Überwachungsvideobild die folgenden Schritte umfasst: S10: Erfassen eines aktuellen Rahmens und eines Hintergrundrahmens aus den Quellendaten; S20: Erfassen erster Kandidatenschattenbereiche aus dem aktuellen Rahmen, wobei die Helligkeit der ersten Kandidatenschattenbereiche niedriger als die Helligkeit der entsprechenden Bereiche in dem Hintergrundrahmen ist; S30: Berechnen eines Schattenerkennungswerts des lokalen ternären Modus aller ersten Kandidatenschattenbereiche und Auswählen der ersten Kandidatenschattenbereiche, deren Schattenerkennungswert des lokalen ternären Modus größer als ein erster Schwellenwert ist, als zweite Kandidatenschattenbereiche; S40: Berechnen eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts der jeweiligen zweiten Kandidatenschattenbereiche; S50: Schätzen eines entsprechenden Schattenschwellenwerts, Farbtonschwellenwerts und Sättigungsschwellenwerts und Gradientenschwellenwerts des lokalen ternären Modus in Übereinstimmung mit dem ermittelten Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus der zweiten Kandidatenschattenbereiche; S60: Berechnen eines Schattenerkennungswerts, eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts des lokalen ternären Modus der jeweiligen ersten Kandidatenschattenbereiche; S70: Auswählen eines ersten Kandidatenschattenbereichs, dessen Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus sich jeweils in dem Bereich des Schattenschwellenwerts, des Farbtonschwellenwerts und des Sättigungsschwellenwerts und des Gradientenschwellenwerts des lokalen ternären Modus befinden, als Schattenbereich.
  2. Schattenerkennungsverfahren für ein Überwachungsvideobild nach Anspruch 1, dadurch gekennzeichnet, dass im Schritt S10 weiterhin ein Vordergrundrahmen aus dem Quellendaten erfasst wird; wobei der Schritt S20 weiterhin die folgenden Schritte umfasst: S201: Berechnen der Helligkeit der jeweiligen Bereiche in dem aktuellen Rahmen und dem Hintergrundrahmen und Auswählen eines Bereichs in dem aktuellen Rahmen, dessen Helligkeit niedriger als die Helligkeit eines entsprechenden Bereichs in dem Hintergrundrahmen ist, als erster Bereich; S202: Berechnen von drei ersten Verhältniswerten der Spektralfrequenzen zwischen dem ersten Bereich und einem dem ersten Bereich entsprechenden zweiten Bereich in dem Hintergrundrahmen jeweils im roten, grünen und blauen Farbkanal und Berechnen von drei zweiten Verhältniswerten der Spektralfrequenzen zwischen einem dem ersten Bereich entsprechenden dritten Bereich in dem Vordergrundrahmen und dem zweiten Bereich jeweils im roten, grünen und blauen Kanal; S203: Auswählen eines ersten Bereichs, in dem der Differenzwert zwischen dem ersten Verhältniswert und dem zweiten Verhältniswert kleiner als ein zweiter Schwellenwert ist, als ein erster Kandidatenschattenbereich.
  3. Schattenerkennungsverfahren für ein Überwachungsvideobild nach Anspruch 2, dadurch gekennzeichnet, dass im Schritt S202 das Verfahren zum Berechnen von drei ersten Verhältniswerten jeweils wie folgt ist: Ψ= C b / C g B b / B g , Ψ g = C b / C r B b / B r , Ψ b = C g / C r B g / B r
    Figure DE112018004661T5_0014
    wobei Ψr für den ersten Verhältniswert der Spektralfrequenzen in dem roten Kanal, Ψg für den ersten Verhältniswert der Spektralfrequenzen in dem grünen Kanal, und Ψb für den ersten Verhältniswert der Spektralfrequenzen in dem blauen Kanal steht; und wobei Cr für die Spektralfrequenz des aktuellen Rahmens in dem roten Kanal, Cg für die Spektralfrequenz des aktuellen Rahmens in dem grünen Kanal und Cb für die Spektralfrequenz des aktuellen Rahmens in dem blauen Kanal steht; und wobei Br für die Spektralfrequenz des Hintergrundrahmens in dem roten Kanal, Bg für die Spektralfrequenz des Hintergrundrahmens in dem grünen Kanal und Bb für die Spektralfrequenz des Hintergrundrahmens in dem blauen Kanal steht.
  4. Schattenerkennungsverfahren für ein Überwachungsvideobild nach Anspruch 1, dadurch gekennzeichnet, dass das Berechnen des Schattenerkennungswerts des lokalen ternären Modus die folgenden Schritte umfasst: Berechnen eines Berechnungswerts des lokalen ternären Modus aller Pixelpunkte in den ersten Kandidatenschattenbereichen oder den zweiten Kandidatenschattenbereichen in dem aktuellen Rahmen; Berechnen eines Berechnungswerts des lokalen ternären Modus für jeden entsprechenden Pixelpunkt mit gleicher Position in dem Hintergrundrahmen; Berechnen der Anzahl der Pixelpunkte in den ersten Kandidatenschattenbereichen oder den zweiten Kandidatenschattenbereichen in dem aktuellen Rahmen mit einem gleichen Berechnungswert des lokalen ternären Modus wie die entsprechenden Pixelpunkte in dem Hintergrundrahmen, wobei die Anzahl der Pixelpunkte als Schattenerkennungswert des lokalen ternären Modus verwendet wird.
  5. Schattenerkennungsverfahren für ein Überwachungsvideobild nach Anspruch 4, dadurch gekennzeichnet, dass das Berechnen des Berechnungswerts des lokalen ternären Modus zumindest die folgenden Schritte umfasst: Einstellen eines Rauschtoleranzwerts; Vergleichen des Graustufenwerts der die Pixelpunkte umgebenden jeweiligen Nachbarschaftspixelpunkte mit dem Graustufenwert der Pixelpunkte; wenn der Differenzwert zwischen den Graustufenwerten eines Nachbarschaftspixelpunkts und des Pixelpunkts kleiner als der Rauschtoleranzwert ist, wird der Nachbarschaftspixelpunkt als ein erster Wert markiert; wenn der Graustufenwert eines Nachbarschaftspixelpunkts größer oder gleich der Summe zwischen dem Graustufenwert des Pixelpunkts und dem Rauschtoleranzwert ist, wird der Nachbarschaftspixelpunkt als ein zweiter Wert markiert; wenn der Graustufenwert eines Nachbarschaftspixelpunkts kleiner oder gleich der Differenzwert zwischen dem Graustufenwert des Pixelpunkts und dem Rauschtoleranzwert ist, wird der Nachbarschaftspixelpunkt als ein dritter Wert markiert; Zusammensetzen eines ersten Arrays aus dem durch alle Nachbarschaftspixelpunkte markierten ersten Wert, zweiten Wert und dritten Wert in einer ersten Reihenfolge; Vergleichen des Graustufenwerts jedes Nachbarschaftspixelpunkts mit dem Graustufenwert eines anderen Nachbarschaftspixelpunkts, der am weitesten vom Nachbarschaftspixelpunkt entfernt ist; wenn der Differenzwert zwischen den Graustufenwerten von zwei Nachbarschaftspixelpunkten keiner als der Rauschtoleranzwert ist, wird der erste Wert gebildet; wenn der Graustufenwert eines Nachbarschaftspixelpunkts größer oder gleich der Summe zwischen dem Graustufenwert eines anderen Nachbarschaftspixelpunkts, der am weitesten von dem Nachbarschaftspixelpunkt entfernt ist, und dem Rauschtoleranzwert ist, wird der zweite Wert gebildet; wenn der Graustufenwert eines Nachbarschaftspixelpunkts kleiner oder gleich dem Differenzwert zwischen dem Graustufenwert eines anderen Nachbarschaftspixelpunkts, der am weitesten von dem Nachbarschaftspixelpunkt entfernt ist, und dem Rauschtoleranzwert ist, wird der dritte Wert gebildet; Zusammensetzen eines zweiten Arrays aus allen gebildeten ersten Werten, zweiten Werten und dritten Werten in einer zweiten Reihenfolge; Überlagern des ersten Arrays und des zweiten Arrays und Bilden eines Berechnungswerts für den lokalen ternären Modus.
  6. Schattenerkennungsverfahren für ein Überwachungsvideobild nach Anspruch 5, dadurch gekennzeichnet, dass der Pixelpunkt und die mehreren Nachbarschaftspixelpunkte in einem Neun-Quadrat-Gittermuster angeordnet sind, wobei der Pixelpunkt in der Peripherie 8 Nachbarschaftspixelpunkte, die um den Pixelpunkt herum angeordnet sind, umfasst.
  7. Schattenerkennungsverfahren für ein Überwachungsvideobild nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren zum Erkennen des Farbtons und der Sättigung wie folgt ist:
    Figure DE112018004661T5_0015
    wobei C i h
    Figure DE112018004661T5_0016
    für den Farbtonwert des Pixelpunkts in dem aktuellen Rahmen, B i h
    Figure DE112018004661T5_0017
    für den Farbtonwert des Pixelpunkts in dem Hintergrundrahmen, C i s
    Figure DE112018004661T5_0018
    für den Sättigungswert des Pixelpunkts in dem aktuellen Rahmen, B i s
    Figure DE112018004661T5_0019
    für den Sättigungswert des Pixelpunkts in dem Hintergrundrahmen; τh für den Farbtonschwellenwert und τs für den Sättigungsschwellenwert steht; wenn der Farbtondurchschnittswert der ersten Kandidatenschattenbereiche kleiner als der Farbtonschwellenwert und der Sättigungsdurchschnittswert kleiner als der Sättigungsschwellenwert ist, beträgt der Ausgabewert des Farbtonerkennungswerts und Sättigungserkennungswerts der ersten Kandidatenschattenbereiche in dem Bereich des Farbtonschwellenwerts und Sättigungsschwellenwerts 1; sonst überschreitet der Farbtonerkennungswert und Sättigungserkennungswert der ersten Kandidatenschattenbereiche den Bereich des Farbton- und Sättigungsschwellenwerts, wobei der Ausgabewert 0 beträgt.
  8. Schattenerkennungsverfahren für ein Überwachungsvideobild nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren zur Gradientenerkennung wie folgt ist:
    Figure DE112018004661T5_0020
    Figure DE112018004661T5_0021
    wobei ∇I für den horizontalen Gradientenwert des Pixelpunkts, ∇y für den vertikalen Gradientenwert des Pixelpunkts, V für den Gradientenwert des Pixelpunkts, θ für den Winkelwert, C ( i j )
    Figure DE112018004661T5_0022
    für den Gradientenwert eines in dem aktuellen Rahmen befindlichen Pixelpunkts in einem Farbkanal, B ( i j )
    Figure DE112018004661T5_0023
    für den Gradientenwert eines in dem Hintergrundrahmen befindlichen entsprechenden Pixelpunkts in demselben Farbkanal, φm für den Gradientenschwellenwert, C ( θ i j )
    Figure DE112018004661T5_0024
    für den Winkelwert eines in dem aktuellen Rahmen befindlichen Pixelpunkts in einem Farbkanal, B ( θ i j )
    Figure DE112018004661T5_0025
    für den Winkelwert eines in dem Hintergrundrahmen befindlichen entsprechenden Pixelpunkts in demselben Farbkanal und φd für den Winkelschwellenwert steht; wenn der Durchschnittswert aller Gradientendifferenzwerte zwischen allen Pixelpunkten in dem aktuellen Rahmen und den entsprechenden Pixelpunkten in dem Hintergrundrahmen in dem roten, grünen und blauen Kanal kleiner als der Gradientenschwellenwert ist und der Durchschnittswert aller Winkeldifferenzwerte zwischen allen Pixelpunkten in dem aktuellen Rahmen und den entsprechenden Pixelpunkten in dem Hintergrundrahmen in dem roten, grünen und blauen Kanal kleiner als der Winkelschwellenwert ist, befindet sich der Gradientenerkennungswert der ersten Kandidatenschattenbereiche in dem Bereich des Gradientenschwellenwerts, wobei der Ausgabewert 1 beträgt; sonst überschreitet der Gradientenerkennungswert der ersten Kandidatenschattenbereiche den Bereich des Gradientenschwellenwert, wobei der Ausgabewert 0 beträgt.
  9. Schattenentfernungsverfahren für ein Überwachungsvideobild, dadurch gekennzeichnet, dass das Schattenentfernungsverfahren für ein Überwachungsvideobild zumindest die folgenden Schritte zum Realisieren des Schattenerkennungsverfahrens für ein Überwachungsvideobild umfasst: S10: Erfassen eines aktuellen Rahmens und eines Hintergrundrahmens aus den Quellendaten; S20: Erfassen erster Kandidatenschattenbereiche aus dem aktuellen Rahmen, wobei die Helligkeit der ersten Kandidatenschattenbereiche niedriger als die Helligkeit der entsprechenden Bereiche in dem Hintergrundrahmen ist; S30: Berechnen eines Schattenerkennungswerts des lokalen ternären Modus aller ersten Kandidatenschattenbereiche und Auswählen der ersten Kandidatenschattenbereiche, deren Schattenerkennungswert des lokalen ternären Modus größer als ein erster Schwellenwert ist, als zweite Kandidatenschattenbereiche; S40: Berechnen eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts der jeweiligen zweiten Kandidatenschattenbereiche; S50: Schätzen eines entsprechenden Schattenschwellenwerts, Farbtonschwellenwerts und Sättigungsschwellenwerts und Gradientenschwellenwerts des lokalen ternären Modus in Übereinstimmung mit dem ermittelten Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus der zweiten Kandidatenschattenbereiche; S60: Berechnen eines Schattenerkennungswerts, eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts des lokalen ternären Modus der jeweiligen ersten Kandidatenschattenbereiche; S70: Auswählen eines ersten Kandidatenschattenbereichs, dessen Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus sich jeweils in dem Bereich des Schattenschwellenwerts, des Farbtonschwellenwerts und des Sättigungsschwellenwerts und des Gradientenschwellenwerts des lokalen ternären Modus befinden, als Schattenbereich.
  10. Schattenentfernungsverfahren für ein Überwachungsvideobild nach Anspruch 9, dadurch gekennzeichnet, dass das Verfahren nach Auswählen der Schattenbereiche weiterhin die folgenden Schritte umfasst: Erfassen eines Vordergrundrahmens aus den Quellendaten; Entfernen der Schattenbereiche in dem aktuellen Rahmen durch die Mittelwertfilterung und die Lochfüllung im Zusammenhang mit dem Vordergrundrahmen.
  11. Schattenerkennungssystem für ein Überwachungsvideobild, dadurch gekennzeichnet, dass das Schattenerkennungssystem für ein Überwachungsvideobild Folgendes umfasst: ein Extraktionsmodul zum Erfassen eines aktuellen Rahmens, eines Hintergrundrahmens oder eines Vordergrundrahmens aus den Quellendaten; ein Erfassungsmodul für die ersten Kandidatenschattenbereiche zum Erfassen erster Kandidatenschattenbereiche aus dem aktuellen Rahmen, wobei die Helligkeit der ersten Kandidatenschattenbereiche niedriger als die Helligkeit der entsprechenden Bereiche in dem Hintergrundrahmen ist, ein Erfassungsmodul für die zweiten Kandidatenschattenbereiche zum Berechnen eines Schattenerkennungswerts des lokalen ternären Modus aller ersten Kandidatenschattenbereiche und Auswählen der ersten Kandidatenschattenbereiche, deren Schattenerkennungswert des lokalen ternären Modus größer als ein erster Schwellenwert ist, als zweite Kandidatenschattenbereiche; ein erstes Berechnungsmodul zum Berechnen eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts der jeweiligen zweiten Kandidatenschattenbereiche; ein Schwellenwertschätzungsmodul zum Schätzen eines entsprechenden Schattenschwellenwerts, Farbtonschwellenwerts und Sättigungsschwellenwerts und Gradientenschwellenwerts des lokalen ternären Modus in Übereinstimmung mit dem ermittelten Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus der zweiten Kandidatenschattenbereiche; ein zweites Berechnungsmodul zum Berechnen eines Schattenerkennungswerts, eines Farbtonerkennungswerts und eines Sättigungserkennungswerts und eines Gradientenerkennungswerts des lokalen ternären Modus der jeweiligen ersten Kandidatenschattenbereiche; ein Schattenbereichsauswahlmodul zum Auswählen eines ersten Kandidatenschattenbereichs, dessen Schattenerkennungswert, Farbtonerkennungswert und Sättigungserkennungswert und Gradientenerkennungswert des lokalen ternären Modus sich jeweils in dem Bereich des Schattenschwellenwerts, des Farbtonschwellenwerts und des Sättigungsschwellenwerts und des Gradientenschwellenwerts des lokalen ternären Modus befinden, als Schattenbereich.
DE112018004661.3T 2017-10-20 2018-10-17 Schattenerkennungsverfahren für ein Überwachungsvideobild, System davon undSchattenentfernungsverfahren Pending DE112018004661T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710986529.9A CN107767390B (zh) 2017-10-20 2017-10-20 监控视频图像的阴影检测方法及其系统、阴影去除方法
CN201710986529.9 2017-10-20
PCT/CN2018/110701 WO2019076326A1 (zh) 2017-10-20 2018-10-17 监控视频图像的阴影检测方法及其系统、阴影去除方法

Publications (1)

Publication Number Publication Date
DE112018004661T5 true DE112018004661T5 (de) 2020-06-10

Family

ID=61269788

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018004661.3T Pending DE112018004661T5 (de) 2017-10-20 2018-10-17 Schattenerkennungsverfahren für ein Überwachungsvideobild, System davon undSchattenentfernungsverfahren

Country Status (5)

Country Link
US (1) US20200250840A1 (de)
CN (1) CN107767390B (de)
DE (1) DE112018004661T5 (de)
GB (1) GB2583198B (de)
WO (1) WO2019076326A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107767390B (zh) * 2017-10-20 2019-05-28 苏州科达科技股份有限公司 监控视频图像的阴影检测方法及其系统、阴影去除方法
CN109068099B (zh) * 2018-09-05 2020-12-01 济南大学 基于视频监控的虚拟电子围栏监控方法及系统
CN109463894A (zh) * 2018-12-27 2019-03-15 蒋梦兰 配置半月型刷头的全防水式牙刷
CN113628153A (zh) * 2020-04-22 2021-11-09 北京京东乾石科技有限公司 阴影区域检测的方法和装置
CN113111866B (zh) * 2021-06-15 2021-10-26 深圳市图元科技有限公司 一种基于视频分析的智能监控管理系统及方法
CN113870237B (zh) * 2021-10-09 2024-03-08 西北工业大学 一种基于水平扩散的复合材料图像阴影检测方法
CN114187219B (zh) * 2021-12-06 2024-06-25 广西科技大学 基于红绿蓝二重差分的移动目标阴影实时消除方法
CN115351426A (zh) * 2022-08-11 2022-11-18 莆田市雷腾激光数控设备有限公司 一种鞋底激光打标方法及系统
CN117152167B (zh) * 2023-10-31 2024-03-01 海信集团控股股份有限公司 一种目标移除、基于分割大模型的目标移除方法及设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9740937B2 (en) * 2012-01-17 2017-08-22 Avigilon Fortress Corporation System and method for monitoring a retail environment using video content analysis with depth sensing
US8666117B2 (en) * 2012-04-06 2014-03-04 Xerox Corporation Video-based system and method for detecting exclusion zone infractions
CN105528794B (zh) * 2016-01-15 2019-01-25 上海应用技术学院 基于混合高斯模型与超像素分割的运动目标检测方法
CN107220943A (zh) * 2017-04-02 2017-09-29 南京大学 融合区域纹理梯度的船舶阴影去除方法
CN107230188B (zh) * 2017-04-19 2019-12-24 湖北工业大学 一种视频运动阴影消除的方法
CN107146210A (zh) * 2017-05-05 2017-09-08 南京大学 一种基于图像处理的检测去除阴影方法
CN107220949A (zh) * 2017-05-27 2017-09-29 安徽大学 公路监控视频中运动车辆阴影的自适应消除方法
CN107767390B (zh) * 2017-10-20 2019-05-28 苏州科达科技股份有限公司 监控视频图像的阴影检测方法及其系统、阴影去除方法

Also Published As

Publication number Publication date
GB2583198B (en) 2022-04-06
GB202007386D0 (en) 2020-07-01
CN107767390B (zh) 2019-05-28
GB2583198A (en) 2020-10-21
US20200250840A1 (en) 2020-08-06
CN107767390A (zh) 2018-03-06
WO2019076326A1 (zh) 2019-04-25

Similar Documents

Publication Publication Date Title
DE112018004661T5 (de) Schattenerkennungsverfahren für ein Überwachungsvideobild, System davon undSchattenentfernungsverfahren
DE69937530T2 (de) Verfahren zum automatischen Klassifizieren von Bildern nach Ereignissen
DE10037697B4 (de) Adaptive Maskentechnik zur Inspektion von Defekten
DE69601880T2 (de) Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio
DE60109278T2 (de) Verfahren und Gerät zur Lokalisierung von Schriftzeichen in Bildern aus einer Digitalkamera
DE102015121339B4 (de) Systeme und verfahren zum ermitteln eines zustands einer fahrbahn
DE69413148T2 (de) Verfahren zur Bestimmung von Bewegungsvektoren in kleinen Bildsegmenten in Fernsehbildern
DE69428239T2 (de) Verfahren und Vorrichtung zum Extrahieren bestimmter Gebiete
DE102011106052B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild unter Verwendung eines nichtlinearen beleuchtungsinvarianten Kerns
EP1625936A2 (de) Verfahren zur qualitativen Beurteilung eines Materials mit mindestens einem Erkennungsmerkmal
DE4108288C2 (de)
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE19634768A1 (de) Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem Videobild
DE10157958A1 (de) Bildverarbeitungsverfahren und-vorrichtung
DE102015207902A1 (de) Verfahren und Vorrichtung zur Bestätigung des relevanten inneren weißen Kreises bei der Erkennung des Umfelds eines kreisförmigen Verkehrszeichens
DE102018105983A1 (de) Vorrichtung zum Erfassen von Fremdkörpern und Verfahren zum Erfassen von Fremdkörpern
DE102017209631B4 (de) Objektidentifizierungsvorrichtung
EP3089106A1 (de) Verfahren zur reflexionskorrektur von abbildungen und diesbezügliche vorrichtungen
DE112009003648T5 (de) Verfahren und Vorrichtung zur Barrierentrennung
DE4102587A1 (de) Verfahren und einheit zur binaeren bildverarbeitung sowie verfahren und einheit zur zeichenerkennung
DE102005025220A1 (de) Gerät, Verfahren und Programm zum Beseitigen von Poren
EP2023638A2 (de) Verfahren zur Reduktion von Bildartefakten
DE102012200930A1 (de) Vorrichtung und Verfahren zum Erfassen einer Pflanze vor einem Hintergrund
DE102012222505B4 (de) Verfahren zum Erfassen dreidimensionaler Daten eines zu vermessenden Objekts, Verwendung eines derartigen Verfahrens zur Gesichtserkennung und Vorrichtung zur Durchführung eines derartigen Verfahrens
DE10250781A1 (de) Verfahren und Vorrichtung zur automatischen Segmentierung eines Vordergrundobjektes in einem Bild

Legal Events

Date Code Title Description
R012 Request for examination validly filed