DE112017000273T5 - Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild - Google Patents

Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild Download PDF

Info

Publication number
DE112017000273T5
DE112017000273T5 DE112017000273.7T DE112017000273T DE112017000273T5 DE 112017000273 T5 DE112017000273 T5 DE 112017000273T5 DE 112017000273 T DE112017000273 T DE 112017000273T DE 112017000273 T5 DE112017000273 T5 DE 112017000273T5
Authority
DE
Germany
Prior art keywords
image
saliency
expressiveness
level model
night vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112017000273.7T
Other languages
English (en)
Other versions
DE112017000273T9 (de
Inventor
Yingfeng Cai
Lei Dai
Hai Wang
Xiaoqiang Sun
Long Chen
Haobin Jiang
Xiaobo Chen
Youguo He
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Publication of DE112017000273T5 publication Critical patent/DE112017000273T5/de
Application granted granted Critical
Publication of DE112017000273T9 publication Critical patent/DE112017000273T9/de
Active legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

Die vorliegende Erfindung betrifft das Gebiet der maschinellen Sicht und offenbart ein ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild. Die spezifischen Schritte der vorliegenden Erfindung sind: Durchführen einer groben Extraktion eines Ausgeprägtheitsbereichs aus einem Nachtsicht-Infrarotbild unter Verwendung eines GBVS-Modells; Durchführen einer Reextraktion des Ausgeprägtheitsbereichs unter Verwendung einer auf der Frequenzdomäne der Hyperkomplexzahl basierenden Methode vom Spektrumskalenraum auf der Basis eines globalen Merkmals; Durchführen einer Fusion von globalen und lokalen Fäden in Bezug auf ein Ausgeprägtheitsbild ZZ unter Verwendung einer auf der Fusion der globalen und lokalen Fäden basierenden Ausgeprägtheitsextraktionsmethode, um ein endgültiges Ausgeprägtheitsbild zu erzielen. Das Verfahren kombiniert die Ausgeprägtheit der Zeitdomäne und der Frequenzdomäne, des global Kontrastes und des lokalen Kontrastes sowie der Merkmale auf hohem Niveau und der Merkmale auf niedrigem Niveau, und die Energiestrahlung wird ebenfalls als ein wesentlicher Faktor betrachtet, so dass das Objekt der Verarbeitung kein übliches natürliches Bild, sondern ein Infrarotbild ist, nämlich mit einer Methode zum Verarbeiten des Infrarotbilds wird eine Extraktion eines ausgeprägten Bereichs auf der Energiestrahlung basierend durchgeführt; aufgrund dessen ist das erhaltene Extraktionsergebnis des ausgeprägten Bereichs genauer und gründlicher, und die Kontur des Ziels des Ausgeprägtheitsbereichs ist klarer.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft das Gebiet der maschinellen Sicht, insbesondere ein ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild.
  • STAND DER TECHNIK
  • Der visuelle Ausgeprägtheitsmechanismus kann dazu verwendet werden, ausgeprägte Bereiche mit einem erheblichen Einfluss auf die Verkehrssicherheit aus den komplexen Straßenszenen zu extrahieren, was die Basis für die Weiterverarbeitung von Computer-Sicht bildet und die Effektivität und Effizienz der Weiterverarbeitung von Computer-Sicht verbessert. Wenn in Bezug auf die komplexen Straßenszenen eine Computer-Sichtverarbeitung für alle Inhalte durchgeführt wird, wird der Computer eine sehr große Datenverarbeitungsmenge mit einer sehr niedrigen Verarbeitungseffizienz haben. So wurden die Forscher durch den visuellen Aufmerksamkeitsmechanismus des menschlichen Sehsystems inspiriert und wünschten, dass analog zu dem menschlichen Sehsystem die maschinelle Sicht ebenfalls die ursprünglich eingegebenen Daten zuerst filtert, wodurch die Menge an Berechnung für die Weiterverarbeitung reduziert und die Verarbeitungseffizienz verbessert wird, aufgrund dessen wurde ein visuelles Ausgeprägtheitsmodell der maschinellen Sicht erhoben.
  • Die visuelle Ausgeprägtheit ist ein Begriff von der Neurophysiologie und Psychologie, die Neurophysiologen und Psychologen aus verschiedenen Ländern haben viele Modelle zum Erklären der Aufmerksamkeit des menschlichen Sehsystems erhoben, z.B. einen Peripherie-Zentral-Nervenunterdrückungsmechanismus zum Simulieren der effizienten Datenfilterfähigkeit des Aufmerksamkeitsmechanismus des menschlichen Sehsystems, unter dem Inspirieren führten die Forscher aus verschiedenen Ländern eine umfangreiche und gründliche Forschung in Bezug darauf durch, wie der maschinellen Sicht eine Datenfilterfähigkeit wie die Ausgeprägtheit der menschlichen Sicht zu verleihen.
  • Das chinesische Patent ( CN102999926A ) offenbart eine auf der Fusion der Low-Level-Merkmale basierende visuelle Ausgeprägtheitsberechnungsmethode des Bildes, die Methode führt eine Fusion von Farbe, Textur und anderen Low-Level-Merkmalen durch, um einen Ausgeprägtheitsbereich zu erzielen, allerdings basiert es nur auf den Low-Level-Merkmalen und berücksichtigt die Merkmale auf hohem Niveau, aufgrund dessen ist die Extraktion der Ausgeprägtheit nicht genau. Das chinesische Patent ( CN103020993A ) offenbart eine Detektionsmethode für die visuelle Ausgeprägtheit mit einer zweikanaligen Farbkontrastfusion, dabei wird eine Superpixel-Methode verwendet, um den Ausgeprägtheitswert zu berechnen und somit ein auf den Farbenmerkmalen basierendes Ausgeprägtheitsbild zu erzielen, allerdings handelt es sich bei der Methode nur um eine Verarbeitung innerhalb des Bereichs der Zeitdomäne und basiert nur auf den Farbenmerkmalen, dabei wird die Ausgeprägtheit in Bezug auf die Frequenzdomäne ignoriert, deshalb ist die Extraktion des Ausgeprägtheitsbereichs nicht vollständig. Im Vorgang der Extraktion des Ausgeprägtheitsbereichs haben die obigen Methoden jeweilige Mängel, und die Verarbeitung bezieht sich auf ein ursprüngliches natürliches Bild, dabei wird es nicht berücksichtigt, dass ein dem Originalbild zugeordnetes Nachtsicht-Infrarotbild verarbeitet werden kann, aufgrund dessen hat die Detektion in den Nachtstraßenszenen Mängel, dass die Genauigkeit schlecht ist, die Detektion anfällig für die Störung durch das Licht in der Hintergrundumgebung ist und die Kontur des Ausgeprägtheitsziels nicht klar ist.
  • Bei der vorliegenden Erfindung wird ein Einfluss des Lichts in der Nichtausgeprägtheits-Hintergrundumgebung in dem ursprünglichen Bild des sichtbaren Lichts durch eine Verarbeitung eines dem ursprünglichen Bild des sichtbaren Lichts entsprechenden Nachtsicht-Infrarotbildes vermieden, dadurch wird die Genauigkeit der Extraktion des Ausgeprägtheitsziels in den Nachtstraßenszenen verbessert.
  • INHALT DER VORLIEGENDEN ERFINDUNG
  • Hinsichtlich der Mängel aus dem Stand der Technik stellt die vorliegende Erfindung ein ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild zur Verfügung, um die Probleme der visuellen Aufmerksamkeitsmodelle aus dem Stand der Technik damit zu lösen, dass sie bei der Zieldetektion in den Nachtstraßenszenen eine schlechte Korrektheitsrate hat und anfällig für die Störung des Nichtausgeprägtheitsbereichs in den natürlichen Szenen und für den Einfluss des Lichts in den Nachtstraußenbildern ist sowie die Kontur des Ausgeprägtheitsziels nicht klar ist.
  • Um das obige technische Ziel zu erreichen, verwendet die vorliegende Erfindung die folgende technische Lösung:
  • Ein ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild, umfassend die folgenden Schritte:
    • S1: Durchführen einer groben Extraktion eines Ausgeprägtheitsbereichs auf der Grundlage des lokalen Kontrastes unter Verwendung eines GBVS-Modells (eines auf der Graphentheorie basierenden Bildausgeprägtheitsanalysealgorithmus) in Bezug auf das Nachtsicht-Infrarotbild des Straßenziels, um ein Ausgeprägtheitsbild CC des Nachtsicht-Infrarotbildes zu erzielen;
    • S2: Durchführen einer Reextraktion des Ausgeprägtheitsbereichs aus dem Ausgeprägtheitsbild CC unter Verwendung einer auf der Frequenzdomäne der Hyperkomplexzahl basierenden Methode vom Spektrumskalenraum auf der Basis eines globalen Merkmals, um ein Ausgeprägtheitsbild ZZ des Nachtsicht-Infrarotbilds zu erzielen;
    • S3: Durchführen einer Fusion von globalen und lokalen Fäden in Bezug auf das Ausgeprägtheitsbild ZZ unter Verwendung einer auf der Fusion der globalen und lokalen Fäden basierenden Ausgeprägtheitsextraktionsmethode, um ein Ausgeprägtheitsbild AA zu erzielen.
  • Bevorzugt umfasst das Durchführen einer Reextraktion des Ausgeprägtheitsbereichs aus dem Ausgeprägtheitsbild CC unter Verwendung einer auf der Frequenzdomäne der Hyperkomplexzahl basierenden Methode vom Spektrumskalenraum auf der Basis eines globalen Merkmals im Schritt S2 die folgenden Schritte:
    • S2.1: Durch ein integriertes Berechnen der roten, grünen und blauen Komponenten des Ausgeprägtheitsbildes CC werden 3 Merkmalsbilder U, RG und BY erzielt;
    • S2.2: Die Merkmalsbilder U, RG und BY werden integriert, durch ein Berechnen wird eine Hyperkomplexzahl-Matrix f(x,y) des Ausgeprägtheitsbildes CC erzielt;
    • S2.3: Durchführen einer Hyperkomplexzahl-Fourier-Transformation für die Hyperkomplexzahl-Matrix f(x,y), anschließendes Berechnen des Amplitudenspektrums A, des Phasenspektrums p und des Merkmalsachsenspektrums kk;
    • S2.4: Durchführen einer Faltung für das Amplitudenspektrum A, dadurch wird ein Spektrumskalenraum {AAk} des Ausgeprägtheitsbildes CC erzielt;
    • S2.5: Berechnen und Erzielen einer Ausgeprägtheitsbildsequenz {Zi} des Ausgeprägtheitsbildes CC auf der Grundlage des Spektrumskalenraums {AAk} des Ausgeprägtheitsbildes CC;
    • S2.6: Auswählen einer Ausgeprägtheitsbildsequenz aus der Ausgeprägtheitsbildsequenz {Zi} unter Verwendung eines auf der maximalen Varianz basierenden Prinzips als Ausgeprägtheitsbild ZZ des Nachtsicht-Infrarotbildes.
  • Bevorzugt umfassen das Durchführen einer Fusion von globalen und lokalen Fäden in Bezug auf das Ausgeprägtheitsbild ZZ unter Verwendung einer auf der Fusion der globalen und lokalen Fäden basierenden Ausgeprägtheitsextraktionsmethode und das Erzielen eines Ausgeprägtheitsbildes AA im Schritt S3 die folgenden Schritte:
    • S3.1: Segmentieren des Ausgeprägtheitsbildes ZZ in eine Vielzahl von kleinen Bildbereichen unter Verwendung einer Superpixel-Segmentierungsmethode;
    • S3.2: Durchführen einer Berechnung für die mehreren kleinen Bildbereiche im Schritt S31. auf der Grundlage des globalen Kontrastes, um ein Ausgeprägtheitsbild des Low-Level-Modells des Ausgeprägtheitsbildes ZZ zu erzielen;
    • S3.3: Durchführen einer Verarbeitung für das Ausgeprägtheitsbild des Low-Level-Modells des Ausgeprägtheitsbildes ZZ unter Verwendung einer Schwellenwertsegmentierungsmethode, um jeweils ein Codierungswörterbuch BC des Hintergrundes des High-Level-Modells des Ausgeprägtheitsbildes ZZ und ein Codierungswörterbuch FC des Ausgeprägtheitsziels des High-Level-Modells zu erzielen;
    • S3.4: Berechnen eines Ausgeprägtheitsbildes des Hintergrundes des High-Level-Modells des Ausgeprägtheitsbildes ZZ und eines Ausgeprägtheitsbildes pg(wi) des Ausgeprägtheitsziels des High-Level-Modells;
    • S3.5: Durchführen einer Bildfusion von dem Ausgeprägtheitsbild des Hintergrundes des High-Level-Modells des Ausgeprägtheitsbildes ZZ und des Ausgeprägtheitsbildes des Ausgeprägtheitsziels des High-Level-Modells, um ein Ausgeprägtheitsbild des High-Level-Modells des Ausgeprägtheitsbildes ZZ zu erzielen;
    • S3.6: Durchführen einer Fusion von dem Ausgeprägtheitsbild des Low-Level-Modells des Ausgeprägtheitsbildes ZZ und des Ausgeprägtheitsbildes des High-Level-Modells, um ein endgültiges Ausgeprägtheitsbild AA zu erzielen.
  • Bevorzugt ist die Berechnungsformel der Hyperkomplexzahl-Matrix f(x,y) im Schritt S2.2 f ( x , y ) = 0.5 × U i + 0.25 × T G j + 0.25 B Y k ,
    Figure DE112017000273T5_0001
    dabei sind die Vektoren i j k
    Figure DE112017000273T5_0002
    jeweils Einheitsvektoren im kartesischen Koordinatensystem des dreidimensionalen Raums mit der gleichen Richtung wie x-, y- und z-Achse.
  • Bevorzugt ist die Berechnungsformel des Amplitudenspektrums A im Schritt S2.3 A=|F(f(x, y))|, dabei stellt || das Ermitteln der Amplitude und F() die Hyperkomplexzahl-Fourier-Transformation dar.
  • Bevorzugt ist die Berechnungsformel der Ausgeprägtheitsbildsequenz {Zi} im Schritt S2.5: Zi=g*|F-1{AAk(x, y)ekk<p(x, y)}|2, dabei ist das Phasenspektrum p=φ( F(f(x, y)) ) und das Merkmalsachsenspektrum k k = v ( F ( f ( x , y ) ) ) v ( F ( f ( x , y ) ) ) ,
    Figure DE112017000273T5_0003
    | | stellt das Ermitteln der Amplitude, F() die Hyperkomplexzahl-Fourier-Transformation, φ() die Phase, g den Gauß-Kern, * die Faltung, x das Produkt, F-1 die inverse Fourier-Transformation, v() das Ermitteln des Vektorteils nach der Fourier-Transformation und || || das Ermitteln des Moduls des Vektors dar.
  • Bevorzugt ist das Schwellenwertsegmentierungsprinzip des Codierungswörterbuchs BC des Hintergrundes des High-Level-Modells und des Codierungswörterbuchs FC des Ausgeprägtheitsziels des High-Level-Modells im Schritt S3.3: BC = wi (if PA(wi)<λ1), FC=wi (if PA(wi)>λ,), dabei stellt λ1 den aus der Codierung des Hintergrundes ausgewählten Schwellenwert und λ2 den aus der Codierung des Ausgeprägtheitsziels ausgewählten Schwellenwert dar.
  • Bevorzugt hat das Erzielen des Ausgeprägtheitsbildes des Hintergrundes des High-Level-Modells des Ausgeprägtheitsbildes ZZ und des Ausgeprägtheitsbildes des Ausgeprägtheitsziels des High-Level-Modells im Schritt S3.4 den Berechnungsprozess: zufälliges Auswählen eines Gleichgewichtskoeffizienten µ zwischen der punitiven Berücksichtigung und der Regularisierung durch den Computer, so dass er min ( i = 1 n U i D b b i 2 + μ d d w i b b i 2 )
    Figure DE112017000273T5_0004
    erfüllt, dabei entspricht lokaler Adapter d d w i = exp ( [ d i s t ( U i , H 1 ) , d i s t ( U i , H 2 ) d i s t ( U i , H n ) ] T α ) ,
    Figure DE112017000273T5_0005
    Ui bezieht sich auf die Beschreibung für das Nachtsicht-Infrarotbild, D auf das Codierungswörterbuch und ∘ auf die Multiplikation der Elemente, cci stellt die Kovarianzmatrix, λ den Regularisierungskoeffizienten, X das Produkt, tr(cci) die Summe der Diagonalelemente in der Matrix cci, Hn den Vektor des Codierungswörterbuchs, n die Anzah der Elemente in dem Codierungswörterbuch, α den Gewichtungskoeffizienten des lokalen Adapter; UND dist(Ui,Hn) den euklidischen Abstand zwischen Ui und Hn dar; somit erfüllen das Ausgeprägtheitsbild des Hintergrundes des High-Level-Modells und das Ausgeprägtheitsbild des Ausgeprägtheitsziels des High-Level-Modells P8(wi)=∥Ui-Dbbi2.
  • Die vorliegende Erfindung hat folgende Vorteile: bei der vorliegenden Erfindung wird zuerst eine Vorextraktion der Ausgeprägtheit unter Verwendung des GBVS-Modells durchgeführt; dann wird das globale Merkmal auf der Grundlage unter Verwendung einer auf der Frequenzdomäne der Hyperkomplexzahl basierenden Methode vom Spektrumskalenraum extrahiert, dabei kann das Ausgeprägtheitsmerkmal in der Frequenzdomäne extrahiert werden, so dass die Ausgeprägtheit in der Zeitdomäne und die Ausgeprägtheit in der Frequenzdomäne miteinander kombiniert werden; am Ende wird eine Fusion von globalen und lokalen Ausgeprägtheitsmerkmalen unter Verwendung einer auf der Fusion der globalen und lokalen Fäden basierenden Ausgeprägtheitsextraktionsmethode durchgeführt, um die Kontur des Ausgeprägtheitsziels klar zu machen, dadurch werden die Genauigkeit der Extraktion des Ausgeprägtheitsziels und die Klarheit der Kontur verbessert. Bei der vorliegenden Erfindung wird der Ausgeprägtheitsbereich wirksam betont und der Nichtausgeprägtheitsbereich unterdrückt, um eine genauere Extraktion für das Ausgeprägtheitsziel zu realisieren.
  • Figurenliste
    • 1 zeigt ein Ablaufdiagramm eines ausgeprägtheitsbasierten Verfahrens zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild.
    • 2 zeigt ein Ablaufdiagramm einer auf der Fusion der globalen und lokalen Fäden basierenden Ausgeprägtheitsextraktionsmethode.
    • 3 zeigt ein gemäß der vorliegenden Erfindung erzieltes Ausgeprägtheitsbild. 3(a) zeigt ein Nachtsicht-Infrarotbild eines Fußgängers. 3(b) zeigt ein gemäß der vorliegenden Erfindung erzieltes Ausgeprägtheitsbild eines Fußgängers. 3(c) zeigt ein Nachtsicht-Infrarotbild eines Fahrzeugs. 3(d) zeigt ein gemäß der vorliegenden Erfindung erzieltes Ausgeprägtheitsbild eines Fahrzeugs.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Im Zusammenhang mit Figuren wird die vorliegende Erfindung im Folgenden näher erläutert, allerdings ist der Schutzumfang der vorliegenden Erfindung nicht darauf beschränkt.
  • Wie in 1 dargestellt, ein Ablaufdiagramm eines ausgeprägtheitsbasierten Verfahrens zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild, umfassend die folgenden Schritte:
    • S1: Durchführen einer groben Extraktion eines Ausgeprägtheitsbereichs auf der Grundlage des lokalen Kontrastes unter Verwendung eines GBVS-Modells (eines auf der Graphentheorie basierenden Bildausgeprägtheitsanalysealgorithmus) in Bezug auf das Nachtsicht-Infrarotbild des Straßenziels, um ein Ausgeprägtheitsbild CC des Nachtsicht-Infrarotbildes zu erzielen;
    • S1.1: Extrahieren eines Merkmalsbildes des Nachtsicht-Infrarotbildes unter Verwendung eines klassischen Itti-Sehmerkmalsmodells (ausgeprägtheitsbasierten visuellen Aufmerksamkeitsmodells);
    • S1.2: Bilden der Markov-Kette des Merkmalsbildes mittels des Markov-Random-Feldes; Markov-Random-Feld: die Ausgeprägtheit des Pixels in einem kleinen Bereich des Bildes hängt nur von der Ausgeprägtheit eines dazu benachbarten Pixels, nicht von der Ausgeprägtheit der Pixeln an anderen Stellen ab, dann ist die Sammlung der Pixeln in diesem kleinen Bereich des Bildes ein Markov-Random-Feld;
    • S1.3: Durch ein Ermitteln der Gleichgewichtsverteilung der Markov-Kette wird ein Ausgeprägtheitsbild CC erzielt.
    • S2: Durchführen einer Reextraktion des Ausgeprägtheitsbereichs aus dem Ausgeprägtheitsbild CC unter Verwendung einer auf der Frequenzdomäne der Hyperkomplexzahl basierenden Methode vom Spektrumskalenraum (unter Verwendung der Hyperkomplexzahl-Fourier-Transformation wird das Ausgeprägtheitsbild CC von der Zeitdomäne in den Spektrumskalenraum der Frequenzdomäne der Hyperkomplexzahl umgewandelt) auf der Basis eines globalen Merkmals;
    • S2.1: Durch ein integriertes Berechnen der roten grünen und blauen Komponenten des Ausgeprägtheitsbildes CC werden 3 Merkmalsbilder U RG und BY erzielt; die Berechnungsformeln von den 3 Merkmalsbildern U, RG, BY des Ausgeprägtheitsbildes CC sind wie folgt: U = ( r + g + b ) / 3
      Figure DE112017000273T5_0006
      R G = [ r ( g + b ) / 2 ] [ g ( r + b ) / 2 ]
      Figure DE112017000273T5_0007
      B Y = [ b ( r + g ) / 2 ] [ ( r + b ) / 2 | r g | / 2 b ]
      Figure DE112017000273T5_0008
      Dabei sind r, g, b jeweils die rote, grüne und blaue Komponente des Ausgeprägtheitsbildes CC;
    • S2.2: Die Merkmalsbilder U RG und BY werden integriert, durch ein Berechnen wird eine Hyperkomplexzahl-Matrix f(x y) des Ausgeprägtheitsbildes CC erzielt; die Berechnungsformel der Hyperkomplexzahl-Matrix f(x, y) ist: f ( x , y ) = 0.5 × U i + 0.25 × R G j + 0.25 B Y k
      Figure DE112017000273T5_0009
  • Dabei sind die Vektoren i j k
    Figure DE112017000273T5_0010
    jeweils Einheitsvektoren im kartesischen Koordinatensystem des dreidimensionalen Raums mit der gleichen Richtung wie x- y- und z-Achse.
  • 52.3: Durchführen einer Hyperkomplexzahl-Fourier-Transformation für die Hyperkomplexzahl-Matrix f(x,y), anschließendes Berechnen des Amplitudenspektrums A, des Phasenspektrums p und des Merkmalsachsenspektrums kk; die Berechnungsformel des Amplitudenspektrums A ist: A = | F ( f ( x , y ) ) |
    Figure DE112017000273T5_0011
  • Dabei stellt | | das Ermitteln der Amplitude und F() die Hyperkomplexzahl-Fourier-Transformation dar.
  • S2.4: Durchführen einer Faltung für das Amplitudenspektrum A, dadurch wird eine Berechnungsformel des Spektrumskalenraums {AAk} des Ausgeprägtheitsbildes CC erzielt: { A A k } = g*A
    Figure DE112017000273T5_0012
  • Dabei stellt g den Gauß-Kern und * die Faltung dar;
  • S2.5: Berechnen und Erzielen einer Ausgeprägtheitsbildsequenz {Zi} des Ausgeprägtheitsbildes CC auf der Grundlage des Spektrumskalenraums {AAk} des Ausgeprägtheitsbildes CC; die Berechnungsformel der Ausgeprägtheitsbildsequenz {Zi} ist: Z i = g * | F 1 { A A k ( x , y ) e k k × p ( x , y ) } | 2
    Figure DE112017000273T5_0013
  • Dabei ist das Phasenspektrum p=φ(F(f(x, y))) (8), und das Merkmalsachsenspektrum ist k k = v ( F ( f ( x , y ) ) ) v ( F ( f ( x , y ) ) )
    Figure DE112017000273T5_0014
    (9); || stellt das Ermitteln der Amplitude, F() die Hyperkomplexzahl-Fourier-Transformation, φ() die Phase, g den Gauß-Kern, * die Faltung, x das Produkt, F-1die inverse Fourier-Transformation, v() das Ermitteln des Vektorteils nach der Fourier-Transformation und || || das Ermitteln des Moduls des Vektors dar.
  • S2.6: Auswählen einer Ausgeprägtheitsbildsequenz aus der Ausgeprägtheitsbildsequenz {Zi} unter Verwendung eines auf der maximalen Varianz basierenden Prinzips als Ausgeprägtheitsbild ZZ des Nachtsicht-Infrarotbildes.
  • S3: Wie in 2 dargestellt, Durchführen einer Fusion von globalen und lokalen Fäden in Bezug auf das Ausgeprägtheitsbild ZZ unter Verwendung einer auf der Fusion der globalen und lokalen Fäden basierenden Ausgeprägtheitsextraktionsmethode, um ein Ausgeprägtheitsbild AA zu erzielen;
    S3.1: Segmentieren des Ausgeprägtheitsbildes ZZ in eine Vielzahl von kleinen Bildbereichen unter Verwendung einer Superpixel-Segmentierungsmethode (die Superpixel-Segmentierung bezieht sich darauf, dass aus dem Ausgeprägtheitsbild AA ein durch eine Serie von den benachbarten Pixelpunkten mit ähnlichen Farben, Helligkeiten, Texturen und anderen Merkmalen ausgebildeter kleiner Bildbereich segmentiert ist);
    S3.2: Durchführen einer Berechnung für die mehreren kleinen Bildbereiche im Schritt S31. auf der Grundlage des globalen Kontrastes S, um ein Ausgeprägtheitsbild des Low-Level-Modells des Ausgeprägtheitsbildes ZZ zu erzielen; die Berechnung für die mehreren kleinen Bildbereiche auf der Grundlage des globalen Kontrastes hat den folgenden Prozess: O K ( w i ) = q w i O K ( q ) N w i
    Figure DE112017000273T5_0015
  • Dabei bezieht sich OK(q) auf die Frequenz des Fallens des Pixels q auf den Ausgeprägtheitszielbereich, wi auf die mehreren aus den Superpixeln segmentierten kleinen Bildbereiche und Nwi auf die Anzahl der auf die Bereche gefallenen Pixeln; C K ( w i ) = exp [ ( x x o ) 2 2 V x 2 ( y y o ) 2 2 V y 2 ]
    Figure DE112017000273T5_0016
  • Dabei bezieht sich (x,y) auf die Durchschnittskoordinaten des Ausgeprägtheitsbildes ZZ, (xo, yo) auf die Bildmittelkoordinaten und Vx, Vy auf einen durch die Breite und die Höhe der kleinen Bildbereiche bestimmten Parameter;
    mit den Formeln (10), (11) kann das Ausgeprägtheitsbild Pd(wi) des Low-Level-Modells erzielt werden; P d ( w i ) = j = 1 M d d ( w i , c j ) M × O K ( w i ) × C K ( w i )
    Figure DE112017000273T5_0017
  • Dabei bezieht sich cj auf die sich an der Grenze des Ausgeprägtheitsbildes ZZ befindlichen kleinen Bildbereiche, M auf die Anzahl der sich an der Grenze des Ausgeprägtheitsbildes ZZ befindlichen kleinen Bildbereiche und dd(wi, cj) auf die mittels der euklidischen Metrik ermittelte Differenz zwischen den kleinen Bildbereichen wi und cj; S3.3: Durchführen einer Verarbeitung für das Ausgeprägtheitsbild des Low-Level-Modells des Ausgeprägtheitsbildes ZZ unter Verwendung einer Schwellenwertsegmentierungsmethode (durch eine Methode der Einstellung des Schwellenwerts wird das Bild segmentiert), um jeweils ein Codierungswörterbuch BC des Hintergrundes des High-Level-Modells des Ausgeprägtheitsbildes ZZ und ein Codierungswörterbuch FC des Ausgeprägtheitsziels des High-Level-Modells zu erzielen; Das Schwellenwertsegmentierungsprinzip des Codierungswörterbuchs BC des Hintergrundes des High-Level-Modells und des Codierungswörterbuchs FC des Ausgeprägtheitsziels des High-Level-Modells ist: BC = wi (if Pd(wi)<λ1), FC = wi (if Pd(wi)>λ2), dabei stellt λ1 den aus der Codierung des Hintergrundes ausgewählten Schwellenwert und λ2 den aus der Codierung des Ausgeprägtheitsziels ausgewählten Schwellenwert dar.
  • S3.4: Das Berechnen eines Ausgeprägtheitsbildes des Hintergrundes des High-Level-Modells des Ausgeprägtheitsbildes ZZ und eines Ausgeprägtheitsbildes des Ausgeprägtheitsziels des High-Level-Modells hat den folgenden Prozess:
  • Der Computer wählt zufällig den Gleichgewichtskoeffizienten µ zwischen der punitiven Berücksichtigung und der Regularisierung aus, so dass er erfüllt: min ( i = 1 n U i D b b i 2 + μ d d w i b b i 2 )
    Figure DE112017000273T5_0018
  • Dabei bezieht Ui sich auf die Beschreibung für das Nachtsicht-Infrarotbild, D auf das Codierungswörterbuch und ∘ auf die Multiplikation der Elemente;
  • In der Formel besteht b b i = 1 c c i + λ × t r ( c c i )
    Figure DE112017000273T5_0019
  • Dabei bezieht sich cci auf die Kovarianzmatrix, λ auf den Regularisierungskoeffizienten, x auf das Produkt und tr(cci) auf die Summe der Diagonalelemente in der Matrix;
  • In der Formel (13) entspricht der lokale Adapter d d w i = exp ( [ d i s t ( U i , H 1 ) , d i s t ( U i , H 2 ) d i s t ( U i , H n ) ] T α )
    Figure DE112017000273T5_0020
  • Dabei stellt Hn den Vektor des Codierungswörterbuchs, n die Anzah der Elemente in dem Codierungswörterbuch, α den Gewichtungskoeffizienten des lokalen Adapter und dist(Ui,Hn) den euklidischen Abstand zwischen Ui und Hn dar;
  • Aus den Formeln (13), (14) und (15) können ein Ausgeprägtheitsbild des Hintergrundes des High-Level-Modells und eine Ausgeprägtheitsbildes pg(wi) des Ausgeprägtheitsziels des High-Level-Modells: P g ( w i ) = U i D b b i 2
    Figure DE112017000273T5_0021
  • S3.5:Durchführen einer Bildfusion von dem Ausgeprägtheitsbild des Hintergrundes des High-Level-Modells des Ausgeprägtheitsbildes ZZ und des Ausgeprägtheitsbildes des Ausgeprägtheitsziels des High-Level-Modells um ein Ausgeprägtheitsbild des High-Level-Modells des Ausgeprägtheitsbildes ZZ zu erzielen;
  • S3.6: Durchführen einer Fusion von dem Ausgeprägtheitsbild des Low-Level-Modells des Ausgeprägtheitsbildes ZZ und des Ausgeprägtheitsbildes des High-Level-Modells um ein endgültiges Ausgeprägtheitsbild AA zu erzielen.
  • Mit dem ausgeprägtheitsbasierten Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild gemäß der vorliegenden Erfindung wird ein Ausgeprägtheitsbild des Fußgängers und Fahrzeugs gemäß 3 erzielt.
  • Die oben geschilderten Ausführungsformen sind bevorzugte Ausführungsformen der vorliegenden Erfindung, allerdings ist die vorliegende Erfindung nicht auf die obigen Ausführungsformen beschränkt. Alle durch den Fachmann auf diesem Gebiet durchgeführten offensichtlichen Verbesserungen, Ersetzungen oder Varianten ohne Abweichungen von der Essenz der vorliegenden Erfindung sollen als von dem Schutzumfang der vorliegenden Erfindung gedeckt angesehen werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • CN 102999926 A [0004]
    • CN 103020993 A [0004]

Claims (8)

  1. Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild, dadurch gekennzeichnet, dass es die folgenden Schritte umfasst: S1: Durchführen einer groben Extraktion eines Ausgeprägtheitsbereichs auf der Grundlage des lokalen Kontrastes unter Verwendung eines GBVS-Modells (eines auf der Graphentheorie basierenden Bildausgeprägtheitsanalysealgorithmus) in Bezug auf das Nachtsicht-Infrarotbild des Straßenziels, um ein Ausgeprägtheitsbild CC des Nachtsicht-Infrarotbildes zu erzielen; S2: Durchführen einer Reextraktion des Ausgeprägtheitsbereichs aus dem Ausgeprägtheitsbild CC unter Verwendung einer auf der Frequenzdomäne der Hyperkomplexzahl basierenden Methode vom Spektrumskalenraum auf der Basis eines globalen Merkmals, um ein Ausgeprägtheitsbild ZZ des Nachtsicht-Infrarotbilds zu erzielen; S3: Durchführen einer Fusion von globalen und lokalen Fäden in Bezug auf das Ausgeprägtheitsbild ZZ unter Verwendung einer auf der Fusion der globalen und lokalen Fäden basierenden Ausgeprägtheitsextraktionsmethode, um ein Ausgeprägtheitsbild AA zu erzielen.
  2. Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild nach Anspruch 1, dadurch gekennzeichnet, dass das Durchführen einer Reextraktion des Ausgeprägtheitsbereichs aus dem Ausgeprägtheitsbild CC unter Verwendung einer auf der Frequenzdomäne der Hyperkomplexzahl basierenden Methode vom Spektrumskalenraum auf der Basis eines globalen Merkmals im Schritt S2 die folgenden Schritte umfasst: S2.1: Durch ein integriertes Berechnen der roten, grünen und blauen Komponenten des Ausgeprägtheitsbildes CC werden 3 Merkmalsbilder U, RG und BY erzielt; S2.2: Die Merkmalsbilder U, RG und BY werden integriert, durch ein Berechnen wird eine Hyperkomplexzahl-Matrix f(x, y) des Ausgeprägtheitsbildes CC erzielt; S2.3: Durchführen einer Hyperkomplexzahl-Fourier-Transformation für die Hyperkomplexzahl-Matrix f(x,y), anschließendes Berechnen des Amplitudenspektrums A, des Phasenspektrums p und des Merkmalsachsenspektrums kk; S2.4: Durchführen einer Faltung für das Amplitudenspektrum A, dadurch wird ein Spektrumskalenraum {AAk} des Ausgeprägtheitsbildes CC erzielt; S2.5: Berechnen und Erzielen einer Ausgeprägtheitsbildsequenz {Zi} des Ausgeprägtheitsbildes CC auf der Grundlage des Spektrumskalenraums {AAk} des Ausgeprägtheitsbildes CC; S2.6: Auswählen einer Ausgeprägtheitsbildsequenz aus der Ausgeprägtheitsbildsequenz {Zi} unter Verwendung eines auf der maximalen Varianz basierenden Prinzips als Ausgeprägtheitsbild ZZ des Nachtsicht-Infrarotbildes.
  3. Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild nach Anspruch 1, dadurch gekennzeichnet, dass das Durchführen einer Fusion von globalen und lokalen Fäden in Bezug auf das Ausgeprägtheitsbild ZZ unter Verwendung einer auf der Fusion der globalen und lokalen Fäden basierenden Ausgeprägtheitsextraktionsmethode und das Erzielen eines Ausgeprägtheitsbildes AA im Schritt S3 die folgenden Schritte umfassen: S3.1: Segmentieren des Ausgeprägtheitsbildes ZZ in eine Vielzahl von kleinen Bildbereichen unter Verwendung einer Superpixel-Segmentierungsmethode; S3.2: Durchführen einer Berechnung für die mehreren kleinen Bildbereiche im Schritt S31. auf der Grundlage des globalen Kontrastes S, um ein Ausgeprägtheitsbild des Low-Level-Modells des Ausgeprägtheitsbildes ZZ zu erzielen; S3.3: Durchführen einer Verarbeitung für das Ausgeprägtheitsbild des Low-Level-Modells des Ausgeprägtheitsbildes ZZ unter Verwendung einer Schwellenwertssegmentierungsmethode S , um jeweils ein Codierungswörterbuch BC des Hintergrundes des High-Level-Modells des Ausgeprägtheitsbildes ZZ und ein Codierungswörterbuch FC des Ausgeprägtheitsziels des High-Level-Modells zu erzielen. S3.4: Berechnen eines Ausgeprägtheitsbildes des Hintergrundes des High-Level-Modells des Ausgeprägtheitsbildes ZZ und eines Ausgeprägtheitsbildes pg(wi) des Ausgeprägtheitsziels des High-Level-Modells; S3.5: Durchführen einer Bildfusion von dem Ausgeprägtheitsbild des Hintergrundes des High-Level-Modells des Ausgeprägtheitsbildes ZZ und des Ausgeprägtheitsbildes des Ausgeprägtheitsziels des High-Level-Modells, um ein Ausgeprägtheitsbild des High-Level-Modells des Ausgeprägtheitsbildes ZZ zu erzielen; S3.6: Durchführen einer Fusion von dem Ausgeprägtheitsbild des Low-Level-Modells des Ausgeprägtheitsbildes ZZ und des Ausgeprägtheitsbildes des High-Level-Modells, um ein endgültiges Ausgeprägtheitsbild AA zu erzielen.
  4. Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild nach Anspruch 2, dadurch gekennzeichnet, dass die Berechnungsformel der Hyperkomplexzahl-Matrix f(x,y) im Schritt S2.2 f ( x , y ) = 0.5 × U i + 0. 2 5 × R G j + 0. 2 5 B Y × k
    Figure DE112017000273T5_0022
    ist, wobei die Vektoren i j k
    Figure DE112017000273T5_0023
    jeweils Einheitsvektoren im kartesischen Koordinatensystem des dreidimensionalen Raums mit der gleichen Richtung wie x-, y- und z-Achse sind.
  5. Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild nach Anspruch 2, dadurch gekennzeichnet, dass die Berechnungsformel des Amplitudenspektrums A im Schritt S 2.3 A=|F(f(x, y))| ist, wobei | | das Ermitteln der Amplitude und F() die Hyperkomplexzahl-Fourier-Transformation darstellt.
  6. Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild nach Anspruch 2, dadurch gekennzeichnet, dass die Berechnungsformel der Ausgeprägtheitsbildsequenz {Zi} im Schritt S2.5 Zi=g*|F-1{AAk(x, y)ekkxp(x,y)}|2 ist, wobei das Phasenspektrum p=φ(F(f(x, y))) und das Merkmalsachsenspektrum k k = v ( F ( f ( x , y ) ) ) v ( F ( f ( x , y ) ) )
    Figure DE112017000273T5_0024
    entspricht, und wobei | | das Ermitteln der Amplitude, F() die Hyperkomplexzahl-Fourier-Transformation, φ() die Phase, g den Gauß-Kern, * die Faltung, x das Produkt, F-1 die inverse Fourier-Transformation, v() das Ermitteln des Vektorteils nach der Fourier-Transformation und || ||das Ermitteln des Moduls des Vektors darstellt.
  7. Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild nach Anspruch 3, dadurch gekennzeichnet, dass das Schwellenwertssegmentierungsprinzip des Codierungswörterbuchs BC des Hintergrundes des High-Level-Modells und des Codierungswörterbuchs FC des Ausgeprägtheitsziels des High-Level-Modells im Schritt S3.3 BC = wi(if Pd(wi)< λ1), FC = wi(if Pd(wi)>λ2) ist, wobei λ1 den aus der Codierung des Hintergrundes ausgewählten Schwellenwert und λ2 den aus der Codierung des Ausgeprägtheitsziels ausgewählten Schwellenwert darstellt.
  8. Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild nach Anspruch 3, wobei das Erzielen des Ausgeprägtheitsbildes des Hintergrundes des High-Level-Modells des Ausgeprägtheitsbildes ZZ und des Ausgeprägtheitsbildes des Ausgeprägtheitsziels des High-Level-Modells im Schritt S3.4 den Berechnungsprozess hat: zufälliges Auswählen eines Gleichgewichtskoeffizienten µ zwischen der punitiven Berücksichtigung und der Regularisierung durch den Computer, so dass er min ( i = 1 n U i D b b i 2 + μ d d w i b b i 2 )
    Figure DE112017000273T5_0025
    erfüllt, und wobei b b i = 1 c c i + λ × t r ( c c i )
    Figure DE112017000273T5_0026
    besteht, und wobei der lokale Adapter d d w i = exp ( [ d i s t ( U i , H 1 ) , d i s t ( U i , H 2 ) d i s t ( U i , H n ) ] T α )
    Figure DE112017000273T5_0027
    erfüllt, und wobei sich Ui auf die Beschreibung für das Nachtsicht-Infrarotbild, D auf das Codierungswörterbuch und ∘ auf die Multiplikation der Elemente bezieht, und wobei cci die Kovarianzmatrix, λ den Regularisierungskoeffizienten, X das Produkt, tr(cci) die Summe der Diagonalelemente in der Matrix cci, Hn den Vektor des Codierungswörterbuchs, n die Anzahl der Elemente in dem Codierungswörterbuch, α den Gewichtungskoeffizienten des lokalen Adapter; UND dist(Ui, Hn) den euklidischen Abstand zwischen Ui und Hn darstellt; so dass das Ausgeprägtheitsbild des Hintergrundes des High-Level-Modells und das Ausgeprägtheitsbild des Ausgeprägtheitsziels des High-Level-Modells erfüllt.
DE112017000273.7T 2016-08-03 2017-06-08 Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild Active DE112017000273T9 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610631619.1A CN106295542A (zh) 2016-08-03 2016-08-03 一种夜视红外图像中的基于显著性的道路目标提取方法
CN201610631619.1 2016-08-03
PCT/CN2017/087531 WO2018024030A1 (zh) 2016-08-03 2017-06-08 一种夜视红外图像中的基于显著性的道路目标提取方法

Publications (2)

Publication Number Publication Date
DE112017000273T5 true DE112017000273T5 (de) 2018-09-13
DE112017000273T9 DE112017000273T9 (de) 2019-01-03

Family

ID=57664635

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017000273.7T Active DE112017000273T9 (de) 2016-08-03 2017-06-08 Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild

Country Status (7)

Country Link
US (1) US10635929B2 (de)
JP (1) JP2019523509A (de)
CN (1) CN106295542A (de)
AU (1) AU2017307115B2 (de)
CA (1) CA3032487C (de)
DE (1) DE112017000273T9 (de)
WO (1) WO2018024030A1 (de)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295542A (zh) 2016-08-03 2017-01-04 江苏大学 一种夜视红外图像中的基于显著性的道路目标提取方法
CN107133558B (zh) * 2017-03-13 2020-10-20 北京航空航天大学 一种基于概率传播的红外行人显著性检测方法
CN108256519B (zh) * 2017-12-13 2022-06-17 苏州长风航空电子有限公司 一种基于全局和局部相互作用的红外图像显著检测方法
CN108090885B (zh) * 2017-12-20 2021-08-27 百度在线网络技术(北京)有限公司 用于处理图像的方法和装置
CN108805029B (zh) * 2018-05-08 2021-08-24 天津师范大学 一种基于显著对偶激活编码的地基云图识别方法
CN109346102B (zh) * 2018-09-18 2022-05-06 腾讯音乐娱乐科技(深圳)有限公司 音频开头爆音的检测方法、装置及存储介质
CN109934224B (zh) * 2019-03-07 2023-06-09 绵阳慧视光电技术有限责任公司 基于马尔科夫随机场和视觉对比机制的小目标检测方法
CN110717454B (zh) * 2019-10-10 2022-03-11 北京北特圣迪科技发展有限公司 一种舞台环境下的轮式机器人障碍检测方法
CN110782405B (zh) * 2019-10-14 2022-10-18 中国科学院光电技术研究所 一种基于梯度辨识的点目标和暗斑图像背景均衡方法
CN111046869B (zh) * 2019-11-27 2023-09-29 北京腾信软创科技股份有限公司 一种基于深度学习的显著区域提取方法及系统
CN111008585B (zh) * 2019-11-29 2023-04-07 西安电子科技大学 基于自适应分层高分辨sar图像的舰船目标检测方法
CN110889386A (zh) * 2019-12-02 2020-03-17 山东浪潮人工智能研究院有限公司 一种基于结构特征学习的手指静脉识别方法
CN111062982B (zh) * 2019-12-10 2021-03-19 长江存储科技有限责任公司 一种图形分析方法、系统及存储介质
CN110991547A (zh) * 2019-12-12 2020-04-10 电子科技大学 一种基于多特征最优融合的图像显著性检测方法
CN111145148A (zh) * 2019-12-13 2020-05-12 中国人民解放军国防科技大学 基于压缩感知的图像受干扰程度评价方法
CN111062905B (zh) * 2019-12-17 2022-01-04 大连理工大学 一种基于显著图增强的红外和可见光融合方法
CN111260624B (zh) * 2020-01-15 2023-05-26 陕西师范大学 一种基于特征匹配和尺度选择策略的多尺度红外小目标的探测方法
JPWO2021181861A1 (de) * 2020-03-10 2021-09-16
CN112164068B (zh) * 2020-07-17 2023-07-28 中国人民解放军63892部队 一种警戒雷达ppi图像目标和干扰区域自适应提取方法
CN112070098B (zh) * 2020-08-20 2024-02-09 西安理工大学 基于频率调整模型的高光谱图像显著目标检测方法
CN112132810B (zh) * 2020-09-24 2023-09-12 西安电子科技大学 基于感知逻辑和特征对比的图像显著性检测方法
CN112329796B (zh) * 2020-11-12 2023-05-23 北京环境特性研究所 基于视觉显著性的红外成像卷云检测方法和装置
CN112419265B (zh) * 2020-11-23 2023-08-01 哈尔滨工程大学 一种基于人眼视觉机制的伪装评价方法
CN112329887B (zh) * 2020-11-26 2023-12-05 深圳大学 基于尺度自适应滤波的高光谱和LiDAR联合分类方法
CN112541486B (zh) * 2020-12-31 2022-11-08 洛阳伟信电子科技有限公司 基于改进Pixel分割的红外弱小目标检测算法
CN112613528B (zh) * 2020-12-31 2023-11-03 广东工业大学 一种基于显著性变分的点云精简方法、装置及存储介质
CN113139425B (zh) * 2021-03-09 2024-09-20 杭州电子科技大学 一种基于双视通路交互感知的轮廓检测方法
CN112950477B (zh) * 2021-03-15 2023-08-22 河南大学 一种基于双路径处理的高分辨率显著性目标检测方法
CN113449667A (zh) * 2021-07-08 2021-09-28 四川师范大学 基于全局卷积和边界细化的显著目标检测方法
CN113449735B (zh) * 2021-07-15 2023-10-31 北京科技大学 一种超像素分割的语义分割方法及装置
CN113573058B (zh) * 2021-09-23 2021-11-30 康达洲际医疗器械有限公司 一种基于时空显著性融合的帧间图像编码方法
CN114037820A (zh) * 2021-11-05 2022-02-11 北京环境特性研究所 一种基于多特征融合的红外弱小多目标的检测方法和装置
CN114549969B (zh) * 2022-01-12 2024-07-26 中国地质大学(武汉) 一种基于图像信息融合的显著性检测方法和系统
CN114463365B (zh) * 2022-04-12 2022-06-24 中国空气动力研究与发展中心计算空气动力研究所 红外弱小目标分割方法、设备及介质
CN115424037A (zh) * 2022-10-12 2022-12-02 武汉大学 一种基于多尺度稀疏表示的显著目标区域提取方法
CN116128916B (zh) * 2023-04-13 2023-06-27 中国科学院国家空间科学中心 一种基于空间能流对比度的红外弱小目标增强方法
CN116630651B (zh) * 2023-05-19 2024-09-10 中国人民解放军国防科技大学 一种显著性目标检测方法、系统、电子设备、存储介质
CN116740165B (zh) * 2023-06-21 2024-07-05 南宁桂电电子科技研究院有限公司 双尺度下自适应红外图像目标大小的检测方法
CN116958876B (zh) * 2023-07-28 2024-06-14 郑州轻工业大学 一种基于多光谱双目立体视觉的视频异常行为检测方法和系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008053901A (ja) * 2006-08-23 2008-03-06 Konica Minolta Holdings Inc 撮像装置および撮像方法
US20110235910A1 (en) * 2009-06-30 2011-09-29 Omri Soceanu Method circuit and system for matching an object or person present within two or more images
CN102521592B (zh) 2011-11-30 2013-06-12 苏州大学 基于非清晰区域抑制的多特征融合显著区域提取方法
JP5630518B2 (ja) * 2012-03-14 2014-11-26 株式会社デンソー 運転支援装置
US9025880B2 (en) * 2012-08-29 2015-05-05 Disney Enterprises, Inc. Visual saliency estimation for images and video
CN102999926B (zh) 2012-11-12 2016-06-29 北京交通大学 一种基于底层特征融合的图像视觉显著性计算方法
CN103020993B (zh) 2012-11-28 2015-06-17 杭州电子科技大学 一种双通道颜色对比度融合的视觉显著性检测方法
CN103996040A (zh) * 2014-05-13 2014-08-20 西北工业大学 融合局部-全局对比度的自底向上的视觉显著性生成方法
US9245187B1 (en) * 2014-07-07 2016-01-26 Geo Semiconductor Inc. System and method for robust motion detection
CN104463907A (zh) 2014-11-13 2015-03-25 南京航空航天大学 一种基于视觉显著性特征的自适应目标跟踪方法
CN104463855B (zh) * 2014-11-25 2017-08-15 武汉科技大学 一种基于频域和空域结合的显著区域检测方法
CN105631898B (zh) * 2015-12-28 2019-04-19 西北工业大学 基于空时显著性融合的红外运动目标检测方法
CN105761269A (zh) * 2016-03-14 2016-07-13 北京大学 基于多尺度区分性子空间的图像显著对象的检测方法
US10198654B2 (en) * 2016-06-24 2019-02-05 Ebay Inc. Automated saliency map estimation
CN106295542A (zh) 2016-08-03 2017-01-04 江苏大学 一种夜视红外图像中的基于显著性的道路目标提取方法

Also Published As

Publication number Publication date
JP2019523509A (ja) 2019-08-22
CA3032487A1 (en) 2018-02-08
WO2018024030A1 (zh) 2018-02-08
DE112017000273T9 (de) 2019-01-03
US20190197344A1 (en) 2019-06-27
CA3032487C (en) 2021-02-16
AU2017307115A1 (en) 2019-02-21
AU2017307115B2 (en) 2020-05-21
CN106295542A (zh) 2017-01-04
US10635929B2 (en) 2020-04-28

Similar Documents

Publication Publication Date Title
DE112017000273T9 (de) Ausgeprägtheitsbasiertes Verfahren zum Extrahieren eines Straßenziels aus einem Nachtsicht-Infrarotbild
DE60037919T2 (de) Verfahren zum Wiederauffinden von Bildtexturen und Vorrichtung dafür
DE112009004059B4 (de) Verfahren zum Entfernen von Unschärfe von einem Bild und Aufzeichnungsmedium, auf dem das Verfahren aufgezeichnet ist
DE112010002232B4 (de) Semantische Szenensegmentierung mittels Random multinominalem Logit (RML)
DE102017220307B4 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
EP2284795A2 (de) Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen
DE102004046237A1 (de) Verfahren und System für die gemischte rigide Registrierung von medizinischen 2D/3D-Bildern
DE112016005059T5 (de) Unterkategorienbewusste faltende neuronale Netzwerke zur Objekterfassung
DE102015209822A1 (de) Erfassungseinrichtung, Erfassungsprogramm, Erfassungsverfahren, mit Erfassungseinrichtung ausgerüstetes Fahrzeug, Parameterberechnungseinrichtung, Parameter berechnende Parameter, Parameterberechnungsprogramm, und Verfahren zum Berechnen von Parametern
DE102019006149A1 (de) Begrenzungsbewusste Objektentfernung und Contentfüllung
DE102006041619A1 (de) Systeme und Verfahren zur computerunterstützten Detektion einer Wirbelsäulenverkrümmung unter Verwendung von Bildern und Winkelmessungen
DE102015115786B4 (de) An einem computer realisiertes verfahren und system zur verarbeitung einer sequenz von bildern
EP2028605A1 (de) Detektionsverfahren für symmetrische Muster
DE112016006922T5 (de) Erkennung einer Aktivität in einer Videobildfolge anhand von Tiefeninformationen
CN104580829A (zh) 一种太赫兹图像增强方法及系统
DE102015207903A1 (de) Vorrichtung und Verfahren zum Erfassen eines Verkehrszeichens vom Balkentyp in einem Verkehrszeichen-Erkennungssystem
CN101739670B (zh) 非局部均值空域时变图像滤波方法
DE112017006904T5 (de) Informationsverarbeitungsvorrichtung, Merkmalspunkteextraktionsprogramm undMerkmalspunkteextraktionsverfahren
DE102004059577A1 (de) Verfahren zur radiologischen Bildverarbeitung
DE102019105293A1 (de) Schätzung der Bewegung einer Bildposition
CN104778662A (zh) 一种毫米波图像增强方法及系统
CN115937302A (zh) 结合边缘保持的高光谱图像亚像元定位方法
Zielinsky et al. The relation of the Allan-and Delta-variance to the continuous wavelet transform
Chaudhary et al. Perceptual quality assessment of DIBR synthesized views using saliency based deep features
CN106204667A (zh) 一种解决图像超分辨率重建中的相似度保留问题的稀疏编码方法

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009000000

Ipc: G06V0010000000

R016 Response to examination communication