LU502959B1 - ein Mehrquellen-Fernerkundungsbild-Fusionsverfahren und -system basierend auf tiefem Lernen - Google Patents

ein Mehrquellen-Fernerkundungsbild-Fusionsverfahren und -system basierend auf tiefem Lernen Download PDF

Info

Publication number
LU502959B1
LU502959B1 LU502959A LU502959A LU502959B1 LU 502959 B1 LU502959 B1 LU 502959B1 LU 502959 A LU502959 A LU 502959A LU 502959 A LU502959 A LU 502959A LU 502959 B1 LU502959 B1 LU 502959B1
Authority
LU
Luxembourg
Prior art keywords
remote sensing
feature
pixel
different sources
image fusion
Prior art date
Application number
LU502959A
Other languages
English (en)
Inventor
Lingling Li
Xuezhuan Zhao
Original Assignee
Univ Zhengzhou Aeronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Univ Zhengzhou Aeronautics filed Critical Univ Zhengzhou Aeronautics
Application granted granted Critical
Publication of LU502959B1 publication Critical patent/LU502959B1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung ist auf das technische Gebiet der Bildfusion anwendbar und betrifft insbesondere ein Mehrquellen-Fernerkundungsbild-Fusionsverfahren und -system basierend auf tiefem Lernen, wobei das Verfahren umfasst: Alle Fernerkundungsbilder aus verschiedenen Quellen werden erfasst; Vorverarbeitung aller Fernerkundungsbilder aus verschiedenen Quellen wird durchgeführt, um die Positionsverteilung jedes Pixels zu zählen; Die Merkmalsbereiche werden gemäß der Positionsverteilung des Pixels unterteilt, um die regionalen Merkmale zu identifizieren; Die Fernerkundungsbilder aus verschiedenen Quellen werden gemäß den regionalen Merkmalen angepasst, um die Bildfusion zu vervollständigen. Eine Ausführungsform der vorliegenden Erfindung stellt ein Mehrquellen-Fernerkundungsbild-Fusionsverfahren basierend auf tiefem Lernen bereit, indem mehrere Sätze von Fernerkundungsbildern aus verschiedenen Quellen identifiziert bzw. die darin enthaltenen Merkmale bestimmt werden und dann die relative Positionsbeziehung zwischen jedem Merkmal und dem Formmerkmal der Merkmale selbst bestimmt wird, um die Anpassung zwischen Merkmalen in Fernerkundungsbildern aus verschiedenen Quellen schnell abzuschließen, was nicht nur die Genauigkeit der Merkmalserkennung gewährleistet, sondern auch die Effizienz der Merkmalsanpassung verbessert.

Description

BESCHREIBUNG 7502959 ein Mehrquellen-Fernerkundungsbild-Fusionsverfahren und -system basierend auf tiefem
Lernen
Technisches Gebiet
Die vorliegende Erfindung gehört zum technischen Gebiet der Bildfusion und betrifft insbesondere ein Mehrquellen-Fernerkundungsbild-Fusionsverfahren und -system basierend auf tiefem Lernen.
Hintergrundtechnik
Das tiefe Lernen ist eine Art maschinelles Lernen, und maschinelles Lernen ist die einzige
Möglichkeit, um künstliche Intelligenz zu realisieren. Das Konzept des tiefen Lernens stammt aus der Erforschung künstlicher neuronaler Netze: Ein mehrschichtiges Perzeptron mit mehreren versteckten Schichten ist eine tiefe Lernstruktur. Das tiefe Lernen bildet eine abstraktere
Darstellung von Attributkategorien oder -merkmalen auf hoher Ebene, indem Merkmale auf niedriger Ebene kombiniert werden, um verteilte Merkmalsdarstellungen von Daten zu finden.
Bei der Fernerkundung gehört die Datenfusion zu einer Art Attributfusion, bei der die
Fernerkundungsbilddaten aus mehreren Quellen in demselben Bereich intelligent synthetisiert werden, um genauere, vollständigere und zuverlässigere Schätzungen und Beurteilungen als eine einzelne Quelle zu erzielen. Seine Vorteile sind die Robustheit des Betriebs, die Verbesserung der räumlichen Auflösung und Klarheit von Bildern, die Verbesserung der Genauigkeit der
Ebenenkartierung, die Genauigkeit und -zuverlässigkeit der Klassifizierung, die Verbesserung der
Interpretations- und dynamischen Überwachungsfähigkeiten, die Verringerung von
Mehrdeutigkeiten und die effektive Verbesserung der Verwendung von Fernerkundungsbilddaten.
USW.
Bei dem gegenwärtigen Fusionsprozess von Mehrquellen-Fernerkundungsbildern stellt das
Bestimmen der Bildmerkmale die Voraussetzung zum Sicherstellen der Genauigkeit des
Fusionsbildes dar. Wenn die Merkmale im Stand der Technik identifiziert werden, ist die
Erkennungsgeschwindigkeit langsam, was zu einer geringen Fusionseffizienz führt.
Inhalt der Erfindung
. … . . . LU502959
Fine Aufgabe der Ausführungsform der vorliegenden Erfindung besteht darin, ein Mehrquellen-
Fernerkundungsbild-Fusionsverfahren basierend auf tiefem Lernen bereitzustellen, das darauf abzielt, das Problem zu lôsen, dass die Erkennungsgeschwindigkeit langsam ist und die
Fusionseffizienz gering ist, wenn Merkmale im Stand der Technik identifiziert werden.
Ausführungsformen der vorliegenden Erfindung sind so implementiert, dass ein Mehrquellen-
Fernerkundungsbild-Fusionsverfahren basierend auf tiefem Lernen implementiert ist, wobei das
Verfahren umfasst:
Alle Fernerkundungsbilder aus verschiedenen Quellen werden erfasst;
Vorverarbeitung aller Fernerkundungsbilder aus verschiedenen Quellen wird durchgeführt, um die
Positionsverteilung jedes Pixels zu zählen;
Die Merkmalsbereiche werden gemäß der Positionsverteilung des Pixels unterteilt, um die regionalen Merkmale zu identifizieren;
Die Fernerkundungsbilder aus verschiedenen Quellen werden gemäB den regionalen Merkmalen angepasst, um die Bildfusion zu vervollständigen.
Vorzugsweise umfasst der Schritt zum Vorverarbeiten aller Fernerkundungsbilder aus verschiedenen Quellen, um die Positionsverteilung jedes Pixels zu zählen, insbesondere:
Fine Graustufenverarbeitung an Fernerkundungsbildern verschiedener Quellen wird durchgeführt, um Graustufenbilder zu erhalten;
Fin Koordinatensystem wird eingerichtet, um die Koordinaten jedes Pixels gemäB der
Pixelposition zu bestimmen;
Der Grauwert ist bestimmt, der jedem Pixel entspricht.
Vorzugsweise umfasst der Schritt zum Unterteilen der Merkmalsbereiche gemäB der
Positionsverteilung des Pixels, um die regionalen Merkmale zu identifizieren, insbesondere:
Die Pixel wird eins nach dem anderen ausgewählt und als Referenzpixel genommmen, um die
Differenz zwischen dem Grauwert jedes anderen Pixels und dem Grauwert des Referenzpixels zu berechnen;
Fin verbundener Bereich, der aus Pixeln besteht, deren Differenz kleiner als der erste voreingestellte Wert ist, ist in einen Merkmalsbereich unterteilt, und die Dispersion der Pixel in dem Merkmalsbereich ist niedriger als der zweite voreingestellte Wert;
Die relative Position zwischen jedem Merkmalsbereich ist bestimmt, die Kontur des
Merkmalsbereichs wird bestimmt, um das Bereichsmerkmal zu erhalten.
Vorzugsweise umfasst der Schritt zum Anpassen der Fernerkundungsbilder aus verschiedenen
Quellen gemäß den regionalen Merkmalen, um die Bildfusion zu vervollständigen, insbesondere:
Die regionale Merkmale werden gemäß der Position jedes regionalen Merkmals in den entsprechenden Fernerkundungsbildern verschiedener Quellen klassifiziert;
Gemäß der entsprechenden Beziehung zwischen den regionalen Merkmalen derselben Klasse wird die Position von Fernerkundungsbildern verschiedener Quellen angepasst, um die Bildfusion zu vervollständigen.
Vorzugsweise werden die Fernerkundungsbilder aus verschiedenen Quellen vor der Bildfusion auf die gleiche Größe geschnitten.
Vorzugsweise gibt es regionale Merkmale, bei denen mindestens zwei Positionen zwischen
Fernerkundungsbildern aus verschiedenen Quellen zusammenfallen.
Eine weitere Aufgabe der Ausführungsform der vorliegenden Erfindung besteht darin, ein
Mehrquellen- Fernerkundungsbild-Fusionssystem basierend auf tiefem Lernen bereitzustellen, wobei das System umfasst: ein Bilderfassungsmodul, das verwendet wird, Fernerkundungsbilder aus verschiedenen Quellen zu erfassen; ein Pixelstatistikmodul, das verwendet wird, die Vorverarbeitung aller Fernerkundungsbilder aus verschiedenen Quellen durchzuführen und die Positionsverteilung jedes Pixels zu zählen; ein Merkmalserkennungsmodul, das verwendet wird, die Merkmalsbereiche gemäß der
Positionsverteilung des Pixels zu teilen und die regionalen Merkmale zu identifizieren; ein Bildfusionsmodul, das verwendet wird, die Fernerkundungsbilder aus verschiedenen Quellen gemäß den regionalen Merkmalen anzupassen und die Bildfusion zu vervollständigen.
. . . L 2
Vorzugsweise umfasst das Pixelstatistikmodul: U502959 eine Bildvorverarbeitungszelle, die verwendet wird, eine Graustufenverarbeitung an
Fernerkundungsbildern verschiedener Quellen durchzuführen, um Graustufenbilder zu erhalten; eine Koordinatenerkennungszelle, die verwendet wird, ein Koordinatensystem einzurichten, um die Koordinaten jedes Pixels gemäß der Pixelposition zu bestimmen; eine Grauwertbestimmungszelle, die verwendet wird, den Grauwert, der jedem Pixel entspricht, zu bestimmen.
Vorzugsweise umfasst das Merkmalserkennungsmodul: eine Grauwertberechnungszelle, die verwendet wird, die Pixel eins nach dem anderen auszuwählen und sie als Referenzpixel zu nehmen, um die Differenz zwischen dem Grauwert jedes anderen Pixels und dem Grauwert des Referenzpixels zu berechnen; eine Bereichsmerkmal-Unterteilungszelle, die verwendet wird, den verbundenen Bereich, der aus
Pixel besteht, deren Differenz kleiner als der erste voreingestellte Wert ist, in den
Merkmalsbereich zu teilen, wobei die Dispersion der Pixel in dem Merkmalsbereich niedriger als der zweite voreingestellte Wert ist; eine Merkmalserzeugungszelle, die verwendet wird, die relative Position zwischen jedem
Merkmalsbereich zu bestimmen und die Kontur des Merkmalsbereichs zu bestimmen, um das
Bereichsmerkmal zu erhalten.
Vorzugsweise umfasst das Bildfusionsmodul: eine Merkmalsklassifizierungszelle, die verwendet wird, regionale Merkmale gemäß der Position jedes regionalen Merkmals in den entsprechenden Fernerkundungsbildern verschiedener Quellen zu klassifizieren; eine Positionierungsfusionszelle, die verwendet wird, die Position von Fernerkundungsbildern verschiedener Quellen gemäB der entsprechenden Beziehung zwischen den regionalen Merkmalen derselben Klasse anzupassen, um die Bildfusion zu vervollständigen.
Fine Ausführungsform der vorliegenden Erfindung stellt ein Mehrquellen-Fernerkundungsbild-
Fusionsverfahren basierend auf tiefem Lernen bereit, indem mehrere Sätze von
. . . ce . . LU502959
Fernerkundungsbildern aus verschiedenen Quellen identifiziert bzw. die darin enthaltenen
Merkmale bestimmt werden und dann die relative Positionsbeziehung zwischen jedem Merkmal und dem Formmerkmal der Merkmale selbst bestimmt wird, um die Anpassung zwischen
Merkmalen in Fernerkundungsbildern aus verschiedenen Quellen schnell abzuschließen, was nicht nur die Genauigkeit der Merkmalserkennung gewährleistet, sondern auch die Effizienz der
Merkmalsanpassung verbessert.
Beschreibung der Figuren
Fig.1 ist ein Flussdiagramm eines Mehrquellen-Fernerkundungsbild-Fusionsverfahrens basierend auf tiefem Lernen, das durch die Ausführungsform der vorliegenden Erfindung bereitgestellt wird;
Fig. 2 ist ein Flussdiagramm des Schritts zum Vorverarbeiten aller Fernerkundungsbilder aus verschiedenen Quellen, um die Positionsverteilung jedes Pixels zu zählen, der durch die
Ausführungsform der vorliegenden Erfindung bereitgestellt wird;
Fig. 3 ist ein Flussdiagramm des Schritts zum Unterteilen der Merkmalsbereiche gemäß der
Positionsverteilung des Pixels, um die regionalen Merkmale zu identifizieren, der durch die
Ausführungsform der vorliegenden Erfindung bereitgestellt wird;
Fig. 4 ist ein Flussdiagramm des Schritts zum Anpassen der Fernerkundungsbilder aus verschiedenen Quellen gemäß den regionalen Merkmalen, um die Bildfusion zu vervollständigen, der durch die Ausführungsform der vorliegenden Erfindung bereitgestellt wird;
Fig.5 ist ein Architekturdiagramm eines Mehrquellen-Fernerkundungsbild-Fusionssystems basierend auf tiefem Lernen, das durch die Ausführungsform der vorliegenden Erfindung bereitgestellt wird;
Fig.6 ist ein Architekturdiagramm eines Pixelstatistikmoduls, das durch die Ausführungsform der vorliegenden Erfindung bereitgestellt wird;
Fig.7 ist ein Architekturdiagramm eines Merkmalserkennungsmoduls, das durch die
Ausführungsform der vorliegenden Erfindung bereitgestellt wird;
Fig.8 ist ein Architekturdiagramm eines Bildfusionsmoduls, das durch die Ausführungsform der vorliegenden Erfindung bereitgestellt wird;
Spezifische Ausführungsform LU502959
Um den Zweck, die technische Lösung und die Vorteile der Erfindung deutlicher zu machen, wird die Erfindung im Folgenden in Kombination mit den beigefügten Figuren und
Ausführungsbeispielen näher beschrieben. Es versteht sich, dass die hierin beschriebenen spezifischen Ausführungsbeispiele nur dazu dienen, die Erfindung zu erklären und nicht dazu dienen, die Erfindung einzuschränken.
Es versteht sich, dass die in der vorliegenden Anmeldung verwendeten Begriffe "erster", "zweiter" usw. hier verwendet werden können, um verschiedene Elemente zu beschreiben, aber diese
Elemente sind nicht durch diese Begriffe beschränkt, sofern nicht ausdrücklich angegeben. Diese
Begriffe werden nur verwendet, um das erste Element von dem anderen Element zu unterscheiden.
Zum Beispiel kann das erste xx-Skript als das zweite xx-Skript bezeichnet werden, ohne vom
Anwendungsbereich der vorliegenden Anwendung abzuweichen, und in ähnlicher Weise kann das zweite xx-Skript als das erste xx-Skript bezeichnet werden.
Bei der Fernerkundung gehört die Datenfusion zu einer Art Attributfusion, bei der die
Fernerkundungsbilddaten aus mehreren Quellen in demselben Bereich intelligent synthetisiert werden, um genauere, vollständigere und zuverlässigere Schätzungen und Beurteilungen als eine einzelne Quelle zu erzielen. Seine Vorteile sind die Robustheit des Betriebs, die Verbesserung der räumlichen Auflösung und Klarheit von Bildern, die Verbesserung der Genauigkeit der
Ebenenkartierung, die Genauigkeit und -zuverlässigkeit der Klassifizierung, die Verbesserung der
Interpretations- und dynamischen Überwachungsfähigkeiten, die Verringerung von
Mehrdeutigkeiten und die effektive Verbesserung der Verwendung von Fernerkundungsbilddaten. usw. Bei dem gegenwärtigen Fusionsprozess von Mehrquellen-Fernerkundungsbildern stellt das
Bestimmen der Bildmerkmale die Voraussetzung zum Sicherstellen der Genauigkeit des
Fusionsbildes dar. Wenn die Merkmale im Stand der Technik identifiziert werden, ist die
Erkennungsgeschwindigkeit langsam, was zu einer geringen Fusionseffizienz führt.
In der vorliegenden Erfindung, durch Identifizieren mehrerer Sätze von Fernerkundungsbildern aus verschiedenen Quellen werden die darin enthaltenen Merkmale bestimmt und dann die relative
Positionsbeziehung zwischen jedem Merkmal und dem Formmerkmal der Merkmale selbst bestimmt wird, um die Anpassung zwischen Merkmalen in verschiedenen
Quellenfernerkundungsbildern schnell abzuschließen, was nicht nur die Genauigkeit der 502959
Merkmalserkennung gewährleistet, sondern auch die Effizienz der Merkmalsanpassung verbessert.
Wie in Figl gezeigt, ein Flussdiagramm eines Mehrquellen-Fernerkundungsbild-
Fusionsverfahrens basierend auf tiefem Lernen, das durch die Ausführungsform der vorliegenden
Erfindung bereitgestellt wird, wobei das Verfahren umfasst:
S100, alle Fernerkundungsbilder aus verschiedenen Quellen werden erfasst.
In diesem Schritt werden alle Fernerkundungsbilder aus unterschiedlichen Quellen erfasst. Das
Fernerkundungsbild kann ein multitemporales Bild, ein multispektrales Bild, ein Multisensorbild und ein Multiplattformbild desselben Gebiets sein. Nachdem das obige Fernerkundungsbild verschmolzen ist, wird ein zuverlässigeres Fernerkundungsbild erhalten.
S 200, Vorverarbeitung aller Fernerkundungsbilder aus verschiedenen Quellen wird durchgeführt, um die Positionsverteilung jedes Pixels zu zählen.
In diesem Schritt, Vorverarbeitung aller Fernerkundungsbilder aus verschiedenen Quellen wird durchgeführt, wobei die Vorverarbeitung mindestens eine Graustufenverarbeitung umfasst, die durch eine Graustufenverarbeitung in ein Graustufenbild umgewandelt wird, wodurch die
Datenverarbeitungsmenge reduziert wird, und dann wird jedes Pixel analysiert, um den Grauwert jedes Pixels zu bestimmen, und die Koordinaten jedes Pixels können durch Konstruieren eines
Koordinatensystems bestimmt werden, so dass die Positionsverteilung jedes Pixels erhalten werden kann.
S 300, die Merkmalsbereiche werden gemäß der Positionsverteilung des Pixels unterteilt, um die regionalen Merkmale zu identifizieren.
In diesem Schritt wird der Merkmalsbereich gemäß der Positionsverteilung der Pixelpunkte unterteilt, und die Pixelpunkte werden gemäß dem Grauwert jedes Pixelpunkts unterteilt. Die
Grauwertdifferenz ist kleiner als der voreingestellte Wert und benachbarte Pixel bilden zusammen einen verbundenen Merkmalsbereich. Wenn eine Reihe von Gebäuden in dem Fernerkundungsbild vorhanden ist, hat das Fernerkundungsbild einen positiven Bereich mit den gleichen Pixeln, und durch Analysieren der Pixel kann der entsprechende Merkmalsbereich bestimmt werden, und das
. “ . “ . . LU502959
Bild, das dem Gebäude entspricht, kann gemäß dem Merkmalsbereich bestimmt werden, dh das
Bereichsmerkmal...
S 400, die Fernerkundungsbilder aus verschiedenen Quellen werden gemäß den regionalen
Merkmalen angepasst, um die Bildfusion zu vervollständigen.
In diesem Schritt, werden die Fernerkundungsbilder verschiedener Quellen gemäß regionalen
Merkmalen angepasst, Aufgrund des Vorhandenseins mehrerer Fernerkundungsbilder aus verschiedenen Quellen, wird es in jedem Fernerkundungsbild entsprechende regionale Merkmale geben, zum Beispiel gibt es fiir dasselbe Gebäude entsprechende regionale Merkmale in verschiedenen Fernerkundungsbildern, und dann wird die Positionsbeziehung zwischen
Fernerkundungsbildern gemäß der Positionsbeziehung zwischen regionalen Merkmalen in verschiedenen Fernerkundungsbildern eingestellt, und dann wird eine Fusionsverarbeitung durchgefiihrt, um ein Fusionsbild zu erhalten.
Wie in Fig. 2 gezeigt, als eine bevorzugte Ausführungsform der vorliegenden Erfindung, umfasst der Schritt zum Vorverarbeiten aller Fernerkundungsbilder aus verschiedenen Quellen, um die
Positionsverteilung jedes Pixels zu zählen, insbesondere:
S 201, eine Graustufenverarbeitung an Fernerkundungsbildern verschiedener Quellen wird durchgeführt, um Graustufenbilder zu erhalten.
In diesem Schritt wird die Graustufenverarbeitung an den Fernerkundungsbildern verschiedener
Quellen durchgefiihrt, damit die Farbe jedes Pixels durch den Grauwert verkorpert wird, und die
Datenverarbeitungsmenge wird durch das Graustufenverarbeitungsbild stark reduziert, und die
Datenverarbeitungsgeschwindigkeit wird verbessert.
S 202, ein Koordinatensystem wird eingerichtet, um die Koordinaten jedes Pixels gemäß der
Pixelposition zu bestimmen.
S 203, der Grauwert ist bestimmt, der jedem Pixel entspricht.
In diesem Schritt wird ein Koordinatensystem erstellt und ein Koordinatensystem mit einem beliebigen Pixel als Ursprung konstruiert, dadurch die Koordinaten jedes Pixels bestimmt werden, sowohl die horizontale als auch die vertikale Achse der Koordinate sind ganze Zahlen, ein
Fernerkundungsbild von 1000 Pixeln * 1000 Pixeln weist eine Breite von 1000 Pixeln und eine
Höhe von 1000 Pixeln auf, die Koordinaten der ersten Reihe von Pixeln der ersten Spalte sing 502959 (0,0), und die Pixelkoordinaten auf der letzten Spalte der letzten Reihe sind (1000, 1000), wobei jedes Pixel entsprechende Koordinaten aufweist, wodurch der Grauwert jedes Pixels bestimmt wird.
Wie in Fig. 3 gezeigt, als eine bevorzugte Ausfithrungsform der vorliegenden Erfindung umfasst der Schritt zum Unterteilen der Merkmalsbereiche gemäß der Positionsverteilung des Pixels, um die regionalen Merkmale zu identifizieren, insbesondere:
S 301, die Pixel wird eins nach dem anderen ausgewählt und als Referenzpixel genommmen, um die Differenz zwischen dem Grauwert jedes anderen Pixels und dem Grauwert des Referenzpixels zu berechnen.
In diesem Schritt werden die Pixel eins nach dem anderen ausgewählt, und die Auswahl erfolgt gemäß den Pixelkoordinaten. Als Referenzpixel wird das Referenzpixel unter Bezugnahme auf die
Pixel durchlaufen alle Pixel in einer Gruppe von Fernerkundungsbildern durchlaufen, nachdem ein beliebiges Pixel ausgewählt wird, wird die Differenz zwischen dem Grauwert zwischen dem
Pixel und allen anderen Pixeln berechnet.
S 302, ein verbundener Bereich, der aus Pixeln besteht, deren Differenz kleiner als der erste voreingestellte Wert ist, ist in einen Merkmalsbereich unterteilt, und die Dispersion der Pixel in dem Merkmalsbereich ist niedriger als der zweite voreingestellte Wert;
In diesem Schritt, der verbundene Bereich, der aus Pixeln besteht, deren Differenz kleiner als der erste voreingestellte Wert ist, wird in Merkmalsbereiche unterteilt, alle Pixel mit einer Differenz kleiner als der erste voreingestellte Wert werden gezählt, die Bereichsaufteilung wird entsprechend der Verbindungsbeziehung zwischen den Pixeln durchgeführt, um mehrere Merkmalsbereiche durch Unterteilen zu erhalten, und die Dispersion der Pixel in dem Merkmalsbereich wird berechnet, die durch Standardabweichung charakterisiert wird, das heißt, die Standardabweichung der Pixel in dem Merkmalsbereich wird berechnet, und die Standardabweichung ist niedriger als der zweite voreingestellte Wert, der als Merkmalsbereich verwendet werden kann. Wenn die
Anzahl der Pixel in dem Merkmalsbereich niedriger als der voreingestellte Schwellenwert ist, wird sie verworfen.
S 303, die relative Position zwischen jedem Merkmalsbereich ist bestimmt, die Kontur dss 502959
Merkmalsbereichs wird bestimmt, um das Bereichsmerkmal zu erhalten.
In diesem Schritt, die relative Position zwischen den einzelnen Merkmalsbereichen wird bestimmt, insbesondere wird jeder Merkmalsbereich markiert, wenn es zB drei Sätzen von
Fernerkundungsbildern gibt, also A, B und C, enthalten die drei Sätzen von
Fernerkundungsbildern jeweils drei Sätzen von Merkmalsbereichen, die jeweils mit A1, A2 und
A3, B1, B2 und B3, C1, C2 und C3 markiert sind, der Mittelpunkt jedes Merkmalsbereichs wird berechnet und die Mittelpunkte, die allen Merkmalsbereichen in demselben Fernerkundungsbild entsprechen, mit einem Liniensegment verbunden sind, um ein
Merkmalsflachenverbindungsdiagramm zu erhalten, und das
Merkmalsbereichsverbindungsdiagramm, das verschiedenen Fernerkundungsbildern entspricht, fällt durch Drehen und/oder Skalieren des Merkmalsbereichsverbindungsdiagramms zusammen.
Zu diesem Zeitpunkt fallen verschiedene Merkmalsbereiche miteinander zusammen, und die zusammenfallenden Merkmalsbereiche entsprechen einander, um die Kontur des
Merkmalsbereichs zu bestimmen und regionale Merkmale zu erhalten.
Wie in Fig. 4 gezeigt, als eine bevorzugte Ausführungsform der vorliegenden Erfindung, umfasst der Schritt zum Anpassen der Fernerkundungsbilder aus verschiedenen Quellen gemäß den regionalen Merkmalen, um die Bildfusion zu vervollständigen, insbesondere:
S 401, die regionale Merkmale werden gemäß der Position jedes regionalen Merkmals in den entsprechenden Fernerkundungsbildern verschiedener Quellen klassifiziert.
S 402, gemäß der entsprechenden Beziehung zwischen den regionalen Merkmalen derselben
Klasse wird die Position von Fernerkundungsbildern verschiedener Quellen angepasst, um die
Bildfusion zu vervollständigen.
In diesem Schritt werden die regionalen Merkmale klassifiziert, insbesondere werden die überlappenden regionalen Merkmale auf verschiedenen Fernerkundungsbildern als die gleiche
Klassifizierung genommen, und durch Skalierung fällt die gleiche Art von regionalen Merkmalen auf verschiedenen Fernerkundungsbildern miteinander zusammen, so dass die Vielzahl von
Fernerkundungsbilder vollständig zusammenfällt und die Fernerkundungsbilder verschiedener
Quellen auf die gleiche Größe beschnitten werden, zu diesem Zeitpunkt kann die
Fusionsverarbeitung direkt durchgeführt werden, um ein Fusionsbild zu erhalten;Es gibt regionaté 502959
Merkmale, bei denen mindestens zwei Positionen zwischen Fernerkundungsbildern aus verschiedenen Quellen zusammenfallen.
Wie in Fig. 5 gezeigt, ein Mehrquellen-Fernerkundungsbild-Fusionssystem basierend auf tiefem
Lernen, das für Ausführungsformen der vorliegenden Erfindung bereitgestellt wird, wobei das
System umfasst: ein Bilderfassungsmodul 100, das verwendet wird, Fernerkundungsbilder aus verschiedenen
Quellen zu erfassen.
In diesem System erfasst das Bilderfassungsmodul 100 alle Fernerkundungsbilder aus verschiedenen Quellen, wobei das Fernerkundungsbild ein multitemporales Bild, ein multispektrales Bild, ein Multisensorbild und ein Multiplattformbild desselben Gebiets sein kann.
Nachdem das obige Fernerkundungsbild verschmolzen ist, wird ein zuverlässigeres
Fernerkundungsbild erhalten. ein Pixelstatistikmodul 200, das verwendet wird, die Vorverarbeitung aller Fernerkundungsbilder aus verschiedenen Quellen durchzuführen und die Positionsverteilung jedes Pixels zu zählen.
In diesem System verarbeitet das Pixelstatistikmodul 200 alle Fernerkundungsbilder verschiedener
Quellen vor, wobei die Vorverarbeitung mindestens eine Graustufenverarbeitung umfasst, die durch eine Graustufenverarbeitung in ein Graustufenbild umgewandelt wird, wodurch die
Datenverarbeitungsmenge reduziert wird, und dann wird jedes Pixel analysiert, um den Grauwert jedes Pixels zu bestimmen, und die Koordinaten jedes Pixels können durch Konstruieren eines
Koordinatensystems bestimmt werden, so dass die Positionsverteilung jedes Pixels erhalten werden kann. ein Merkmalserkennungsmodul 300, das verwendet wird, die Merkmalsbereiche gemäß der
Positionsverteilung des Pixels zu teilen und die regionalen Merkmale zu identifizieren.
In diesem System teilt das Merkmalserkennungsmodul 300 Merkmalsbereiche gemäß der
Positionsverteilung von Pixeln auf, und die Pixelpunkte werden gemäß dem Grauwert jedes
Pixelpunkts unterteilt. Die Grauwertdifferenz ist kleiner als der voreingestellte Wert und benachbarte Pixel bilden zusammen einen verbundenen Merkmalsbereich. Wenn eine Reihe von
N . . . . . ... LU502959
Gebäuden in dem Fernerkundungsbild vorhanden ist, hat das Fernerkundungsbild einen positiven
Bereich mit den gleichen Pixeln, und durch Analysieren der Pixel kann der entsprechende
Merkmalsbereich bestimmt werden, und das Bild, das dem Gebäude entspricht, kann gemäß dem
Merkmalsbereich bestimmt werden, dh das Bereichsmerkmal.. ein Bildfusionsmodul 400, das verwendet wird, die Fernerkundungsbilder aus verschiedenen
Quellen gemäß den regionalen Merkmalen anzupassen und die Bildfusion zu vervollständigen.
In diesem System passt das Bildfusionsmodul 400 Fernerkundungsbilder verschiedener Quellen gemäß regionalen Merkmalen an, Aufgrund des Vorhandenseins mehrerer Fernerkundungsbilder aus verschiedenen Quellen, wird es in jedem Fernerkundungsbild entsprechende regionale
Merkmale geben, zum Beispiel gibt es für dasselbe Gebäude entsprechende regionale Merkmale in verschiedenen Fernerkundungsbildern, und dann wird die Positionsbeziehung zwischen
Fernerkundungsbildern gemäß der Positionsbeziehung zwischen regionalen Merkmalen in verschiedenen Fernerkundungsbildern eingestellt, und dann wird eine Fusionsverarbeitung durchgeführt, um ein Fusionsbild zu erhalten.
Wie in Fig. 6 gezeigt, umfasst das Pixelstatistikmodul 200 als eine bevorzugte Ausführungsform der vorliegenden Erfindung: eine Bildvorverarbeitungszelle 201, die verwendet wird, eine Graustufenverarbeitung an
Fernerkundungsbildern verschiedener Quellen durchzuführen, um Graustufenbilder zu erhalten.
In diesem Modul führt die Bildvorverarbeitungseinheit 201 eine Graustufenverarbeitung an
Fernerkundungsbildern verschiedener Quellen durch, damit die Farbe jedes Pixels durch den
Grauwert verkörpert wird, und die Datenverarbeitungsmenge wird durch das
Graustufenverarbeitungsbild stark reduziert, und die Datenverarbeitungsgeschwindigkeit wird verbessert. eine Koordinatenerkennungszelle 202, die verwendet wird, ein Koordinatensystem einzurichten, um die Koordinaten jedes Pixels gemäß der Pixelposition zu bestimmen. eine Grauwertbestimmungszelle 203, die verwendet wird, den Grauwert, der jedem Pixel entspricht, zu bestimmen.
In diesem Modul wird ein Koordinatensystem erstellt und ein Koordinatensystem mit eineht 902959 beliebigen Pixel als Ursprung konstruiert, dadurch die Koordinaten jedes Pixels bestimmt werden, sowohl die horizontale als auch die vertikale Achse der Koordinate sind ganze Zahlen, ein
Fernerkundungsbild von 1000 Pixeln * 1000 Pixeln weist eine Breite von 1000 Pixeln und eine
Höhe von 1000 Pixeln auf, die Koordinaten der ersten Reihe von Pixeln der ersten Spalte sind (0,0), und die Pixelkoordinaten auf der letzten Spalte der letzten Reihe sind (1000, 1000), wobei jedes Pixel entsprechende Koordinaten aufweist, wodurch der Grauwert jedes Pixels bestimmt wird.
Wie in Fig. 7 gezeigt, umfasst das Merkmalserkennungsmodul 300 als eine bevorzugte
Ausführungsform der vorliegenden Erfindung: eine Grauwertberechnungszelle 301, die verwendet wird, die Pixel eins nach dem anderen auszuwählen und sie als Referenzpixel zu nehmen, um die Differenz zwischen dem Grauwert jedes anderen Pixels und dem Grauwert des Referenzpixels zu berechnen.
In diesem Modul wählt die Grauwertberechnungseinheit 301 Pixel eins nach dem anderen aus, und die Auswahl erfolgt gemäß den Pixelkoordinaten. Als Referenzpixel wird das Referenzpixel unter Bezugnahme auf die Pixel durchlaufen alle Pixel in einer Gruppe von Fernerkundungsbildern durchlaufen, nachdem ein beliebiges Pixel ausgewählt wird, wird die Differenz zwischen dem
Grauwert zwischen dem Pixel und allen anderen Pixeln berechnet. eine Bereichsmerkmal-Unterteilungszelle 302, die verwendet wird, den verbundenen Bereich, der aus Pixel besteht, deren Differenz kleiner als der erste voreingestellte Wert ist, in den
Merkmalsbereich zu teilen, wobei die Dispersion der Pixel in dem Merkmalsbereich niedriger als der zweite voreingestellte Wert ist.
In diesem Modul teilt die Bereichsmerkmal-Unterteilungszelle 302 den verbundenen Bereich, der aus Pixeln besteht, deren Differenz kleiner als der erste voreingestellte Wert ist, in
Merkmalsbereiche auf, alle Pixel mit einer Differenz kleiner als der erste voreingestellte Wert werden gezählt, die Bereichsaufteilung wird entsprechend der Verbindungsbeziehung zwischen den Pixeln durchgeführt, um mehrere Merkmalsbereiche durch Unterteilen zu erhalten, und die
Dispersion der Pixel in dem Merkmalsbereich wird berechnet, die durch Standardabweichung charakterisiert wird, das heißt, die Standardabweichung der Pixel in dem Merkmalsbereich wird berechnet, und die Standardabweichung ist niedriger als der zweite voreingestellte Wert, der ars 502959
Merkmalsbereich verwendet werden kann. Wenn die Anzahl der Pixel in dem Merkmalsbereich niedriger als der voreingestellte Schwellenwert ist, wird sie verworfen. eine Merkmalserzeugungszelle 303, die verwendet wird, die relative Position zwischen jedem
Merkmalsbereich zu bestimmen und die Kontur des Merkmalsbereichs zu bestimmen, um das
Bereichsmerkmal zu erhalten.
In diesem Modul bestimmt die Merkmalserzeugungszelle 303 die relative Position zwischen den einzelnen Merkmalsbereichen und markiert insbesondere jeden Merkmalsbereich, wenn es z.B drei Sätzen von Fernerkundungsbildern gibt, also A, B und C, enthalten die drei Sätzen von
Fernerkundungsbildern jeweils drei Sätzen von Merkmalsbereichen, die jeweils mit Al, A2 und
A3, B1, B2 und B3, C1, C2 und C3 markiert sind, der Mittelpunkt jedes Merkmalsbereichs wird berechnet und die Mittelpunkte, die allen Merkmalsbereichen in demselben Fernerkundungsbild entsprechen, mit einem Liniensegment verbunden sind, um ein
Merkmalsflachenverbindungsdiagramm zu erhalten, und das
Merkmalsbereichsverbindungsdiagramm, das verschiedenen Fernerkundungsbildern entspricht, fällt durch Drehen und/oder Skalieren des Merkmalsbereichsverbindungsdiagramms zusammen.
Zu diesem Zeitpunkt fallen verschiedene Merkmalsbereiche miteinander zusammen, und die zusammenfallenden Merkmalsbereiche entsprechen einander, um die Kontur des
Merkmalsbereichs zu bestimmen und regionale Merkmale zu erhalten.
Wie in Fig. 8 gezeigt, umfasst das Bildfusionsmodul 400 als eine bevorzugte Ausführungsform der vorliegenden Erfindung: eine Merkmalsklassifizierungszelle 401, die verwendet wird, regionale Merkmale gemäß der
Position jedes regionalen Merkmals in den entsprechenden Fernerkundungsbildern verschiedener
Quellen zu klassifizieren. eine Positionierungsfusionszelle 402, die verwendet wird, die Position von Fernerkundungsbildern verschiedener Quellen gemäß der entsprechenden Beziehung zwischen den regionalen Merkmalen derselben Klasse anzupassen, um die Bildfusion zu vervollständigen.
. . . ire . LU502959
In diesem Modul werden die regionalen Merkmale klassifiziert, insbesondere werden die überlappenden regionalen Merkmale auf verschiedenen Fernerkundungsbildern als die gleiche
Klassifizierung genommen, und durch Skalierung fällt die gleiche Art von regionalen Merkmalen auf verschiedenen Fernerkundungsbildern miteinander zusammen, so dass die Vielzahl von
Fernerkundungsbilder vollständig zusammenfällt und die Fernerkundungsbilder verschiedener
Quellen auf die gleiche Größe beschnitten werden, zu diesem Zeitpunkt kann die
Fusionsverarbeitung direkt durchgeführt werden, um ein Fusionsbild zu erhalten;Es gibt regionale
Merkmale, bei denen mindestens zwei Positionen zwischen Fernerkundungsbildern aus verschiedenen Quellen zusammenfallen.
In einer Ausführungsform wird eine Computervorrichtung vorgeschlagen, wobei die
Computervorrichtung einen Speicher, einen Prozessor und ein Computerprogramm umfasst, das auf dem Speicher gespeichert ist und auf dem Prozessor ausgeführt werden kann, wobei der
Prozessor die folgenden Schritte implementiert, wenn das Computerprogramm ausgeführt wird:
Alle Fernerkundungsbilder aus verschiedenen Quellen werden erfasst;
Vorverarbeitung aller Fernerkundungsbilder aus verschiedenen Quellen wird durchgeführt, um die
Positionsverteilung jedes Pixels zu zählen;
Die Merkmalsbereiche werden gemäß der Positionsverteilung des Pixels unterteilt, um die regionalen Merkmale zu identifizieren;
Die Fernerkundungsbilder aus verschiedenen Quellen werden gemäß den regionalen Merkmalen angepasst, um die Bildfusion zu vervollständigen.
In einer Ausführungsform wird ein computerlesbares Speichermedium bereitgestellt, wobei das computerlesbare Speichermedium auf einem Computerprogramm gespeichert wird, und wenn das
Computerprogramm vom Prozessor ausgeführt wird, so dass der Prozessor die folgenden Schritte ausführt:
Alle Fernerkundungsbilder aus verschiedenen Quellen werden erfasst;
Vorverarbeitung aller Fernerkundungsbilder aus verschiedenen Quellen wird durchgeführt, um die
Positionsverteilung jedes Pixels zu zählen;
Die Merkmalsbereiche werden gemäß der Positionsverteilung des Pixels unterteilt, um did 502959 regionalen Merkmale zu identifizieren;
Die Fernerkundungsbilder aus verschiedenen Quellen werden gemäß den regionalen Merkmalen angepasst, um die Bildfusion zu vervollständigen.
Es sollte verstanden werden, dass, obwohl die Schritte in dem Flussdiagramm jeder
Ausführungsform der vorliegenden Erfindung sequentiell gemäß den Anweisungen des Pfeils angezeigt werden, diese Schritte nicht notwendigerweise in der durch den Pfeil angezeigten
Reihenfolge ausgeführt werden. Sofern in diesem Artikel nicht ausdrücklich angegeben, gibt es keine strengen sequentiellen Einschränkungen für die Ausführung dieser Schritte, und diese
Schritte können in anderer Reihenfolge ausgeführt werden.Darüber hinaus kann mindestens ein
Teil der Schritte in jeder Ausführungsform eine Vielzahl von Unterschritten oder Phasen umfassen, diese Unterschritte oder Phasen werden nicht notwendigerweise gleichzeitig ausgeführt, sondern können zu unterschiedlichen Zeiten ausgeführt werden, die Reihenfolge der Ausführung dieser Unterschritte oder Phasen ist nicht notwendigerweise sequentiell, sondern kann nacheinander oder abwechselnd mit anderen Schritten oder Unterschritten oder zumindest einem
Teil der Phase ausgeführt werden.
Die gewöhnliche Fachleute auf diesem Gebiet können verstehen, dass der gesamte oder ein Teil des Prozesses in dem Verfahren zum Implementieren der obigen Ausführungsform vervollständigt werden kann, indem die relevante Hardware durch ein Computerprogramm angewiesen werden, wobei das Programm in einem nichtflüchtigen computerlesbaren Speichermedium gespeichert werden kann, das Programm, wenn es ausgeführt wird, kann einen Prozess wie die
Ausführungsform jedes der obigen Verfahren umfassen. Unter diesen kann jeder Verweis auf einen
Speicher, einen Speicher, eine Datenbank oder ein anderes Medium, der in jeder der
Ausführungsformen verwendet wird, die durch die vorliegende Anmeldung bereitgestellt werden, einen nichtflüchtigen und/oder flüchtigen Speicher umfassen.Der nichtflüchtige Speicher kann einen Nur-Lese-Speicher (ROM), ein programmierbares ROM (PROM), ein elektrisch programmierbares ROM (EPROM), ein elektrisch löschbares programmierbares ROM (EEPROM) oder einen Flash-Speicher umfassen.Der flüchtige Speicher kann ein Random Access
Memory (RAM) oder einen externen Cachespeicher enthalten.Als Beschreibung und nicht als
Einschränkung ist RAM in verschiedenen Formen verfügbar, wie statischem RAM (SRAM) 902959 dynamischem RAM (DRAM), synchronem DRAM (SDRAM), Dual-Datenrate-SDRAM (DDRSDRAM), erweitertem SDRAM (ESDRAM), synchronem Link (SLDRAM), Speicherbus (Rambus) direktem RAM (RDRAM), direktem Speicherbus dynamischem RAM (DRDRAM) und
Speicherbus dynamischem RAM (RDRAM).
Die technischen Merkmale der obigen Ausführungsformen können beliebig kombiniert werden, und um die Beschreibung prägnant zu machen, werden nicht alle möglichen Kombinationen der verschiedenen technischen Merkmale in den obigen Ausführungsformen beschrieben, aber solange kein Widerspruch zwischen den technischen Kombinationen besteht, sollte sie als der
Umfang der vorliegenden Beschreibung angesehen werden.
Die oben genannten Ausführungsbeispiele stellen nur einige Ausführungsformen der vorliegenden
Erfindung dar, und deren Beschreibungen sind spezifisch und detailliert, sollten jedoch nicht als
Einschränkung des Umfangs des Patents der vorliegenden Erfindung verstanden werden.Es sollte darauf hingewiesen werden, dass für gewöhnliches technisches Personal auf dem Gebiet mehrere
Modifikationen und Verbesserungen vorgenommen werden können, die alle zum Schutzumfang der vorliegenden Erfindung gehören.Daher sollte der Schutzumfang dieses Patents der vorliegenden Erfindung den beigefügten Schutzansprüchen unterliegen.
Das Obige ist nur ein bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung und soll die
Erfindung nicht einschränken. Jegliche Modifikation, äquivalenter Ersatz und jede Verbesserung, die im Rahmen des Gedankens und der Prinzipien der Erfindung vorgenommen wird, soll im
Schutzumfang der Erfindung enthalten sein.

Claims (10)

PATENTANSPRÜCHE 7502959
1. Ein Multiquelle-Fernerkundungsbild-Fusionsverfahren basierend auf tiefem Lernen, dadurch gekennzeichnet, dass das Verfahren umfasst: Alle Fernerkundungsbilder aus verschiedenen Quellen werden erfasst; Vorverarbeitung aller Fernerkundungsbilder aus verschiedenen Quellen wird durchgeführt, um die Positionsverteilung jedes Pixels zu zählen; die Merkmalsbereiche werden gemäß der Positionsverteilung des Pixels unterteilt, um die regionalen Merkmale zu identifizieren; die Fernerkundungsbilder aus verschiedenen Quellen werden gemäß den regionalen Merkmalen angepasst, um die Bildfusion zu vervollständigen.
2. Ein Multiquelle-Fernerkundungsbild-Fusionsverfahren basierend auf tiefem Lernen nach Anspruch 1, dadurch gekennzeichnet, dass die Vorverarbeitung aller Fernerkundungsbilder aus verschiedenen Quellen durchgeführt wird, um die Schritte der Positionsverteilung jedes Pixels zu zählen, insbesondere umfasst: eine Graustufenverarbeitung an Fernerkundungsbildern verschiedener Quellen wird durchgeführt, um Graustufenbilder zu erhalten; ein Koordinatensystem wird eingerichtet, um die Koordinaten jedes Pixels gemäß der Pixelposition zu bestimmen; der Grauwert ist bestimmt, der jedem Pixel entspricht.
3. Ein Multiquelle-Fernerkundungsbild-Fusionsverfahren basierend auf tiefem Lernen nach Anspruch 1, dadurch gekennzeichnet, dass die Merkmalsbereiche gemäß der Positionsverteilung des Pixels unterteilt werden und die Schritte zum Erhalten des regionalen Merkmals identifiziert werden, insbesondere umfasst: die Pixel wird eins nach dem anderen ausgewählt und als Referenzpixel genommmen, um die Differenz zwischen dem Grauwert jedes anderen Pixels und dem Grauwert des Referenzpixels zu berechnen;
ein verbundener Bereich, der aus Pixeln besteht, deren Differenz kleiner als der ordi 502959 voreingestellte Wert ist, ist in einen Merkmalsbereich unterteilt, und die Dispersion der Pixel in dem Merkmalsbereich ist niedriger als der zweite voreingestellte Wert; die relative Position zwischen jedem Merkmalsbereich ist bestimmt, die Kontur des Merkmalsbereichs wird bestimmt, um das Bereichsmerkmal zu erhalten.
4. Ein Multiquelle-Fernerkundungsbild-Fusionsverfahren basierend auf tiefem Lernen nach Anspruch 1, dadurch gekennzeichnet, dass die Fernerkundungsbilder aus verschiedenen Quellen gemäß den regionalen Merkmalen angepasst werden, um die Schritte der Bildfusion zu vervollständigen, insbesondere umfasst: die regionale Merkmale werden gemäß der Position jedes regionalen Merkmals in den entsprechenden Fernerkundungsbildern verschiedener Quellen klassifiziert; Gemäß der entsprechenden Beziehung zwischen den regionalen Merkmalen derselben Klasse wird die Position von Fernerkundungsbildern verschiedener Quellen angepasst, um die Bildfusion zu vervollständigen.
5. Ein Multiquelle-Fernerkundungsbild-Fusionsverfahren basierend auf tiefem Lernen nach Anspruch 4, dadurch gekennzeichnet, dass Fernerkundungsbilder aus verschiedenen Quellen vor der Bildfusion auf die gleiche Größe geschnitten werden.
6. Ein Multiquelle-Fernerkundungsbild-Fusionsverfahren basierend auf tiefem Lernen nach Anspruch 4, dadurch gekennzeichnet, dass es regionale Merkmale gibt, bei denen mindestens zwei Positionen zwischen Fernerkundungsbildern verschiedener Quellen zusammenfallen.
7. Ein Multiquelle-Fernerkundungsbild-Fusionssystem basierend auf tiefem Lernen, dadurch gekennzeichnet, dass das System umfasst: ein Bilderfassungsmodul, das verwendet wird, Fernerkundungsbilder aus verschiedenen Quellen zu erfassen; ein Pixelstatistikmodul, das verwendet wird, die Vorverarbeitung aller Fernerkundungsbilder aus verschiedenen Quellen durchzuführen und die Positionsverteilung jedes Pixels zu zählen;
. . . . N LU502959 ein Merkmalserkennungsmodul, das verwendet wird, die Merkmalsbereiche gemäß der Positionsverteilung des Pixels zu teilen und die regionalen Merkmale zu identifizieren; ein Bildfusionsmodul, das verwendet wird, die Fernerkundungsbilder aus verschiedenen Quellen gemäß den regionalen Merkmalen anzupassen und die Bildfusion zu vervollständigen.
8. Ein Multiquelle-Fernerkundungsbild-Fusionssystem basierend auf tiefem Lernen nach Anspruch 7, dadurch gekennzeichnet, dass das Pixelstatistikmodul umfasst: eine Bildvorverarbeitungszelle, die verwendet wird, eine Graustufenverarbeitung an Fernerkundungsbildern verschiedener Quellen durchzuführen, um Graustufenbilder zu erhalten; eine Koordinatenerkennungszelle, die verwendet wird, ein Koordinatensystem einzurichten, um die Koordinaten jedes Pixels gemäß der Pixelposition zu bestimmen; eine Grauwertbestimmungszelle, die verwendet wird, den Grauwert, der jedem Pixel entspricht, zu bestimmen.
9. Ein Multiquelle-Fernerkundungsbild-Fusionssystem basierend auf tiefem Lernen nach Anspruch 7, dadurch gekennzeichnet, dass das Merkmalserkennungsmodul umfasst: eine Grauwertberechnungszelle, die verwendet wird, die Pixel eins nach dem anderen auszuwählen und sie als Referenzpixel zu nehmen, um die Differenz zwischen dem Grauwert jedes anderen Pixels und dem Grauwert des Referenzpixels zu berechnen; eine Bereichsmerkmal-Unterteilungszelle, die verwendet wird, den verbundenen Bereich, der aus Pixel besteht, deren Differenz kleiner als der erste voreingestellte Wert ist, in den Merkmalsbereich zu teilen, wobei die Dispersion der Pixel in dem Merkmalsbereich niedriger als der zweite voreingestellte Wert ist; eine Merkmalserzeugungszelle, die verwendet wird, die relative Position zwischen jedem Merkmalsbereich zu bestimmen und die Kontur des Merkmalsbereichs zu bestimmen, um das Bereichsmerkmal zu erhalten.
10. Ein Multiquelle-Fernerkundungsbild-Fusionssystem basierend auf tiefem Lernen nach Anspruch 7, dadurch gekennzeichnet, dass das Bildfusionsmodul umfasst:
eine Merkmalsklassifizierungszelle, die verwendet wird, regionale Merkmale gemäß der Positioir 502959 jedes regionalen Merkmals in den entsprechenden Fernerkundungsbildern verschiedener Quellen zu klassifizieren; eine Positionierungsfusionszelle, die verwendet wird, die Position von Fernerkundungsbildern verschiedener Quellen gemäß der entsprechenden Beziehung zwischen den regionalen Merkmalen derselben Klasse anzupassen, um die Bildfusion zu vervollständigen.
LU502959A 2022-07-26 2022-10-26 ein Mehrquellen-Fernerkundungsbild-Fusionsverfahren und -system basierend auf tiefem Lernen LU502959B1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210880890.4A CN115187867A (zh) 2022-07-26 2022-07-26 一种基于深度学习的多源遥感图像融合方法和系统

Publications (1)

Publication Number Publication Date
LU502959B1 true LU502959B1 (de) 2023-04-27

Family

ID=83521872

Family Applications (1)

Application Number Title Priority Date Filing Date
LU502959A LU502959B1 (de) 2022-07-26 2022-10-26 ein Mehrquellen-Fernerkundungsbild-Fusionsverfahren und -system basierend auf tiefem Lernen

Country Status (2)

Country Link
CN (1) CN115187867A (de)
LU (1) LU502959B1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116342449B (zh) * 2023-03-29 2024-01-16 银河航天(北京)网络技术有限公司 图像增强方法、装置以及存储介质

Also Published As

Publication number Publication date
CN115187867A (zh) 2022-10-14

Similar Documents

Publication Publication Date Title
DE3689049T2 (de) Selbstanpassender Prozessor.
DE19521346C2 (de) Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafür
DE102015207676B4 (de) Verfahren und Vorrichtung zur Hinderniserkennung auf Basis einer monokularen Kamera
DE60307583T2 (de) Auswertung der Schärfe eines Bildes der Iris eines Auges
DE102015121339B4 (de) Systeme und verfahren zum ermitteln eines zustands einer fahrbahn
WO2017032775A1 (de) Aktives maschinelles lernen zum trainieren eines ereigniskalssifiaktors
DE4444593C2 (de) Entfernungsmeßvorrichtung
DE69322095T2 (de) Verfahren und gerät zur identifizierung eines objekts mittels eine geordneten folge von grenz-pixel-parametern
DE102006057552A1 (de) System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs
DE102008056600A1 (de) Verfahren und Vorrichtung zum Erkennen von Objekten
DE2050941A1 (de) Verfahren und Vorrichtung zur Klassi fikation unbekannter Muster auf Grund von Bildmerkmalen
DE102019127282A1 (de) System und Verfahren zum Analysieren einer dreidimensionalen Umgebung durch tiefes Lernen
EP2787485B1 (de) Verfahren und Vorrichtung zur automatischen Fehlerstellenerkennung bei biegeschlaffen Körpern
WO2019229151A2 (de) Verfahren zum scannen von teilbereichen einer probe mittels eines rastermikroskops, computerprogrammprodukt, computerlesbares medium und system zum scannen von teilbereichen einer probe mittels eines rastermikroskops
LU502959B1 (de) ein Mehrquellen-Fernerkundungsbild-Fusionsverfahren und -system basierend auf tiefem Lernen
DE102018215770A1 (de) Bildbearbeitungsvorrichtung, Zell-Erkennungsvorrichtung, Zell-Erkennungsverfahren und Zell-Erkennungsprogramm
DE102021201124A1 (de) Trainieren von bildklassifizierernetzen
EP1797533B1 (de) Verfahren und vorrichtung zur segmentierung einer digitalen abbildung von zellen
DE60026732T2 (de) Zellenreihen-extraktionsverfahren
DE102021111508A1 (de) Vorrichtung und verfahren zur erkennung einer sich höher erstreckenden struktur unter verwendung eines lidarsensors
EP2399241B1 (de) Verfahren zur entropie-basierten bestimmung von objektrandkurven
DE102021129673A1 (de) Verfahren und Vorrichtung zur Klassifizierung von Objekten, die auf einer Oberfläche liegend gefördert werden
DE102012208025A1 (de) Verfahren und Vorrichtung zur rechnergestützten Segmentierung wenigstens eines einen Code mit wenigstens einer Codezeile enthaltenden Bildes
DE112021006984T5 (de) Informationsverarbeitungseinrichtung, auswahlausgabe- verfahren und auswahlausgabeprogramm
DE102021201031A1 (de) Programmerstellungsvorrichtung, Objekterkennungssystem, Ankersetzverfahren und Ankersetzprogramm

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20230427