DE102010008630A1 - Method for processing multi-channel image recordings for the detection of hidden objects in opto-electronic person control - Google Patents
Method for processing multi-channel image recordings for the detection of hidden objects in opto-electronic person control Download PDFInfo
- Publication number
- DE102010008630A1 DE102010008630A1 DE102010008630A DE102010008630A DE102010008630A1 DE 102010008630 A1 DE102010008630 A1 DE 102010008630A1 DE 102010008630 A DE102010008630 A DE 102010008630A DE 102010008630 A DE102010008630 A DE 102010008630A DE 102010008630 A1 DE102010008630 A1 DE 102010008630A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- laplace
- pyramid
- mask
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V8/00—Prospecting or detecting by optical means
- G01V8/005—Prospecting or detecting by optical means operating with millimetre waves, e.g. measuring the black losey radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30112—Baggage; Luggage; Suitcase
Abstract
Die Erfindung betrifft ein Verfahren zur Verarbeitung von mehrkanaligen Bildaufnahmen für die Detektion von verborgenen Gegenständen in einer Szene, bei dem Bilddaten aus mindestens zwei spektral unterschiedlichen Kamerasystemen mit überlappenden Gesichtsfeldern einer Bilddatenkombination unterzogen werden. Die Aufgabe, eine neue Möglichkeit zur Verarbeitung von mehrkanaligen Bildaufnahmen für die optoelektronische Personenkontrolle zu finden, die eine Verbesserung des Nachweises verborgener Objekte erreicht, ohne dass der sog. Nacktscannereffekt der Millimeterwellen-Abtastung in Erscheinung tritt, wird erfindungsgemäß gelöst, indem – Bilder in Bildkanälen mit unterschiedlichen Frequenzbereichen als zweidimensionale Bilddaten aufgenommen werden, – aus den Bilddaten mindestens eines Bildkanals ein Maskenbild erzeugt wird, wobei die Bilddaten in mindestens zwei Klassen von Pixeln unterschieden werden, – die Bilddaten jedes Bildkanals in eine Gauss- und Laplace-Pyramide und des Maskenbildes in eine dazu adäquate Maskenbildpyramide, transformiert werden und – die Bilddaten der Laplace-Pyramiden der einzelnen Bildkanäle mit der Maskenbildpyramide in zueinander korrespondierenden Pyramidenebenen kombiniert und anschließend die Laplace-Pyramiden aus korrespondierenden Bildpunkten gleicher Pyramidenebenen auf Basis eines Vergleichskriteriums zur resultierenden Laplace-Pyramide verschmolzen werden.The invention relates to a method for processing multichannel image recordings for the detection of hidden objects in a scene, in which image data from at least two spectrally different camera systems with overlapping visual fields are subjected to an image data combination. The task of finding a new way of processing multichannel image recordings for optoelectronic personal control, which achieves an improvement in the detection of hidden objects without the so-called nude scanner effect of millimeter-wave scanning appearing, is achieved according to the invention by - images in image channels with different frequency ranges are recorded as two-dimensional image data, - a mask image is generated from the image data of at least one image channel, the image data being distinguished into at least two classes of pixels, - the image data of each image channel into a Gaussian and Laplace pyramid and the mask image into an adequate mask image pyramid are transformed and - the image data of the Laplace pyramids of the individual image channels are combined with the mask image pyramid in mutually corresponding pyramid planes and then the Laplace pyramids are made up of corresponding image points n the same pyramid levels are merged on the basis of a comparison criterion to form the resulting Laplace pyramid.
Description
Die Erfindung betrifft ein Verfahren zur Verarbeitung von mehrkanaligen Bildaufnahmen für die Detektion von verborgenen Gegenständen in einer Szene, insbesondere bei der optoelektronischen Personenkontrolle, bei dem Bilddaten aus mindestens zwei spektral unterschiedlich empfindlichen Kamerasystemen, die einander weitgehend überlappende Gesichtsfelder aufweisen, einer Bilddatenkombination unterzogen werden.The invention relates to a method for processing multi-channel image recordings for the detection of hidden objects in a scene, in particular in the optoelectronic person control, in which image data from at least two spectrally different sensitive camera systems, which have largely overlapping fields of view, a picture data combination are subjected.
Bei der Personenkontrolle zum Nachweis versteckter Gegenstände, insbesondere bei der Sicherheitskontrolle im Passagierflugverkehr, haben sich auf Basis von Millimeterwellen-Bildaufnahmesystemen als eine zuverlässige optoelektronische Kontrollmöglichkeit erwiesen, um ohne taktile Leibesvisitationen unter der Kleidung von Personen (Passagieren) verborgene sicherheitsrelevante Gegenstände nachzuweisen.In the case of person detection to detect hidden objects, in particular in passenger air traffic control, millimeter-wave image acquisition systems have proven to be a reliable optoelectronic control means for detecting security-relevant objects hidden under the clothing of persons (passengers) without tactile body searches.
So ist z. B. aus der
In der
Ferner ist in der
Der Erfindung liegt die Aufgabe zugrunde, eine neue Möglichkeit zur Verarbeitung von mehrkanaligen Bildaufnahmen für die Detektion von verborgenen Gegenständen in einer Szene, insbesondere bei der optoelektronischen Personenkontrolle zu finden, die eine Verbesserung des Nachweises verborgener Objekte erreicht, ohne dass der sog. Nacktscannereffekt der Millimeterwellen-Abtastung in Erscheinung tritt.The invention has for its object to find a new way to process multi-channel image recordings for the detection of hidden objects in a scene, especially in optoelectronic person control, which achieves an improvement in the detection of hidden objects without the so-called. Naked Scanner effect of millimeter waves -Sampling occurs.
Erfindungsgemäß wird die Aufgabe bei einem Verfahren zur Verarbeitung von mehrkanaligen Bildaufnahmen für die Detektion von verborgenen Gegenständen in einer Szene, insbesondere bei der optoelektronischen Personenkontrolle, bei dem Bilddaten aus mindestens zwei spektral unterschiedlich empfindlichen Kamerasystemen, die einander weitgehend überlappende Gesichtsfelder aufweisen, einer Bilddatenkombination unterzogen werden, gelöst durch folgende Schritte:
- (1) Aufnehmen von Bildern in Bildkanälen unterschiedlicher Frequenzbereiche als zweidimensionale Bilddaten, wobei ein Bildkanal aus dem Bereich der Milimeterwellen gewonnen wird und die ausgegebenen Bilder der unterschiedlichen Kanäle zueinander synchronisiert werden, falls die Abtastung mit unterschiedlichen Bildwiederholfrequenzen erfolgt,
- (2) Bildverbesserung mittels Filteroperation, bei der mindestens eine Rauschunterdrückung in einem niedrigauflösenden Bildkanal durchgeführt wird,
- (3) Erzeugung eines Maskenbildes aus den Bilddaten mindestens eines Bildkanals, bei der die Bilddaten in wenigstens zwei Klassen von Pixeln unterschieden werden,
- (4) Transformation der Bilddaten jedes Bildkanals in eine Gauss- und Laplace-Pyramide und des Maskenbildes in eine dazu adäquate Maskenbildpyramide, wobei aus den ausgelesenen Bilddaten jeweils quadratische Bereiche mit übereinstimmenden Gesichtsfeldern ausgewählt werden,
- (5) Fusion der transformierten Bilddaten der Laplace-Pyramiden der einzelnen Bildkanäle mit der Maskenbildpyramide in zueinander korrespondierenden Pyramidenebenen und anschließende Verschmelzung der Laplace-Pyramiden der einzelnen Bildkanäle zu einer resultierenden Laplace-Pyramide, wobei aus korrespondierenden Bildpunkten innerhalb gleicher Pyramidenebenen der einzelnen Laplace-Pyramiden auf Basis eines relativen Vergleichkriteriums ermittelt wird und die resultierenden Bildpunkte ebenenweise zur resultierenden Laplace-Pyramide zusammengefügt werden, und
- (6) Rücktransformation der erzeugten resultierenden Laplace-Pyramide in ein fusioniertes Ergebnisbild.
- (1) taking pictures in picture channels of different frequency ranges as two-dimensional picture data, whereby an image channel is obtained from the range of the millimeter waves and the output pictures of the different channels are synchronized to each other, if the scanning is performed with different picture repetition frequencies,
- (2) image enhancement by filter operation, in which at least one noise suppression is performed in a low-resolution image channel,
- (3) generating a mask image from the image data of at least one image channel, wherein the image data is discriminated into at least two classes of pixels,
- (4) transforming the image data of each image channel into a Gaussian and Laplacian pyramid and of the mask image into a mask pyramid suitable for this purpose, wherein from the image data read out in each case square regions with matching visual fields are selected,
- (5) Fusion of the transformed image data of the Laplace pyramids of the individual image channels with the mask image pyramid in mutually corresponding pyramidal planes and subsequent fusion of the Laplace pyramids of the individual image channels to a resulting Laplacian pyramid, wherein corresponding pixels within the same pyramidal planes of the individual Laplace pyramids is determined on the basis of a relative comparison criterion and the resulting pixels are joined together plane by layer to the resulting Laplace pyramid, and
- (6) Back transformation of the resulting resulting Laplace pyramid into a fused result image.
Vorteilhaft wird das Maskenbild mit Hilfe eines fest einstellbaren Schwellwertes oder mittels eines anpassbaren Schwellwertes erzeugt, wobei der anpassbare Schwellwert aus einer Histogrammverteilung eines ausgelesenen Bildes berechnet wird. Dabei kann der Schwellwert zweckmäßig durch den Medianwert des Histogramms berechnet werden. In einer weiteren vorteilhaften Variante wird der Schwellwert aus einer Histogrammanalyse bestimmt, bei der entweder ein globales Minimum gesucht wird. Weiterhin können mittels der Histogrammanalyse auch mehrere Schwellwerte ermittelt werden, falls mehrere lokale Minima vorhanden sind, und damit mehr als zwei Klassen von Pixeln innerhalb des Maskenbildes unterschieden werden.Advantageously, the mask image is generated by means of a fixed threshold value or by means of an adaptable threshold value, the adaptable threshold value being calculated from a histogram distribution of a read-out image. In this case, the threshold value can be calculated appropriately by the median value of the histogram. In a further advantageous variant, the threshold value is determined from a histogram analysis in which either a global minimum is sought. Furthermore, by means of the histogram analysis, a plurality of threshold values can also be determined if a plurality of local minima are present, and thus more than two classes of pixels within the mask image are distinguished.
Das Maskenbild kann außerdem mit Hilfe mehrerer Schwellwerte erzeugt werden, indem dazu zweckmäßig Informationen aus mindestens zwei Bildkanälen verwendet werden. Dabei wird vorzugsweise aus einem ersten Bildkanal ein erstes Maskenbild erzeugt und mit Informationen aus einem weiteren Bildkanal mindestens eine weitere Klasse von Pixeln unterteilt, wobei die Informationen aus dem weiteren Bildkanal zur Berechnung mindestens eines weiteren Schwellwertes verwendet werden. Vorteilhaft wird ein erstes zweiklassiges Maskenbild aus dem Bildkanal im Millimeterwellenbereich und ein zweites mehrklassiges Maskenbild aus dem ersten Maskenbild und einem Bild aus einem langwelligeren Bildkanal erzeugt. Dabei können die Schwellwerte für das mehrklassige Maskenbild zweckmäßig durch Histogrammauswertung der Bilddaten aus einem IR-Kanal gewonnen werden.The mask image can also be generated by means of several threshold values, for which information from at least two image channels is expediently used. In this case, a first mask image is preferably generated from a first image channel and subdivided with information from a further image channel at least one further class of pixels, the information from the further image channel being used to calculate at least one further threshold value. Advantageously, a first two-class mask image is generated from the image channel in the millimeter wave range and a second multi-layer mask image is generated from the first mask image and an image from a longer wavelength image channel. In this case, the threshold values for the multilevel mask image can be advantageously obtained by histogram evaluation of the image data from an IR channel.
Das erzeugte zwei- oder mehrklassige Maskenbild wird für die Bildfusion vorzugsweise in eine Maskenbildpyramide derart umgewandelt, dass durch eine schrittweise Reduzierung der Auflösung des Maskenbildes ein adäquates Datengefüge zu den aus der Bildtransformation erzeugten Laplace-Pyramiden der einzelnen Bildkanäle entsteht. Die Bildfusion erfolgt dabei vorzugsweise auf Basis einer Verschmelzung der Laplace-Pyramiden von zwei Bildkanälen, wobei aus korrespondierenden Bildpunkten der einzelnen mit der Maskenbildpyramide gewichteten Laplace-Pyramiden-Ebenen diejenigen Bildpunkte der einzelnen Laplace-Pyramiden-Ebenen ermittelt werden, die den betragsmäßig größten Wert besitzen.The generated two- or more-class mask image is preferably converted into a mask image pyramid for the image fusion in such a way that an adequate data structure to the Laplace pyramids of the individual image channels generated from the image transformation arises by a stepwise reduction of the resolution of the mask image. The image fusion is preferably carried out on the basis of a merger of the Laplace pyramids of two image channels, wherein those pixels of the individual Laplace pyramid levels are determined from corresponding pixels of the individual with the mask pyramid weighted Laplace pyramid levels that have the largest value in terms ,
In einer reduzierten vereinfachten Variante kann die Bildfusion zweckmäßig auf Basis einer Verschmelzung der Laplace-Pyramiden von mindestens drei Bildkanälen erfolgen, wobei die Kombination mit der Maskenbildpyramide durch eine Kombination mit der Laplace-Pyramide eines zusätzlichen Bildkanals ersetzt wird und aus korrespondierenden Bildpunkten der einzelnen Laplace-Pyramiden-Ebenen diejenigen Bildpunkte ermittelt werden, die den betragsmäßig größten Wert besitzen.In a reduced simplified variant, the image fusion may suitably be based on a fusion of the Laplacian pyramids of at least three image channels are made, the combination with the mask image pyramid is replaced by a combination with the Laplace pyramid of an additional image channel and from corresponding pixels of the individual Laplace pyramid levels those pixels are determined, which have the largest amount in value.
Eine weitere Bildverbesserung des Bildes eines niedrig auflösenden Bildkanals kann vorteilhaft durch die Verwendung von Daten aus mindestens einem höher auflösenden Bildkanal mit höherer Bildwiederholrate vorgenommen werden, indem a-priori-Informationen über Bewegungen innerhalb mindestens eines höher auflösenden Bildkanals mit höherer Bildwiederholrate auf das Bild des niedrig auflösenden Bildkanals angewendet werden.Further image enhancement of the image of a low-resolution image channel may be advantageously made by using data from at least one higher-resolution image channel at a higher refresh rate by providing a priori information on movements within at least one higher-resolution image channel at a higher refresh rate to the image of the low resolving image channel.
Die Erfindung basiert auf der Grundüberlegung, dass die Daten verschiedener, zusätzlich zu einem Millimeterwellenkanal aufgenommene Bildkanäle zur Verbesserung des Nachweises verborgener Objekte gleichermaßen so verarbeitet werden können, dass eine Nacktdarstellung der untersuchten Person nicht erfolgt. Kern der erfindungsgemäßen Lösung ist die Kombination einer pixelbasierten (Gauss-Laplace-Transformation) und objektbasierten Erzeugung von Maskenbildern sowie eine Echtzeit-Fusion von Gauss-Laplace-transformierten Bilddaten aus mindestens zwei Bildkanälen unterschiedlicher Wellenlänge und/oder verschiedener Auflösung.The invention is based on the basic idea that the data of different image channels recorded in addition to a millimeter-wave channel can likewise be processed so as to improve the detection of hidden objects in such a way that a naked representation of the examined person does not take place. The core of the solution according to the invention is the combination of pixel-based (Gauss-Laplace transformation) and object-based generation of mask images and a real-time fusion of Gauss-Laplace-transformed image data from at least two image channels of different wavelengths and / or different resolution.
Mit der Erfindung ist es möglich, ein Verfahren zur Verarbeitung von mehrkanaligen Bildaufnahmen für die Detektion von verborgenen Gegenständen in einer Szene, insbesondere bei der optoelektronische Personenkontrolle, zu realisieren, das den Nachweis und die Auflösung verborgener Objekte verbessert, ohne dass der sog. Nacktscannereffekt der Millimeterwellen-Abtastung auf dem Kontrollmonitor in Erscheinung tritt.With the invention, it is possible to realize a method for processing multichannel image recordings for the detection of hidden objects in a scene, in particular in the optoelectronic person control, which improves the detection and the resolution of hidden objects, without the so-called. Naked scanner effect of Millimeter wave scan on the control monitor appears.
Die Erfindung soll nachstehend anhand von Ausführungsbeispielen näher erläutert werden. Die Zeichnungen zeigen:The invention will be explained below with reference to exemplary embodiments. The drawings show:
Das Verfahren der Bilderzeugung zur Detektion von verborgenen Objekten durch Kombination von Signalen aus mehreren separaten Bildkanälen unterschiedlicher spektraler Empfindlichkeit besteht in seinem Grundalgorithmus – wie in
- 1. Bildaufnahme mit wenigstens zwei spektral unterschiedlichen Bildaufnahmesystemen,
- 2. Bildvorverarbeitung zur Bildverbesserung durch mindestens eine Rauschunterdrückung,
- 3. Objektmaskenerzeugung aus Bildern von mindestens einem Bildkanal,
- 4. Transformation (Gauß-Laplace-Pyramiden) von Bildern aus mindestens einem anderen Bildkanal und adäquate Transformation des Maskenbildes,
- 5. Bildfusion durch Verschmelzung der Laplace-Pyramiden mit zusätzlicher lokal-adaptiver Wichtung,
- 6. Rücktransformation der gewichteten Laplace-Pyramiden in ein fusioniertes Ergebnisbild.
- 1. image recording with at least two spectrally different image recording systems,
- 2. image preprocessing for image enhancement by at least one noise suppression,
- 3. Object mask generation from images of at least one image channel,
- 4. transformation (Gauss-Laplace pyramids) of images from at least one other image channel and adequate transformation of the mask image,
- 5. Image fusion by fusion of the Laplace pyramids with additional local adaptive weighting
- 6. Back transformation of the weighted Laplace pyramids into a fused result image.
In einer Bildaufnahmeeinheit, die ein Kamerasystem mit mindestens zwei spektral unterschiedlichen Bildkanälen aufweist, erzeugen Kameras aus unterschiedlichen Wellenlängen bzw. Frequenzbereichen zweidimensionale Bilddaten von ein und demselben Objekt, wobei die Kameras unterschiedliche Auflösungen und Bildraten haben können, jedoch stets so zueinander ausgerichtet sein müssen, dass alle Kameras
Das Verfahren der Bilderzeugung für die Detektion von verborgenen Gegenständen hat im Einzelnen den folgenden Ablauf gemäß
- 1. Der erste Schritt des Verfahrens besteht in der synchronisierten Bereitstellung aufgenommener Bilddaten mittels einer Bildaufnahmeeinheit
1 , die die Bilddaten aus einer ersten Kamera11 und einer zweiten Kamera12 (optional können weitere Kameras bis zu einer Kamera1n vorhanden sein) als zweidimensionale Kamerabilder bereitstellt. - 2. In einem zweiten Schritt werden die Bilddaten von mindestens einem der Bildkanäle, insbesondere von dem mit geringerer Auflösung und/oder geringerer Bildrate, bearbeitet, indem das ausgelesene Bild einer kantenerhaltenden Rauschunterdrückung unterworfen wird.
Dafür nutzbare Verfahren für eine erste Bildverbesserung können in vielfältiger Ausprägung dem Stand der Technik entnommen werden (siehe z. B.
Bernd Jähne: Digitale Bildverarbeitung, 4 Auflage, Springer Verlag Berlin Heidelberg New York, 1997, Kapitel 11.5, S. 342 ff. - 3. In einem dritten Schritt wird für mindestens ein ausgewähltes vorverarbeitetes Kamera-Bild ein Maskenbild erstellt, das zwei Klassen, nämlich Hintergrund- und Objektpixel unterscheidet, so dass eine Trennung von Objekt und Bildhintergrund möglich ist. Bei mehren Bildkanälen wird der Kanal gewählt, mit dem am besten die Trennung von Hintergrund und Objekt (Person) realisiert werden kann. Die Hintergrundabtrennung wird in diesem Beispiel (Binarisierung) mit Hilfe eines Schwellwertes realisiert, der entweder einstellbar oder anhand einer Histogrammverteilung berechnet wird.
Dem Stand der Technik sind beliebige andere Verfahren zur Trennung von Objekt und Bildhintergrund entnehmbar, die alternativ zur Anwendung kommen können, um eine so genannte Objekt-Maske in
einem Maskenbild 31 zu erzeugen. - 4. Im vierten Schritt werden die Bilddaten der verschiedenen Videokanäle in eine Gauß- und Laplace-Pyramide zerlegt. Diese Transformationsvorschrift der Gauß- und Laplace-Pyramide ist eine allgemein bekannte Methode zur Datenreduktion und -manipulation und kann in seinen Grundzügen der Monografie (
Bernd Jähne: Digitale Bildverarbeitung, 4 Auflage, Springer Verlag Berlin Heidelberg New York, 1997, Kapitel 5.2, Seite 149 ff. eine Seitenlänge von 2n Pixel aufweisen muss. Dazu wird in einem rechteckigen Originalbild entweder ein quadratischer Bereich ausgewählt oder – falls erforderlich – das Bild in mehrere quadratische Bildblöcke unterteilt. Das Originalbild stellt die unterste Pyramidenebene GO dar. Die nächste Gaußpyramidenebene G1 wird über eine Tiefpassfilterung (fg = f/2) und Halbierung der Stützstellen von GO errechnet. Dieser Prozess wird von Ebene zu Ebene fortgesetzt, bis das „Bild” eine Größe von nur noch einem einzigen Pixel erreicht. Die Tiefpassfilterung wird über eine mathematische Faltung mit einer Gaußglocke realisiert, wobei das Bild praktisch mit einem Binomialfilter gefaltet wird. Nach diesem Prozess liegen die Bilder als Gaußpyramide vor, die jeweils einen gewissen Frequenzanteil repräsentieren. Jeder Nachfolger einer Bildebene besitzt nur noch 1/4 der Pixel der Vorgängerebene. Aus der vorliegenden Gaußpyramide wird dann eine Laplace-Pyramide entwickelt. Eine Laplace-Pyramiden-Ebene wird über die Bildung der Differenz von zwei benachbarten Gaußpyramidenebenen erzielt. Dabei ist zu beachten, dass diese beiden Ebenen die gleiche Größe aufweisen müssen. Dies wird durch Expansion der Nachfolgerebene realisiert. Der Grauwert der neu hinzugefügten Pixel wird durch Interpolation der beiden vorhandenen Nachbarpixel errechnet. Die einzelnen Laplacepyramidenebenen repräsentieren die Schärfeanteile eines Bildes. Die Laplacepyramidenebene LO beinhaltet die höchsten Frequenzanteile und die weiter darunter liegenden Ebenen die restlichen niedrigeren Frequenzanteile. Nachdem die Gauß-Laplace-Pyramidenebene gebildet und eventuell die einzelnen Ebenen bearbeitet wurden, wird die Gauß-Laplace-Pyramide rekonstruiert, indem die gewünschten Laplacepyramidenebenen und die höchste Gaußpyramidenebene aufsummiert werden. Diese Bilddatenzerlegung ist Vorraussetzung für den nachfolgenden auf einer Multiresolution-Methode basierenden Kombinationsschritt. Ineinem nebengeordneten Schritt 41 zur Anpassung der Maskenbilddaten an die Größe und Struktur der Laplace-Pyramiden werden ausden im Schritt 3 erzeugten Maskenbildern Maskenbildpyramiden erzeugt. Dies erfolgt durch eine schrittweise Reduzierung (jeweils Halbierung einer Seite) der Auflösung des Maskenbildes, um ein Laplace-Pyramiden adäquates Datengefüge zu erhalten. - 5. Im fünften Schritt (siehe
4 ) erfolgt eine Fusion der Bilddaten durch die Kombination der berechneten Laplace-Pyramiden (Multiresolution-Verfahren) der einzelnen Videodatenkanäle (Bildkanäle). Dabei werden die entsprechenden Laplace-Pyramiden mit den erstellten Maskenbildern aus Schritt3 gewichtet. Für diese Wichtung der Laplace-Pyramide mit dem Maskenbild werden die inSchritt 41 aus den Maskenbildern gebildeten Maskenbildpyramiden, die den Laplace-Pyramiden adäquat sind, verwendet. Für den abschließenden Fusionsschritt werden von allen gewichteten Laplace-Pyramiden aus den korrespondierenden Bildpunkten der einzelnen Laplace-Pyramiden-Ebenen die Bildpunkte gewählt, die den betragsmäßig größten Wert besitzen, da dieser der maximalen Information entspricht. Die auf diese Weise ausgewählten Bildpunkte stellen die resultierende (fusionierte) Laplace-Pyramide dar. - 6. Im sechsten Schritt wird das direkte Fusionsergebnis in Form der fusionierten Laplace-Pyramide durch die Rücktransformation der Laplace-Pyramide in ein Ergebnisbild erstellt. Dafür kann – sofern die Gauss- und Laplace-Pyramiden-Transformation nach Jähne (a. a. O) verwendet wurde – die dort angegebene Vorschrift der Rücktransformation verwendet werden.
- 1. The first step of the method is the synchronized provision of captured image data by means of an
image acquisition unit 1 taking the image data from afirst camera 11 and a second camera12 (Optionally, other cameras can be up to a camera1n present) as two-dimensional camera images. - 2. In a second step, the image data of at least one of the image channels, in particular of the lower resolution and / or lower frame rate, are processed by subjecting the read-out image to an edge-preserving noise suppression. For usable methods for a first image improvement can be taken from the state of the art in a variety of forms (see, eg.
Bernd Jähne: Digital Image Processing, 4 Edition, Springer Verlag Berlin Heidelberg New York, 1997, Chapter 11.5, p. 342 ff. - 3. In a third step, a mask image is created for at least one selected preprocessed camera image, which distinguishes two classes, namely background and object pixels, so that a separation of object and image background is possible. With several image channels, the channel is selected with which the separation of background and object (person) can best be realized. The background separation is realized in this example (binarization) with the help of a threshold, which is either adjustable or calculated from a histogram distribution. The prior art discloses any other methods for separating object and image background which may alternatively be used to form a so-called object mask in a
mask image 31 to create. - 4. In the fourth step, the image data of the various video channels are decomposed into a Gaussian and a Laplace pyramid. This transformation rule of the Gaussian and Laplace pyramids is a well-known method for data reduction and manipulation and can be described in its fundamentals in the monograph (
Bernd Jähne: Digital Image Processing, 4 Edition, Springer Verlag Berlin Heidelberg New York, 1997, chapter 5.2, page 149 ff. sibling step 41 to adapt the mask image data to the size and structure of the Laplacian pyramids are made in thestep 3 generated mask images generated mask image pyramids. This is done by a gradual reduction (each halving one side) of the resolution of the mask image to obtain a Laplace pyramid adequate data structure. - 5. In the fifth step (see
4 ), the image data is merged by the combination the calculated Laplace pyramids (multi-resolution method) of the individual video data channels (image channels). The corresponding Laplace pyramids with the created mask images fromstep 3 weighted. For this weighting of the Laplace pyramid with the mask image are instep 41 Mask image pyramids formed from the mask images, which are adequate for the Laplace pyramids, are used. For the final fusion step of all weighted Laplace pyramids from the corresponding pixels of the individual Laplace pyramid levels, the pixels are selected, which have the largest value in terms of value, since this corresponds to the maximum information. The pixels selected in this way represent the resulting (fused) Laplace pyramid. - 6. In the sixth step, the direct fusion result in the form of the fused Laplace pyramid is created by the inverse transformation of the Laplace pyramid into a result image. If the Gaussian and Laplace pyramid transformation according to Jähne (loc. Cit.) Has been used, the rule of inverse transformation given there can be used.
In der Gestaltung gemäß
Der zweite Schritt der Bildverbesserung
Der dritte Schritt der Maskenbilderzeugung
- – der Temperaturmessung von Oberflächen,
- – der höheren radiometrischen und geometrischen Auflösung sowie
- – der höheren Bildwiederholfrequenz der IR-
Kamera 12 ausgenutzt.
- - the temperature measurement of surfaces,
- - the higher radiometric and geometric resolution as well
- - the higher refresh rate of the
IR camera 12 exploited.
Aufgrund der höheren Auflösung der IR-Bildes können Kanten von Objekten oder Personen genauer detektiert werden. Mit diesen zusätzlichen Informationen kann aus dem ersten Maskenbild, der THz-Maske, ein zweites Maskenbild zur Unterscheidung zwischen Person und verborgenem Objekt erzeugt werden.Due to the higher resolution of the IR image, edges of objects or persons can be detected more accurately. With this additional information, a second mask image for distinguishing between the person and the hidden object can be generated from the first mask image, the THz mask.
Im vierten Schritt der Transformation
Der nachfolgende Schritt der Bildfusion
Wesentlich ist bei dieser Prozedur, dass die pro Kanal bereitgestellten Bilddaten in jeder Pyramidenebene einer Datenreduktion durch Mittelung aus benachbarten Pixeldaten interpolierte neue Pixeldaten erzeugt werden, die dann in der darauf folgenden Ebene Gegenstand der Fusion mit der auf gleiche Weise erzeugten Maskenbild-Pyramidenebene sind. Dabei werden aus den korrespondierenden Bildpunkten der einzelnen gewichteten Laplace-Pyramiden-Ebenen die Bildpunkte gewählt, die den betragsmäßig größten Wert besitzen. Die auf diese Weise ausgewählten Bildpunkte stellen die resultierende (fusionierte) Laplace-Pyramiden-Ebene dar, die dann im sechsten Schritt durch Rücktransformation der fusionierten Laplacepyramide zu einem objektextrahierten Ergebnisbild führt. Dieses fusionierte Ergebnisbild zeichnet sich dadurch aus, dass trotz der kleidungsdurchdringenden THz-Bilddaten eine Bilddarstellung zur Anzeige gebracht wird, die keine Nacktdarstellung der kontrollierten Person und dennoch eine weitaus deutlichere Darstellung von unter der Bekleidung verborgenen Gegenständen ermöglicht sowie eine bessere örtliche Zuordnung (Auflösung) der verborgenen Gegenstände an der Person.What is essential in this procedure is that the image data provided per channel in each pyramid level of data reduction is generated by averaging from adjacent pixel data interpolated new pixel data, which is then fused to the similarly generated mask image pyramid level at the subsequent level. In this case, the pixels are selected from the corresponding pixels of the individual weighted Laplace pyramid levels, which have the largest value in terms of amount. The pixels selected in this way represent the resulting (fused) Laplacian pyramidal plane, which then in the sixth step results in an object-extracted result image by inverse transformation of the fused Laplacian pyramid. This fused result image is distinguished by the fact that despite the garment-permeating THz image data, an image display is displayed which does not allow the controlled person to be nude and nevertheless provides a much clearer display of objects hidden beneath the clothing, as well as a better spatial assignment (resolution) hidden objects on the person.
In der Ausführungsform gemäß
Die wesentliche Erweiterung der Bilddatenverarbeitung gegenüber der von
- 2.2 Aufgrund der höheren Bildauflösung der VS- und IR-Videodaten (mindestens 5:1) und der höheren Bildwiederholfrequenz (50
Hz gegenüber 10–25 Hz der THz-Kamera13 ), können a-priori-Informationen abgeleitet werden, um Vorhersage-Berechnungen (forecast evaluation)22 durchzuführen, die z. B. zur Vorausberechnung von Personen- oder Objektbewegungen genutzt werden. - 2.3 Die aus dem Schritt der Vorhersage-
Berechnungen 22 gewonnenen a-priori-Informationen von Personen- oder Objektbewegungen werden dann für eine Bildverbesserung der THz-Bilddaten nach dem in der Grundversion ohnehin angewandten kantenerhaltenden Rauschminderung verwendet. Hierbei werden die a-priori-Informationen mittels eines Kalman-Filters verarbeitet. Eine weitere Verbesserung des THz-Bildes kann durch ein Subpixelinterpolation erreicht werden. Dabei gehen die Bewegungsinformationen (Richtung, Geschwindigkeit und Rotation) ein.
- 2.2 Due to the higher image resolution of the VS and IR video data (at least 5: 1) and the higher refresh rate (50 Hz compared to 10-25 Hz of the THz camera
13 ), a-priori information can be derived to obtain prediction calculations (forecast evaluation)22 perform the z. B. be used for the precalculation of person or object movements. - 2.3 The from the step of the
prediction calculations 22 obtained a-priori information of person or object movements are then used for image enhancement of the THz image data according to the edge-preserving noise reduction anyway applied in the basic version. In this case, the a-priori information is processed by means of a Kalman filter. Further improvement of the THz image can be achieved by subpixel interpolation. This includes the movement information (direction, speed and rotation).
Mit diesen Zusatzmaßnahmen wird eine bessere Objektverfolgung (Bewegung von überprüften Personen) und genauere Objektabgrenzung von verborgenen Objekten erreicht.With these additional measures, a better object tracking (movement of verified persons) and more precise object delimitation of hidden objects is achieved.
Ein weiter abgewandelter Fusionsablauf ist in
THz-Kamera
IR-Kamera
VIS-Kamera
THz camera
IR camera
VIS camera
Dieses Beispiel baut auf der Ausführungsvariante von
Besonders zweckmäßig ist dabei allerdings die Vorverarbeitung des niedrig auflösenden Millimeterwellenkanals der THz-Kamera
Alle übrigen Verarbeitungsschritte der Bildaufnahme, Bildtransformation in Gauß- und Laplace-Pyramiden und deren ebenenweise Fusion zur resultierenden Laplace-Pyramide und deren Rücktransformation zum fusionierten Ergebnisbild laufen in derselben, wie zu
Mit Hilfe der vorstehend beschriebenen Varianten des Fusionsalgorithmus auf Basis der Verschmelzung von Laplace-Pyramiden-Daten von zum Teil vorverarbeiteten (aufbereiteten und verbesserten) Daten vorgegebener Bildkanäle bzw. durch Hinzunahme zusätzlicher lokal-adaptiver Maskenbilder oder zusätzlicher Bildkanäle können verborgene Objekte besser erkannt werden, da diese Objekte nicht durch Bildinformationen der anderen Kanäle überdeckt, sondern mit diesen verbessert werden. Dabei wird insgesamt die örtliche Auflösung im Bereich der detektierten verborgenen Objekte gesteigert und zwar ohne die volle Bildgebung der Nacktscannereigenschaft der Millimeterwellen (THz-Kamera
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Bildaufnahmeimage capture
- 1111
- erste Kamera (THz-Kamera)first camera (THz camera)
- 1212
- zweite Kamera (IR-Kamera)second camera (IR camera)
- 1313
- dritte Kamera (VIS-Kamera)third camera (VIS camera)
- 1n1n
- n-te Kamera (eines Mehrkanalsystems)nth camera (of a multi-channel system)
- 22
- Bildverbesserungimage enhancement
- 2121
- Bildfilter (Rauschminderung)Image filter (noise reduction)
- 2222
- Vorhersageberechnung (Bewegungsvorhersage)Prediction calculation (motion prediction)
- 2323
- Bildverbesserung mit a priori Informationen (aus anderen Kanälen)Image enhancement with a priori information (from other channels)
- 33
- MaskenbilderzeugungMask imaging
- 3131
- erstes Maskenbild (THz-Maske)first mask image (THz mask)
- 3232
- zweites Maskenbild (THz-IR-Maske)second mask image (THz IR mask)
- 44
- Gauß-Laplace-TransformationGauss-Laplace transform
- 4141
- Maskenbild-TransformationMask image transformation
- 55
- Fusion der Laplace-Pyramiden mit Wichtung durch MaskenbildFusion of the Laplace pyramids with weighting through mask image
- 5151
- THz-Laplace-EbeneTHz Laplace plane
- 5252
- IR-Laplace-EbeneIR Laplace plane
- 5353
- Masken-Laplace-EbeneMask Laplace plane
- 5454
- DatenreduktionsoperationData reduction surgery
- 5555
- WichtungsoperationWeighting operation
- 66
- Rücktransformation der fusioniert gewichteten Laplace-PyramideBack transformation of the fused weighted Laplace pyramid
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 2005/0116947 A1 [0003] US 2005/0116947 A1 [0003]
- US 2005/0231421 A1 [0004] US 2005/0231421 A1 [0004]
- US 2005/0232459 A1 [0004] US 2005/0232459 A1 [0004]
- US 2006/0006322 [0005] US 2006/0006322 [0005]
- US 2008/0043102 A1 [0005] US 2008/0043102 A1 [0005]
- US 2009/0041293 A1 [0005] US 2009/0041293 A1 [0005]
Zitierte Nicht-PatentliteraturCited non-patent literature
- Bernd Jähne: Digitale Bildverarbeitung, 4 Auflage, Springer Verlag Berlin Heidelberg New York, 1997, Kapitel 11.5, S. 342 ff. [0023] Bernd Jähne: Digital Image Processing, 4 Edition, Springer Verlag Berlin Heidelberg New York, 1997, Chapter 11.5, p. 342 et seq. [0023]
- Bernd Jähne: Digitale Bildverarbeitung, 4 Auflage, Springer Verlag Berlin Heidelberg New York, 1997, Kapitel 5.2, Seite 149 ff. [0023] Bernd Jähne: Digital Image Processing, 4 Edition, Springer Verlag Berlin Heidelberg New York, 1997, Chapter 5.2, page 149 ff. [0023]
Claims (14)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010008630A DE102010008630A1 (en) | 2010-02-18 | 2010-02-18 | Method for processing multi-channel image recordings for the detection of hidden objects in opto-electronic person control |
PCT/DE2011/050005 WO2011100964A2 (en) | 2010-02-18 | 2011-02-18 | Method for processing multi-channel image recordings in order to detect hidden objects in the optoelectronic inspection of persons |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010008630A DE102010008630A1 (en) | 2010-02-18 | 2010-02-18 | Method for processing multi-channel image recordings for the detection of hidden objects in opto-electronic person control |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102010008630A1 true DE102010008630A1 (en) | 2011-08-18 |
Family
ID=44317337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102010008630A Withdrawn DE102010008630A1 (en) | 2010-02-18 | 2010-02-18 | Method for processing multi-channel image recordings for the detection of hidden objects in opto-electronic person control |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102010008630A1 (en) |
WO (1) | WO2011100964A2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102681022A (en) * | 2012-04-19 | 2012-09-19 | 首都师范大学 | Terahertz (THz) wave imaging device |
CN102681023A (en) * | 2012-04-19 | 2012-09-19 | 首都师范大学 | Terahertz wave imaging system |
CN110021031A (en) * | 2019-03-29 | 2019-07-16 | 中广核贝谷科技有限公司 | A kind of radioscopic image Enhancement Method based on image pyramid |
CN110348522A (en) * | 2019-07-12 | 2019-10-18 | 创新奇智(青岛)科技有限公司 | A kind of image detection recognition methods and system, electronic equipment, image classification network optimized approach and system |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106353832B (en) * | 2016-09-18 | 2018-08-03 | 公安部第一研究所 | One kind is quickly through formula millimeter wave human body security check system and method |
CN109034210B (en) * | 2018-07-04 | 2021-10-12 | 国家新闻出版广电总局广播科学研究院 | Target detection method based on super-feature fusion and multi-scale pyramid network |
CN110334571B (en) * | 2019-04-03 | 2022-12-20 | 复旦大学 | Millimeter wave image human body privacy protection method based on convolutional neural network |
CN115065867B (en) * | 2022-08-17 | 2022-11-11 | 中国科学院空天信息创新研究院 | Dynamic processing method and device based on unmanned aerial vehicle video pyramid model |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030035592A1 (en) * | 2000-09-08 | 2003-02-20 | Cornog Katherine H. | Interpolation of a sequence of images using motion analysis |
US20050116947A1 (en) | 2001-09-28 | 2005-06-02 | Trex Enterprises Corp | Video rate passive millimeter wave imaging system |
US20050231421A1 (en) | 2004-04-14 | 2005-10-20 | Michael Fleisher | Enhanced surveilled subject imaging |
US20050232459A1 (en) | 2004-04-14 | 2005-10-20 | Rowe Richard L | Multi-source surveillance portal |
US20060006322A1 (en) | 2003-01-31 | 2006-01-12 | Vaidya Nitin M | Weighted noise compensating method and camera used in millimeter wave imaging |
US20090041293A1 (en) | 2007-08-08 | 2009-02-12 | Brian Andrew | Multiple camera imaging method and system for detecting concealed objects |
-
2010
- 2010-02-18 DE DE102010008630A patent/DE102010008630A1/en not_active Withdrawn
-
2011
- 2011-02-18 WO PCT/DE2011/050005 patent/WO2011100964A2/en active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030035592A1 (en) * | 2000-09-08 | 2003-02-20 | Cornog Katherine H. | Interpolation of a sequence of images using motion analysis |
US20050116947A1 (en) | 2001-09-28 | 2005-06-02 | Trex Enterprises Corp | Video rate passive millimeter wave imaging system |
US20060006322A1 (en) | 2003-01-31 | 2006-01-12 | Vaidya Nitin M | Weighted noise compensating method and camera used in millimeter wave imaging |
US20050231421A1 (en) | 2004-04-14 | 2005-10-20 | Michael Fleisher | Enhanced surveilled subject imaging |
US20050232459A1 (en) | 2004-04-14 | 2005-10-20 | Rowe Richard L | Multi-source surveillance portal |
US20080043102A1 (en) | 2004-04-14 | 2008-02-21 | Safeview, Inc. | Multi-source surveillance system |
US20090041293A1 (en) | 2007-08-08 | 2009-02-12 | Brian Andrew | Multiple camera imaging method and system for detecting concealed objects |
Non-Patent Citations (5)
Title |
---|
Bernd Jähne: Digitale Bildverarbeitung, 4 Auflage, Springer Verlag Berlin Heidelberg New York, 1997, Kapitel 11.5, S. 342 ff. |
Bernd Jähne: Digitale Bildverarbeitung, 4 Auflage, Springer Verlag Berlin Heidelberg New York, 1997, Kapitel 5.2, Seite 149 ff. |
LIU,Z., et al: Concealed Weapon Detection and Visualization in a Synthesized Image. Pattern Analysis and Applications Journal, 8(4), 2006, S. 375-389 * |
PIELLA,G.: A region-based multiresolution image fusion algorithm. Proceedings of the Fifth International Conf. on Information Fusion, ISIF, 2002, S. 1557-1564 * |
ZHANG,Z., BLUM,R.: A Categorization of Multiscale- Decomposition-Based Image Fusion Schemes with a Performance Study for a Digital Camera Application. Proc. IEEE, Vol. 87 No. 8, Aug. 1999, S. 1315-1326 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102681022A (en) * | 2012-04-19 | 2012-09-19 | 首都师范大学 | Terahertz (THz) wave imaging device |
CN102681023A (en) * | 2012-04-19 | 2012-09-19 | 首都师范大学 | Terahertz wave imaging system |
CN102681023B (en) * | 2012-04-19 | 2014-05-07 | 首都师范大学 | Terahertz wave imaging system |
CN110021031A (en) * | 2019-03-29 | 2019-07-16 | 中广核贝谷科技有限公司 | A kind of radioscopic image Enhancement Method based on image pyramid |
CN110021031B (en) * | 2019-03-29 | 2023-03-10 | 中广核贝谷科技有限公司 | X-ray image enhancement method based on image pyramid |
CN110348522A (en) * | 2019-07-12 | 2019-10-18 | 创新奇智(青岛)科技有限公司 | A kind of image detection recognition methods and system, electronic equipment, image classification network optimized approach and system |
Also Published As
Publication number | Publication date |
---|---|
WO2011100964A3 (en) | 2012-03-29 |
WO2011100964A2 (en) | 2011-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2011100964A2 (en) | Method for processing multi-channel image recordings in order to detect hidden objects in the optoelectronic inspection of persons | |
EP1589484B1 (en) | Method for detecting and/or tracking objects | |
DE60203056T2 (en) | Spatial-temporal model of visual attention for a video full screen sequence | |
DE60307583T2 (en) | Evaluation of the sharpness of an image of the iris of an eye | |
DE69333846T2 (en) | METHOD FOR MIXING IMAGES AND DEVICE THEREFOR. | |
EP2427785B1 (en) | Method for detecting a covered dielectric object | |
EP2005361A1 (en) | Multi-sensorial hypothesis based object detector and object pursuer | |
DE102011054658A1 (en) | Method for distinguishing between a real face and a two-dimensional image of the face in a biometric capture process | |
DE112016005905T5 (en) | Method and system for merging acquired measurements | |
EP1997070A2 (en) | Method and device for determining correspondence, preferably for the three-dimensional reconstruction of a scene | |
EP1531342B1 (en) | Method of detecting pedestrians | |
DE60208058T2 (en) | PASSIVE OPTOELECTRONIC MONITORING DEVICE | |
DE102008001076A1 (en) | Method, device and computer program for reducing the resolution of an input image | |
DE102007013664A1 (en) | Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient | |
EP2791896B1 (en) | Method for generating super-resolution images having improved image resolution and measuring device | |
EP1460454B1 (en) | Method for combined processing of high resolution images and video images | |
DE102016122649B3 (en) | Biometric method | |
DE102020129096A1 (en) | GENERATION OF THREE-DIMENSIONAL POINT CLOUDS USING A POLARIMETRIC CAMERA IN A VEHICLE EQUIPPED WITH A DRIVING ASSISTANT SYSTEM | |
Kekre et al. | Review on image fusion techniques and performance evaluation parameters | |
Wang et al. | A fusion algorithm of remote sensing image based on discrete wavelet packet | |
DE102009026091A1 (en) | Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera | |
DE10049366A1 (en) | Security area monitoring method involves using two image detection units whose coverage areas overlap establishing monitored security area | |
DE102018104913A1 (en) | Vibration monitoring of an object using a video camera | |
WO2016087202A1 (en) | Image processing by means of cross-correlation | |
DE10210926A1 (en) | Device for tracking at least one object in a scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20120901 |