WO2011100964A2 - Method for processing multi-channel image recordings in order to detect hidden objects in the optoelectronic inspection of persons - Google Patents

Method for processing multi-channel image recordings in order to detect hidden objects in the optoelectronic inspection of persons Download PDF

Info

Publication number
WO2011100964A2
WO2011100964A2 PCT/DE2011/050005 DE2011050005W WO2011100964A2 WO 2011100964 A2 WO2011100964 A2 WO 2011100964A2 DE 2011050005 W DE2011050005 W DE 2011050005W WO 2011100964 A2 WO2011100964 A2 WO 2011100964A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
mask
pyramid
channel
channels
Prior art date
Application number
PCT/DE2011/050005
Other languages
German (de)
French (fr)
Other versions
WO2011100964A3 (en
Inventor
Mario RÖSSLER
Thomas Fiksel
Ulf Krause
Original Assignee
Esw Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Esw Gmbh filed Critical Esw Gmbh
Publication of WO2011100964A2 publication Critical patent/WO2011100964A2/en
Publication of WO2011100964A3 publication Critical patent/WO2011100964A3/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/005Prospecting or detecting by optical means operating with millimetre waves, e.g. measuring the black losey radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30112Baggage; Luggage; Suitcase

Definitions

  • the invention relates to a method for processing multi-channel image recordings for the detection of hidden objects in a scene, in particular in the optoelectronic person control, in which image data from at least two spectrally different sensitive camera systems, which have largely overlapping fields of view, a picture data combination are subjected.
  • millimeter-wave image acquisition systems have proven to be a reliable optoelectronic control means for detecting security-relevant objects hidden under the clothing of persons (passengers) without tactile body searches.
  • a passive millimeter-wave imaging system in which dense millimeter-wave radiation is recorded by at least one millimeter-wave frequency scanning system and a plurality of beam formers from a two-dimensional field of view.
  • the recorded radiation is amplified and divided into two separate blocks, which are assigned to the horizontal and the vertical direction.
  • two-dimensional images of a target object are generated at a frame rate of 30 Hz (standard video frequency) with the frequency band selected between 75.5-93.5 GHz to achieve a good balance between clothing penetration, spatial resolution and to get a compact design of the system.
  • US 2005/0231421 A1 and US 2005/0232459 A1 describe imaging scanning systems in which millimeter-wave radiation and radiation of a different wavelength are used in each case for image generation.
  • the image generated from the other wavelength has a higher spatial resolution compared to the image produced with millimeter-wave radiation in order to improve the detection of clothing-hidden objects with the higher image resolution and the privacy of the monitored persons through the lower-resolution millimeter-wave image protect.
  • features are then formed by correlation of the data, which are then classified by logical combination and the results are displayed. It can then draw conclusions about found anomalies (hidden objects) and / or trigger an alarm.
  • the disadvantage here is the necessary restriction to "suspicious areas" in order to avoid the proscribed nude scanner effect of the millimeter wave image and the relatively low resolution in the identification of a detected hidden object.
  • US 2006/0006322 describes weighted noise compensation for the contrast enhancement of millimeter-wave imaging techniques, which compensates in particular for random, unpredictable effects of noise in the output signals of a plurality of radiometer channels.
  • each channel is individually weighted as a function of the reciprocal of the standard deviation of the fluctuations of the output signal and then the intensities of each pixel are linked by addition of the successively weighted signals associated with that pixel for the image composition of the millimeter wave image.
  • US 2008/0043102 A1 discloses a monitoring system which combines a millimeter-wave image from a first sensor system with a second supplementary system that supplies further object information.
  • the supplementary system can be a second sensor system, but also a non-imaging source of object information in order to classify objects or their features.
  • nothing specific about how the possible operations, combination, comparison, or appropriate manipulations of data are applied to extract and identify suspicious objects associated with an imaged person is related by linking the different image or information sources. It remains to select suspect areas to be treated with higher resolution or image enhancement algorithms, the selection of which is due to the appearance of a "wavy texture" in the vicinity of the suspect object.
  • US 2009/0041293 A1 describes an imaging system for detecting hidden objects on the basis of several millimeter-wave cameras.
  • a conventional video camera with the same field of view is arranged whose signals are synchronized with one another in real time in order to display hidden objects on a video monitor from differences of the different millimeter-wave images.
  • the invention has for its object to find a new way to process multi-channel image recordings for the detection of hidden objects in a scene, especially in optoelectronic person control, which achieves an improvement in the detection of hidden objects without the so-called. Naked Scanner effect of millimeter waves -Sampling occurs.
  • the object in a method for processing multichannel image recordings for the detection of hidden objects in a scene, in particular in the optoelectronic person control, in which image data from at least two spectrally different sensitive camera systems, which have largely overlapping fields of view, an image data combination are subjected solved by the following steps: (1) taking images in image channels of different frequency ranges as two-dimensional image data, obtaining an image channel from the range of the millimeter waves and synchronizing the output images of the different channels to each other if the scanning is performed at different refresh rates; (2) image enhancement by filter operation, in which at least one noise suppression is performed in a low-resolution image channel, (3) generating a mask image from the image data of at least one image channel, wherein the image data is discriminated into at least two classes of pixels, (4) transforming the image data of each image channel into a Gaussian and Laplacian pyramid and of the mask image into a mask pyramid suitable for this purpose, wherein quadratic regions with matching fields of view are respectively selected from the read-
  • the mask image is generated by means of a fixed threshold value or by means of an adaptable threshold value, the adjustable threshold value being calculated from a histogram distribution of a read-out image.
  • the threshold value can be calculated appropriately by the median value of the histogram.
  • the threshold value is determined from a histogram analysis in which either a global minimum is sought.
  • a plurality of threshold values can also be determined if a plurality of local minima are present, and thus more than two classes of pixels within the mask image are distinguished.
  • the mask image can also be generated by means of several threshold values, for which information from at least two image channels is expediently used.
  • a first mask image is preferably generated from a first image channel and subdivided with information from a further image channel at least one further class of pixels, the information from the further image channel being used to calculate at least one further threshold value.
  • a first two-class mask image is generated from the image channel in the millimeter wave range and a second multi-layer mask image is generated from the first mask image and an image from a longer wavelength image channel.
  • the threshold values for the multilevel mask image can be advantageously obtained by histogram evaluation of the image data from an IR channel.
  • the generated two- or more-class mask image is preferably converted into a mask image pyramid for the image fusion in such a way that an adequate data structure to the Laplace pyramids of the individual image channels generated from the image transformation arises by a stepwise reduction of the resolution of the mask image.
  • the image fusion is preferably carried out on the basis of a merger of the Laplace pyramids of two image channels, wherein those pixels of the individual Laplace pyramid levels are determined from corresponding pixels of the individual with the mask pyramid weighted Laplace pyramid levels that have the largest value in terms ,
  • the image fusion may suitably be based on a fusion of the Laplacian pyramids of at least three image channels, wherein the combination with the mask pyramid is replaced by a combination with the Laplacian pyramid of an additional image channel and from corresponding pixels of the individual Laplacian pyramids. Pyramid levels those pixels are determined, which have the largest amount in value.
  • Further image enhancement of the image of a low-resolution image channel may be advantageously made by using data from at least one higher-resolution image channel at a higher refresh rate by providing a priori information on movements within at least one higher-resolution image channel at a higher refresh rate to the image of the low resolving image channel.
  • the invention is based on the basic idea that the data of different image channels recorded in addition to a millimeter-wave channel can likewise be processed so as to improve the detection of hidden objects in such a way that a naked representation of the examined person does not take place.
  • the core of the solution according to the invention is the combination of pixel-based (Gauss-Laplace transformation) and object-based generation of mask images and a real-time fusion of Gauss-Laplace-transformed image data from at least two image channels of different wavelengths and / or different resolution.
  • FIG. 2 shows a flow of the invention with extension to three image channels with THz, IR and VIS camera
  • FIG. 3 shows an embodiment of the invention according to FIG. 3 with additional image enhancement in the low-resolution THz image channel by a priori information from the other image channels, FIG.
  • FIG. 4 shows an embodiment of image fusion from three image channels using a Gauss-Laplace transformation and weighting Laplace planes with values from equivalently transformed mask images from two video image channels (IR, VIS);
  • FIG. 5 shows a modified embodiment of the invention in which the mask image pyramid is replaced by a Laplace pyramid of at least one additionally required image channel.
  • the method of image generation for detecting hidden objects by combining signals from several separate image channels of different spectral sensitivity consists in its basic algorithm - as shown in block diagram in FIG. 1 - of six essential steps: 1. image recording with at least two spectrally different image recording systems, 2. image preprocessing for image enhancement by at least one noise suppression, 3. Object mask generation from images of at least one image channel, 4. transformation (Gauss-Laplace pyramids) of images from at least one other image channel and adequate transformation of the mask image, 5. Image fusion by fusion of the Laplace pyramids with additional local adaptive weighting 6. Back transformation of the weighted Laplace pyramids into a fused result image.
  • an image acquisition unit which has a camera system with at least two spectrally different image channels
  • cameras of different wavelengths or frequency ranges generate two-dimensional image data from one and the same object, wherein the cameras may have different resolutions and frame rates, but must always be aligned with one another
  • FOV field of view
  • one millimeter-wave receiving system is used as one of the image channels without restricting the generality of the subsequent method for processing multichannel image recordings, while at least one further image channel uses image data from the infrared (IR ) to visible (VIS) spectral range.
  • IR infrared
  • VIS visible
  • a spectral channel is relatively narrowband within the millimeter-wave range (between 100 GHz and 10 THz and 3 mm to 0.3 mm) sensitive to the Clothing to be able to penetrate, and for the (at least one) further channel at least a relatively wide spectral band from the range of infrared (10 THz to 300 THz or 0.3 mm to 780 nm) and / or the visible frequency range (300 THz and 1 PHz or 780 nm to 300 nm) is selected.
  • the method of image formation for the detection of hidden objects has in detail the following sequence according to FIG. 1.
  • the first step of the method consists in the synchronized provision of recorded image data by means of an image acquisition unit 1, which provides the image data from a first camera 11 and a second camera 12 (optionally, further cameras can be up to a camera 1 n) as two-dimensional camera images.
  • the image data of at least one of the image channels are processed by subjecting the read-out image to an edge-preserving noise suppression.
  • an edge-preserving noise suppression For usable methods for a first image improvement can be taken from the prior art in many forms (see, eg, Bernd Jähne: Digital Image Processing, 4 Edition, Springer Verlag Berlin Heidelberg New York, 1997, Chapter 11.5, p 342 ff.)
  • a mask image is created for at least one selected preprocessed camera image, which distinguishes two classes, namely background and object pixels, so that a separation of object and image background is possible.
  • the channel is selected with which the separation of background and object (person) can best be realized.
  • the background separation is realized in this example (binarization) with the help of a threshold, which is either adjustable or calculated from a histogram distribution.
  • a threshold which is either adjustable or calculated from a histogram distribution.
  • the image data of the various video channels are decomposed into a Gaussian and a Laplace pyramid.
  • This transformation rule of the Gaussian and Laplace pyramids is a well-known method for data reduction and -manipulation and can be found in its main features of the monograph (Bernd Jähne: Digital Image Processing, 4 Edition, Springer Verlag Berlin Heidelberg New York, 1997, Chapter 5.2, page 149 ff.).
  • a Gaussian pyramid is first constructed. It should be noted that the original image must have a page length of 2n pixels. For this purpose, either a square area is selected in a rectangular original image or, if necessary, the image is divided into several square image blocks.
  • the original image represents the lowest pyramidal plane G0.
  • the low-pass filtering is realized by a mathematical convolution with a Gaussian bell, wherein the image is practically folded with a binomial filter.
  • the images are in the form of a Gaussian pyramid, each representing a certain frequency component.
  • Each successor of an image plane has only 1/4 of the pixels of the previous level. From the present Gaussian pyramid a Laplace pyramid is then developed.
  • a Laplacian pyramidal plane is achieved by forming the difference of two adjacent gaussian pyramidal planes. It should be noted that these two levels must be the same size. This is achieved by expansion of the successor level. The gray value of the newly added pixels is calculated by interpolation of the two existing neighboring pixels. The individual Laplacepyramidenebenen represent the sharpness portions of an image.
  • the Laplace pyramidal level L0 contains the highest frequency components and the levels below it the remaining lower frequency components.
  • This image data decomposition is a prerequisite for the following combination step based on a multi-resolution method.
  • a sibling step 41 for adapting the mask image data to the size and structure of the Laplace pyramids mask image pyramids are generated from the mask images generated in step 3. This is done by a gradual reduction (each halving one side) of the resolution of the mask image to obtain a Laplace pyramid adequate data structure.
  • the image data is merged by the combination of the calculated Laplace pyramids (multiresolution method) of the individual video data channels (picture channels).
  • the corresponding Laplace pyramids are weighted with the created mask images from step 3.
  • the mask image pyramids formed in step 41 from the mask images, which are adequate for the Laplace pyramids, are used.
  • the pixels are selected, which have the largest value in terms of value, since this corresponds to the maximum information. The pixels selected in this way represent the resulting (fused) Laplace pyramid.
  • the direct fusion result in the form of the fused Laplace pyramid is created by the inverse transformation of the Laplace pyramid into a result image. If the Gaussian and Laplace pyramid transformation according to Jähne (loc. Cit.) Has been used, the rule of inverse transformation given there can be used.
  • the two-channel method described above has been extended to three channels.
  • additional image data in the infrared (IR) region and in the visible (VIS) spectral region are provided in the first step of image acquisition in addition to the millimeter-wave channel selected by the application (recorded by the THz camera 11).
  • the IR camera 12 operates in the range 7.5... 14 .mu.m
  • the VIS camera 13 is sensitive in the range 300... 780 nm.
  • the second step of the image enhancement 2 takes place again in the millimeter-wave channel as in the previous example, but can also be applied to the image data from the IR channel.
  • Noise suppression edge-preserving noise filtering
  • a THz image filter 21 in which the read-out image is processed with a noise-canceling and edge-preserving algorithm, e.g. through a median filter, is preprocessed.
  • the third step of the mask image generation 3 is modified for the present three channels as follows.
  • a first mask image 31 (THz mask), which distinguishes two classes of pixel data, background and person, is created with the aid of a histogram-supported threshold value.
  • the median of the histogram is used to determine the threshold value.
  • Another determination of the threshold value is based on a histogram analysis in which a local minimum is sought. If there are several local minima, several thresholds can be used and thus more than two classes can be distinguished. If only one class subdivision is needed, we use the global minimum for the calculation of the one threshold from the histogram analysis.
  • a second mask image 32 is created which discriminates three classes of pixel data, namely background, person and hidden object.
  • the advantageous properties - the temperature measurement of surfaces, - the higher radiometric and geometric resolution as well - the higher refresh rate the IR camera 12 exploited.
  • a second mask image for distinguishing between the person and the hidden object can be generated from the first mask image, the THz mask.
  • the subsequent step of the image fusion 5 is likewise extended by one channel compared to the example according to FIG. 1 and is illustrated in more detail in its calculation structure of the planar combination of the Laplace pyramids in FIG.
  • a weighting is carried out with the mask data (mask image pyramid) originating from step 3, wherein the second mask image 32, which subdivides the image information from the two channels, THz camera 11 and IR camera 12, in the three pixel classes (background, person and hidden object) includes, equally applied as pyramid transformation plane by level on the combined Laplace pyramidal plane.
  • the image data provided per channel in each pyramid level of data reduction is generated by averaging from adjacent pixel data interpolated new pixel data, which is then fused to the similarly generated mask image pyramid level at the subsequent level.
  • the pixels are selected from the corresponding pixels of the individual weighted Laplace pyramid levels, which have the largest value in terms of amount.
  • the pixels selected in this way represent the resulting (fused) Laplacian pyramidal plane, which then in the sixth step results in an object-extracted result image by inverse transformation of the fused Laplacian pyramid.
  • This fused result image is distinguished by the fact that despite the garment-permeating THz image data, an image display is displayed which does not allow the controlled person to be nude and nevertheless provides a much clearer display of objects hidden beneath the clothing, as well as a better spatial assignment (resolution) hidden objects on the person.
  • the THz camera 11 is in the range of 0.85 ... 0.9 mm (0.34 THz ... 0.35), the IR camera 12 in the range of 7.5 ... 14 microns and the VIS camera 13 in the range from 300 ... 780 nm sensitive.
  • image data processing over that of FIG. 2 is the use of data from image channels with higher spatial resolution (image data from IR camera 12 and VIS camera 13) for image enhancement of low resolution channels (in this case: the millimeter wave data from FIG THz camera 11) reached.
  • the second process step of image enhancement before the image data is transformed into Gaussian and Laplace pyramids, is supplemented by the following measures (steps):
  • a-priori information can be derived to predictive calculations (forecast evaluation) 22 perform the example be used for the precalculation of persons or object movements.
  • the a priori information of person or object movements obtained from the step of prediction calculations 22 are then used for image enhancement of the THz image data according to the edge preserving noise reduction already applied in the basic version.
  • the a-priori information is processed by means of a Kalman filter. Further improvement of the THz image can be achieved by subpixel interpolation. This includes the movement information (direction, speed and rotation) .
  • FIG. 5 A further modified fusion process is shown in FIG. 5.
  • at least three image channels must be present in order to accomplish the task of improved image resolution (for hidden objects) and suppression of the nude scanner effect.
  • the spectral sensitivity ranges should be set as follows: THz camera 11: 0.85 mm, IR camera 12: 7.5 ... 14 ⁇ m, VIS camera 13: 300 ... 780 nm.
  • This example builds on the embodiment of Fig. 3, but aims at a shortened or unified image data processing by the mask image generation (and their adequate pyramid production) is omitted in favor of a thereby necessarily existing third image channel (here: next to THz and VIS Channels at least one IR channel), which should be optionally present in the embodiments of FIGS. 2 and 3 only for further (minor) improvement of the result image.
  • a third image channel here: next to THz and VIS Channels at least one IR channel
  • the preprocessing of the low-resolution millimeter-wave channel of the THz camera 11 in the second processing step is particularly expedient by additional a-priori information from the high-resolution image channels of the IR camera 12 and the VIS camera 13.
  • THz image filter 21 eg Kalman filter
  • THz image filter 21 still allows a degraded but usable variant.

Abstract

The invention relates to a method for processing multi-channel image recordings in order to detect hidden objects in a scene, wherein image data from at least two spectrally different camera systems having overlapping fields of vision are subjected to an image data combination. The aim of finding a new possibility for processing multi-channel image recordings for the optoelectronic inspection of persons that achieves an improvement in the detection of hidden objects without the so-called full-body-scanner effect of the millimeter wave scan appearing is achieved according to the invention in that images are recorded as two-dimensional image data in image channels having different frequency ranges, a mask image is produced from the image data of at least one image channel, wherein the image data are differentiated into at least two classes of pixels, the image data of each image channel are transformed into a Gaussian and Laplacian pyramid and the image data of the mask image are transformed into a mask image pyramid adequate therefor, and the image data of the Laplacian pyramids of the individual image channels are combined with the mask image pyramid at pyramid levels that correspond to each other, and then the Laplacian pyramids from corresponding image points of the same pyramid levels are merged into the resulting Laplacian pyramid on the basis of a comparison criterion.

Description

Verfahren zur Verarbeitung von mehrkanaligen Bildaufnahmen für die Detektion von verborgenen Gegenständen bei der optoelektronischen PersonenkontrolleMethod for processing multi-channel image recordings for the detection of hidden objects in opto-electronic person control
Die Erfindung betrifft ein Verfahren zur Verarbeitung von mehrkanaligen Bildaufnahmen für die Detektion von verborgenen Gegenständen in einer Szene, insbesondere bei der optoelektronischen Personenkontrolle, bei dem Bilddaten aus mindestens zwei spektral unterschiedlich empfindlichen Kamerasystemen, die einander weitgehend überlappende Gesichtsfelder aufweisen, einer Bilddatenkombination unterzogen werden. The invention relates to a method for processing multi-channel image recordings for the detection of hidden objects in a scene, in particular in the optoelectronic person control, in which image data from at least two spectrally different sensitive camera systems, which have largely overlapping fields of view, a picture data combination are subjected.
Bei der Personenkontrolle zum Nachweis versteckter Gegenstände, insbesondere bei der Sicherheitskontrolle im Passagierflugverkehr, haben sich auf Basis von Millimeterwellen-Bildaufnahmesystemen als eine zuverlässige optoelektronische Kontrollmöglichkeit erwiesen, um ohne taktile Leibesvisitationen unter der Kleidung von Personen (Passagieren) verborgene sicherheitsrelevante Gegenstände nachzuweisen.In the case of person detection to detect hidden objects, in particular in passenger air traffic control, millimeter-wave image acquisition systems have proven to be a reliable optoelectronic control means for detecting security-relevant objects hidden under the clothing of persons (passengers) without tactile body searches.
So ist z.B. aus der US 2005/0116947 A1 ein passives Millimeterwellen-Abbildungssystem bekannt, bei dem mit mindestens einem Millimeterwellenfrequenz-Abtastsystem und mehreren Strahlformern von einem zweidimensionalen Gesichtsfeld dichte Millimeterwellenstrahlung aufgenommen wird. Dabei wird die aufgenommene Strahlung verstärkt und in zwei separate Blöcke aufgeteilt, die der Horizontal- und der Vertikalrichtung zugeordnet sind. Durch simultane Signaldetektion der Signalstärken innerhalb jedes Strahls werden zweidimensionale Bilder eines Zielobjekts mit einer Bildrate von 30 Hz (Standard-Videofrequenz) erzeugt, wobei das Frequenzband zwischen 75,5 – 93,5 GHz ausgewählt wurde, um eine gute Balance zwischen Kleidungsdurchdringung, räumlicher Auflösung und kompakter Bauweise des Systems zu erhalten. Durch ausschließliche Messung der natürlichen Wärmeemission von Lebewesen (Personen) in Gegenüberstellung zu natürlichen Umgebungsquellen (wie z.B. des kalten Himmels) kann ein sehr guter Kontrast von reflektierenden Objekten, die unter der Kleidung versteckt sind, erzielt werden. Für Personenkontrollen in geschlossenen Gebäuden ist bei diesem Detektionsverfahren der Kontrast jedoch zu gering.For example, e.g. from US 2005/0116947 A1 discloses a passive millimeter-wave imaging system in which dense millimeter-wave radiation is recorded by at least one millimeter-wave frequency scanning system and a plurality of beam formers from a two-dimensional field of view. In this case, the recorded radiation is amplified and divided into two separate blocks, which are assigned to the horizontal and the vertical direction. By simultaneous signal detection of the signal strengths within each beam, two-dimensional images of a target object are generated at a frame rate of 30 Hz (standard video frequency) with the frequency band selected between 75.5-93.5 GHz to achieve a good balance between clothing penetration, spatial resolution and to get a compact design of the system. By only measuring the natural heat emission of living beings (persons) in contrast to natural environmental sources (such as the cold sky), a very good contrast of reflective objects hidden under the clothing can be achieved. For personal checks in closed buildings, however, the contrast is too low in this detection method.
In der US 2005/0231421 A1 und US 2005/0232459 A1 sind bildgebende Abtastsysteme beschrieben, bei denen Millimeterwellen-Strahlung und Strahlung einer anderen Wellenlänge jeweils zu Bilderzeugung verwendet werden. Dabei weist das aus der anderen Wellenlänge erzeugte Bild gegenüber dem mit Millimeterwellenstrahlung erzeugten Bild eine höhere räumliche Auflösung auf, um mit der höheren Bildauflösung die Detektion von unter der Kleidung verborgenen Objekten zu verbessern und durch das geringer aufgelöste Millimeterwellen-Bild die Privatsphäre der überwachten Personen zu schützen. Aus den akquirierten Daten der verschiedenen Aufnahmesysteme werden dann durch Korrelation der Daten Merkmale gebildet, die anschließend durch logische Kombination klassifiziert und die Ergebnisse angezeigt werden. Daraus können dann Schlussfolgerungen über gefundene Anomalien (versteckte Objekte) gezogen und/oder ein Alarm ausgelöst werden. Nachteilig ist hierbei die nötige Beschränkung auf „verdächtige Bereiche“, um den verpönten Nacktscannereffekt des Millimeterwellenbildes zu vermeiden sowie die relativ geringe Auflösung bei der Identifikation eines detektierten verborgenen Objekts.US 2005/0231421 A1 and US 2005/0232459 A1 describe imaging scanning systems in which millimeter-wave radiation and radiation of a different wavelength are used in each case for image generation. In this case, the image generated from the other wavelength has a higher spatial resolution compared to the image produced with millimeter-wave radiation in order to improve the detection of clothing-hidden objects with the higher image resolution and the privacy of the monitored persons through the lower-resolution millimeter-wave image protect. From the acquired data of the various recording systems, features are then formed by correlation of the data, which are then classified by logical combination and the results are displayed. It can then draw conclusions about found anomalies (hidden objects) and / or trigger an alarm. The disadvantage here is the necessary restriction to "suspicious areas" in order to avoid the proscribed nude scanner effect of the millimeter wave image and the relatively low resolution in the identification of a detected hidden object.
Ferner ist in der US 2006/0006322 eine gewichtete Rauschkompensation für die Kontrastverbesserung von Millimeterwellen-Bildgebungsverfahren beschrieben, mit der insbesondere zufällige, unvorhersagbare Effekte des Rauschens der Ausgangssignale einer Vielzahl von Radiometerkanälen kompensiert werden. Dabei wird jeder Kanal in Abhängigkeit vom Reziprokwert der Standardabweichung der Schwankungen des Ausgangssignals individuell gewichtet und dann die Intensitäten jedes Pixels durch Addition der aufeinanderfolgend gewichteten, diesem Pixel zugeordneten Signale für die Bildzusammensetzung des Millimeterwellenbildes verknüpft. Further, US 2006/0006322 describes weighted noise compensation for the contrast enhancement of millimeter-wave imaging techniques, which compensates in particular for random, unpredictable effects of noise in the output signals of a plurality of radiometer channels. In this case, each channel is individually weighted as a function of the reciprocal of the standard deviation of the fluctuations of the output signal and then the intensities of each pixel are linked by addition of the successively weighted signals associated with that pixel for the image composition of the millimeter wave image.
Des Weiteren ist in der US 2008/0043102 A1 ein Überwachungssystem offenbart, das ein Millimeterwellen-Bild aus einem ersten Sensorsystem mit einem zweiten ergänzenden System, das weitere Objektinformationen liefert, verknüpft. Dabei kann das ergänzende System ein zweites Sensorsystem, aber auch eine nichtabbildende Quelle von Objektinformationen sein, um Objekte oder deren Merkmale zu klassifizieren. Über die Verknüpfung der unterschiedlichen Bild- oder Informationsquellen ist jedoch nichts Genaueres mitgeteilt, wie die möglichen Operationen, Kombination, Vergleich oder geeignete Manipulationen von Daten, anzuwenden sind, um verdächtige Objekte, die einer abgebildeten Person zugeordnet sind, zu extrahieren und zu identifizieren. Es bleibt bei der Auswahl verdächtiger Bereiche, die mit höherer Auflösung oder Bildverbesserungsalgorithmen behandelt werden sollen, wobei deren Auswahl aufgrund des Auftretens einer „welligen Textur“ in der Nähe des verdächtigen Objekts erfolgt.Furthermore, US 2008/0043102 A1 discloses a monitoring system which combines a millimeter-wave image from a first sensor system with a second supplementary system that supplies further object information. In this case, the supplementary system can be a second sensor system, but also a non-imaging source of object information in order to classify objects or their features. However, nothing specific about how the possible operations, combination, comparison, or appropriate manipulations of data are applied to extract and identify suspicious objects associated with an imaged person is related by linking the different image or information sources. It remains to select suspect areas to be treated with higher resolution or image enhancement algorithms, the selection of which is due to the appearance of a "wavy texture" in the vicinity of the suspect object.
Weiterhin ist in der US 2009/0041293 A1 ein Abbildungssystem zum Nachweis versteckter Objekte auf Basis von mehreren Millimeterwellenkameras beschrieben. Zusätzlich ist zu jeder Millimeterwellenkamera eine herkömmliche Videokamera mit gleichem Gesichtsfeld angeordnet, deren Signale synchronisiert in Echtzeit miteinander überlagert werden, um aus Differenzen der unterschiedlichen Millimeterwellenbilder versteckte Objekte auf einem Videomonitor anzuzeigen.Furthermore, US 2009/0041293 A1 describes an imaging system for detecting hidden objects on the basis of several millimeter-wave cameras. In addition, for each millimeter-wave camera, a conventional video camera with the same field of view is arranged whose signals are synchronized with one another in real time in order to display hidden objects on a video monitor from differences of the different millimeter-wave images.
Aus den drei letztgenannten Lösungen mit verbesserter Bilderzeugung und -verarbeitung von Millimeterwellensignalen zur Erkennung von mitgeführten Objekten bei der Personenkontrolle sind keine Maßnahmen zur Unterdrückung des Nacktscannereffekts der Millimeterwellen-Bilderzeugung beschrieben.From the three latter solutions with improved image generation and processing of millimeter-wave signals for detection of entrained objects in person control, no measures for suppressing the nude scanner effect of millimeter-wave imaging are described.
Der Erfindung liegt die Aufgabe zugrunde, eine neue Möglichkeit zur Verarbeitung von mehrkanaligen Bildaufnahmen für die Detektion von verborgenen Gegenständen in einer Szene, insbesondere bei der optoelektronischen Personenkontrolle zu finden, die eine Verbesserung des Nachweises verborgener Objekte erreicht, ohne dass der sog. Nacktscannereffekt der Millimeterwellen-Abtastung in Erscheinung tritt.The invention has for its object to find a new way to process multi-channel image recordings for the detection of hidden objects in a scene, especially in optoelectronic person control, which achieves an improvement in the detection of hidden objects without the so-called. Naked Scanner effect of millimeter waves -Sampling occurs.
Erfindungsgemäß wird die Aufgabe bei einem Verfahren zur Verarbeitung von mehrkanaligen Bildaufnahmen für die Detektion von verborgenen Gegenständen in einer Szene, insbesondere bei der optoelektronischen Personenkontrolle, bei dem Bilddaten aus mindestens zwei spektral unterschiedlich empfindlichen Kamerasystemen, die einander weitgehend überlappende Gesichtsfelder aufweisen, einer Bilddatenkombination unterzogen werden, gelöst durch folgende Schritte:
(1) Aufnehmen von Bildern in Bildkanälen unterschiedlicher Frequenzbereiche als zweidimensionale Bilddaten, wobei ein Bildkanal aus dem Bereich der Milimeterwellen gewonnen wird und die ausgegebenen Bilder der unterschiedlichen Kanäle zueinander synchronisiert werden, falls die Abtastung mit unterschiedlichen Bildwiederholfrequenzen erfolgt,
(2) Bildverbesserung mittels Filteroperation, bei der mindestens eine Rausch­unterdrückung in einem niedrigauflösenden Bildkanal durchgeführt wird,
(3) Erzeugung eines Maskenbildes aus den Bilddaten mindestens eines Bildkanals, bei der die Bilddaten in wenigstens zwei Klassen von Pixeln unterschieden werden,
(4) Transformation der Bilddaten jedes Bildkanals in eine Gauss- und Laplace-Pyramide und des Maskenbildes in eine dazu adäquate Maskenbildpyramide, wobei aus den ausgelesenen Bilddaten jeweils quadratische Bereiche mit übereinstimmenden Gesichtsfeldern ausgewählt werden,
(5) Fusion der transformierten Bilddaten der Laplace-Pyramiden der einzelnen Bildkanäle mit der Maskenbildpyramide in zueinander korrespondierenden Pyramidenebenen und anschließende Verschmelzung der Laplace-Pyramiden der einzelnen Bildkanäle zu einer resultierenden Laplace-Pyramide, wobei aus korrespondierenden Bildpunkten innerhalb gleicher Pyramidenebenen der einzelnen Laplace-Pyramiden auf Basis eines relativen Vergleichkriteriums ermittelt wird und die resultierenden Bildpunkte ebenenweise zur resultierenden Laplace-Pyramide zusammengefügt werden, und
(6) Rücktransformation der erzeugten resultierenden Laplace-Pyramide in ein fusioniertes Ergebnisbild.
According to the invention, the object in a method for processing multichannel image recordings for the detection of hidden objects in a scene, in particular in the optoelectronic person control, in which image data from at least two spectrally different sensitive camera systems, which have largely overlapping fields of view, an image data combination are subjected solved by the following steps:
(1) taking images in image channels of different frequency ranges as two-dimensional image data, obtaining an image channel from the range of the millimeter waves and synchronizing the output images of the different channels to each other if the scanning is performed at different refresh rates;
(2) image enhancement by filter operation, in which at least one noise suppression is performed in a low-resolution image channel,
(3) generating a mask image from the image data of at least one image channel, wherein the image data is discriminated into at least two classes of pixels,
(4) transforming the image data of each image channel into a Gaussian and Laplacian pyramid and of the mask image into a mask pyramid suitable for this purpose, wherein quadratic regions with matching fields of view are respectively selected from the read-out image data,
(5) Fusion of the transformed image data of the Laplace pyramids of the individual image channels with the mask image pyramid in mutually corresponding pyramidal planes and subsequent fusion of the Laplace pyramids of the individual image channels to a resulting Laplacian pyramid, wherein corresponding pixels within the same pyramidal planes of the individual Laplace pyramids is determined on the basis of a relative comparison criterion and the resulting pixels are joined together plane by layer to the resulting Laplace pyramid, and
(6) Back transformation of the resulting resulting Laplace pyramid into a fused result image.
Vorteilhaft wird das Maskenbild mit Hilfe eines fest einstellbaren Schwellwertes oder mittels eines anpassbaren Schwellwertes erzeugt, wobei der anpassbare Schwellwert aus einer Histogrammverteilung eines ausgelesenen Bildes berechnet wird.Dabei kann der Schwellwert zweckmäßig durch den Medianwert des Histogramms berechnet werden.Advantageously, the mask image is generated by means of a fixed threshold value or by means of an adaptable threshold value, the adjustable threshold value being calculated from a histogram distribution of a read-out image. The threshold value can be calculated appropriately by the median value of the histogram.
In einer weiteren vorteilhaften Variante wird der Schwellwert aus einer Histogrammanalyse bestimmt, bei der entweder ein globales Minimum gesucht wird.In a further advantageous variant, the threshold value is determined from a histogram analysis in which either a global minimum is sought.
Weiterhin können mittels der Histogrammanalyse auch mehrere Schwellwerte ermittelt werden, falls mehrere lokale Minima vorhanden sind, und damit mehr als zwei Klassen von Pixeln innerhalb des Maskenbildes unterschieden werden.Furthermore, by means of the histogram analysis, a plurality of threshold values can also be determined if a plurality of local minima are present, and thus more than two classes of pixels within the mask image are distinguished.
Das Maskenbild kann außerdem mit Hilfe mehrerer Schwellwerte erzeugt werden, indem dazu zweckmäßig Informationen aus mindestens zwei Bildkanälen verwendet werden. Dabei wird vorzugsweise aus einem ersten Bildkanal ein erstes Maskenbild erzeugt und mit Informationen aus einem weiteren Bildkanal mindestens eine weitere Klasse von Pixeln unterteilt, wobei die Informationen aus dem weiteren Bildkanal zur Berechnung mindestens eines weiteren Schwellwertes verwendet werden.The mask image can also be generated by means of several threshold values, for which information from at least two image channels is expediently used. In this case, a first mask image is preferably generated from a first image channel and subdivided with information from a further image channel at least one further class of pixels, the information from the further image channel being used to calculate at least one further threshold value.
Vorteilhaft wird ein erstes zweiklassiges Maskenbild aus dem Bildkanal im Millimeterwellenbereich und ein zweites mehrklassiges Maskenbild aus dem ersten Maskenbild und einem Bild aus einem langwelligeren Bildkanal erzeugt. Dabei können die Schwellwerte für das mehrklassige Maskenbild zweckmäßig durch Histogrammauswertung der Bilddaten aus einem IR-Kanal gewonnen werden. Advantageously, a first two-class mask image is generated from the image channel in the millimeter wave range and a second multi-layer mask image is generated from the first mask image and an image from a longer wavelength image channel. In this case, the threshold values for the multilevel mask image can be advantageously obtained by histogram evaluation of the image data from an IR channel.
Das erzeugte zwei- oder mehrklassige Maskenbild wird für die Bildfusion vorzugsweise in eine Maskenbildpyramide derart umgewandelt, dass durch eine schrittweise Reduzierung der Auflösung des Maskenbildes ein adäquates Datengefüge zu den aus der Bildtransformation erzeugten Laplace-Pyramiden der einzelnen Bildkanäle entsteht.The generated two- or more-class mask image is preferably converted into a mask image pyramid for the image fusion in such a way that an adequate data structure to the Laplace pyramids of the individual image channels generated from the image transformation arises by a stepwise reduction of the resolution of the mask image.
Die Bildfusion erfolgt dabei vorzugsweise auf Basis einer Verschmelzung der Laplace-Pyramiden von zwei Bildkanälen, wobei aus korrespondierenden Bildpunkten der einzelnen mit der Maskenbildpyramide gewichteten Laplace-Pyramiden-Ebenen diejenigen Bildpunkte der einzelnen Laplace-Pyramiden-Ebenen ermittelt werden, die den betragsmäßig größten Wert besitzen.The image fusion is preferably carried out on the basis of a merger of the Laplace pyramids of two image channels, wherein those pixels of the individual Laplace pyramid levels are determined from corresponding pixels of the individual with the mask pyramid weighted Laplace pyramid levels that have the largest value in terms ,
In einer reduzierten vereinfachten Variante kann die Bildfusion zweckmäßig auf Basis einer Verschmelzung der Laplace-Pyramiden von mindestens drei Bildkanälen erfolgen, wobei die Kombination mit der Maskenbildpyramide durch eine Kombination mit der Laplace-Pyramide eines zusätzlichen Bildkanals ersetzt wird und aus korrespondierenden Bildpunkten der einzelnen Laplace-Pyramiden-Ebenen diejenigen Bildpunkte ermittelt werden, die den betragsmäßig größten Wert besitzen.In a reduced simplified variant, the image fusion may suitably be based on a fusion of the Laplacian pyramids of at least three image channels, wherein the combination with the mask pyramid is replaced by a combination with the Laplacian pyramid of an additional image channel and from corresponding pixels of the individual Laplacian pyramids. Pyramid levels those pixels are determined, which have the largest amount in value.
Eine weitere Bildverbesserung des Bildes eines niedrig auflösenden Bildkanals kann vorteilhaft durch die Verwendung von Daten aus mindestens einem höher auflösenden Bildkanal mit höherer Bildwiederholrate vorgenommen werden, indem a-priori-Informationen über Bewegungen innerhalb mindestens eines höher auflösenden Bildkanals mit höherer Bildwiederholrate auf das Bild des niedrig auflösenden Bildkanals angewendet werden.Further image enhancement of the image of a low-resolution image channel may be advantageously made by using data from at least one higher-resolution image channel at a higher refresh rate by providing a priori information on movements within at least one higher-resolution image channel at a higher refresh rate to the image of the low resolving image channel.
Die Erfindung basiert auf der Grundüberlegung, dass die Daten verschiedener, zusätzlich zu einem Millimeterwellenkanal aufgenommene Bildkanäle zur Verbesserung des Nachweises verborgener Objekte gleichermaßen so verarbeitet werden können, dass eine Nacktdarstellung der untersuchten Person nicht erfolgt. Kern der erfindungsgemäßen Lösung ist die Kombination einer pixelbasierten (Gauss-Laplace-Transformation) und objektbasierten Erzeugung von Maskenbildern sowie eine Echtzeit-Fusion von Gauss-Laplace-transformierten Bilddaten aus mindestens zwei Bildkanälen unterschiedlicher Wellenlänge und/oder verschiedener Auflösung. The invention is based on the basic idea that the data of different image channels recorded in addition to a millimeter-wave channel can likewise be processed so as to improve the detection of hidden objects in such a way that a naked representation of the examined person does not take place. The core of the solution according to the invention is the combination of pixel-based (Gauss-Laplace transformation) and object-based generation of mask images and a real-time fusion of Gauss-Laplace-transformed image data from at least two image channels of different wavelengths and / or different resolution.
Mit der Erfindung ist es möglich, ein Verfahren zur Verarbeitung von mehrkanaligen Bildaufnahmen für die Detektion von verborgenen Gegenständen in einer Szene, insbesondere bei der optoelektronische Personenkontrolle, zu realisieren, das den Nachweis und die Auflösung verborgener Objekte verbessert, ohne dass der sog. Nacktscannereffekt der Millimeterwellen-Abtastung auf dem Kontrollmonitor in Erscheinung tritt.With the invention, it is possible to realize a method for processing multichannel image recordings for the detection of hidden objects in a scene, in particular in the optoelectronic person control, which improves the detection and the resolution of hidden objects, without the so-called. Naked scanner effect of Millimeter wave scan on the control monitor appears.
Die Erfindung soll nachstehend anhand von Ausführungsbeispielen näher erläutert werden. Die Zeichnungen zeigen:The invention will be explained below with reference to exemplary embodiments. The drawings show:
Fig. 1: den Prinzipablauf des erfindungsgemäßen Verfahrens,1 shows the basic sequence of the method according to the invention,
Fig. 2: einen Ablauf der Erfindung mit Erweiterung auf drei Bildkanäle mit THz-, IR- und VIS-Kamera,2 shows a flow of the invention with extension to three image channels with THz, IR and VIS camera,
Fig. 3: eine Ausführung der Erfindung gemäß Fig. 3 mit zusätzlicher Bildverbesserung im niedrig auflösenden THz-Bildkanal durch a-priori-Informationen aus den anderen Bildkanälen,3 shows an embodiment of the invention according to FIG. 3 with additional image enhancement in the low-resolution THz image channel by a priori information from the other image channels, FIG.
Fig. 4: eine Ausführungsform der Bildfusion aus drei Bildkanälen unter Verwendung einer Gauß-Laplace-Transformation und Wichtung Laplace-Ebenen mit Werten aus äquivalent transformierten Maskenbildern aus zwei Videobildkanälen (IR, VIS);4 shows an embodiment of image fusion from three image channels using a Gauss-Laplace transformation and weighting Laplace planes with values from equivalently transformed mask images from two video image channels (IR, VIS);
Fig. 5: eine modifizierte Ausführung der Erfindung, bei der die Maskenbildpyramide durch eine Laplace-Pyramide wenigstens eines zusätzlich erforderlichen Bildkanals ersetzt wird.5 shows a modified embodiment of the invention in which the mask image pyramid is replaced by a Laplace pyramid of at least one additionally required image channel.
Das Verfahren der Bilderzeugung zur Detektion von verborgenen Objekten durch Kombination von Signalen aus mehreren separaten Bildkanälen unterschiedlicher spektraler Empfindlichkeit besteht in seinem Grundalgorithmus – wie in Fig. 1 als Blockschema dargestellt – aus sechs wesentlichen Schritten:
1. Bildaufnahme mit wenigstens zwei spektral unterschiedlichen Bildaufnahme­systemen,
2. Bildvorverarbeitung zur Bildverbesserung durch mindestens eine Rausch­unterdrückung,
3. Objektmaskenerzeugung aus Bildern von mindestens einem Bildkanal,
4. Transformation (Gauß-Laplace-Pyramiden) von Bildern aus mindestens einem anderen Bildkanal und adäquate Transformation des Maskenbildes,
5. Bildfusion durch Verschmelzung der Laplace-Pyramiden mit zusätzlicher lokal-adaptiver Wichtung,
6. Rücktransformation der gewichteten Laplace-Pyramiden in ein fusioniertes Ergebnisbild.
The method of image generation for detecting hidden objects by combining signals from several separate image channels of different spectral sensitivity consists in its basic algorithm - as shown in block diagram in FIG. 1 - of six essential steps:
1. image recording with at least two spectrally different image recording systems,
2. image preprocessing for image enhancement by at least one noise suppression,
3. Object mask generation from images of at least one image channel,
4. transformation (Gauss-Laplace pyramids) of images from at least one other image channel and adequate transformation of the mask image,
5. Image fusion by fusion of the Laplace pyramids with additional local adaptive weighting
6. Back transformation of the weighted Laplace pyramids into a fused result image.
In einer Bildaufnahmeeinheit, die ein Kamerasystem mit mindestens zwei spektral unterschiedlichen Bildkanälen aufweist, erzeugen Kameras aus unterschiedlichen Wellenlängen bzw. Frequenzbereichen zweidimensionale Bilddaten von ein und demselben Objekt, wobei die Kameras unterschiedliche Auflösungen und Bildraten haben können, jedoch stets so zueinander ausgerichtet sein müssen, dass alle Kameras 11, 12, …, 1n mit unterschiedlichen Frequenzbereiche, die in einem Ergebnisbild kombiniert werden sollen, eine möglichst große gemeinsame Schnittmenge der Gesichtsfelder (FOV – Field of View) aufweisen.In an image acquisition unit which has a camera system with at least two spectrally different image channels, cameras of different wavelengths or frequency ranges generate two-dimensional image data from one and the same object, wherein the cameras may have different resolutions and frame rates, but must always be aligned with one another All cameras 11, 12, ..., 1n with different frequency ranges, which are to be combined in a result image, have the greatest possible common intersection of the field of view (FOV).
Für die Personenkontrolle zur Feststellung verborgen mitgeführter Objekte (insbesondere Waffen und anderer sicherheitsrelevanter Gegenstände) wird – ohne Beschränkung der Allgemeinheit des nachfolgenden Verfahrens zur Verarbeitung von mehrkanaligen Bildaufnahmen – als einer der Bildkanäle ein Millimeterwellenempfangssystem verwendet, während mindestens ein weiterer Bildkanal Bilddaten aus dem infraroten (IR) bis sichtbaren (VIS) Spektralbereich aufnimmt.For person control to detect hidden objects (in particular weapons and other security-related objects), one millimeter-wave receiving system is used as one of the image channels without restricting the generality of the subsequent method for processing multichannel image recordings, while at least one further image channel uses image data from the infrared (IR ) to visible (VIS) spectral range.
Im optionsnegierten Beispiel gemäß Fig. 1 soll zunächst von zwei spektral unterschiedlichen Kanälen ausgegangen werden. Dazu werden von zwei Kameras 11 und 12, Bilder mit gleichem Gesichtsfeld (FOV) aufgenommen und zur weiteren Verarbeitung synchronisiert bereitgestellt. In the option-ordered example according to FIG. 1, initially two spectrally different channels are to be assumed. For this purpose, two cameras 11 and 12, images with the same field of view (FOV) are taken and provided synchronized for further processing.
Ohne Beschränkung der Allgemeinheit, soll wegen der beabsichtigten Personenkontrolle zur Detektion von verborgenen Gegenständen, davon ausgegangen werden, dass ein Spektralkanal relativ schmalbandig innerhalb des Millimeterwellenbereichs (zwischen 100 GHz und 10 THz bzw. 3 mm bis 0,3 mm) empfindlich ist, um die Bekleidung durchdringen zu können, und für den (mindestens einen) weiteren Kanal wenigstens ein relativ breites Spektralband aus dem Bereich von Infrarot (10 THz bis 300 THz bzw. 0,3 mm bis 780 nm) und/oder dem sichtbaren Frequenzbereich (300 THz und 1 PHz bzw. 780 nm bis 300 nm) gewählt wird.Without limiting the generality, it is believed that because of the intentional person control for the detection of hidden objects, a spectral channel is relatively narrowband within the millimeter-wave range (between 100 GHz and 10 THz and 3 mm to 0.3 mm) sensitive to the Clothing to be able to penetrate, and for the (at least one) further channel at least a relatively wide spectral band from the range of infrared (10 THz to 300 THz or 0.3 mm to 780 nm) and / or the visible frequency range (300 THz and 1 PHz or 780 nm to 300 nm) is selected.
Das Verfahren der Bilderzeugung für die Detektion von verborgenen Gegenständen hat im Einzelnen den folgenden Ablauf gemäß Fig. 1.The method of image formation for the detection of hidden objects has in detail the following sequence according to FIG. 1.
1. Der erste Schritt des Verfahrens besteht in der synchronisierten Bereitstellung aufgenommener Bilddaten mittels einer Bildaufnahmeeinheit 1, die die Bilddaten aus einer ersten Kamera 11 und einer zweiten Kamera 12 (optional können weitere Kameras bis zu einer Kamera 1n vorhanden sein) als zweidimensionale Kamerabilder bereitstellt. 1. The first step of the method consists in the synchronized provision of recorded image data by means of an image acquisition unit 1, which provides the image data from a first camera 11 and a second camera 12 (optionally, further cameras can be up to a camera 1 n) as two-dimensional camera images.
2. In einem zweiten Schritt werden die Bilddaten von mindestens einem der Bildkanäle, insbesondere von dem mit geringerer Auflösung und/oder geringerer Bildrate, bearbeitet, indem das ausgelesene Bild einer kantenerhaltenden Rauschunterdrückung unterworfen wird.
Dafür nutzbare Verfahren für eine erste Bildverbesserung können in vielfältiger Ausprägung dem Stand der Technik entnommen werden (siehe z.B. Bernd Jähne: Digitale Bildverarbeitung, 4 Auflage, Springer Verlag Berlin Heidelberg New York, 1997, Kapitel 11.5, S. 342 ff.)
2. In a second step, the image data of at least one of the image channels, in particular of the lower resolution and / or lower frame rate, are processed by subjecting the read-out image to an edge-preserving noise suppression.
For usable methods for a first image improvement can be taken from the prior art in many forms (see, eg, Bernd Jähne: Digital Image Processing, 4 Edition, Springer Verlag Berlin Heidelberg New York, 1997, Chapter 11.5, p 342 ff.)
3. In einem dritten Schritt wird für mindestens ein ausgewähltes vorverarbeitetes Kamera-Bild ein Maskenbild erstellt, das zwei Klassen, nämlich Hintergrund- und Objektpixel unterscheidet, so dass eine Trennung von Objekt und Bildhintergrund möglich ist. Bei mehren Bildkanälen wird der Kanal gewählt, mit dem am besten die Trennung von Hintergrund und Objekt (Person) realisiert werden kann. Die Hintergrundabtrennung wird in diesem Beispiel (Binarisierung) mit Hilfe eines Schwellwertes realisiert, der entweder einstellbar oder anhand einer Histogrammverteilung berechnet wird.
Dem Stand der Technik sind beliebige andere Verfahren zur Trennung von Objekt und Bildhintergrund entnehmbar, die alternativ zur Anwendung kommen können, um eine so genannte Objekt-Maske in einem Maskenbild 31 zu erzeugen.
3. In a third step, a mask image is created for at least one selected preprocessed camera image, which distinguishes two classes, namely background and object pixels, so that a separation of object and image background is possible. With several image channels, the channel is selected with which the separation of background and object (person) can best be realized. The background separation is realized in this example (binarization) with the help of a threshold, which is either adjustable or calculated from a histogram distribution.
The prior art discloses any other methods for separating object and image background, which may alternatively be used to generate a so-called object mask in a mask image 31.
4. Im vierten Schritt werden die Bilddaten der verschiedenen Videokanäle in eine Gauß- und Laplace-Pyramide zerlegt. Diese Transformationsvorschrift der Gauß- und Laplace-Pyramide ist eine allgemein bekannte Methode zur Datenreduktion und
-manipulation und kann in seinen Grundzügen der Monografie (Bernd Jähne: Digitale Bildverarbeitung, 4 Auflage, Springer Verlag Berlin Heidelberg New York, 1997, Kapitel 5.2, Seite 149 ff.) entnommen werden.
Um eine Gauß-Laplace-Pyramide zu entwickeln, wird zunächst eine Gaußpyramide konstruiert. Dabei ist zu beachten, dass das Originalbild eine Seitenlänge von 2n Pixel aufweisen muss. Dazu wird in einem rechteckigen Originalbild entweder ein quadratischer Bereich ausgewählt oder – falls erforderlich – das Bild in mehrere quadratische Bildblöcke unterteilt. Das Originalbild stellt die unterste Pyramidenebene G0 dar. Die nächste Gaußpyramidenebene G1 wird über eine Tiefpassfilterung (fg = f/2) und Halbierung der Stützstellen von G0 errechnet. Dieser Prozess wird von Ebene zu Ebene fortgesetzt, bis das „Bild“ eine Größe von nur noch einem einzigen Pixel erreicht. Die Tiefpassfilterung wird über eine mathematische Faltung mit einer Gaußglocke realisiert, wobei das Bild praktisch mit einem Binomialfilter gefaltet wird.
Nach diesem Prozess liegen die Bilder als Gaußpyramide vor, die jeweils einen gewissen Frequenzanteil repräsentieren. Jeder Nachfolger einer Bildebene besitzt nur noch 1/4 der Pixel der Vorgängerebene.
Aus der vorliegenden Gaußpyramide wird dann eine Laplace-Pyramide entwickelt. Eine Laplace-Pyramiden-Ebene wird über die Bildung der Differenz von zwei benachbarten Gaußpyramidenebenen erzielt. Dabei ist zu beachten, dass diese beiden Ebenen die gleiche Größe aufweisen müssen. Dies wird durch Expansion der Nachfolgerebene realisiert. Der Grauwert der neu hinzugefügten Pixel wird durch Interpolation der beiden vorhandenen Nachbarpixel errechnet. Die einzelnen Laplacepyramidenebenen repräsentieren die Schärfeanteile eines Bildes. Die Laplacepyramidenebene L0 beinhaltet die höchsten Frequenzanteile und die weiter darunter liegenden Ebenen die restlichen niedrigeren Frequenzanteile.
Nachdem die Gauß-Laplace-Pyramidenebene gebildet und eventuell die einzelnen Ebenen bearbeitet wurden, wird die Gauß-Laplace-Pyramide rekonstruiert, indem die gewünschten Laplacepyramidenebenen und die höchste Gaußpyramidenebene aufsummiert werden. Diese Bilddatenzerlegung ist Vorraussetzung für den nachfolgenden auf einer Multiresolution-Methode basierenden Kombinationsschritt.
In einem nebengeordneten Schritt 41 zur Anpassung der Maskenbilddaten an die Größe und Struktur der Laplace-Pyramiden werden aus den im Schritt 3 erzeugten Maskenbildern Maskenbildpyramiden erzeugt. Dies erfolgt durch eine schrittweise Reduzierung (jeweils Halbierung einer Seite) der Auflösung des Maskenbildes, um ein Laplace-Pyramiden adäquates Datengefüge zu erhalten.
4. In the fourth step, the image data of the various video channels are decomposed into a Gaussian and a Laplace pyramid. This transformation rule of the Gaussian and Laplace pyramids is a well-known method for data reduction and
-manipulation and can be found in its main features of the monograph (Bernd Jähne: Digital Image Processing, 4 Edition, Springer Verlag Berlin Heidelberg New York, 1997, Chapter 5.2, page 149 ff.).
To develop a Gauss-Laplace pyramid, a Gaussian pyramid is first constructed. It should be noted that the original image must have a page length of 2n pixels. For this purpose, either a square area is selected in a rectangular original image or, if necessary, the image is divided into several square image blocks. The original image represents the lowest pyramidal plane G0. The next Gaussian pyramid plane G1 is filtered by low-pass filtering (fG= F / 2) and halving the interpolation points of G0. This process continues from level to level until the "image" reaches a size of only a single pixel. The low-pass filtering is realized by a mathematical convolution with a Gaussian bell, wherein the image is practically folded with a binomial filter.
After this process, the images are in the form of a Gaussian pyramid, each representing a certain frequency component. Each successor of an image plane has only 1/4 of the pixels of the previous level.             
From the present Gaussian pyramid a Laplace pyramid is then developed. A Laplacian pyramidal plane is achieved by forming the difference of two adjacent gaussian pyramidal planes. It should be noted that these two levels must be the same size. This is achieved by expansion of the successor level. The gray value of the newly added pixels is calculated by interpolation of the two existing neighboring pixels. The individual Laplacepyramidenebenen represent the sharpness portions of an image. The Laplace pyramidal level L0 contains the highest frequency components and the levels below it the remaining lower frequency components.
After the Gauss-Laplace pyramidal plane has been formed and eventually the individual planes have been machined, the Gauss-Laplace pyramid is reconstructed by summing the desired Laplacepyramidenebenen and the highest Gausspyramidenebene. This image data decomposition is a prerequisite for the following combination step based on a multi-resolution method.
In a sibling step 41 for adapting the mask image data to the size and structure of the Laplace pyramids, mask image pyramids are generated from the mask images generated in step 3. This is done by a gradual reduction (each halving one side) of the resolution of the mask image to obtain a Laplace pyramid adequate data structure.
5. Im fünften Schritt (siehe Fig. 4) erfolgt eine Fusion der Bilddaten durch die Kombination der berechneten Laplace-Pyramiden (Multiresolution-Verfahren) der einzelnen Videodatenkanäle (Bildkanäle). Dabei werden die entsprechenden Laplace-Pyramiden mit den erstellten Maskenbildern aus Schritt 3 gewichtet. Für diese Wichtung der Laplace-Pyramide mit dem Maskenbild werden die in Schritt 41 aus den Maskenbildern gebildeten Maskenbildpyramiden, die den Laplace-Pyramiden adäquat sind, verwendet.
Für den abschließenden Fusionsschritt werden von allen gewichteten Laplace-Pyramiden aus den korrespondierenden Bildpunkten der einzelnen Laplace-Pyramiden-Ebenen die Bildpunkte gewählt, die den betragsmäßig größten Wert besitzen, da dieser der maximalen Information entspricht. Die auf diese Weise ausgewählten Bildpunkte stellen die resultierende (fusionierte) Laplace-Pyramide dar.
5. In the fifth step (see FIG. 4), the image data is merged by the combination of the calculated Laplace pyramids (multiresolution method) of the individual video data channels (picture channels). The corresponding Laplace pyramids are weighted with the created mask images from step 3. For this weighting of the Laplace pyramid with the mask image, the mask image pyramids formed in step 41 from the mask images, which are adequate for the Laplace pyramids, are used.
For the final fusion step of all weighted Laplace pyramids from the corresponding pixels of the individual Laplace pyramid levels, the pixels are selected, which have the largest value in terms of value, since this corresponds to the maximum information. The pixels selected in this way represent the resulting (fused) Laplace pyramid.
6. Im sechsten Schritt wird das direkte Fusionsergebnis in Form der fusionierten Laplace-Pyramide durch die Rücktransformation der Laplace-Pyramide in ein Ergebnisbild erstellt. Dafür kann – sofern die Gauss- und Laplace-Pyramiden-Transformation nach Jähne (a.a.O) verwendet wurde – die dort angegebene Vorschrift der Rücktransformation verwendet werden.6. In the sixth step, the direct fusion result in the form of the fused Laplace pyramid is created by the inverse transformation of the Laplace pyramid into a result image. If the Gaussian and Laplace pyramid transformation according to Jähne (loc. Cit.) Has been used, the rule of inverse transformation given there can be used.
In der Gestaltung gemäß Fig. 2 ist das vorstehend beschriebene Zweikanal-Verfahren auf drei Kanäle erweitert worden. In the embodiment according to FIG. 2, the two-channel method described above has been extended to three channels.
In diesem Beispiel werden im ersten Schritt der Bildaufnahme neben dem anwendungsbedingt gewählten Millimeterwellen-Kanal (aufgenommen durch die THz-Kamera 11) weitere Bilddaten im infraroten (IR-) Bereich und im sichtbaren (VIS-) Spektralbereich bereitgestellt. Ohne Beschränkung der Allgemeinheit sei in dieser Ausführung angenommen, dass die IR-Kamera 12 im Bereich 7,5 … 14 µm arbeitet, während die VIS-Kamera 13 im Bereich 300…780 nm empfindlich ist. Für die THz-Kamera 11 sei ein Frequenzband im Bereich 0,3 THz … 0,9 THz (0,3 … 1 mm) ausgewählt.In this example, additional image data in the infrared (IR) region and in the visible (VIS) spectral region are provided in the first step of image acquisition in addition to the millimeter-wave channel selected by the application (recorded by the THz camera 11). Without limiting the generality, it is assumed in this embodiment that the IR camera 12 operates in the range 7.5... 14 .mu.m, while the VIS camera 13 is sensitive in the range 300... 780 nm. For the THz camera 11, a frequency band in the range 0.3 THz ... 0.9 THz (0.3 ... 1 mm) selected.
Der zweite Schritt der Bildverbesserung 2 erfolgt wie im vorherigen Beispiel wiederum im Millimeterwellenkanal, kann aber auch auf die Bilddaten aus dem IR-Kanal angewendet werden. Die Rauschunterdrückung (kantenerhaltende Rauschfilterung) wird in diesem Beispiel durch ein THz-Bildfilter 21 vorgenommen, in dem das ausgelesene Bild mit einem rauschunterdrückenden und kantenerhaltenden Algorithmus, z.B. durch ein Median-Filter, vorverarbeitet wird.The second step of the image enhancement 2 takes place again in the millimeter-wave channel as in the previous example, but can also be applied to the image data from the IR channel. Noise suppression (edge-preserving noise filtering) is performed in this example by a THz image filter 21 in which the read-out image is processed with a noise-canceling and edge-preserving algorithm, e.g. through a median filter, is preprocessed.
Der dritte Schritt der Maskenbilderzeugung 3 wird für die vorliegenden drei Kanäle wie folgt modifiziert.The third step of the mask image generation 3 is modified for the present three channels as follows.
Aus den Bilddaten der THz-Kamera 11 wird mit Hilfe eines histogrammgestützt berechneten Schwellwertes ein erstes Maskenbild 31 (THz-Maske) erstellt, das zwei Klassen von Pixeldaten, Hintergrund und Person, unterscheidet. Für die Bestimmung des Schwellwertes wird der Median des Histogramms verwendet. From the image data of the THz camera 11, a first mask image 31 (THz mask), which distinguishes two classes of pixel data, background and person, is created with the aid of a histogram-supported threshold value. The median of the histogram is used to determine the threshold value.
Eine weitere Bestimmung des Schwellwertes basiert auf einer Histogrammanalyse, bei der ein lokales Minimum gesucht wird. Falls mehrere lokale Minima vorhanden sind, können auch mehrere Schwellwerte verwendet und damit mehr als zwei Klassen unterschieden werden. Wird nur eine Klassenunterteilung benötigt, wir aus der Histogrammanalyse das globale Minimum zur Berechnung des einen Schwellwertes verwendet.Another determination of the threshold value is based on a histogram analysis in which a local minimum is sought. If there are several local minima, several thresholds can be used and thus more than two classes can be distinguished. If only one class subdivision is needed, we use the global minimum for the calculation of the one threshold from the histogram analysis.
Aus den Bilddaten der IR-Kamera 12 und der zuvor extrahierten THz-Maske (erstes Maskenbild 31) wird ein zweites Maskenbild 32 erstellt, das drei Klassen von Pixeldaten diskriminiert, nämlich Hintergrund, Person und verborgenes Objekt. Hierbei werden die vorteilhaften Eigenschaften:
- der Temperaturmessung von Oberflächen,
- der höheren radiometrischen und geometrischen Auflösung sowie
- der höheren Bildwiederholfrequenz
der IR-Kamera 12 ausgenutzt.
From the image data of the IR camera 12 and the previously extracted THz mask (first mask image 31), a second mask image 32 is created which discriminates three classes of pixel data, namely background, person and hidden object. Here are the advantageous properties:
- the temperature measurement of surfaces,
- the higher radiometric and geometric resolution as well
- the higher refresh rate
the IR camera 12 exploited.
Aufgrund der höheren Auflösung der IR-Bildes können Kanten von Objekten oder Personen genauer detektiert werden.Due to the higher resolution of the IR image, edges of objects or persons can be detected more accurately.
Mit diesen zusätzlichen Informationen kann aus dem ersten Maskenbild, der THz-Maske, ein zweites Maskenbild zur Unterscheidung zwischen Person und verborgenem Objekt erzeugt werden.With this additional information, a second mask image for distinguishing between the person and the hidden object can be generated from the first mask image, the THz mask.
Im vierten Schritt der Transformation 4 werden – wie bereits im Basisbeispiel für zwei Kanäle erläutert – sowohl aus den bereits in der Maskenerzeugung 3 verwendeten Bilddaten in einer Maskenbildtransformation 41 durch Datenreduktion eine adäquate Maskenbildpyramide als auch aus den von der VIS-Kamera 13 als drittem Bildkanal bereitgestellten Bilddaten jeweils Gauß- und Laplace-Pyramiden berechnet, wobei infolge der einander nahezu überdeckenden Gesichtsfelder (FOV) der Kameras 11 bis 13 die gleichen quadratischen Bildbereiche in die entsprechenden Laplace-Pyramiden transformiert werden.In the fourth step of the transformation 4 - as already explained in the base example for two channels - both from the image data already used in the mask generation 3 in a mask image transformation 41 by data reduction an adequate mask pyramid and from the provided by the VIS camera 13 as a third image channel Image data each Gaussian and Laplace pyramids calculated, which are transformed as a result of the nearly overlapping fields of view (FOV) of the cameras 11 to 13, the same square image areas in the corresponding Laplace pyramids.
Der nachfolgende Schritt der Bildfusion 5 wird gegenüber dem Beispiel nach Fig. 1 ebenfalls um einen Kanal erweitert und ist in seiner Berechnungsstruktur der ebenenweise vorgenommenen Kombination der Laplace-Pyramiden in Fig. 4 ausführlicher dargestellt. The subsequent step of the image fusion 5 is likewise extended by one channel compared to the example according to FIG. 1 and is illustrated in more detail in its calculation structure of the planar combination of the Laplace pyramids in FIG.
In dieser Darstellung ist zu erkennen, dass bei der einfachen Kombination der einzelnen Laplace-Pyramidenebenen innerhalb jeder Ebene eine Wichtung mit den aus Schritt 3 stammenden Maskendaten (Maskenbildpyramide) erfolgt, wobei das zweite Maskenbild 32, das die Unterteilung der Bildinformation aus den zwei Kanälen, THz-Kamera 11 und IR-Kamera 12, in die drei Pixelklassen (Hintergrund, Person und verborgenes Objekt) beinhaltet, gleichermaßen als Pyramidentransformation ebenenweise auf die kombinierte Laplace-Pyramidenebene angewendet wird. In this illustration it can be seen that in the simple combination of the individual Laplacian pyramid levels within each plane, a weighting is carried out with the mask data (mask image pyramid) originating from step 3, wherein the second mask image 32, which subdivides the image information from the two channels, THz camera 11 and IR camera 12, in the three pixel classes (background, person and hidden object) includes, equally applied as pyramid transformation plane by level on the combined Laplace pyramidal plane.
Wesentlich ist bei dieser Prozedur, dass die pro Kanal bereitgestellten Bilddaten in jeder Pyramidenebene einer Datenreduktion durch Mittelung aus benachbarten Pixeldaten interpolierte neue Pixeldaten erzeugt werden, die dann in der darauf folgenden Ebene Gegenstand der Fusion mit der auf gleiche Weise erzeugten Maskenbild-Pyramidenebene sind. Dabei werden aus den korrespondierenden Bildpunkten der einzelnen gewichteten Laplace-Pyramiden-Ebenen die Bildpunkte gewählt, die den betragsmäßig größten Wert besitzen. What is essential in this procedure is that the image data provided per channel in each pyramid level of data reduction is generated by averaging from adjacent pixel data interpolated new pixel data, which is then fused to the similarly generated mask image pyramid level at the subsequent level. In this case, the pixels are selected from the corresponding pixels of the individual weighted Laplace pyramid levels, which have the largest value in terms of amount.
Die auf diese Weise ausgewählten Bildpunkte stellen die resultierende (fusionierte) Laplace-Pyramiden-Ebene dar, die dann im sechsten Schritt durch Rücktransformation der fusionierten Laplacepyramide zu einem objektextrahierten Ergebnisbild führt. Dieses fusionierte Ergebnisbild zeichnet sich dadurch aus, dass trotz der kleidungsdurchdringenden THz-Bilddaten eine Bilddarstellung zur Anzeige gebracht wird, die keine Nacktdarstellung der kontrollierten Person und dennoch eine weitaus deutlichere Darstellung von unter der Bekleidung verborgenen Gegenständen ermöglicht sowie eine bessere örtliche Zuordnung (Auflösung) der verborgenen Gegenstände an der Person.The pixels selected in this way represent the resulting (fused) Laplacian pyramidal plane, which then in the sixth step results in an object-extracted result image by inverse transformation of the fused Laplacian pyramid. This fused result image is distinguished by the fact that despite the garment-permeating THz image data, an image display is displayed which does not allow the controlled person to be nude and nevertheless provides a much clearer display of objects hidden beneath the clothing, as well as a better spatial assignment (resolution) hidden objects on the person.
In der Ausführungsform gemäß Fig. 3 wird eine weitere Modifikation des lokal-adaptiv gewichteten Fusionsalgorithmus gegenüber dem Beispiel gemäß Fig. 2 beschrieben. Bei gleicher Wahl der grundsätzlichen Spektralkanäle (THz, IR, VIS) wird hier jedoch die Wahl der Frequenzbänder wie folgt angenommen. Die THz-Kamera 11 sei im Bereich von 0,85 … 0,9 mm (0,34 THz … 0,35), die IR-Kamera 12 im Bereich von 7,5 … 14 µm und die VIS-Kamera 13 im Bereich von 300 … 780 nm empfindlich.In the embodiment according to FIG. 3, a further modification of the locally adaptively weighted fusion algorithm compared to the example according to FIG. 2 is described. With the same choice of the fundamental spectral channels (THz, IR, VIS), however, the choice of the frequency bands is assumed here as follows. The THz camera 11 is in the range of 0.85 ... 0.9 mm (0.34 THz ... 0.35), the IR camera 12 in the range of 7.5 ... 14 microns and the VIS camera 13 in the range from 300 ... 780 nm sensitive.
Die wesentliche Erweiterung der Bilddatenverarbeitung gegenüber der von Fig. 2 besteht in der Verwendung von Daten aus Bildkanälen mit höherer räumlicher Auflösung (Bilddaten aus IR-Kamera 12 und VIS-Kamera 13) für eine Bildverbesserung niedrigauflösender Kanäle (in diesem Fall: der Millimeterwellendaten aus der THz-Kamera 11) erreicht.The essential extension of image data processing over that of FIG. 2 is the use of data from image channels with higher spatial resolution (image data from IR camera 12 and VIS camera 13) for image enhancement of low resolution channels (in this case: the millimeter wave data from FIG THz camera 11) reached.
Dazu wird der zweite Verfahrensschritt der Bildverbesserung, bevor die Bilddaten in Gauß- und Laplace-Pyramiden transformiert werden, durch folgende Maßnahmen (Schritte) ergänzt: For this purpose, the second process step of image enhancement, before the image data is transformed into Gaussian and Laplace pyramids, is supplemented by the following measures (steps):
2.2 Aufgrund der höheren Bildauflösung der VIS- und IR-Videodaten (mindestens 5:1) und der höheren Bildwiederholfrequenz (50 Hz gegenüber 10-25 Hz der THz-Kamera 13), können a-priori-Informationen abgeleitet werden, um Vorhersage-Berechnungen (forecast evaluation) 22 durchzuführen, die z.B. zur Vorausberechnung von Personen- oder Objektbewegungen genutzt werden. 2.2 Due to the higher image resolution of the VIS and IR video data (at least 5: 1) and the higher frame rate (50 Hz vs. 10-25 Hz of the THz camera 13), a-priori information can be derived to predictive calculations (forecast evaluation) 22 perform the example be used for the precalculation of persons or object movements.
2.3 Die aus dem Schritt der Vorhersage-Berechnungen 22 gewonnenen a-priori-Informationen von Personen- oder Objektbewegungen werden dann für eine Bildverbesserung der THz-Bilddaten nach dem in der Grundversion ohnehin angewandten kantenerhaltenden Rauschminderung verwendet. Hierbei werden die a-priori-Informationen mittels eines Kalman-Filters verarbeitet. Eine weitere Verbesserung des THz-Bildes kann durch ein Subpixelinterpolation erreicht werden. Dabei gehen die Bewegungsinformationen (Richtung, Geschwindigkeit und Rotation) ein. 2.3 The a priori information of person or object movements obtained from the step of prediction calculations 22 are then used for image enhancement of the THz image data according to the edge preserving noise reduction already applied in the basic version. In this case, the a-priori information is processed by means of a Kalman filter. Further improvement of the THz image can be achieved by subpixel interpolation. This includes the movement information (direction, speed and rotation) .
Mit diesen Zusatzmaßnahmen wird eine bessere Objektverfolgung (Bewegung von überprüften Personen) und genauere Objektabgrenzung von verborgenen Objekten erreicht.With these additional measures, a better object tracking (movement of verified persons) and more precise object delimitation of hidden objects is achieved.
Ein weiter abgewandelter Fusionsablauf ist in Fig. 5 dargestellt. Bei dieser Ausführung wird von der Voraussetzung ausgegangen, dass mindestens drei Bildkanäle vorhanden sein müssen, um die Aufgabe der verbesserten Bildauflösung (für verborgene Objekte) und die Unterdrückung des Nacktscannereffekts zu erreichen.A further modified fusion process is shown in FIG. 5. In this embodiment, it is assumed that at least three image channels must be present in order to accomplish the task of improved image resolution (for hidden objects) and suppression of the nude scanner effect.
Bei den erneut in den THz-, IR- und VIS-Spektralbereichen angesiedelten Bildkanälen sollen in diesem Fall die spektralen Empfindlichkeitsbereiche wie folgt eingestellt sein:
THz-Kamera 11: 0,85 mm,
IR-Kamera 12: 7,5 … 14 µm,
VIS-Kamera 13: 300…780 nm.
In the case of the image channels residing in the THz, IR and VIS spectral ranges, in this case the spectral sensitivity ranges should be set as follows:
THz camera 11: 0.85 mm,
IR camera 12: 7.5 ... 14 μm,
VIS camera 13: 300 ... 780 nm.
Dieses Beispiel baut auf der Ausführungsvariante von Fig. 3 auf, zielt aber auf eine verkürzte bzw. vereinheitlichte Bilddatenverarbeitung ab, indem auf die Maskenbilderzeugung (sowie deren adäquater Pyramidenerzeugung) verzichtet wird zugunsten eines dadurch zwingend vorhandenen dritten Bildkanals (hier: neben THz- und VIS-Kanälen mindestens ein IR-Kanal), der in den Ausführungen gemäß den Fig. 2 und 3 lediglich zur weiteren (geringfügigen) Verbesserung des Ergebnisbildes optional vorhanden sein sollte.This example builds on the embodiment of Fig. 3, but aims at a shortened or unified image data processing by the mask image generation (and their adequate pyramid production) is omitted in favor of a thereby necessarily existing third image channel (here: next to THz and VIS Channels at least one IR channel), which should be optionally present in the embodiments of FIGS. 2 and 3 only for further (minor) improvement of the result image.
Es konnte festgestellt werden, dass mit jedem zusätzlichen hochauflösenden Bildkanal, d.h. jedem zwei übersteigenden Kanal, auch bei fest gewählter (d.h. nicht lokal-adaptiver) Wichtung der Laplace-Pyramiden der einzelnen Bildkanäle bei der Fusion zur resultierenden Laplace-Pyramide eine erhebliche Verbesserung der Bildauflösung für verborgene Objekte sowie Unterdrückung der Nacktscannereffekts erreichbar ist. It was found that with each additional high resolution image channel, i. every two channels exceeding, even with firmly chosen (i.e., not locally adaptive) weighting of the Laplace pyramids of the individual image channels in the fusion to the resulting Laplace pyramid, a considerable improvement of the image resolution for hidden objects and suppression of the nude scanner effect can be achieved.
Besonders zweckmäßig ist dabei allerdings die Vorverarbeitung des niedrig auflösenden Millimeterwellenkanals der THz-Kamera 11 im zweiten Verarbeitungs­schritt durch zusätzliche a-priori-Informationen aus den hochauflösenden Bildkanälen der IR-Kamera 12 und der VIS-Kamera 13. Eine Reduktion auf eine reine kantenerhaltende Rauschunterdrückung mit THz-Bildfilter 21 (z.B. Kalman-Filter) ermöglicht jedoch immer noch eine verschlechterte, aber nutzbare Variante.However, the preprocessing of the low-resolution millimeter-wave channel of the THz camera 11 in the second processing step is particularly expedient by additional a-priori information from the high-resolution image channels of the IR camera 12 and the VIS camera 13. A reduction to a pure edge-preserving noise suppression However, THz image filter 21 (eg Kalman filter) still allows a degraded but usable variant.
Alle übrigen Verarbeitungsschritte der Bildaufnahme, Bildtransformation in Gauß- und Laplace-Pyramiden und deren ebenenweise Fusion zur resultierenden Laplace-Pyramide und deren Rücktransformation zum fusionierten Ergebnisbild laufen in derselben, wie zu Fig. 1, 3 und 4 beschriebenen, Art und Weise ab, wobei jedoch Laplace-Pyramiden aus mindestens drei Bildkanälen notwendig für den Fusionsschritt 5 zur Verfügung stehen müssen.All other processing steps of image acquisition, image transformation in Gaussian and Laplace pyramids and their plane-wise fusion to the resulting Laplacian pyramid and their inverse transformation to the fused result image run in the same manner as described with reference to FIGS. 1, 3 and 4, in which However, Laplace pyramids from at least three image channels necessary for the fusion step 5 must be available.
Mit Hilfe der vorstehend beschriebenen Varianten des Fusionsalgorithmus auf Basis der Verschmelzung von Laplace-Pyramiden-Daten von zum Teil vorverarbeiteten (aufbereiteten und verbesserten) Daten vorgegebener Bildkanäle bzw. durch Hinzunahme zusätzlicher lokal-adaptiver Maskenbilder oder zusätzlicher Bildkanäle können verborgene Objekte besser erkannt werden, da diese Objekte nicht durch Bildinformationen der anderen Kanäle überdeckt, sondern mit diesen verbessert werden. Dabei wird insgesamt die örtliche Auflösung im Bereich der detektierten verborgenen Objekte gesteigert und zwar ohne die volle Bildgebung der Nacktscannereigenschaft der Millimeterwellen (THz-Kamera 11) im Ergebnisbild darzustellen.With the aid of the above-described variants of the fusion algorithm on the basis of the merger of Laplace pyramid data from partially preprocessed (prepared and improved) data of given image channels or by adding additional locally adaptive mask images or additional image channels, hidden objects can be better recognized these objects are not covered by image information of the other channels, but can be improved with them. Overall, the spatial resolution in the area of the detected hidden objects is increased and that without representing the full imaging of the nude scanner property of the millimeter waves (THz camera 11) in the result image.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
1 Bildaufnahme1 image acquisition
11 erste Kamera (THz-Kamera)11 first camera (THz camera)
12 zweite Kamera (IR-Kamera)12 second camera (IR camera)
13 dritte Kamera (VIS-Kamera)13 third camera (VIS camera)
1n n-te Kamera (eines Mehrkanalsystems)1n nth camera (of a multi-channel system)
2 Bildverbesserung2 image enhancement
21 Bildfilter (Rauschminderung)21 picture filters (noise reduction)
22 Vorhersageberechnung (Bewegungsvorhersage)22 Prediction calculation (motion prediction)
23 Bildverbesserung mit a priori Informationen (aus anderen Kanälen)23 Image enhancement with a priori information (from other channels)
3 Maskenbilderzeugung3 mask imaging
31 erstes Maskenbild (THz-Maske)31 first mask image (THz mask)
32 zweites Maskenbild (THz-IR-Maske)32 second mask image (THz IR mask)
4 Gauß-Laplace-Transformation4 Gauss-Laplace transform
41 Maskenbild-Transformation41 mask image transformation
5 Fusion der Laplace-Pyramiden mit Wichtung durch Maskenbild5 Fusion of the Laplace pyramids with weighting through mask image
51 THz-Laplace-Ebene51 THz Laplace plane
52 IR-Laplace-Ebene52 IR-Laplace plane
53 Masken-Laplace-Ebene53 mask Laplace plane
54 Datenreduktionsoperation54 data reduction surgery
55 Wichtungsoperation55 weighting operation
6 Rücktransformation der fusioniert gewichteten Laplace-Pyramide6 Back transformation of the fused weighted Laplace pyramid

Claims (14)

  1. Verfahren zur Verarbeitung von mehrkanaligen Bildaufnahmen für die Detektion von verborgenen Gegenständen in einer Szene, insbesondere bei der optoelektronischen Personenkontrolle, bei dem Bilddaten aus mindestens zwei spektral unterschiedlich empfindlichen Kamerasystemen, die einander weitgehend überlappende Gesichtsfelder aufweisen, einer Bilddatenkombination unterzogen werden, mit folgenden Schritten: Method for processing multichannel image recordings for the detection of hidden objects in a scene, in particular in the optoelectronic person control, in which image data from at least two spectrally differently sensitive camera systems, which have largely overlapping fields of view, are subjected to an image data combination, comprising the following steps:
    (1) Aufnehmen von Bildern in Bildkanälen unterschiedlicher Frequenzbereiche als zweidimensionale Bilddaten, wobei ein Bildkanal aus dem Bereich der Milimeterwellen gewonnen wird und die ausgegebenen Bilder der unterschiedlichen Kanäle zueinander synchronisiert werden, falls die Abtastung mit unterschiedlichen Bildwiederholfrequenzen erfolgt, (1) taking pictures in picture channels of different frequency ranges as two-dimensional picture data, whereby an image channel is obtained from the range of the millimeter waves and the output pictures of the different channels are synchronized to each other, if the scanning is performed with different picture repetition frequencies,
    (2) Bildverbesserung mittels Filteroperation, bei der mindestens eine Rausch­unterdrückung in einem niedrigauflösenden Bildkanal durchgeführt wird, (2) image enhancement by filter operation, in which at least one noise suppression is performed in a low-resolution image channel,
    (3) Erzeugung eines Maskenbildes aus den Bilddaten mindestens eines Bildkanals, bei der die Bilddaten in wenigstens zwei Klassen von Pixeln unterschieden werden, (3) generating a mask image from the image data of at least one image channel, wherein the image data is discriminated into at least two classes of pixels,
    (4) Transformation der Bilddaten jedes Bildkanals in eine Gauss- und Laplace-Pyramide und des Maskenbildes in eine dazu adäquate Maskenbildpyramide, wobei aus den ausgelesenen Bilddaten jeweils quadratische Bereiche mit übereinstimmenden Gesichtsfeldern ausgewählt werden, (4) transforming the image data of each image channel into a Gaussian and Laplacian pyramid and of the mask image into a mask pyramid suitable for this purpose, wherein from the image data read out in each case square regions with matching visual fields are selected,
    (5) Fusion der transformierten Bilddaten der Laplace-Pyramiden der einzelnen Bildkanäle mit der Maskenbildpyramide in zueinander korrespondierenden Pyramidenebenen und anschließende Verschmelzung der Laplace-Pyramiden der einzelnen Bildkanäle zu einer resultierenden Laplace-Pyramide, wobei aus korrespondierenden Bildpunkten innerhalb gleicher Pyramidenebenen der einzelnen Laplace-Pyramiden auf Basis eines relativen Vergleichkriteriums ermittelt wird und die resultierenden Bildpunkte ebenenweise zur resultierenden Laplace-Pyramide zusammengefügt werden, und(5) Fusion of the transformed image data of the Laplace pyramids of the individual image channels with the mask image pyramid in mutually corresponding pyramidal planes and subsequent fusion of the Laplace pyramids of the individual image channels to a resulting Laplacian pyramid, wherein corresponding pixels within the same pyramidal planes of the individual Laplace pyramids is determined on the basis of a relative comparison criterion and the resulting pixels are joined together plane by layer to the resulting Laplace pyramid, and
    (6) Rücktransformation der erzeugten resultierenden Laplace-Pyramide in ein fusioniertes Ergebnisbild. (6) Back transformation of the resulting resulting Laplace pyramid into a fused result image.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dassMethod according to claim 1, characterized in that
    das Maskenbild mit Hilfe eines fest einstellbaren Schwellwertes erzeugt wird. the mask image is generated by means of a permanently adjustable threshold value.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass Method according to claim 1, characterized in that
    das Maskenbild mit Hilfe eines anpassbaren Schwellwertes erzeugt wird, wobei der Schwellwert aus einer Histogrammverteilung eines ausgelesenen Bildes berechnet wird. the mask image is generated using an adjustable threshold value, the threshold value being calculated from a histogram distribution of a read-out image.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dassA method according to claim 3, characterized in that
    der Schwellwert für das Maskenbild durch den Medianwert des Histogramms berechnet wird. the threshold value for the mask image is calculated by the median value of the histogram.
  5. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dassA method according to claim 3, characterized in that
    der Schwellwert aus einer Histogrammanalyse bestimmt wird, bei der ein globales Minimum gesucht wird. the threshold is determined from a histogram analysis that seeks a global minimum.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dassMethod according to claim 5, characterized in that
    mehrere Schwellwerte ermittelt werden, falls mehrere lokale Minima vorhanden sind, und damit mehr als zwei Klassen von Pixeln innerhalb des Maskenbildes unterschieden werden. multiple thresholds are determined if there are multiple local minima, and thus more than two classes of pixels within the mask image are distinguished.
  7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dassMethod according to claim 1, characterized in that
    das Maskenbild mit Hilfe mehrerer Schwellwerte erzeugt wird, wobei dazu Informationen aus mindestens zwei Bildkanälen (11, 12) verwendet werden. the mask image is generated using a plurality of threshold values, with information from at least two image channels (11, 12) being used for this purpose.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dassA method according to claim 7, characterized in that
    aus einem ersten Bildkanal (11) ein erstes Maskenbild (31) erzeugt und mit Informationen aus einem weiteren Bildkanal (12) mindestens eine weitere Klasse von Pixeln unterteilt wird, wobei die Informationen aus dem weiteren Bildkanal (12) zur Berechnung mindestens eines weiteren Schwellwertes verwendet werden. a first mask image (31) is generated from a first image channel (11) and at least one further class of pixels is subdivided with information from a further image channel (12), wherein the information from the further image channel (12) is used to calculate at least one further threshold value become.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dassA method according to claim 8, characterized in that
    ein erstes zweiklassiges Maskenbild (31) aus dem Bildkanal im Millimeterwellenbereich (11) und ein zweites mehrklassiges Maskenbild (32) aus dem ersten Maskenbild (31) und einem Bild aus einem langwelligeren Bildkanal (12) umgewandelt wird. converting a first two-class mask image (31) from the image channel in the millimeter-wave region (11) and a second multi-layer mask image (32) from the first mask image (31) and an image from a longer wavelength image channel (12).
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dassA method according to claim 9, characterized in that
    die Schwellwerte für das mehrklassige Maskenbild (32) durch Histogrammauswertung in einem IR-Kanal (12) gewonnen werden. the threshold values for the multi-class mask image (32) are obtained by histogram evaluation in an IR channel (12).
  11. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dassMethod according to claim 1, characterized in that
    das erzeugte Maskenbild (31, 32) für die Bildfusion (5) in eine Maskenbildpyramide derart umgewandelt wird, dass durch eine schrittweise Reduzierung der Auflösung des Maskenbildes ein adäquates Datengefüge zu den aus der Bildtransformation (4) erzeugten Laplace-Pyramiden der einzelnen Bildkanäle (11, 12, 13, … 1n) entsteht. the generated mask image (31, 32) for the image fusion (5) is converted into a mask image pyramid such that a stepwise reduction of the resolution of the mask image yields an adequate data structure for the Laplace pyramids of the individual image channels (11) generated from the image transformation (4) , 12, 13, ... 1n).
  12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dassA method according to claim 11, characterized in that
    die Bildfusion (5) auf Basis einer Verschmelzung der Laplace-Pyramiden von mindestens zwei Bildkanälen erfolgt, wobei aus korrespondierenden Bildpunkten der einzelnen mit der Maskenbildpyramide gewichteten Laplace-Pyramiden-Ebenen diejenigen Bildpunkte der einzelnen Laplace-Pyramiden-Ebenen ermittelt werden, die den betragsmäßig größten Wert besitzen. the image fusion (5) on the basis of a fusion of the Laplace pyramids of at least two image channels is carried out, wherein those pixels of the individual Laplace pyramid levels are determined from corresponding pixels of the individual with the mask pyramid weighted Laplace pyramid levels, which are the largest in terms of magnitude Own value.
  13. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dassMethod according to claim 1, characterized in that
    die Bildfusion (5) auf Basis einer Verschmelzung der Laplace-Pyramiden von mindestens drei Bildkanälen erfolgt, wobei die Kombination mit der Maskenbildpyramide durch eine Kombination mit der Laplace-Pyramide eines zusätzlichen Bildkanals ersetzt wird und aus korrespondierenden Bildpunkten der einzelnen Laplace-Pyramiden-Ebenen diejenigen Bildpunkte ermittelt werden, die den betragsmäßig größten Wert besitzen. the image fusion (5) is based on a fusion of the Laplace pyramids of at least three image channels, the combination with the mask image pyramid being replaced by a combination with the Laplacian pyramid of an additional image channel and corresponding pixels of the individual Laplacian pyramid planes Pixels are determined which have the largest amount in value.
  14. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dassMethod according to claim 1, characterized in that
    eine Bildverbesserung des Bildes eines niedrig auflösenden Bildkanals (11) durch die Verwendung von Daten aus mindestens einem höher auflösenden Bildkanal (12, 13) mit höherer Bildwiederholrate vorgenommen wird, indem a-priori-Informationen über Bewegungen innerhalb des hochauflösenden Bildkanals (12, 13) mit höherer Bildwiederholrate auf das Bild des niedrig auflösenden Bildkanals (11) angewendet werden. an image enhancement of the image of a low-resolution image channel (11) by the use of data from at least one higher-resolution image channel (12, 13) with higher refresh rate is performed by a-priori information about movements within the high-resolution image channel (12, 13) be applied to the image of the low-resolution image channel (11) at a higher frame rate.
PCT/DE2011/050005 2010-02-18 2011-02-18 Method for processing multi-channel image recordings in order to detect hidden objects in the optoelectronic inspection of persons WO2011100964A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102010008630.4 2010-02-18
DE102010008630A DE102010008630A1 (en) 2010-02-18 2010-02-18 Method for processing multi-channel image recordings for the detection of hidden objects in opto-electronic person control

Publications (2)

Publication Number Publication Date
WO2011100964A2 true WO2011100964A2 (en) 2011-08-25
WO2011100964A3 WO2011100964A3 (en) 2012-03-29

Family

ID=44317337

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2011/050005 WO2011100964A2 (en) 2010-02-18 2011-02-18 Method for processing multi-channel image recordings in order to detect hidden objects in the optoelectronic inspection of persons

Country Status (2)

Country Link
DE (1) DE102010008630A1 (en)
WO (1) WO2011100964A2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106353832A (en) * 2016-09-18 2017-01-25 公安部第研究所 Quick pass-type millimeter wave body searching system and quick pass-type millimeter wave body searching method
CN109034210A (en) * 2018-07-04 2018-12-18 国家新闻出版广电总局广播科学研究院 Object detection method based on super Fusion Features Yu multi-Scale Pyramid network
CN110334571A (en) * 2019-04-03 2019-10-15 复旦大学 A kind of millimeter-wave image human body method for secret protection based on convolutional neural networks
CN115065867A (en) * 2022-08-17 2022-09-16 中国科学院空天信息创新研究院 Dynamic processing method and device based on unmanned aerial vehicle video pyramid model

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102681023B (en) * 2012-04-19 2014-05-07 首都师范大学 Terahertz wave imaging system
CN102681022B (en) * 2012-04-19 2014-05-07 首都师范大学 Terahertz (THz) wave imaging device
CN110021031B (en) * 2019-03-29 2023-03-10 中广核贝谷科技有限公司 X-ray image enhancement method based on image pyramid
CN110348522B (en) * 2019-07-12 2021-12-07 创新奇智(青岛)科技有限公司 Image detection and identification method and system, electronic equipment, and image classification network optimization method and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050116947A1 (en) 2001-09-28 2005-06-02 Trex Enterprises Corp Video rate passive millimeter wave imaging system
US20050231421A1 (en) 2004-04-14 2005-10-20 Michael Fleisher Enhanced surveilled subject imaging
US20050232459A1 (en) 2004-04-14 2005-10-20 Rowe Richard L Multi-source surveillance portal
US20060006322A1 (en) 2003-01-31 2006-01-12 Vaidya Nitin M Weighted noise compensating method and camera used in millimeter wave imaging
US20090041293A1 (en) 2007-08-08 2009-02-12 Brian Andrew Multiple camera imaging method and system for detecting concealed objects

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6665450B1 (en) * 2000-09-08 2003-12-16 Avid Technology, Inc. Interpolation of a sequence of images using motion analysis

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050116947A1 (en) 2001-09-28 2005-06-02 Trex Enterprises Corp Video rate passive millimeter wave imaging system
US20060006322A1 (en) 2003-01-31 2006-01-12 Vaidya Nitin M Weighted noise compensating method and camera used in millimeter wave imaging
US20050231421A1 (en) 2004-04-14 2005-10-20 Michael Fleisher Enhanced surveilled subject imaging
US20050232459A1 (en) 2004-04-14 2005-10-20 Rowe Richard L Multi-source surveillance portal
US20080043102A1 (en) 2004-04-14 2008-02-21 Safeview, Inc. Multi-source surveillance system
US20090041293A1 (en) 2007-08-08 2009-02-12 Brian Andrew Multiple camera imaging method and system for detecting concealed objects

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BERND JÄHNE: "Digitale Bildverarbeitung", 1997, SPRINGER VERLAG, pages: 149 FF
BERND JÄHNE: "Digitale Bildverarbeitung", 1997, SPRINGER VERLAG, pages: 342 FF

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106353832A (en) * 2016-09-18 2017-01-25 公安部第研究所 Quick pass-type millimeter wave body searching system and quick pass-type millimeter wave body searching method
CN109034210A (en) * 2018-07-04 2018-12-18 国家新闻出版广电总局广播科学研究院 Object detection method based on super Fusion Features Yu multi-Scale Pyramid network
CN110334571A (en) * 2019-04-03 2019-10-15 复旦大学 A kind of millimeter-wave image human body method for secret protection based on convolutional neural networks
CN110334571B (en) * 2019-04-03 2022-12-20 复旦大学 Millimeter wave image human body privacy protection method based on convolutional neural network
CN115065867A (en) * 2022-08-17 2022-09-16 中国科学院空天信息创新研究院 Dynamic processing method and device based on unmanned aerial vehicle video pyramid model
CN115065867B (en) * 2022-08-17 2022-11-11 中国科学院空天信息创新研究院 Dynamic processing method and device based on unmanned aerial vehicle video pyramid model

Also Published As

Publication number Publication date
WO2011100964A3 (en) 2012-03-29
DE102010008630A1 (en) 2011-08-18

Similar Documents

Publication Publication Date Title
WO2011100964A2 (en) Method for processing multi-channel image recordings in order to detect hidden objects in the optoelectronic inspection of persons
EP1589484B1 (en) Method for detecting and/or tracking objects
DE60203056T2 (en) Spatial-temporal model of visual attention for a video full screen sequence
DE60307583T2 (en) Evaluation of the sharpness of an image of the iris of an eye
DE19828947B4 (en) System and method for three-dimensional (3-D) ultrasound imaging and motion estimation
DE69333846T2 (en) METHOD FOR MIXING IMAGES AND DEVICE THEREFOR.
EP2427785B1 (en) Method for detecting a covered dielectric object
EP2005361A1 (en) Multi-sensorial hypothesis based object detector and object pursuer
DE102013104443A1 (en) Traffic monitoring system for speed measurement and assignment of moving vehicles in a multi-target recording module
EP1531342B1 (en) Method of detecting pedestrians
DE102007013664A1 (en) Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient
DE102008001076A1 (en) Method, device and computer program for reducing the resolution of an input image
DE60208058T2 (en) PASSIVE OPTOELECTRONIC MONITORING DEVICE
DE102010051207A1 (en) Method for three-dimensional imaging e.g. weapon hidden under cloth of people, involves producing three-dimensional radar image of object from radar data for image representation in e.g. correct position on three-dimensional surface model
EP1460454B1 (en) Method for combined processing of high resolution images and video images
EP2791896B1 (en) Method for generating super-resolution images having improved image resolution and measuring device
DE112017007695T5 (en) FACETE EYE IMAGING DEVICE, IMAGE PROCESSING METHOD, PROGRAM AND RECORDING MEDIUM
DE102020129096A1 (en) GENERATION OF THREE-DIMENSIONAL POINT CLOUDS USING A POLARIMETRIC CAMERA IN A VEHICLE EQUIPPED WITH A DRIVING ASSISTANT SYSTEM
EP3931798B1 (en) Estimating the movement of an image position
Wang et al. A fusion algorithm of remote sensing image based on discrete wavelet packet
DE102009026091A1 (en) Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera
DE102018104913A1 (en) Vibration monitoring of an object using a video camera
EP0897247A2 (en) Method for computing motion vectors
DE10049366A1 (en) Security area monitoring method involves using two image detection units whose coverage areas overlap establishing monitored security area
EP3384461A1 (en) Method and device for image correction

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11712749

Country of ref document: EP

Kind code of ref document: A2

122 Ep: pct application non-entry in european phase

Ref document number: 11712749

Country of ref document: EP

Kind code of ref document: A2