FR2623927A1 - METHOD AND DEVICE FOR DETECTING AND LOCATING AN IMAGE PORTION - Google Patents

METHOD AND DEVICE FOR DETECTING AND LOCATING AN IMAGE PORTION Download PDF

Info

Publication number
FR2623927A1
FR2623927A1 FR8815356A FR8815356A FR2623927A1 FR 2623927 A1 FR2623927 A1 FR 2623927A1 FR 8815356 A FR8815356 A FR 8815356A FR 8815356 A FR8815356 A FR 8815356A FR 2623927 A1 FR2623927 A1 FR 2623927A1
Authority
FR
France
Prior art keywords
image
filter
point
equation
columns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR8815356A
Other languages
French (fr)
Other versions
FR2623927B1 (en
Inventor
Udo Peters
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
Messerschmitt Bolkow Blohm AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Messerschmitt Bolkow Blohm AG filed Critical Messerschmitt Bolkow Blohm AG
Publication of FR2623927A1 publication Critical patent/FR2623927A1/en
Application granted granted Critical
Publication of FR2623927B1 publication Critical patent/FR2623927B1/fr
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • G06F17/153Multidimensional correlation or convolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Algebra (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Un procédé et un dispositif sont décrits, qui permettent de détecter et de localiser une portion dans une image d'ensemble au moyen d'un prétraitement adaptatif et d'une corrélation normalisée, dans lesquels sont traités des signaux de points d'image issus de convertisseurs opto-électroniques. A chaque image (image d'ensemble ou portion d'image) sont associés une mémoire d'image et un filtre discret variable reliés à un calculateur qui effectue un prétraitement adaptatif. Chaque filtre variable peut être combiné avec un filtre discret fixe et il est possible de prévoir une commutation. Un montage pour la détermination des valeurs normalisées de l'autocorrélation des perturbations est indiqué.A method and a device are described which make it possible to detect and locate a portion in an overall image by means of an adaptive preprocessing and a normalized correlation, in which are processed image point signals from opto-electronic converters. Each image (overall image or image portion) is associated with an image memory and a variable discrete filter connected to a computer which performs adaptive preprocessing. Each variable filter can be combined with a fixed discrete filter and it is possible to provide switching. A setup for determining the normalized values of the disturbance autocorrelation is shown.

Description

- 1.- Procédé et dispositif Dour la détection et la localisation d'une- 1.- Method and device for the detection and localization of a

Portion d'imaoe L'invention concerne un procédé et un dispositif pour la détection et la localisation d'une portion d'image dans une image d'ensemble à l'aide d'un dispositif de traitement d'image, dans lequel sont traités des signaux de points d'image divisés en lignes et en colonnes issus de convertisseurs opto-électroniques, et qui  Portion d'imaoe The invention relates to a method and a device for detecting and locating an image portion in an overall image using an image processing device, in which are processed image point signals divided into lines and columns from opto-electronic converters, and

comprend au moins un filtre.comprises at least one filter.

La détection de la position d'une portion d'image donnée dans une image d'ensemble constitue un problème important du traitement d'image. Cette tache désignée coame localisation d'image peut être résolue de différentes manières. Les procédés les plus importants se basent sur la correlation croisée et sur la détermination de grandeurs d'erreur. Pour les deux procédés, la littérature fournit de nombreuses modifications et améliorations. Or, sous certaines conditions, ces procédés peuvent être transformés les uns dans les  Detecting the position of a given image portion in an overall image is an important problem of image processing. This designated spot can be solved in different ways. The most important methods are based on cross-correlation and on the determination of error quantities. For both processes, the literature provides many modifications and improvements. However, under certain conditions, these processes can be transformed into

autres et mènent par conséquent à des résultats semblables.  others and lead to similar results.

On part ci-après d'abord d'images discrètes qui peuvent être décrites par des pixels. Afin de simplifier, on supposera que les décalages entre les images correspondent également à des pixels  The following is first of all discrete images that can be described by pixels. In order to simplify, it will be assumed that the offsets between the images also correspond to pixels

(éléments d'image) entiers.(picture elements) whole.

Sont données deux images B et R rectangulaires qui sont représentées par leurs valeurs de gris B(i,j) et R(i,j) aux points discrets avec les coordonnées i et J, avec B(i,j) = 0 si i < 0 ou I > nbi ou j < 0 ou i > nbj (1) 2 5 R(ij) = si i < 0 ou i > nri ou j < 0 ou j > nrj L'image R représente une portion plus petite de l'image B, à la meme échelle. Donc nbi > nri (2) - 2 - nbj > nri Or, on admettra que les valeurs de gris R(i, j) de l'image R se distinguent des valeurs de gris B(i,j) correspondantes de l'image B par une perturbation additive N(l,j). Avec la position de décalage réelle ivt et ivt dans le sens des colonnes et des lignes, on obtient: R(i,j) = B(i+ivt, j+jvt) + N(i+ivt, j+jvt) (3) Une stratégie de localisation optimale fournit le vecteur de décalage Civo,jivo. qui est le plus probable parmi tous les vecteurs  Two rectangular B and R images are given which are represented by their gray values B (i, j) and R (i, j) at the discrete points with the coordinates i and J, with B (i, j) = 0 if i <0 or I> nbi or j <0 or i> nbj (1) 2 5 R (ij) = if i <0 or i> nri or j <0 or j> nrj The image R represents a smaller portion of image B, on the same scale. So nbi> nri (2) - 2 - nbj> nri It will be admitted that the gray values R (i, j) of the image R are distinguished from the corresponding gray values B (i, j) of the image B by an additive disturbance N (l, j). With the actual offset position ivt and ivt in the direction of columns and lines, we obtain: R (i, j) = B (i + ivt, j + jvt) + N (i + ivt, j + jvt) ( 3) An optimal location strategy provides the Civo shift vector, jivo. which is most likely among all the vectors

de décalage [iV, jv] ackdmissibles.  offset [iV, jv] ackdmissibles.

Pour les probabilités conditionnelles p(a/b) vaut donc avec une stratégie optimale: p (ivoJivo]=[ivt,jvtj/ B,R) > p(liv,jv)=tivt,Jivt]/ B,R) 1 5 avec [ivj [ivo,Jvo] (4) A cet effet, il faut déterminer toutes les probabilités conditionnelles p(liv,jv]=civt,Jvt]/ B,R) qui expriment avec quelle probabilité le décalage livJv] coïncide avec le décalage réel  For the conditional probabilities p (a / b) therefore has an optimal strategy: p (ivoJivo] = [ivt, jvtj / B, R)> p (liv, jv) = tivt, Jivt] / B, R) 1 5 with [ivj [ivo, Jvo] (4) For this purpose, we must determine all the conditional probabilities p (liv, jv) = civt, Jvt] / B, R) which express with which probability the shift livJv] coincides with the real offset

[ivt,jvt], en admettant que les images B et R existent.  [ivt, jvt], assuming that the images B and R exist.

Le théorème de Bayes permet de transformer cette équation: - p (B,R /[ivoivo =[ivtJvt]) * P([ivo,Jvc= tivt,Jvt]) / p(BR) > p (B,R /[ivJv3=[ivtiv) * p([ivjv=[ivtJvtI) / p(B,R) avec[iViv] J [ivoJvol (5) 2 5 Dans le cas o toutes les positions de décalage présentent la même probabilité a priori ou aucune information n'est disponible concernant ces probabilités, et ces dernières sont donc supposées comme étant identiques, il résulte: p(B,R /[ivoJv= [ivt,Jvtl) > p(B,R /[VivJvl=[ivtjvt]) avecCivJv] l[ivo'ivol (6) - 3- En désignant la différence entre l'image R(i-iv,j-jv), décalée de [iv,jvl, et l'image B(i, j) par N- (i,j) tiv,jvl= R(i-iv,i-jv) - B(i,j) (7) on obtient pour les probabilités nécessaires dans l'équation 6: p(B,R / Livjv]=CivtJvt]) = p(N(i,j) = Nd(i,j)Liv,jv]) (8) Le calcul de ces probabilités n'est généralement possible que sous certaines conditions. Dans le cas o les perturbations N-(i,j), définies selon l'équation 7, n'ont pas de correlation locale et présentent une fonction de densité de probabilité de Gauss, il est possible d'indiquer la stratégie de localisation optimale selon l'équation 6 en utilisant l'équation 8. Apres un calcul logarithmique et l'omission de termes identiques des deux cotés de l'inéquation, on obtient: 1 ((N(I,)[ voJvo])) < X ( (N'(l,j)[tviv])zJ) (9) ij:1,j Si l'on introduit de manière analogue à l'equation 7 une image R (I,j) iv,jv, avec / 0 si i<O ou i>nri ou j<O ou i>nrj R,(i,j)[ivJvj = < \B(i+iv,j+jv) dans les autres cas (10) on obtient, par quelques transformations et par omission de 2 5 termes identiques des deux Cotés de l'inéquation à partir de l'équation 9: R(t,j).R-(iJ)[1voJvo]> 1 R(IJ) *R'(1,j)[ivJv] (11) ij ij Or, ces deux équations connues, à savoir la détermination de grandeurs d'erreur selon l'équation 9 et l'équation de correlation 11, fournissent une localisation optimale uniquement dans les  Bayes' theorem allows us to transform this equation: - p (B, R / [ivoivo = [ivtJvt]) * P ([ivo, Jvc = tivt, Jvt]) / p (BR)> p (B, R / [ ivJv3 = [ivtiv) * p ([ivjv = [ivtJvtI) / p (B, R) with [iViv] J [ivoJvol (5) 2 5 In the case where all shift positions have the same probability a priori or none information is available concerning these probabilities, and these are therefore assumed to be identical, it follows: p (B, R / [ivoJv = [ivt, Jvtl)> p (B, R / [VivJvl = [ivtjvt]) withCivJv] l [ivo'ivol (6) - 3- By designating the difference between the image R (i-iv, j-jv), shifted from [iv, jvl, and the image B (i, j) by N- (i, j) tiv, jvl = R (i-iv, i-jv) - B (i, j) (7) we obtain for the necessary probabilities in equation 6: p (B, R / Livjv ] = CivtJvt]) = p (N (i, j) = Nd (i, j) Liv, jv]) (8) Calculating these probabilities is usually possible only under certain conditions. In the case where the perturbations N- (i, j), defined according to equation 7, have no local correlation and have a probability density function of Gauss, it is possible to indicate the optimal location strategy. according to equation 6 using equation 8. After a logarithmic calculation and the omission of identical terms from both sides of the inequation, we get: 1 ((N (I,) [voJvo])) <X ( (N '(l, j) [tviv]) zJ) (9) ij: 1, j If we introduce in a similar way to equation 7 an image R (I, j) iv, jv, with / 0 if i <O or i> nri or j <O or i> nrj R, (i, j) [ivJvj = <\ B (i + iv, j + jv) in other cases (10) we get, by some transformations and by omission of identical terms from both sides of the equation from equation 9: R (t, j) .R- (iJ) [1voJvo]> 1 R (IJ) * R '(1 , j) [ivJv] (11) ij ij Now, these two known equations, namely the determination of error quantities according to equation 9 and correlation equation 11, provide an optimal location. only in the

conditions rigoureuses indiquées ci-dessus.  stringent conditions given above.

4 - Un filtre discret, avec lequel l'image B(i,j) et l'image partielle R(i,j) sont filtrées, permet de modifier la correlation des valeurs de gris des perturbations. Un tel filtre, qui élimine complètement les correlations existantes, est appelé filtre de décorrelation. Or, la détermination des coefficients de filtre n'est possible que si les grandeurs caractéristiques statistiques de la perturbation N.(i,j) sont connues, ce qui n'est pas possible techniquement pour des raisons de causalité. Dans les procédés connus avec des filtres discrets fixes (filtres de prétraitement), l O on s'efforce simplement avec une hypothèse statistique de diminuer les correlations locales des perturbations. Le résultat dépend  4 - A discrete filter, with which the image B (i, j) and the partial image R (i, j) are filtered, makes it possible to modify the correlation of the gray values of the disturbances. Such a filter, which completely eliminates existing correlations, is called a decorrelation filter. However, the determination of the filter coefficients is only possible if the statistical characteristic quantities of the perturbation N. (i, j) are known, which is not technically possible for reasons of causality. In the known processes with fixed discrete filters (pre-treatment filters), one simply strives with a statistical hypothesis to reduce the local correlations of the disturbances. The result depends

néanmoins dans une large mesure des images.  nevertheless to a large extent images.

L'invention a pour but d'indiquer un procédé et un dispositif pour la localisation d'une portion d'image dans une image plus grande (image d'ensemble), permettant d'obtenir une meilleure fréquence de localisation, meme lorsque les perturbations, définies  The object of the invention is to indicate a method and a device for locating a portion of an image in a larger image (overall image), making it possible to obtain a better localization frequency, even when the disturbances , defined

selon l'équation 7, sont en correlation.  according to equation 7, are in correlation.

Conformément à la présente invention, il est propose un procédé pour la détection et la localisation d'une portion d'image dans une image d'ensemble à l'aide d'un dispositif de traitement d'image, dans lequel sont traités des signaux de points d'image divisés en lignes et en colonnes issus de convertisseurs opto-électroniques, ledit dispositif comprenant au moins un filtre, caractérisé en ce que pour le traitement d'image adaptatif préalable, un filtre (fv) 2 5 discret variable est associé à chacune des mémoires d'image (Memo 1, 2) pour - l'image d'ensemble (B(i,j)), - l'image partielle ou portion d'image (R(i,j)), et les deux filtres (fv) sont reliés à un calculateur (C), qui effectue un calcul des coefficients de filtre pour chaque image à partir des grandeurs caractéristiques statistiques des images  In accordance with the present invention, there is provided a method for detecting and locating an image portion in an overall image using an image processing device, in which signals are processed. image dots divided into rows and columns from opto-electronic converters, said device comprising at least one filter, characterized in that for the prior adaptive image processing, a variable discrete filter (fv) is associated to each of the image memories (Memo 1, 2) for - the overall image (B (i, j)), - the partial image or image portion (R (i, j)), and the two filters (fv) are connected to a calculator (C), which performs a calculation of the filter coefficients for each image from the statistical characteristic variables of the images

filtrées ou non filtrées.filtered or unfiltered.

L'invention propose également un dispositif pour la mise en oeuvre d'un procédé de localisation d'image (partie d'une image - 5 - d'ensemble), dans lequel des signaux de points d'image issus de convertisseurs optoélectroniques sont transformés en données d'image et filtrés, caractérisé en ce que chaque filtre (fv) discret variable est combiné avec un filtre (ff) discret fixe et on choisit entre deux filtres et/ou modes, ou bien est chargé au choix avec au moins deux groupes de coefficients de filtre déterminés de manière différente. Selon un mode de réalisation particulier, non limitatif, du dispositif selon l'invention, est relié au calculateur (C) un étage d'entrée (E) pour la détermination de l'autocorrelation qui - extrait de façon serielle, par lignes (point par point dans les colonnes) ou par colonnes (point par point dans les lignes) , les données d'image pour chaque image à partir de la mémoire (Memo 1, 2) associée, - commande des organes de multiplication (M) pour la multiplication de ces données d'image et - commande, pour la sommation, des organes d'addition (A) dont les  The invention also proposes a device for implementing an image localization method (part of an overall image), in which image point signals from optoelectronic converters are transformed. in image data and filtered, characterized in that each variable discrete filter (fv) is combined with a fixed discrete filter (ff) and is selected between two filters and / or modes, or is optionally loaded with at least two groups of filter coefficients determined differently. According to a particular, nonlimiting embodiment of the device according to the invention, is connected to the computer (C) an input stage (E) for determining the autocorrelation which - serially extracted, by lines (point by point in the columns) or by columns (point by point in the lines), the image data for each image from the memory (Memo 1, 2) associated, - control of the multiplication members (M) for the multiplication of these image data and - control, for the summation, of the addition members (A) whose

sorties sont reliées chacune à un étage de division (D).  Outputs are each connected to a division stage (D).

Quelques-unes ou toutes les fonctions de l'étage d'entrée (E)  Some or all of the functions of the input stage (E)

ci-dessus peuvent aussi etre effectuées dans le calculateur (C).  above can also be done in the calculator (C).

Le procédé et le dispositif selon l'invention permettent aussi d'obtenir une meilleure décorrelation des perturbations dans le cas  The method and the device according to the invention also make it possible to obtain a better decorrelation of the disturbances in the case

d'images différentes.different images.

Contrairement à des procédés et dispositifs connus, une 2 5 localisation d'image avec une correlation normalisée est effectuée au moyen d'un prétraltement adaptatif, o les coefficients de filtre  In contrast to known methods and devices, image localization with normalized correlation is performed by means of adaptive pretraining, where the filter coefficients

sont adaptés au contenu de l'image et calculés dans un calculateur.  are adapted to the content of the image and calculated in a calculator.

Au calculateur est associé un étage préliminaire pour la détermination approximative de la fonction d'autocorrelation de la perturbation. Pour la détermination de l'autocorrelation ainsi que pour la détermination des coefficients de filtre, on applique un  The computer is associated with a preliminary stage for the approximate determination of the autocorrelation function of the perturbation. For the determination of the autocorrelation as well as for the determination of the filter coefficients, one applies a

modèle de calcul (algorithme).calculation model (algorithm).

Le modèle de calcul, appliqué dans l'étage préliminaire E du calculateur C - selon les figures lb et 2 "détermination de  The calculation model, applied in the preliminary stage E of calculator C - according to FIGS. 1b and 2 "determination of

Z623927Z623927

-6- l'autocorrelation" -, et pour une compréhension générale, la correlation normalisée selon la figure 3 sont présentés ci-apres a titre d'explication: Lorsque, comme il est le plus fréquent, les deux images (image d'ensemble et image partielle) sont générées par des unités d'enregistrement différentes, elles se distinguent en plus par un facteur multiplicatif (positif) dont il est tenu compte ci-après. De plus, il est judicieux de séparer une constante des perturbations additives, de manière à réduire à un minimum l'énergie de la  The autocorrelation "- and, for a general understanding, the normalized correlation according to FIG. 3 are presented below by way of explanation: When, as is the most frequent, the two images (overall image and partial image) are generated by different units of registration, they are further distinguished by a multiplicative (positive) factor which is taken into account below.In addition, it is advisable to separate a constant from the additive disturbances, in order to reduce to a minimum the energy of the

perturbation N(i,j).disturbance N (i, j).

En utilisant la position de décalage réelle ivt et iJvt, on obtient de manière analogue à l'équation 3: R(l,j) = km * B(i+ivt,j+jvt) + ka + N(i+ ivt,j+jvt) (12) 1 5 km > 0 La substitution B'(i+ivt,j+jvt) = km * B(i+ivt, j+Jvt) + ka (13) permet d'effectuer la localisation essentiellement avec les algorithmes de localisation décrits dans le paragraphe précédent selon l'équation 9 ou 11, si les perturbations N(i,j) présentent une fonction de densité de probabilité de Gauss et sont sans correlation. Dans les équations précédentes, l'image B(i,J) doit être remplacée par une estimation B"(i,j) et l'image R (i,j)[iv,jv] 2 5 par / O si i<O ou l> nri ou j<O ou j>nri RI'-(i,ji)[ivjv] = < (14) \B"(i+iv,j+jv dans les autres cas Pour une estimation de l'image B"(l,j), les constantes km et ka ne présentent pas toujours de l'intérêt et ne sont pas traitées ici en détail. Comme montré ci-après, il est possible d'établir une estimation également à partir des images B'(i,j) et R(i,j) disponibles.  Using the real offset position ivt and iJvt, we obtain analogously to equation 3: R (l, j) = km * B (i + ivt, j + jvt) + ka + N (i + ivt, j + jvt) (12) 1 5 km> 0 The substitution B '(i + ivt, j + jvt) = km * B (i + ivt, j + Jvt) + ka (13) makes it possible to carry out the localization essentially with the location algorithms described in the preceding paragraph according to equation 9 or 11, if the perturbations N (i, j) have a probability density function of Gauss and are uncorrelated. In the preceding equations, the image B (i, J) must be replaced by an estimate B "(i, j) and the image R (i, j) [iv, jv] 2 5 by / O if i < O or l> nri or j <O or j> nri RI '- (i, ji) [ivjv] = <(14) \ B "(i + iv, j + jv in other cases For an estimation of the image B "(l, j), the constants km and ka are not always of interest and are not treated here in detail.As shown below, it is possible to establish an estimate also from the images B '(i, j) and R (i, j) available.

26239-2726239-27

- 7 - L'expression N'(I1i)tIViJv])2 (R(t-iv,j-Jv) - B"(,j))2 (15) 1,j i,: utilisée dans l'équation 9 constitue une mesure pour l'énergie des parties perturbantes. La mise en équation B"(i,j) = ci * (B'(ij) - c2) (16) permet de déterminer, par différentiation partielle et par mise à zéro subséquente, les constantes c1 et c2 de façon à ce que l'énergie selon l'équation I5 prenne une valeur minimale. Dans ce cas, la sommation ne doit etre effectuée que dans les zones d'image,  The expression N '(I1i) tIViJv]) 2 (R (t-iv, j-Jv) - B "(, j)) 2 (15) 1, ji: used in equation 9 constitutes a measure for the energy of the disturbing parts The equation B "(i, j) = ci * (B '(ij) - c2) (16) makes it possible to determine, by partial differentiation and by subsequent zeroing, the constants c1 and c2 so that the energy according to equation I5 takes a minimum value. In this case, the summation must only be performed in the image areas,

dans lesquelles l'image R existe.in which the image R exists.

Dans ce modèle, la valeur moyenne linéaire des valeurs de gris n'influence pas la localisation. Il est donc admissible de normaliser préalablement l'image R(i,j) de telle façon que la valeur moyenne linéaire soit égale à zéro. Dans ce cas, les équations sont sensiblement plus simples. Il est possible de trouver une solution d'approche, si les images partielles R"'-(i,j)Civ,jv] définies dans l'équation 10 sont normalisées de la meme manière que l'image  In this model, the linear average value of the gray values does not influence the location. It is therefore acceptable to pre-normalize the image R (i, j) so that the linear average value is equal to zero. In this case, the equations are substantially simpler. It is possible to find an approach solution, if the partial images R "'- (i, j) Civ, jv] defined in equation 10 are normalized in the same way as the image

R(i,j).R (i, j).

La combinaison de deux étages de normalisation successifs convient pour la normalisation du modèle choisi. Pendant la première étape, les éléments Identiques des valeurs de gris des images sont éliminés. Ensuite, les deux images sont multipliées chacune par un  The combination of two successive normalization stages is suitable for the standardization of the chosen model. During the first step, the identical elements of the gray values of the images are eliminated. Then, the two images are each multiplied by one

2 5 facteur qui fait que les deux Images présentent la meme énergie.  This factor makes the two images have the same energy.

La figure 3 montre le schéma bloc d'une localisation d'image fonctionnant suivant ce principe. Dans ce schéma bloc, on suppose que la détermination des valeurs individuelles de la fonction de correlation ou de la fonction d'erreur se fait par étages successifs. On considère comme décalage ivoivo trouvé celui auquel est associee la plus grande valeur de la fonction de correlation ou  Figure 3 shows the block diagram of an image location operating according to this principle. In this block diagram, it is assumed that the determination of the individual values of the correlation function or the error function is done in successive stages. We consider as ivoivo shift the one with which is associated the highest value of the correlation function or

la plus petite valeur de la fonction d'erreur.  the smallest value of the error function.

-8- Le procédé connu de correlation normalisée présente jusqu'ici peut etre amélioré par des filtres de prétraitement, ce qui augmente  The known method of normalized correlation so far can be improved by pre-treatment filters, which increases

la fréquence de localisation.the location frequency.

Or, pour la détermination des coefficients pour un filtre fixe il est désavantageux que les coefficients de filtre ne puissent être optimisés que pour un cas individuel. Dans le cas o les grandeurs caractéristiques statistiques des images se modifient de façon défavorable, l'utilisation d'un filtre de pretraitement peut renore plus mauvaise la probabilité d'erreurs de localisation, c'est-a-dire la précision de localisation. Par conséquent, il est nécessaire pour l'optimisation du filtre d'utiliser un très grand nombre d'images représentatives. La correlation des valeurs de gris entre elles peut être décrite par une fonction d'autocorrelation Ln(i,j) normalisée à deux I 5 dimensions: X(N(iijj) * N(ii.1,jj+j) Ln(iJ) - (17) i(N(iijj) N1(iJj)) il,jj 2 0 Dans ce cas, les perturbations N(i,j) sont sans correlation, si:! / 1 si 1=0 et j=O Ln(i,j) = < (18) \ 0 dans les autres cas 2 5 Dans le cas o les valeurs de la fonction d'autocorrelation normalisée sont différentes de zéro pour i*O ou jiO, il convient d'utiliser un filtre de décorrelation, afin d'obtenir une meilleure localisation.  However, for the determination of the coefficients for a fixed filter it is disadvantageous that the filter coefficients can be optimized only for an individual case. In the case where the statistical characteristic variables of the images change in an unfavorable manner, the use of a preprocessing filter may be worse than the probability of location errors, that is to say the accuracy of location. Therefore, it is necessary for the optimization of the filter to use a very large number of representative images. The correlation of the gray values between them can be described by a two-dimensional normalized autocorrelation function Ln (i, j): X (N (iijj) * N (ii.1, jj + j) Ln (ij In this case, the perturbations N (i, j) are uncorrelated, if: Ln (i, j) = <(18) \ 0 in other cases In the case where the values of the normalized autocorrelation function are different from zero for i * O or jiO, a filter should be used of decorrelation, in order to obtain a better localization.

Dans la description ci-après, on part de la supposition qu'un  In the description below, we start from the assumption that

filtre de prétraitement à deux dimensions avec les grandeurs nfi et nfj dans le sens des colonnes et oes lignes est utilisé. Les coefficients de filtre sont désignés par F(i,j), pour lesquels: F(lj> = O sI I < 0 ou 1 > nfi ou j < 0 ou j > nfj (19) -9- La décorrelation de la perturbation N(i, j) équivaut à une minimisation de l'énergie de perturbation Enf de la perturbation filtrée, pour laquelle: nf ' Ln(l.j) * F(I,J)*F(ii+t,jj+) (20) Âti.:1i,Jj La différentiation partielle et la mise à zéro permettent de déterminer les coefficients de filtre F(i,j) du filtre de prétraitement, un coefficient de filtre devant rester fixe, car pour ce procédé seules les relations entre les coefficients de filtre sont necessalres. De la détermination des coefficients résulte un système d'équation linéaire qui peut etre résolu de manière  Two-dimensional pretreatment filter with the quantities nfi and nfj in the direction of the columns and these lines is used. The filter coefficients are denoted by F (i, j), for which: F (lj> = O sI I <0 or 1> nfi or j <0 or j> nfj (19) -9- The decorrelation of the perturbation N (i, j) is equivalent to a minimization of the perturbation energy Enf of the filtered perturbation, for which: ## EQU1 ## Allocation: 1i, Jj The partial differentiation and the zeroing make it possible to determine the filter coefficients F (i, j) of the pre-treatment filter, a filter coefficient having to remain fixed, because for this method only the relations between the coefficients The coefficients are determined by a linear equation system that can be solved

relativement simple.relatively simple.

Pour le calcul d'un filtre de décorrelation il est nécessaire de connaître les grandeurs caractéristiques statistiques de la perturbation N(i,j). Il n'est possible d'indiquer cette perturbation, qui doit etre déterminée selon l'équation 3, que si la localisation correcte a été effectuée. Afin de pouvoir déterminer les grandeurs caractéristiques statistiques, il faut dépouiller un  For the calculation of a decorrelation filter it is necessary to know the statistical characteristic variables of the perturbation N (i, j). It is possible to indicate this disturbance, which must be determined according to equation 3, only if the correct location has been carried out. In order to be able to determine the statistical characteristic quantities, one must

très grand nombre de localisations.  very large number of locations.

L'lnvention concerne notamment un procédé adaptatif pour le prétraitement d'images. Pour cela, des estimations concernant l'autocorrelation des perturbations sont effectuées en fonction du  The invention particularly relates to an adaptive method for image preprocessing. For this, estimations concerning the autocorrelation of the disturbances are made according to the

contenu de l'image et de la zone de recherche concernée. -  content of the image and the search area concerned. -

Pour une grande zone de recherche, on suppose que la 2 5 perturbation selon l'équation 3 se compose en grande 'partie de la non Image. Par conséquent, l'autocorrelation de la perturbation cotncidera sensiblement avec l'autocorrelation de l'image. Pour une grande zone de recherche, l'autocorrelation selon la figure lb peut  For a large search area, it is assumed that the disturbance according to equation 3 consists largely of the non-Image. Therefore, the autocorrelation of the perturbation will substantially coincide with the autocorrelation of the image. For a large search area, the autocorrelation according to FIG.

etre déterminée de manière approximative à partir de l'image B(i,j).  to be determined approximately from the image B (i, j).

La détermination de la localisation exacte nécessite une correlation supplémentaire autour du point de localisation le plus probable trouvé préalablement. La supposition sur les perturbations,  Determining the exact location requires additional correlation around the most likely location point found previously. The assumption on disturbances,

- 10 -- 10 -

utilisée auparavant, n'étant dans ce cas plus valable, une commutation sur un filtre discret fixe est alors nécessaire, ce qui entraîne une détermination des coefficients de filtre fixes à partir d'une hypothèse statistique sur les perturbations. Ce principe est représenté dans la figure 2. Une autre possibilité consiste à utiliser un seul filtre variable à la place de deux filtres et d'un dispositif de commutation, et dans ce cas on charge et utilise au choix des coefficients de filtre fixes ou adaptatifs (calculés selon  previously used, being in this case no longer valid, a switch to a fixed discrete filter is then necessary, resulting in a determination of the fixed filter coefficients from a statistical assumption on disturbances. This principle is represented in FIG. 2. Another possibility consists in using a single variable filter instead of two filters and a switching device, and in this case we load and use, as desired, fixed or adaptive filter coefficients. (calculated according to

l'équation 20).Equation 20).

Des exemples de réalisation de l'invention sont illustrés dans les figures 1 à 4, parmi lesquelles la figure la représente une portion cherchée dans une image d'ensemble, la figure lb représente une localisation d'image avec prétraitement adaptatif, la figure 2 représente une localisation d'image avec prétraitement adaptatif commutable, la figure 3 représente un schéma bloc d'une localisation d'image, et la figure 4 représente une détermination des valeurs  Embodiments of the invention are illustrated in FIGS. 1 to 4, of which FIG. 1a represents a sought portion in an overall image, FIG. 1b represents an image location with adaptive preprocessing, FIG. an image location with switchable adaptive pretreatment, Fig. 3 shows a block diagram of an image location, and Fig. 4 shows a determination of the values

normalisées de la fonction d'autocorrelation.  normalized autocorrelation function.

L'invention concerne notaxmment un prétraltement d'image  The invention relates in particular to a pre-translation of an image

adaptatif pour la décorrelation partielle.  adaptive for partial decorrelation.

L'utilisation de la décorrelation permet d'obtenir des valeurs 2 5 extremes, délimitées localement de façon très nette, dans la fonction d'erreur ou de correlation. La détermination des valeurs extremes ne peut donc souvent etre effectuée qu'après l'utilisation d'un procédé d'interpolation. Lorsque l'on veut éviter d'utiliser un procédé d'interpolation dispendieux, la prédéfinition d'une fonction d'autocorrelation des images filtrées permet d'adapter la forme des valeurs extrêmes de la fonction d'erreur ou de correlation. Dans ce cas, le calcul des coefficients de filtre devient considérablement plus coûteux. La convolution des coefficients, calculés à partir de l'équation 20, avec une fonction  The use of decorrelation makes it possible to obtain extreme values, defined locally very clearly, in the error or correlation function. The determination of extreme values can therefore often be made only after the use of an interpolation method. When it is desired to avoid using an expensive interpolation method, the predefinition of an autocorrelation function of the filtered images makes it possible to adapt the shape of the extreme values of the error or correlation function. In this case, the calculation of the filter coefficients becomes considerably more expensive. The convolution of the coefficients, calculated from equation 20, with a function

- 11 -- 11 -

modèle, conduisant à la fonction de correlation souhaitée, permet néanmoins d'obtenir ici également une détermination simple des  model, leading to the desired correlation function, nevertheless makes it possible here also to obtain a simple determination of the

coefficients de filtre définitifs.final filter coefficients.

Pour une réalisation de l'invention permettant une localisation d'image en temps réel vidéo (< 1i s), il convient d'utiliser des structures aussi simples que possible. Dans le concept présenté ici, un matériel rapide, travaillant en parallèle permet d'effectuer une localisation au moyen du prétraitement et de la correlation en temps  For an embodiment of the invention for video real-time image localization (<1 s), structures as simple as possible should be used. In the concept presented here, a fast hardware, working in parallel allows to carry out a localization by means of the pretreatment and the correlation in time

réel vidéo.real video.

Avec l'utilisation d'un prétraitement, on a optimisé dans cet exemple un filtre avec la grandeur nfi = 1 (valeurs dans le sens des colonnes) nij = 5 (valeurs dans le sens des lignes) i5 Néanmoins, avec le prétraitement adaptatif seuls trois coefficients ont été déterminés suivant l'équation 20. En désignant ces coefficients par F'(i,j), on obtient le système d'équation suivant: Enf = Ln(O,-2) * (F'(1,1)*F'(1,3)) + Ln(O,-1) * (F'(1, 1)*F'(1,2) + F'(1,2)*F'(1,3)) + Ln(O,O) * (F'(1,1)2 + F'(1,2)2+ F'(1,3)2) (21) + Ln(0,1) * (F'(1,1)*F'(1,2) + F'(1,2)*F'(1,3)) + Ln(0,2) * (F'(1,1) *F'(1,3)) L'un des trois coefficients de filtre à déterminer peut être choisi librement, par exemple:  With the use of a pretreatment, in this example, a filter with the magnitude nfi = 1 (values in the direction of the columns) has been optimized nij = 5 (values in the direction of the lines) i5 Nevertheless, with adaptive pretreatment alone three coefficients have been determined according to equation 20. By designating these coefficients by F '(i, j), we obtain the following system of equation: Enf = Ln (O, -2) * (F' (1,1 ) * F '(1,3)) + Ln (O, -1) * (F' (1, 1) * F '(1,2) + F' (1,2) * F '(1,3) )) + Ln (O, O) * (F '(1,1) 2 + F' (1,2) 2+ F '(1,3) 2) (21) + Ln (0,1) * ( F '(1,1) * F' (1,2) + F '(1,2) * F' (1,3)) + Ln (0,2) * (F '(1,1) * F '(1,3)) One of the three filter coefficients to be determined can be chosen freely, for example:

2 5 F(1,1) = 12 5 F (1,1) = 1

Si l'on considère les qualités de symétrie de la fonction d'autocorrelation Ln(i,j) = Ln(i,-j) et sa valeur à la position (0,0) selon l'équation 17 Ln(O,O) = 1,  If we consider the symmetry qualities of the autocorrelation function Ln (i, j) = Ln (i, -j) and its value at position (0,0) according to equation 17 Ln (O, O ) = 1,

- 12 -- 12 -

on obtient à partir de l'équation 21: Enf = 2 * Ln(0,2) * F'(1,3) + 2 * Ln(0,1) * (F'(1,2) + F'(1,2)*F'(1,3))  we obtain from Equation 21: Enf = 2 * Ln (0,2) * F '(1,3) + 2 * Ln (0,1) * (F' (1,2) + F '( 1,2) * E (1,3))

+ (1 + F'(1,2)2 + F'(1,3)2)+ (1 + F '(1,2) 2 + F' (1,3) 2)

Pour la détermination de F'(1,2), il faut différencier partiellement cette équation selon F'(1,2) et la mettre a zéro: 0 = 2 * Ln(0,1) + 2 * Ln(0,1) * F'(1,3) + 2 * F'(1,2) Pour la grandeur F'(1,3), on obtient de la meme manière: 0 = 2 * Ln(0,2) + 2 * Ln(0,1) * F'(1,2) + 2 * F'(1,3) Du système d'équation linéaire il résulte: F'(1,1) = 1 (selon l'hypothèse) F'(1,2) = Ln(0,1) * (Ln(0,2) - 1) / (1 - Ln(0,1)2) F'(1,3) = (Ln(0,1)2 - Ln(0,2)) / (1 - Ln(0,1)2) Pour une détermination plus facile de valeur maximale de correlation, il est possible, si on le désire, d'effectuer en plus  For the determination of F '(1,2), it is necessary to partially differentiate this equation according to F' (1,2) and to set it to zero: 0 = 2 * Ln (0,1) + 2 * Ln (0,1 ) * F '(1,3) + 2 * F' (1,2) For the quantity F '(1,3), we obtain in the same way: 0 = 2 * Ln (0,2) + 2 * Ln (0,1) * F '(1,2) + 2 * F' (1,3) From the system of linear equation it follows: F '(1,1) = 1 (according to the hypothesis) F' (1,2) = Ln (0,1) * (Ln (0,2) - 1) / (1 - Ln (0,1) 2) F '(1,3) = (Ln (0,1) 2 - Ln (0,2)) / (1 - Ln (0,1) 2) For an easier determination of maximum correlation value, it is possible, if desired, to carry out moreover

une convolution de ce vecteur de résultat avec un vecteur de forme.  a convolution of this result vector with a shape vector.

Dans ce cas, pour les coefficients du filtre utilisé:  In this case, for the coefficients of the filter used:

F(1,1) = F'(1,1)F (1,1) = F '(1,1)

F(1,2) = 2 * F'(1,1) + F'(1,2)F (1,2) = 2 * F '(1,1) + F' (1,2)

F(1,3) = F'(1,1) + 2 * F'(1,2) + F'(1,3)  F (1,3) = F '(1,1) + 2 * F' (1,2) + F '(1,3)

2 5 F(1,4) = F'(1,2) + 2 * F'(1,3)F (1,4) = F '(1,2) + 2 * F' (1,3)

F(1,5) = F'(1,3)F (1.5) = F '(1.3)

La détermination de ces coefficients, qul doivent etre à nouveau déterminés pour chaque image, ne nécessite que les valeurs de correlation Ln(O,1) et Ln(0,2). Ces dernières peuvent être facilement déterminées en temps reel vidéo, comme le montre le schéma bloc dans la figure 4. Dans ce cas, on suppose que les données d'image sont transmises de manière sérielle par lignes. Une  The determination of these coefficients, which must be determined again for each image, requires only the correlation values Ln (O, 1) and Ln (0.2). These can be easily determined in real-time video, as shown in the block diagram in Figure 4. In this case, it is assumed that the image data is transmitted serially by lines. A

- 13'-- 13'-

commande permet d'obtenir que la sommation ne soit effectuée que sur  command makes it possible to obtain that the summation is carried out only on

les points d'une ligne. La commande est comprise dans la figure 4.  the points of a line. The order is included in Figure 4.

Dans la figure 4, aussi bien la portion d'image R(i,j) que l'image plus grande ou image résiduelle B(i,j) (portion d'image d'ensemble = image résiduelle) peuvent etre extraites des mémoires d'image partielle T. Les éléments de multiplication sont désignés par M, les organes d'addition par A et les étages de division par D. Les organes d'addition sont commandés par les circuits d'attaque.qủi  In FIG. 4, both the image portion R (i, j) and the larger image or residual image B (i, j) (overall image portion = residual image) can be extracted from the memories The multiplication elements are designated by M, the addition members by A and the division stages by D. The addition members are controlled by the drive circuits.

leurs sont associés.their are associated.

- 14 -- 14 -

Claims (3)

Revendicationsclaims 1. Procédé pour la détection et la localisation d'une portion d'image dans une image d'ensemble à l'aide d'un dispositif de traitement d'lmage, dans lequel sont traités des signaux de points d'image divisés en lignes et en colonnes issus de convertisseurs opto-électroniques, ledit dispositif comprenant au moins un filtre, caractérisé en ce que pour le traitement d'image adaptatif préalable, un filtre (fv) discret variable est associé à chacune des mémoires d'image (Memo 1, 2) pour - l'image d'ensemble (B(i,j)), - l'image partielle ou portion d'image (R(i,j)), et les deux filtres (fv) sont reliés à un calculateur (C), qui effectue un calcul des coefficients de filtre pour chaque image à partir des grandeurs caractéristiques statistiques des images  A method for detecting and locating an image portion in an overall image using an image processing device, in which image point signals divided into lines are processed and in columns derived from optoelectronic converters, said device comprising at least one filter, characterized in that for the prior adaptive image processing, a variable discrete filter (fv) is associated with each of the image memories (Memo 1 , 2) for - the overall image (B (i, j)), - the partial image or image portion (R (i, j)), and the two filters (fv) are connected to a calculator (C), which performs a calculation of the filter coefficients for each image from the statistical characteristic quantities of the images filtrées ou non filtrées.filtered or unfiltered. 2. Dispositif pour la mise en oeuvre d'un procédé de localisation d'image (partie d'une image d'ensemble), dans lequel des signaux de points d'image Issus de convertisseurs opto-électroniques sont transformés en données d'image et filtrés, caractérisé en ce que chaque filtre (fv) discret variable est combiné avec un filtre (ff) discret fixe et on choisit entre deux filtres et/ou modes, ou bien est chargé au choix avec au moins deux  2. Device for implementing an image localization method (part of an overall image), in which image point signals from opto-electronic converters are transformed into image data and filtered, characterized in that each variable discrete filter (fv) is combined with a fixed discrete filter (ff) and is selected between two filters and / or modes, or is optionally loaded with at least two groupes de coefficients de filtre déterminés de manière différente.  groups of filter coefficients determined differently. 3. Dispositif pour la mise en oeuvre d'un procédé selon larevendication 1 ou 2, caractérisé en ce qu'au calculateur (C) est 2 5 relié un étage d'entrée (E) pour la détermination de l'autocorrelation qui - extrait de façon serielle, par lignes (point par point dans les colonnes) ou par colonnes (point par point dans les lignes), les données d'image pour chaque Image & partir de la mémoire (Memo 1, 2) associée, - commande des organes de multiplication (M) pour la multiplication de ces données d'image et  3. Device for carrying out a method according to claim 1 or 2, characterized in that the computer (C) is connected to an input stage (E) for determining the autocorrelation which - extracted Serially, by lines (point by point in the columns) or by columns (point by point in the lines), the image data for each Image & from the memory (Memo 1, 2) associated, - command of multiplication units (M) for the multiplication of these image data and - 15 -- 15 - - commande, pour la sommation, des organes d'addition (A) dont les sorties sont reliées chacune à un étage de division (D), quelques-unes ou toutes les fonctions de cet étage d'entrée (E)  control, for the summation, of the addition members (A) whose outputs are each connected to a division stage (D), some or all the functions of this input stage (E) pouvant etre effectuées au choix également dans le calculateur (C).  can also be made in the calculator (C).
FR8815356A 1987-11-26 1988-11-24 METHOD AND DEVICE FOR DETECTING AND LOCATING AN IMAGE PORTION Granted FR2623927A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE3740066A DE3740066C1 (en) 1987-11-26 1987-11-26 Device for locating and localizing a picture detail

Publications (2)

Publication Number Publication Date
FR2623927A1 true FR2623927A1 (en) 1989-06-02
FR2623927B1 FR2623927B1 (en) 1995-05-12

Family

ID=6341314

Family Applications (1)

Application Number Title Priority Date Filing Date
FR8815356A Granted FR2623927A1 (en) 1987-11-26 1988-11-24 METHOD AND DEVICE FOR DETECTING AND LOCATING AN IMAGE PORTION

Country Status (3)

Country Link
DE (1) DE3740066C1 (en)
FR (1) FR2623927A1 (en)
GB (1) GB2213017B (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW368640B (en) * 1996-12-25 1999-09-01 Hitachi Ltd Image processor, image processing device and image processing method
US6477275B1 (en) * 1999-06-16 2002-11-05 Coreco Imaging, Inc. Systems and methods for locating a pattern in an image
DE10128722C1 (en) * 2001-06-13 2003-04-24 Siemens Ag Device for monitoring objects, evaluates image coarsely to determine displacement relative to last image of monitored object, evaluates more accurately if image offset greater than maximum
US8068688B2 (en) 2008-05-27 2011-11-29 Nikon Corporation Device and method for estimating defocus blur size in an image

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3643018A (en) * 1966-07-13 1972-02-15 Texas Instruments Inc Alignment system using an electronic scanner
EP0025730A1 (en) * 1977-04-14 1981-03-25 ETAT FRANCAIS repr. par le Secrétaire d'Etat aux Postes et Télécomm. et à la Télédiffusion (CENT. NAT. D'ETUDES DES TELECOMM.) Movement detector for systems for reducing noise visibility in television pictures
DE3001588A1 (en) * 1980-01-15 1981-07-23 Goodyear Aerospace Corp., Akron, Ohio DIGITAL VIDEO CORRELATOR
EP0005918B1 (en) * 1979-05-09 1983-05-04 Hughes Aircraft Company Scene tracker system
EP0166637A1 (en) * 1984-05-28 1986-01-02 MICRO-CONTROLE, Société Anonyme dite: Method and device for the recognition of a particular pattern of an image
US4667304A (en) * 1984-11-23 1987-05-19 Digivision, Inc. Real-time, localized enhancement of a video image using separable two-dimensional filters
EP0231048A1 (en) * 1986-01-31 1987-08-05 Laboratoires D'electronique Philips Ultrasonic echographic apparatus for the investigation of media in motion

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE1099771B (en) * 1958-02-10 1961-02-16 Standard Elektrik Lorenz Ag Arrangement for detecting a label attached to a document
JP2609263B2 (en) * 1986-03-19 1997-05-14 ブリティッシュ・ブロードキャスティング・コーポレーション Method and apparatus for measuring motion in television images

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3643018A (en) * 1966-07-13 1972-02-15 Texas Instruments Inc Alignment system using an electronic scanner
EP0025730A1 (en) * 1977-04-14 1981-03-25 ETAT FRANCAIS repr. par le Secrétaire d'Etat aux Postes et Télécomm. et à la Télédiffusion (CENT. NAT. D'ETUDES DES TELECOMM.) Movement detector for systems for reducing noise visibility in television pictures
EP0005918B1 (en) * 1979-05-09 1983-05-04 Hughes Aircraft Company Scene tracker system
DE3001588A1 (en) * 1980-01-15 1981-07-23 Goodyear Aerospace Corp., Akron, Ohio DIGITAL VIDEO CORRELATOR
EP0166637A1 (en) * 1984-05-28 1986-01-02 MICRO-CONTROLE, Société Anonyme dite: Method and device for the recognition of a particular pattern of an image
US4667304A (en) * 1984-11-23 1987-05-19 Digivision, Inc. Real-time, localized enhancement of a video image using separable two-dimensional filters
EP0231048A1 (en) * 1986-01-31 1987-08-05 Laboratoires D'electronique Philips Ultrasonic echographic apparatus for the investigation of media in motion

Also Published As

Publication number Publication date
DE3740066C1 (en) 1989-03-23
GB8827471D0 (en) 1988-12-29
GB2213017A (en) 1989-08-02
FR2623927B1 (en) 1995-05-12
GB2213017B (en) 1992-01-15

Similar Documents

Publication Publication Date Title
US5535291A (en) Superresolution image enhancement for a SIMD array processor
EP0749083B1 (en) Method and device for the determination of the frequency spectrum of a signal
EP3663987B1 (en) Method and device for determining the overall memory size of an overall memory area allocated to data from a neural network
US11568519B2 (en) Image enhancement method, image enhancement apparatus, and method and apparatus for training image enhancement apparatus
FR2763134A1 (en) METHOD FOR PROCESSING THE RECEPTION SIGNAL OF A RADAR RADAR WITH FREQUENCY RAMPS
FR3020157A1 (en) DIGITAL DETECTION METHOD
FR2623927A1 (en) METHOD AND DEVICE FOR DETECTING AND LOCATING AN IMAGE PORTION
FR2505052A1 (en) METHOD AND DEVICE FOR REDUCING THE POWER OF THE INTERFERENCE SIGNALS RECEIVED BY THE SECONDARY LOBES OF A RADAR ANTENNA
EP0769760B1 (en) Method of automatically detecting evaluation zones in images of mechanical parts
FR2971653A1 (en) ACQUISITION METHOD WITH IMPROVED FREQUENCY MULTI-CORRELATION
FR2667712A1 (en) METHOD AND APPARATUS FOR IMAGE RECOVERY USING PHASE CORRELATION WITH WEIGHTING TO DETERMINE SHIFT.
EP0334711A1 (en) Apparatus for elimination of moving clutter in a radar
FR2474722A1 (en) Digital video correlator for e,g, aircraft guidance system - has single-bit correlators for comparing digitised valves of live and reference images in shifting network
CA2897674C (en) Estimation of the movement of an image
EP0651263A1 (en) Method for determining the order of range ambiguity of radar echoes
EP0676114B1 (en) Hierarchical estimation device for the image frame motion
WO2020094863A2 (en) Device for calculating an analog fourier transform
EP0010481A1 (en) Method of and device for displaying moving targets, in particular in a variable PRF radar
EP2023289A1 (en) Motion detection method and device with double adaptive filtering
FR2535066A1 (en) DEVICE FOR DETERMINING THE THRESHOLD OF FIXED ECHO REMOVAL, IN PARTICULAR FOR RADAR RECEIVERS
CN112130208B (en) Method and device for processing ghost waves in cable
EP1478096B1 (en) Self-adaptive method and device for the rejection of interference
EP3823269A1 (en) Color image reconstruction
Abdallah et al. A modification to the ASM filter for improving SAR interferograms
FR2546352A1 (en) Method and device for processing a digitised image and their implementation in a mapping radar

Legal Events

Date Code Title Description
CA Change of address
CD Change of name or company name
ST Notification of lapse
CA Change of address
CD Change of name or company name