FR2783950A1 - Processing of digital image to automatically locate and extract one or more objects in the image - Google Patents

Processing of digital image to automatically locate and extract one or more objects in the image Download PDF

Info

Publication number
FR2783950A1
FR2783950A1 FR9812093A FR9812093A FR2783950A1 FR 2783950 A1 FR2783950 A1 FR 2783950A1 FR 9812093 A FR9812093 A FR 9812093A FR 9812093 A FR9812093 A FR 9812093A FR 2783950 A1 FR2783950 A1 FR 2783950A1
Authority
FR
France
Prior art keywords
image
digital
contour
objects
digital image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9812093A
Other languages
French (fr)
Other versions
FR2783950B1 (en
Inventor
Stephane Saupique
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ARTS VIDEO INTERACTIVE
Original Assignee
ARTS VIDEO INTERACTIVE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ARTS VIDEO INTERACTIVE filed Critical ARTS VIDEO INTERACTIVE
Priority to FR9812093A priority Critical patent/FR2783950B1/en
Publication of FR2783950A1 publication Critical patent/FR2783950A1/en
Application granted granted Critical
Publication of FR2783950B1 publication Critical patent/FR2783950B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

The location of an object is in four steps. The image is segmented into homogeneous regions (Rp(S)), which are labelled as one of: not labelled, significant, or non-significant. Neighboring significant regions are fused into zones (Z1 - Z4), and boxes (B1-B4) enclosing zones determined. An intercept vector is used to construct the object contour, which is refined by filtering.

Description

PROCEDE ET SYSTEME DE TRAITEMENT D'UNE IMAGEMETHOD AND SYSTEM FOR PROCESSING AN IMAGE

NUMERIQUE, POUR EN EXTRAIRE DES OBJETS NUMERIQUES  DIGITAL, FOR EXTRACTING DIGITAL OBJECTS

La présente invention concerne un procédé de localisation et/ou d'extraction automatique d'un ou plusieurs objets numériques dans une image également numérique. Elle concerne également un système pour la mise en  The present invention relates to a method for automatically locating and / or extracting one or more digital objects in an image that is also digital. It also concerns a system for the implementation

oeuvre de ce procédé.of this process.

Dans le cadre de la présente invention, le terme "objet" doit être entendu dans un sens général. Il s'agit d'une région d'une image numérique, homogène selon certains critères prédéterminés qui seront précisés ci-après, pouvant  In the context of the present invention, the term "object" should be understood in a general sense. It is a region of a digital image, homogeneous according to certain predetermined criteria which will be specified below, being able to

se distinguer des autres régions et/ou du fond (arrière-  different from other regions and / or from the background (back

plan) de cette image numérique, que ce fond soit homogène ou non, comme il le sera montré. A titre d'exemple non exhaustif, un "objet" peut être constitué par un objet, dans le sens usuel du terme, mais aussi par un personnage, ou de façon plus générale par tout contour fermé définissant une  plan) of this digital image, whether this background is homogeneous or not, as it will be shown. By way of non-exhaustive example, an "object" can be constituted by an object, in the usual sense of the term, but also by a character, or more generally by any closed contour defining a

zone de l'image de caractéristiques particulières.  image area of particular features.

L'opération d'extraction est souvent appelée  The extraction operation is often called

"détourage" dans les procédés de traitement d'image.  "Trimming" in image processing methods.

Les procédés les plus rudimentaires consistent en effet à déterminer de façon entièrement manuelle le contour d'un objet que l'on désire extraire d'une image. Pour ce faire, les logiciels permettant un traitement d'image, possèdent diverses fonctions, par exemple la fonction dite de "lasso" qui permet de tracer autour de l'objet à l'aide d'un dispositif de pointage (par exemple une "souris") un contour s'approchant du contour de l'objet à "détourer". On peut ensuite sélectionner la zone entourée, ou son complément logique, et opérer un découpage (fonction "ciseau") et "coller" l'image ainsi sur un fond homogène. On peut également effacer les zones entourant l'objet à l'aide d'une fonction dite "gomme", c'est-à-dire en réalité appliquer également une couleur uniforme sur ces zones. Les deux méthodes sont combinables: un détourage "grossier" peut être obtenu par la sélection d'une zone entourant l'objet à détourer, suivi d'un effacement sélectif des zones parasites restantes, avantageusement en grossissant l'image (fonction "zoom"). L'objet ainsi détouré peut ensuite être utilisé à diverses fins, notamment en vue d'une superposition sur un fond différent du fond d'origine, voire une nouvelle image (trucage, etc.). Il suffit alors de colorer le nouveau fond dans une couleur non présente dans l'objet détouré et d'associer à ce fond un attribut dit de "couleur transparente". On peut alors superposer la nouvelle image (objet + fond dit "transparent") avec n'importe quel autre fond. Cette technique est celle bien connue de  The most rudimentary methods consist in determining entirely manually the contour of an object that is to be extracted from an image. To do this, the software for image processing, have various functions, for example the so-called "lasso" function that draws around the object with the aid of a pointing device (for example a "lasso"). mouse ") a contour approaching the contour of the object to be" cut off ". We can then select the surrounding area, or its logical complement, and perform a cutting (function "scissors") and "stick" the image and on a homogeneous background. It is also possible to erase the areas surrounding the object using a function called "eraser", that is to say in reality also apply a uniform color on these areas. The two methods are combinable: a "rough" clipping can be obtained by selecting an area surrounding the object to be cut off, followed by a selective erasure of the remaining parasitic zones, advantageously by magnifying the image ("zoom" function ). The object thus cut can then be used for various purposes, in particular for a superposition on a different background background or even a new image (special effects, etc.). It is then sufficient to color the new background in a color not present in the cut-out object and to associate with this background an attribute called "transparent color". We can then superimpose the new image (object + background said "transparent") with any other background. This technique is the one well known

"l'arrière plan bleu", utilisée couramment en vidéo.  "the blue background", commonly used in video.

Il existe d'autres techniques plus sophistiquées permettant d'extraire les contours d'un objet dans une image. on peut évoquer, par exemple, le procédé bien connu  There are other more sophisticated techniques for extracting the outlines of an object in an image. we can evoke, for example, the well-known process

sous le vocable général de "baguette magique".  under the general term of "magic wand".

Cependant toutes ces techniques sont de type manuel et exige donc un temps très important pour obtenir le résultat voulu. D'autre part, elles dépendent de la dextérité de l'opérateur pour obtenir un résultat convenable, sinon parfait. Enfin, elles ne permettent  However, all these techniques are of the manual type and therefore require a very important time to obtain the desired result. On the other hand, they depend on the dexterity of the operator to obtain a suitable result, if not perfect. Finally, they do not allow

généralement que l'extraction d'un seul objet à la fois.  usually only extracting one object at a time.

Aussi, il a été proposé des procédés plus performants, et partiellement automatisés, mettant en oeuvre des techniques dites de "contours actifs ou flexibles". Ces techniques sont basées elles-mêmes sur le concept dit de  Also, it has been proposed more efficient methods, and partially automated, using so-called techniques of "active or flexible contours". These techniques are based on the concept of

"serpent", ou "snake" selon la terminologie anglo-saxonne.  "snake" or "snake" according to the English terminology.

Les "serpents" sont des contours définis  "Snakes" are defined outlines

manuellement par un opérateur, via une interface "homme-  manually by an operator via a "human-

machine". Ils peuvent ensuite s'auto-adapter afin de représenter plus fidèlement les contours réels d'un objet que l'on désire détourer, mais ils nécessitent l'étape initiale de détourage manuel, que l'on peut appeler "grossier". D'un point de vue mathématique, un "serpent" peut être associé à une fonction, dite "spline", de minimisation d'énergie. En effet, un "serpent" étant défini comme une fonction d'énergie, il s'agit de minimiser cette fonction, afin de trouver la meilleure adaptation entre le "serpent" et le contour réel de l'objet à détourer. Les "serpents" possèdent la propriété de modifier dynamiquement, et leur forme, et leur position, pendant la recherche d'un état  machine. "They can then self-adapt to more accurately represent the actual contours of an object that is desired to be trimmed, but they require the initial step of manual trimming, which can be called" coarse " From a mathematical point of view, a "snake" can be associated with a so-called "spline" function of energy minimization, since a "snake" is defined as an energy function. is to minimize this function, in order to find the best adaptation between the "snake" and the real contour of the object to be cut.The "serpents" have the property to modify dynamically, and their shape, and their position, during the search of a state

d'énergie minimal.minimal energy.

A titre d'exemple non exhaustif, pour une  By way of non-exhaustive example, for a

description plus détaillée du procédé qui vient d'être  more detailed description of the process that has just been

rappelé, on pourra se référer avec profit à l'article de M. KAS et al., intitulé "Snakes: Active contour models", paru dans "International Journal of Computer Vision",  recalled, we can refer profitably to the article by M. KAS et al., entitled "Snakes: Active contour models", published in "International Journal of Computer Vision",

vol. 1, N 4, pages 321-331, 1987.flight. 1, No. 4, pp. 321-331, 1987.

On conçoit aisément que les procédés de ce type présentent des avantages par rapports aux procédés classiques d'extraction d'objets. Ils sont notamment autonomes et auto-adaptatifs. Ils peuvent être rendus robustes vis-à-vis d'un redimensionnement d'image, en faisant appel à une fonction de lissage Gaussien lors du  It is readily apparent that such methods have advantages over conventional object extraction methods. They are especially autonomous and self-adaptive. They can be made robust to image resizing by using a Gaussian smoothing function during

calcul de l'énergie de l'image.calculating the energy of the image.

Mais ils continuent à présenter des inconvénients  But they continue to have disadvantages

non négligeables.non negligable.

Tout d'abord, comme il a été rappelé, il implique toujours une étape manuelle, pour définir le "serpent"  First of all, as it was recalled, it always involves a manual step, to define the "snake"

initial.initial.

D'autre part, la précision des contours est déterminée par le paramètre de convergence retenu pour l'étape de recherche d'énergie minimale. Le temps de calcul étant proportionnel à la précision des contours demandée, il n'est pas possible d'obtenir, en une seule itération, les  On the other hand, the accuracy of the contours is determined by the convergence parameter adopted for the minimum energy search step. As the calculation time is proportional to the precision of the contours requested, it is not possible to obtain, in a single iteration, the

contours réels de l'objet à détourer.  real contours of the object to be cut.

Par ailleurs, les procédés de type contours actifs ne sont robustes au bruit que de manière très relative. En effet, l'expérience montre qu'ils ne permettent pas de détourer un objet si l'image numérique testée est très tramée ou comporte des défauts de numérisation (effets de blocs dus à la mauvaise qualité de la vidéo numérique, bruit  In addition, the active contour type processes are noise-resistant only in a very relative manner. Indeed, the experiment shows that they do not make it possible to detour an object if the digital image tested is very raster or has defects of digitization (effects of blocks due to the poor quality of the digital video, noise

local mais non global, etc.).local but not global, etc.).

L'invention se fixe donc pour but un procédé de localisation et/ou d'extraction d'objets numériques dans une image également numérique visant à pallier les inconvénients des procédés de l'art connu, et dont certains veinent d'être rappelés, ainsi qu'un système de mise en oeuvre de ce procédé. Dans un mode de réalisation préféré, elle propose un procédé entièrement automatique de détection de contour, c'est-à-dire sans intervention extérieure, très précis, permettant ensuite d'extraire un objet numérique au pixel près, sous la forme de polygones à n côtés, avec n 2 3. Le procédé n'implique pas de recourir à une convergence, ce qui  The object of the invention is therefore to provide a method for locating and / or extracting digital objects in an image that is also digital and intended to overcome the disadvantages of the methods of the known art, some of which need to be recalled, as well as that a system for implementing this method. In a preferred embodiment, it proposes a fully automatic method of contour detection, that is to say without external intervention, very precise, then allowing to extract a digital object to the pixel, in the form of polygons to n sides, with n 2 3. The process does not involve the use of convergence, which

rend la détection de contour très rapide.  makes contour detection very fast.

Pour ce faire, outre une phase préliminaire d'acquisition d'une image numérique, ce qui est commun, en soi, avec la plupart des procédés de l'art connu, le procédé selon l'invention comprend, dans un mode de réalisation préféré les phases et étapes suivantes: a/ une première phase de localisations d'objets numériques distincts dans ladite image numérique. Cette phase se décompose à son tour en quatre étapes successives: 1.- la segmentation de l'image en régions homogènes; 2.l'étiquetage de ces régions homogènes à l'aide d'un attribut d'états particuliers, comprenant les états suivants: un état dit "Non Etiqueté", un état dit "Non Significatif", et un état dit "Significatif"; 3.- la fusion des régions voisines en zones associées à l'attribut d'état dit "Significatif"; 4.- et la détermination d'aires dites "boites" englobant chacune desdites zones, avantageusement de forme rectangulaire; et: b/ une seconde phase consistant en l'extraction proprement dite des objets numériques distincts, comprenant elle-même, pour chacune des "boites" précitées, trois étapes successives: 1.- l'acquisition d'un jeu de vecteurs d'interception avec les aires précitées; 2.- la construction, à partir de ce jeu de vecteurs d'interception, d'un contour de l'objet, dit primaire; et 3.- la reconstruction du contour réel de l'objet à  To this end, in addition to a preliminary phase of acquiring a digital image, which is common per se, with most of the methods of the prior art, the method according to the invention comprises, in a preferred embodiment the following phases and steps: a / a first phase of locations of distinct digital objects in said digital image. This phase is broken down into four successive stages: 1.- segmentation of the image into homogeneous regions; 2.The labeling of these homogeneous regions using a particular state attribute, including the following states: a state labeled "Not Labeled", a state called "Not Significant", and a state called "Significant" ; 3.- merging neighboring regions into zones associated with the status attribute called "Significant"; 4.- and the determination of so-called "box" areas encompassing each of said zones, advantageously of rectangular shape; and: b / a second phase consisting in the actual extraction of the distinct digital objects, which itself comprises, for each of the aforementioned "boxes", three successive steps: 1.- the acquisition of a set of vectors of interception with the aforementioned areas; 2.- the construction, from this set of intercepting vectors, of an outline of the object, said primary; and 3.- the reconstruction of the real contour of the object to

extraire à partir du contour primaire.  extract from the primary contour.

La dernière étape consiste notamment à lisser le polygone obtenu à l'étape précédente, à détecter et à supprimer les discontinuités de ce polygone, et de façon plus générale à supprimer des effets parasites dues à une  The last step consists notably in smoothing the polygon obtained in the previous step, in detecting and eliminating the discontinuities of this polygon, and more generally in suppressing parasitic effects due to a

image numérique imparfaite.imperfect digital image.

On doit bien comprendre toutefois que, dans un mode de réalisation supplémentaire, le procédé peut ne comporter  It should be understood, however, that in a further embodiment, the method may not include

que la seconde phase.than the second phase.

En effet, si on sait, a priori ou par l'examen de l'image affichée sur un écran, que celle-ci ne comprend qu'un objet significatif, les bords de celle-ci peuvent constituer les côtés de la seule "boite" nécessaire à la réalisation des étapes de la seconde phase. Ces côtés forment la base à partir de laquelle les vecteurs  Indeed, if we know, a priori or by examining the image displayed on a screen, that it includes only a significant object, the edges thereof may constitute the sides of the only "box "necessary to achieve the stages of the second phase. These sides form the base from which the vectors

d'interception vont être déterminés.  interception will be determined.

De façon plus générale, la seconde phase peut être initialisée simplement en traçant manuellement sur l'image numérique une "boite", c'est-à-dire un rectangle, englobant un objet à extraire. Certes, cette étape particulière est alors manuelle, mais elle n'exige ni dextérité, ni minutie particulières de la part de l'opérateur. Elle peut être réalisée en un temps très bref, par exemple à l'aide d'un outil de pointage, type "souris", et en délimitant les deux points extrêmes du rectangle décrivant la "boite" de sélection, sur un écran informatique affichant l'image numérique. Ensuite, les étapes subséquentes, c'est-à-dire celles appartenant à ce qui a été appelée la seconde phase, se déroulent de façon entièrement automatique, tout en conservant les avantages propres au procédé selon l'invention: précision du détourage, rapidité, etc. En fin de la seconde phase, dans le mode de réalisation préféré du procédé selon l'invention, un utilisateur dispose, sans aucune intervention extérieure, de la liste de tous les objets distincts présents dans une image numérique donnée, sous la forme de polygones. Cette disposition constitue d'ailleurs un avantage supplémentaire de l'invention. La représentation informatique de ces polygones est disponible sous la forme de signaux numériques qui peuvent être stockés directement dans des mémoires d'un système de traitement de l'information, également de façon entièrement automatique, et exploités ultérieurement à  More generally, the second phase can be initialized simply by manually drawing on the digital image a "box", that is to say a rectangle, encompassing an object to be extracted. Certainly, this particular step is then manual, but it does not require dexterity or particular minutia on the part of the operator. It can be performed in a very short time, for example using a pointing tool, type "mouse", and delineating the two end points of the rectangle describing the "box" selection, on a computer screen displaying the digital image. Then, the subsequent steps, that is to say those belonging to what has been called the second phase, take place fully automatically, while retaining the advantages of the method according to the invention: accuracy of the clipping, speed etc. At the end of the second phase, in the preferred embodiment of the method according to the invention, a user has, without any outside intervention, the list of all the distinct objects present in a given digital image, in the form of polygons. This provision is also a further advantage of the invention. The computer representation of these polygons is available in the form of digital signals that can be stored directly in memories of an information processing system, also fully automatically, and subsequently exploited at a later date.

diverses fins.various purposes.

Dans une variante supplémentaire, l'extraction d'objets et la mémorisation des signaux numériques les représentant peuvent être étendues à une séquence d'images vidéo, et non plus seulement à des images statiques, avec éventuellement détection de redondances et mémorisation des  In a further variant, the extraction of objects and the storage of the digital signals representing them can be extended to a sequence of video images, and no longer only to static images, with the possible detection of redundancies and storage of the images.

seuls objets à occurrence unique dans la séquence précitée.  only single-occurrence objects in the above-mentioned sequence.

L'invention a donc pour objet un procédé de traitement d'une image numérique en vue d'en extraire des objets numériques constitués par des régions de pixels à caractéristiques optiques homogènes, lesdites régions ayant un contour fermé, caractérisé en ce qu'il comprend: - une phase de localisation d'au moins un desdits objets numériques comprenant au moins une étape de création, dans ladite image numérique, d'une aire fermée englobant cet objet numérique, les coordonnées des pixels la composant étant déterminées par rapport à un référentiel déterminé lié à ladite aire fermée; - et une phase d'extraction automatisée d'au moins un objet numérique comprenant les étapes suivantes: a/ l'acquisition d'un jeu de vecteurs d'interception avec ledit contour de l'objet, représentant chacun une coordonnée d'un point de ce contour par rapport audit référentiel, l'interception étant déterminée par la fixation préalable d'un paramètre formant seuil, caractérisant ladite homogénéité et la détection de la variation de ce paramètre au delà de ce seuil; b/ l'acquisition, à partir de ce jeu de vecteurs d'interception, des coordonnées, par rapport audit référentiel, des points décrivant un premier contour de l'objet numérique dit primaire; et c/ la reconstruction à partir de ce contour, dit primaire, d'un second contour représentant le contour réel dudit objet à extraire, par élimination de bruits parasites  The subject of the invention is therefore a method for processing a digital image in order to extract digital objects constituted by regions of pixels with homogeneous optical characteristics, said regions having a closed contour, characterized in that it comprises a phase of locating at least one of said digital objects comprising at least one step of creating, in said digital image, a closed area encompassing this digital object, the coordinates of the pixels of the component being determined with respect to a reference frame determined related to said closed area; and an automated extraction phase of at least one digital object comprising the following steps: a / acquisition of a set of interception vectors with said contour of the object, each representing a coordinate of a point of this contour with respect to said reference frame, the interception being determined by the prior fixing of a threshold parameter, characterizing said homogeneity and the detection of the variation of this parameter beyond this threshold; b / the acquisition, from this set of interception vectors, coordinates, with respect to said reference, points describing a first contour of the so-called primary digital object; and c / the reconstruction from this so-called primary contour of a second contour representing the real contour of said object to be extracted, by eliminating parasitic noise

et lissage dudit contour primaire.and smoothing said primary contour.

L'invention a encore pour objet un système pour la  The subject of the invention is also a system for

mise en oeuvre de ce procédé.implementation of this method.

L'invention sera mieux comprise et d'autres caractéristiques et avantages apparaîtront à la lecture de  The invention will be better understood and other features and advantages will become apparent upon reading

la description qui suit en référence aux figures annexées,  the description which follows with reference to the appended figures,

parmi lesquelles: - les figures 1A à 1H illustrent les principales étapes d'une première phase du procédé, selon un mode de réalisation préféré de l'invention, ou phase de localisation des objets contenus dans une image numérique; - les figures 2A et 2B sont des diagrammes illustrant schématiquement les relations de voisinage entre pixels d'une image numériques, selon deux méthodes; - les figures 3A à 4D illustrent les principales étapes d'une seconde phase du procédé, selon un mode de réalisation préféré de l'invention, ou phase d'extraction des objets contenus dans une image numérique; - les figures 4E à 4I illustrent des opérations particulières exécutées pendant la dernière étape de la phase d'extraction d'objets; - la figure 5 illustre schématiquement l'architecture d'une chaîne de traitement d'image numérique comprenant un système de localisation et/ou d'extraction d'objets numériques contenus dans une image numérique, pour la mise en oeuvre du procédé selon l'invention; - et la figure 6 illustre schématiquement les principaux composants d'un exemple de système de localisation et/ou d'extraction d'objets numériques contenus dans une image numérique, pour la mise en oeuvre du procédé selon l'invention. On va maintenant décrire de façon plus détaillée le procédé de localisation et/ou d'extraction automatique d'objets dans une image numérique selon un mode de réalisation préféré de l'invention. En effet, selon ce mode de réalisation, le procédé comprend deux phases: une première phase permettant la localisation des objets numériques dans une image numérique donnée et une seconde  among which: - Figures 1A to 1H illustrate the main steps of a first phase of the method, according to a preferred embodiment of the invention, or phase of locating objects contained in a digital image; FIGS. 2A and 2B are diagrams schematically illustrating the neighborhood relations between pixels of a digital image, according to two methods; FIGS. 3A to 4D illustrate the main steps of a second phase of the method, according to a preferred embodiment of the invention, or extraction phase of the objects contained in a digital image; FIGS. 4E to 4I illustrate particular operations executed during the last step of the object extraction phase; FIG. 5 schematically illustrates the architecture of a digital image processing chain comprising a system for locating and / or extracting digital objects contained in a digital image, for implementing the method according to FIG. invention; and FIG. 6 schematically illustrates the main components of an exemplary system for locating and / or extracting digital objects contained in a digital image, for implementing the method according to the invention. The method of locating and / or automatically extracting objects in a digital image according to a preferred embodiment of the invention will now be described in more detail. Indeed, according to this embodiment, the method comprises two phases: a first phase allowing the location of the digital objects in a given digital image and a second

phase permettant l'extraction proprement dite de ces objets.  phase allowing the actual extraction of these objects.

Chacune de des phases comprend plusieurs étapes, comme il a  Each phase has several stages, as it has

été indiqué.been indicated.

La première phase va être décrite par référence aux  The first phase will be described by reference to

figures lA à lE, et aux figures 2A et 2B.  Figures 1A to 1E, and Figures 2A and 2B.

On va tout d'abord définir plus précisément ce qui est appelé "objet numérique" (que l'on appellera ci-après  We will first define more precisely what is called "digital object" (which will be called hereinafter

simplement "objet") dans le cadre du procédé de l'invention.  simply "object") in the context of the process of the invention.

Il s'agit d'un ensemble de régions homogènes de pixels d'une image numérique. Pour chaque pixel, il existe au moins un autre pixel qui lui est adjacent dans cette région, qui est considéré comme son voisin par rapport à une relation de  It is a set of homogeneous regions of pixels of a digital image. For each pixel, there is at least one other pixel that is adjacent to it in this region, which is considered as its neighbor in relation to a relation of

voisinage, et qui peut être de l'un des types dits "4-  neighborhood, and which can be of one of the types called "4-

voisinage" ou "8-voisinage", pour un tableau à deux dimensions. Sur la figure 2A, on a représenté une relation de type dit "4-voisinage". Le pixel central PO est entouré de quatre pixels, Pl à p4, disposés en croix, selon deux directions orthogonales. Sur la figure 2B, on a représenté une relation de type "8-voisinage". Le pixel central pO est au centre de huit pixels, Pl à P8, qui l'entourent  neighborhood "or" 8-neighborhood "for a two-dimensional array Figure 2A shows a so-called" 4-neighborhood "type relationship The central pixel PO is surrounded by four pixels, Pl to p4, arranged crosswise, in two orthogonal directions: Figure 2B shows an "8-neighborhood" type relationship The central pixel p0 is in the center of eight pixels, P1 to P8, which surround it

complètement (les huit pixels formant un carré).  completely (the eight pixels forming a square).

Généralement, l'image numérique est une image couleurs comprenant plusieurs canaux, par exemple trois canaux pour un codage "RVB". Le procédé est cependant tout à fait compatible avec une image monocolore, notamment en niveaux de gris. Elle ne comporte alors qu'un seul canal,  Generally, the digital image is a color image comprising several channels, for example three channels for "RGB" encoding. The method is, however, entirely compatible with a single-color image, especially in grayscale. It then has only one channel,

que l'on appellera de façon générique de couleur.  which we will call in a generic way of color.

À partir de là, on peut définir plus précisément une région homogène. On fixe une valeur déterminée d'un paramètre que l'on appellera facteur d'homogénéité 6. Une région de pixels est dite homogène si, pour tous les pixels de cette région, la relation suivante est satisfaite: I (P(n))I(P(n+l)) < 6 (1), avec I(P(n)) et I(P(n+l)) représentant les intensités lumineuses de pixels P(n) et P(n+l) adjacents voisins, de rang n et n+l, respectivement, et n étant un nombre entier arbitraire. Lorsque l'image numérique comporte plusieurs canaux de couleur, la relation (1) doit être vérifiée pour  From there, one can more precisely define a homogeneous region. A fixed value of a parameter is fixed which will be called a homogeneity factor 6. A pixel region is said to be homogeneous if, for all the pixels of this region, the following relation is satisfied: I (P (n)) I (P (n + 1)) <6 (1), with I (P (n)) and I (P (n + 1)) representing the light intensities of pixels P (n) and P (n + 1) adjacent neighbors, of rank n and n + 1, respectively, and n being an arbitrary integer. When the digital image has more than one color channel, the relation (1) must be checked for

tous les canaux.all channels.

Ces précisions étant données, on va maintenant décrire la phase de localisation des objets présents dans une image numérique. Naturellement, on suppose que, dans une phase préliminaire, une image numérique de résolution quelconque a été acquise. Cette image sera référencée ci- après Img. De façon pratique l'image numérique Img est stockée dans un organe de mémorisation, par exemple la mémoire vive d'un système de traitement de l'information, pendant tout le processus de localisation des objets (lors de la première phase) et d'extraction de ces objets (lors de la seconde phase). Cette image numérique Img sert d'entrée à un système de localisation et/ou d'extraction d'objets dans  These precisions being given, we will now describe the location phase of the objects present in a digital image. Naturally, it is assumed that, in a preliminary phase, a digital image of any resolution has been acquired. This image will be referenced below Img. Conveniently the digital image Img is stored in a storage device, for example the RAM memory of an information processing system, during the whole process of locating the objects (in the first phase) and extraction of these objects (during the second phase). This digital image Img serves as input to a system for locating and / or extracting objects in

une image numérique qui sera décrit ci-après.  a digital image which will be described below.

La première étape de la première phase consiste, en application de la diffusion, à segmenter l'image numérique Img en régions homogènes, répondant à la définition qui vient d'en être donnée. La figure 1A illustre l'image numérique Img, segmentée en régions homogènes. Pendant cette étape, on définit ainsi i régions distinctes, i étant tel que: 1 < i < mmax (2), avec mmax égal au nombre maximum de régions homogènes trouvées. Le nombre maximum de régions homogènes mmax, pour une image numérique Img donnée, dépend naturellement du choix effectué pour le paramètre 6, qui constitue une valeur de seuil. Pour chaque région, on conserve les intensités  The first step of the first phase consists, in application of the diffusion, in segmenting the digital image Img into homogeneous regions, corresponding to the definition that has just been given. Figure 1A illustrates the digital image Img, segmented into homogeneous regions. During this step, i thus define i distinct regions, i being such that: 1 <i <mmax (2), with mmax equal to the maximum number of homogeneous regions found. The maximum number of homogeneous regions mmax, for a given digital image Img, naturally depends on the choice made for parameter 6, which constitutes a threshold value. For each region, we keep the intensities

lumineuses maximale et minimale des pixels de cette région.  luminous maximum and minimum pixels of this region.

On définit ainsi la plage de couleur de la région, soit:  The color range of the region is defined as follows:

intervalle [minimum; maximum] (3).interval [minimum; maximum] (3).

En fin de première étape, on enregistre dans une mémoire, avantageusement sous forme de listes, les données acquises, et notamment les données caractérisant chaque pixel: identification de la région d'appartenance, coordonnées, etc. Lors de la deuxième étape, on associe chacune des régions avec un attribut que l'on appellera ci- après "étiquette". Plus précisément, cet attribut ou étiquette peut prendre trois valeurs, que l'on appellera arbitrairement état "Non Etiqueté" ou "NE", état "Non Significatif" ou "NS", et état "Significatif" ou "S". L'état "NE" est un état temporaire initial et les deux autres  At the end of the first step, the data acquired is recorded in a memory, advantageously in the form of lists, and in particular the data characterizing each pixel: identification of the region of belonging, coordinates, etc. In the second step, each of the regions is associated with an attribute that will be referred to hereinafter as "tag". More precisely, this attribute or label can take three values, which will be arbitrarily called "Not Labeled" or "NE" status, "Not Significant" or "NS" status, and "Significant" or "S" status. The state "NE" is an initial temporary state and the other two

états, "NS" et "S", correspondent aux régions de l'arrière-  states, "NS" and "S", correspond to the regions of the rear

plan et aux régions des objets à localiser, respectivement.  plane and the regions of the objects to be located, respectively.

Par défaut, toutes les régions sont initialisées à l'état "NE", comme illustré sur la figure lA: régions référencées R(NE). Cela signifie que l'on n'a pas encore attribué aux régions un état "réel", même provisoire. Les coordonnées des pixels de chaque région, leur indice i (voir (2)), ainsi que leur étiquette ("NE" dans le cas présent)  By default, all regions are initialized to the "NE" state, as illustrated in FIG. 1A: referenced regions R (NE). This means that the regions have not yet been assigned a "real" state, even a temporary one. The coordinates of the pixels of each region, their index i (see (2)), as well as their label ("NE" in this case)

sont stockés dans une mémoire.are stored in a memory.

Le processus de localisation d'objets dans l'image numérique Img est démarré en initialisant arbitrairement toutes les régions situées en bord d'image à l'état "NS". La figure lB illustre l'étiquetage de l'image à ce stade du processus. Il existe désormais deux types de régions, celles situées en bord d'image, que l'on a référencé Rm(NS), et celles situées au centre de l'image Img, encore non étiquetées, que l'on a référencé Rn(NE), avec n et m des nombres entiers tels que: n + m = nmax (4) Sur la figure lB, les régions Rn(NE) ont été laissées en blanc et les régions Rm(NS) sont représentées en hachuré. Ensuite, le processus va se poursuivre, en vue  The process of locating objects in the digital image Img is started by arbitrarily initializing all image edge regions in the "NS" state. Figure 1B illustrates the labeling of the image at this stage of the process. There are now two types of regions, those at the edge of the image, which have been referenced Rm (NS), and those in the center of the image Img, still unlabeled, which have been referenced Rn ( NE), where n and m are integers such that: n + m = nmax (4) In Fig. 1B, the Rn (NE) regions have been left blank and the Rm (NS) regions are shown as hatched. Then, the process will continue, with a view

d'étiqueter toutes les régions de l'image numérique Img.  to label all regions of the digital image Img.

Pour ce faire, on parcourt toute l'image numérique Img, en partant, avantageusement, d'une des extrémités et en suivant une trajectoire en spirale T composée de segments de droites rectilignes parallèles aux bords de cette image, comme illustré par la figure lC. Toutes les régions présentes dans l'image numérique Img doivent être balayées, soit Nmax régions. Pour ce faire, il suffit que le pas de la spirale T soit suffisamment faible. A la limite, le pas peut être égal à la distance séparant deux pixels, ce qui peut être déterminé aisément connaissant la résolution de l'image  To do this, the entire digital image Img is scanned, starting, advantageously, from one of the ends and following a spiral path T composed of rectilinear straight line segments parallel to the edges of this image, as illustrated by FIG. . All the regions present in the digital image Img must be scanned, ie Nmax regions. To do this, it is sufficient that the pitch of the spiral T is sufficiently low. At the limit, the pitch may be equal to the distance separating two pixels, which can be determined easily knowing the resolution of the image

numérique Img.Digital Img.

Lorsque le balayage traverse une région, il existe a priori deux possibilités et deux seulement, puisque les régions frontières de l'image numérique Img ont été initialisées à l'état "NS": a/ la région est à l'état "Significatif" "S", ou  When the scan passes through a region, there are a priori two possibilities and only two, since the border regions of the digital image Img have been initialized to the "NS" state: a / the region is in the "Significant" state "S", or

b/ la région est à l'état "Non Significatif" "NS".  b / the region is in the "Not Significant" "NS" state.

S15 Dans le premier cas, les régions voisines sont testées pour connaître leur étiquetage. Pour chaque région voisine à l'état "NE", si l'interception des plages de couleur (voir relation (3)) de la région "S" et de la région voisine existe, alors on étiquette aussi cette région voisine à l'état "S". Dans le cas contraire, on étiquette  S15 In the first case, neighboring regions are tested for labeling. For each neighboring region in the state "NE", if the interception of the color ranges (see relation (3)) of the region "S" and of the neighboring region exists, then this neighboring region is also labeled state "S". Otherwise, we label

cette région voisine à l'état "NS".  this neighboring region in the state "NS".

Dans le second cas, les régions voisines sont également testées pour connaître leur étiquetage. Pour chaque région voisine à l'état "NE", si l'interception des plages de couleurs de la région "NS" et de la région voisine existe, alors on étiquette aussi cette région voisine à l'état "NS". Dans le cas contraire, on étiquette cette  In the second case, neighboring regions are also tested for labeling. For each neighboring region in the "NE" state, if the interception of the color ranges of the "NS" region and the neighboring region exists, then this neighboring region is also labeled in the "NS" state. If not, label this

région voisine à l'état "S".neighboring region in state "S".

La figure lE illustre un stade intermédiaire du processus d'étiquetage des régions. Il existe désormais trois types de régions, celles étiquetées à l'état "Non Significatif", référencées Ry(NS), celles étiquetées à l'état "Significatif", référencées Rz(S), et celles situées au centre de l'image Img, encore non étiquetées, référencées RX(NE), avec x, y et z des nombres entiers tels que:  Figure lE illustrates an intermediate stage of the process of labeling regions. There are now three types of regions, those labeled in the "Not Significant" state, referenced as Ry (NS), those labeled in the "Significant" state, referenced as Rz (S), and those in the center of the image. Img, still untagged, referenced RX (NE), with x, y and z integers such as:

x + y + Z = nmax (5) -x + y + Z = nmax (5) -

Sur la figure lE, les régions Rz(S) sont remplies de points pour les différencier des deux autres types de  In FIG. 1E, the regions Rz (S) are filled with points to differentiate them from the two other types of

régions (motifs blanc et hachuré, respectivement).  regions (white and hatched patterns, respectively).

La figure 1F illustre la fin du processus d'étiquetage: toutes les régions sont étiquetées de façon définitive. De nouveau, il n'existe plus que deux types de régions: régions à l'état "NS", référencées Rp(NS), et régions à l'état "S", référencées Rq(S), avec p et q des nombres entiers vérifiant la relation:  Figure 1F illustrates the end of the labeling process: all regions are labeled definitively. Again, there are only two types of regions: regions in state "NS", referenced Rp (NS), and regions in state "S", referenced Rq (S), with p and q of integers checking the relation:

p + q = nmax (6).p + q = nmax (6).

Les données acquises lors de cette étape sont également enregistrées dans une mémoire et complètent celles  The data acquired during this step are also stored in a memory and complete those

enregistrées en fin de première étape.  recorded at the end of the first stage.

La troisième étape de la première phase consiste à fusionner toutes les régions voisines à l'état "S". En effet, comme il a été indiqué, les régions à l'état "S" délimitent des aires de l'image numérique Img correspondant aux objets à localiser. En d'autres termes, chaque fusion de régions voisines détermine une zone particulière de l'image  The third step of the first phase is to merge all neighboring regions into the "S" state. Indeed, as has been indicated, the regions in the state "S" delimit areas of the digital image Img corresponding to the objects to be located. In other words, each merge of neighboring regions determines a particular area of the image

correspondant à un des objets recherchés.  corresponding to one of the searched objects.

Dans l'exemple illustré, comme le montre plus particulièrement la figure lG, il existe quatre zones significatives distinctes, correspondant à autant d'objets localisés. Ces zones, référencées Z1 à Z4, respectivement, sont repérées par des croix sur la figure lG. Elles sont séparées par d'autres zones, constituées par les p régions Rp(NS), c'est-à-dire à l'état "NS". L'ensemble de ces dernières zones constitue l'arrière-plan de l'image  In the illustrated example, as shown more particularly in FIG. 1G, there are four distinct significant areas, corresponding to as many localized objects. These zones, referenced Z1 to Z4, respectively, are marked with crosses in FIG. They are separated by other zones, constituted by the p Rp (NS) regions, that is to say in the "NS" state. All of these latter areas form the background of the image

numérique Img.Digital Img.

Les données enregistrées lors de la deuxième étape  The data recorded during the second stage

sont rafraîchies, pour tenir compte de la fusion précitée.  are refreshed, to account for the aforementioned fusion.

La quatrième étape de la première phase consiste à déterminer, à partir des données mémorisées, des fenêtres ou boîtes englobant, chacune, l'un des objets localisés, à savoir quatre boîtes dans l'exemple décrit, EB1 à B4, respectivement. Les boîtes, Bl à B4, sont avantageusement de forme rectangulaire et volontairement étendue, pour faciliter les étapes de la seconde phase, ou phase d'extraction des objets proprement dite. L'obtention des boîtes est simple, puisque l'on a notamment enregistré les coordonnées des pixels compris dans les zones fusionnées, Zî à Z4. Il suffit de chercher les coordonnées du pixel le plus haut et à gauche de ces zones et du pixel le plus bas et à droite, par exemple. La détermination de ces deux points est suffisante pour caractériser entièrement un rectangle. On étend ensuite le rectangle obtenu par ajout d'une distance prédéterminée (exprimée en pixels), suivant les directions verticale et horizontale. Les données identifiant les boîtes  The fourth step of the first phase consists in determining, from the stored data, windows or boxes including, each, one of the localized objects, namely four boxes in the example described, EB1 to B4, respectively. The boxes, B1-B4, are advantageously of rectangular shape and voluntarily extended, to facilitate the steps of the second phase, or extraction phase of the actual objects. Obtaining the boxes is simple, since the coordinates of the pixels included in the merged zones Z1 to Z4 have been recorded. Just look for the coordinates of the highest pixel and left of these areas and the lowest pixel and right, for example. The determination of these two points is sufficient to fully characterize a rectangle. The rectangle obtained is then extended by adding a predetermined distance (expressed in pixels), along the vertical and horizontal directions. The data identifying the boxes

sont enregistrées.are saved.

La seconde phase est réalisée pour chacune des zones significatives Zl à Z4, et comprend trois étapes. Les paramètres d'entrée sont constitués par l'image numérique Img et chacune des boîtes, EB1 à B4, et leur contenu. Chacune de ces boîtes, B1 à B4, peut être assimilée à une image  The second phase is performed for each of the significant areas Z1 to Z4, and comprises three steps. The input parameters consist of the digital image Img and each of the boxes, EB1 to B4, and their contents. Each of these boxes, B1 to B4, can be likened to an image

élémentaire contenant un seul objet à extraire.  elementary containing a single object to extract.

La première étape consiste à acquérir un jeu de  The first step is to acquire a game of

vecteurs d'interception.Interception vectors.

On définit un rayon d'interception comme étant un parcours linéaire le long d'une ligne ou d'une colonne d'une image numérique, en vue de détecter l'abscisse ou l'ordonnée d'un point contour de l'image par rapport à des axes de référence orthonormés. Dans le cadre du procédé de l'invention, les axes orthonormés sont constitués par les côtés orthogonaux d'une des boites précitées, B1 à B4, et l'image est constituée par la zone significative qu'elle englobe, Zl à Z4, respectivement. On peut donc connaître les coordonnées de chacun des points du contour de ces zones, soit par rapport aux côtés de ces boites, B1 à B4, soit par rapport aux côtés de l'image numérique Img, par de simples transformations de coordonnées, les positions relatives des boîtes, B1 à B4, à l'intérieur du cadre de l'image numérique  An intercept radius is defined as being a linear path along a line or column of a digital image, for detecting the abscissa or ordinate of an edge point of the image by relation to orthonormal reference axes. In the context of the method of the invention, the orthonormal axes are constituted by the orthogonal sides of one of the aforementioned boxes, B1 to B4, and the image is constituted by the significant zone that it encompasses, Z1 to Z4, respectively . We can therefore know the coordinates of each of the points of the contour of these zones, either with respect to the sides of these boxes, B1 to B4, or with respect to the sides of the digital image Img, by simple transformations of coordinates, the positions relative boxes, B1 to B4, within the frame of the digital image

Img, étant connues.Img, being known.

De façon plus précise, un lancer de rayons d'interception, dit vertical, correspond à lancer, pour chaque colonne d'une des boîtes, B1 à B4, un rayon d'interception (dans le sens haut-bas ou le sens bas- haut) en vue de détecter l'ordonnée d'un point de contour de la zone englobée correspondante, Z1 à Z4. Les ordonnées des points détectés sont mémorisées dans un vecteur d'interception, dont la taille est égale à la hauteur de  More specifically, an interception ray run, said vertical, corresponds to launching, for each column of one of the boxes, B1 to B4, an interception radius (in the up-down direction or the down-axis direction). high) to detect the ordinate of a contour point of the corresponding enclosed area, Z1 to Z4. The ordinates of the detected points are stored in an interception vector, the size of which is equal to the height of

l'image source, c'est-à-dire l'une des zones Zl à Z4.  the source image, that is to say one of the zones Z1 to Z4.

De même, un lancer de rayons d'interception, dit horizontal, correspond à lancer, pour chaque ligne d'une des boîtes, B1 à B4, un rayon d'interception (dans le sens gauche-droite ou le sens droite-gauche) en vue de détecter l'abscisse d'un point de contour de la zone englobée correspondante, Z1 à Z4. Les abscisses des points détectés sont mémorisées dans un vecteur d'interception, dont la  Similarly, an interception ray ray, called horizontal, corresponds to launching, for each line of one of the boxes, B1 to B4, an interception radius (in the left-right direction or the right-left direction) to detect the abscissa of a contour point of the corresponding enclosed area, Z1 to Z4. The abscissae of the detected points are stored in an interception vector, whose

taille est égale à la largeur de l'image source, c'est-à-  size is equal to the width of the source image, that is,

dire l'une des zones Zl à Z4.say one of the zones Zl to Z4.

Dans le cadre du procédé de l'invention, on procède à quatre lancers de rayons: deux lancers verticaux et deux lancers horizontaux. En outre, comme illustré plus particulièrement sur la figure 3A (en prenant comme exemple une boîte Bj, d'indice quelconque j, et la zone englobée Zj), on procède préférentiellement dans l'ordre suivant: Lancer 1: lancer horizontal sens gauche-droite; Lancer 2: lancer vertical sens haut-bas; Lancer 3: lancer horizontal sens droite- gauche;  In the context of the process of the invention, four ray throws are made: two vertical throws and two horizontal throws. Furthermore, as illustrated more particularly in FIG. 3A (taking as an example a box Bj, of any index j, and the enclosed area Zj), preferential procedure is carried out in the following order: Start 1: throw horizontal direction left- right; Throw 2: throw vertical up-down direction; Start 3: throw horizontal direction right-left;

Lancer 4: lancer vertical sens bas-haut.  Throw 4: throw vertical up-down direction.

Les flèches représentées en gras sur la figure 3A  The arrows shown in bold in Figure 3A

représentent les directions des lancers.  represent the directions of the throws.

L'un des avantages présentés par le procédé selon l'invention est qu'il n'est pas nécessaire que le fond de l'image, en l'occurrence l'image élémentaire constituée par l'intérieur de la boîte Bj, soit uniforme(transparent ou d'une couleur homogène prédéterminée). Tout au contraire, le fond n'est généralement pas uniforme, mais constitué d'une  One of the advantages of the method according to the invention is that it is not necessary that the background of the image, in this case the elementary image constituted by the inside of the box Bj, be uniform (transparent or a predetermined homogeneous color). On the contrary, the substance is not generally uniform but consists of a

ou plusieurs régions étiquetées "NS": régions Rp(NS).  or more regions labeled "NS": Rp (NS) regions.

Toujours dans le cas général, l'intensité des pixels rencontrés lors d'un lancer ne reste pas constante dans les régions "NS" pour passer brusquement à une autre valeur lors du croisement entre la frontière (contour) de ces régions et  Still in the general case, the intensity of the pixels encountered during a throw does not remain constant in the "NS" regions to abruptly pass to another value when crossing the boundary (contour) of these regions and

la zone Zj (région "S").zone Zj (region "S").

Selon un mode de réalisation préféré de l'invention, on utilise une méthode adaptative pour détecter l'interception du contour de Zj. Cette méthode va être  According to a preferred embodiment of the invention, an adaptive method is used to detect the intercept of the Zj contour. This method is going to be

détaillée par référence à la figure 3B.  detailed with reference to FIG. 3B.

On choisit un nombre entier prédéterminé de pixels N. typiquement 3 à 5. On va considérer, pour illustrer la méthode, un lancer horizontal d'axe 0X (lancer 1), parallèle aux côtés horizontaux de la boîte Bj (direction gauche-droite). On appelle C le point courant de la progression du lancer suivant cet axe 0X. Au départ, C est l'abscisse du premier pixel étudié, c'est-à-dire le premier pixel P(C) à partir du bord vertical gauche de la boîte Bj. Si on appelle enfin S un ensemble de N pixels successifs à C lors du parcours du rayon, C est un point de contour si et seulement si, pour tout pixel P(x) appartenant à S, la relation suivante est vérifiée: I(P(C)) - I(P(x))> ô (7), avec 6 représentant le facteur d'homogénéité précédemment défini (voir relation (1)), et I(P(C)) et I(P(X)) étant les intensités des pixels correspondants. Si la relation (7) est vérifiée, tous les pixels de S sont hétérogènes avec C, et C est donc, de ce fait, un pixel du contour significatif,  We choose a predetermined integer number of pixels N. typically 3 to 5. We will consider, to illustrate the method, a horizontal throw axis 0X (throw 1), parallel to the horizontal sides of the box Bj (left-right direction) . We call C the current point of the progression of the throw along this axis 0X. Initially, C is the abscissa of the first pixel studied, that is to say the first pixel P (C) from the left vertical edge of the box Bj If we finally call S a set of N successive pixels to C when traversing the radius, C is a contour point if and only if, for any pixel P (x) belonging to S, the following relation is satisfied: I (P (C)) - I (P (x)) > 6 (7), with 6 representing the previously defined homogeneity factor (see relation (1)), and I (P (C)) and I (P (X)) being the intensities of the corresponding pixels. If the relation (7) is satisfied, all the pixels of S are heterogeneous with C, and C is, therefore, a significant contour pixel,

c'est-à-dire un contour de Zj.that is, an outline of Zj.

Dans le cas contraire, le point suivant par rapport à l'ensemble considéré S devient le nouveau point C, et le  In the opposite case, the next point with respect to the considered set S becomes the new point C, and the

test d'homogénéité qui vient d'être décrit est réitéré.  homogeneity test just described is repeated.

Il doit être clair, que pour un lancer donné le long d'un axe, le test peut être négatif sur toute la largeur (ou la longueur) de la boîte Bj. C'est le cas, par exemple, des lancers horizontaux, dans la partie haute de la figure 3A, car le rayon n'intercepte pas la zone Zj. Dans ce cas particulier, le dernier pixel rencontré constitue le point  It must be clear that for a given throw along an axis, the test may be negative over the entire width (or length) of the box B. This is the case, for example, of horizontal throws, in the upper part of Figure 3A, because the radius does not intercept the zone Zj. In this particular case, the last pixel encountered constitutes the point

de contour.of outline.

Sur la figure 3A, on a subdivisé le parcours du rayon le long de l'axe OX en plusieurs tronçons qui illustrent les principaux cas rencontrés, hormis le cas particulier décrit ci-dessus (pas d'interception). Tout d'abord, sur une longueur 11 (exprimée en pixels) supérieure à S (N pixels), le lancer de rayon progresse dans des régions étiquetées r"NS". La relation (7) n'est jamais vérifiée. Puis, il intercepte en XB un point qui s'apparente  In FIG. 3A, the path of the radius along the axis OX has been subdivided into several sections that illustrate the main cases encountered, except for the particular case described above (no interception). First, over a length 11 (expressed in pixels) greater than S (N pixels), ray tracing progresses in regions labeled "NS". The relation (7) is never verified. Then, it intercepts in XB a point which is

à un point de contour, car la relation (7) semble vérifiée.  at a point of contour, because relation (7) seems to be verified.

Cependant, la longueur de parcours (en pixels) pendant laquelle cette relation pourrait être vérifiée est égale à 12, avec 12 < S. Il s'agit en réalité d'un bruit local ou "artefact" qui doit être "sauté" par le lancer de rayon, sous peine d'une détection erronée de coordonnée de Zj (en l'occurrence d'un point d'abscisse erroné). Après avoir traversé cette zone bruitée, le lancer de rayon progresse de nouveau dans des régions étiquetées "NS", sur une longueur 14. Enfin, en Xj, le lancer de rayon intercepte réellement le contour de Zj. La relation (7) est vérifiée, car la longueur 14 (en pixel) de la zone rencontrée est supérieure à S. Xj est donc bien l'abscisse d'un des points appartenant au contour recherché de la zone  However, the path length (in pixels) during which this relation could be verified is equal to 12, with 12 <S. This is actually a local noise or "artifact" that must be "jumped" by the radius firing, on pain of an erroneous coordinate detection of Zj (in this case an erroneous abscissa point). After passing through this noisy area, the ray tracing progresses again into regions labeled "NS", over a length 14. Finally, in Xj, ray tracing actually intercepts the contour of Zj. The relation (7) is satisfied because the length 14 (in pixels) of the zone encountered is greater than S. Xj is therefore the abscissa of one of the points belonging to the desired contour of the zone

significative Zj.significant Zj.

La deuxième étape de la seconde phase consiste à construire un contour de l'objet à extraire, que l'on appellera primaire, ou brut, et que l'on référencera Cop. Celui-ci est construit à partir du jeu de vecteurs d'interception qui vient d'être acquis. On prend en compte, comme il a été indiqué précédemment, deux lancers de rayons  The second step of the second phase consists of constructing an outline of the object to be extracted, which will be called primary, or raw, and which will be referenced Cop. This one is built from the interception vector set that has just been acquired. As mentioned previously, two ray throws are taken into account

d'interception horizontaux et deux lancers verticaux.  horizontal interception and two vertical throws.

De façon plus précise, on construit le contour primaire Cop en analysant, dans un premier temps, les vecteurs deux à deux: une paire de vecteurs horizontaux, puis une paire de vecteurs verticaux, par exemple. On exploite ensuite cette analyse, de façon fine, dans une  More precisely, the primary contour Cop is constructed by first analyzing the vectors in pairs: a pair of horizontal vectors, then a pair of vertical vectors, for example. This analysis is then used in a detailed way in a

étude globale concernant les quatre vecteurs.  global study of the four vectors.

Une méthode simplifiée pour assurer qu'un point I donné appartient bien au contour recherché, c'est-à-dire est  A simplified method to ensure that a given point I belongs to the desired contour, that is to say is

dit "éligible", va maintenant être détaillée.  said "eligible", will now be detailed.

On appelle EP(k) l'ensemble des points appartenant au contour primaire de l'objet à extraire (c'est-à-dire la zone significative Zj, par exemple), avec k étant un indice associé à chaque point. L'indice k est un nombre entier et le nombre total de points de l'ensemble est fini, car l'image Img et chaque objet à extraire sont de nature numérique. L'ensemble EP(k) est vide au départ. On appelle G(k) et D(k) les vecteurs d'interception correspondant aux lancers horizontaux de rayons, de sens gauche-droite et  We call EP (k) the set of points belonging to the primary contour of the object to be extracted (that is to say the significant zone Zj, for example), with k being an index associated with each point. The index k is an integer and the total number of points in the set is finite, because the image Img and each object to be extracted are of a numerical nature. The set EP (k) is initially empty. We call G (k) and D (k) the intercept vectors corresponding to the horizontal throws of rays, of left-right direction and

droite-gauche, respectivement.right-left, respectively.

Pour tout y vérifiant la relation suivante: 0 < y < hauteur de i 'image (8), le point I, d'abscisse G(y) et d'ordonnée y, est éligible pour appartenir au contour primaire si et seulement si: G(k) < D(k) (9) De même, le point I, d'abscisse D(y) et d'ordonnée y, est éligible pour appartenir au contour primaire, si et seulement si:  For everything checking the following relation: 0 <y <height of the image (8), the point I, of abscissa G (y) and of ordinate y, is eligible to belong to the primary contour if and only if: G (k) <D (k) (9) Similarly, the point I, of abscissa D (y) and y-ordinate, is eligible to belong to the primary contour, if and only if:

D(k) > G(k) (10).D (k)> G (k) (10).

Les coordonnées des points de l'ensemble EP(k), ainsi que les indices associés, sont mémorisés. Cet ensemble peut être représenté par un polygone, et être affiché sur un  The coordinates of the points of the set EP (k), as well as the associated indices, are stored. This set can be represented by a polygon, and displayed on a

écran informatique par exemple.computer screen for example.

Cependant, le contour primaire Cop comporte un certain nombre d'imperfections ou d'artefacts, qu'il faut éliminer. On va illustrer cet état de fait par référence aux figures 4A à 4D. Ces figures sont relatives à une image numérique Img ne comportant qu'un seul objet significatif référencé Oh. De façon plus précise, l'image numérique Img est constituée par une photographie du type "identité" représentant le haut d'un sujet: épaules et visage. On suppose que ce sujet porte une veste Ve sombre, que ses cheveux Ch sont foncés, et que l'arrière- plan (fond) Ap est de teinte claire. On suppose enfin que la texture de l'arrière-plan Ap se rapproche de celle du visage Vi du sujet, le visage Vi étant également de teinte claire. Il y a  However, the primary Cop outline has a number of imperfections or artifacts that must be removed. This state of affairs will be illustrated by reference to FIGS. 4A to 4D. These figures relate to a digital image Img having only one significant object referenced Oh. More precisely, the digital image Img is constituted by a photograph of the "identity" type representing the top of a subject: shoulders and face. It is assumed that this subject wears a dark Ve jacket, that his hair Ch is dark, and that the background (bottom) Ap is light in color. Finally, it is assumed that the texture of the background Ap is close to that of the face Vi of the subject, the face Vi being also of light shade. There is

donc a priori peu de contraste lumineux entre l'arrière-  so a priori little bright contrast between the rear

plan Ap et le visage Vi.Ap plan and face Vi.

Dans ces conditions, on constate que le contour primaire Cop (représenté en trait gras) ne suit pas exactement le contour réel de l'objet Ob, comme le montre plus particulièrement la figure 4A. Il comporte des raies parasites Rp, d'une part, et une zone de contour erronée Zce, d'autre part. Les raies parasites Rp sont essentiellement dues à des bruits parasites résiduels très importants, qui n'ont pu être éliminés lors de la première étape de cette phase d'extraction (voir figure 3B). Le contour erroné Zce est dû à la similitude de teinte et de  Under these conditions, it can be seen that the primary contour Cop (shown in bold lines) does not exactly follow the real contour of the object Ob, as shown more particularly in FIG. 4A. It comprises parasitic lines Rp, on the one hand, and a zone of erroneous contour Zce, on the other hand. The parasitic lines Rp are essentially due to very large residual noise noises, which could not be eliminated during the first step of this extraction phase (see Figure 3B). The erroneous Zce contour is due to the similarity of hue and

texture entre le visage Vi et l'arrière-plan Ap.  texture between the face Vi and the background Ap.

Plus précisément, dans l'exemple décrit, compte tenu des particularités et de la disposition des différentes zones de l'objet détecté Ob dans l'image Img, ce sont essentiellement les lancers horizontaux qui vont générer des erreurs de contour. En effet, il existe un contraste important entre l'arrière-plan Ap et les cheveux Ch, d'une part, et entre l'arrière-plan Ap et la veste Ve, d'autre part. L'analyse des lancers verticaux ne va donc pas générer des erreurs de contours, puisqu'ils interceptent les limites des cheveux Ch ou de la veste Ve, lorsqu'ils pénètrent dans la région de l'image Img couverte par l'objet Oh. De façon encore plus spécifique, dans l'exemple décrit, la zone d'erreurs de contour Zce est localisée dans le bas du visage Vi, entre le haut la veste Ve et le bas des cheveux Ch. On constate une multitude de créneaux horizontaux formant des va-et-vient de part et d'autre des limites du visage Vi, à droite et à gauche de celui-ci, c'est-à-dire pénétrant à l'intérieur de la zone couverte par ce denier et ressortant dans la zone couverte par l'arrière-plan Ap. Ces créneaux  More precisely, in the example described, taking into account the particularities and the disposition of the different zones of the detected object Ob in the image Img, it is essentially the horizontal throws that will generate contour errors. Indeed, there is a significant contrast between the Ap background and the hair Ch, on the one hand, and between the background Ap and the jacket Ve, on the other hand. The analysis of the vertical shots will therefore not generate out-of-line errors since they intercept the boundaries of the hair Ch or the jacket Ve when they enter the region of the image Img covered by the object Oh. More specifically, in the example described, the Zce contour error zone is located in the lower face Vi, between the top of the jacket Ve and the bottom of the hair Ch. There is a multitude of horizontal slots forming back and forth on both sides of the face Vi, on the right and left of it, that is to say penetrating inside the area covered by this denier and emerging in the area covered by the Ap background. These slots

peuvent présenter des recouvrements entre eux.  may overlap with each other.

On a représenté sur la figure 4B le contour primaire obtenu Cop, isolé de l'objet Ob, c'est-à-dire du personnage photographié. On comprend aisément qu'un tel contour ne soit  FIG. 4B shows the primary contour obtained Cop, isolated from the object Ob, that is to say from the photographed character. It is easy to understand that such an outline is not

pas exploitable directement.not exploitable directly.

La troisième étape de la seconde phase consiste en la reconstruction, à partir du contour primaire obtenu à l'étape précédente, d'un contour d'objet Cor que l'on pourra appeler réel, ce avec une très grande précision. Cette étape  The third step of the second phase consists of the reconstruction, from the primary contour obtained in the previous step, of a Cor object contour that can be called real, with very great precision. This step

est illustrée par référence aux figures 4C et 4D.  is illustrated with reference to Figures 4C and 4D.

Pour ce faire, on applique un jeu de règles, qui se  To do this, we apply a set of rules, which

traduiront par des sous-étapes.will translate into sub-steps.

Il est notamment nécessaire de supprimer, s'ils  In particular, it is necessary to delete

existent, les recouvrements du contour.  exist, the recoveries of the outline.

De même, les éventuelles discontinuités de contour dues à une qualité d'image numérique médiocre doivent être détectées et le polygone précité doit être lissé en  Similarly, any contour discontinuities due to poor digital image quality should be detected and the polygon mentioned above should be smoothed.

respectant le principe de continuité des courbes.  respecting the principle of continuity of curves.

L'élimination des recouvrements du contour polygonal  Eliminating overlaps from the polygonal contour

va maintenant être explicitée en regard des figures 4E à 4G.  will now be explained with reference to Figures 4E to 4G.

Sur la figure 4E, on a représenté deux tronçons de contour, qui se présentent sous la forme de deux suites de segments de droites. Ces deux suites sont associées aux indices a et b respectivement, et l'on appellera arbitrairement les tronçons correspondants contours droit et gauche. On a représenté cinq points d'inflexion pour chacun des deux contours, Pa(l) à Pa(6) et Pb(l) à Pb(6), respectivement. On constate que les deux contours se coupent en deux points (deux intersections), I et J, du fait que le point  FIG. 4E shows two contour sections, which are in the form of two sequences of line segments. These two sequences are associated with the indices a and b respectively, and we will arbitrarily call the corresponding sections right and left contours. There are five inflection points for each of the two contours, Pa (1) to Pa (6) and Pb (1) to Pb (6), respectively. It can be seen that the two contours intersect at two points (two intersections), I and J, because the point

d'inflexion Pb(4) est situé à gauche du contour de gauche.  Inflection Pb (4) is located to the left of the left contour.

Les deux points d'intersection, dans l'exemple, entourent le  The two intersection points, in the example, surround the

point Pa(4) du contour de gauche.point Pa (4) of the left contour.

Il y a donc lieu d'éliminer le recouvrement. Pour ce faire, pour chaque intersection détectée, I et J, on procède  It is therefore necessary to eliminate the recovery. To do this, for each intersection detected, I and J, we proceed

comme décrit ci-après.as described below.

On considère, à titre d'exemple, les segments [Pa(3), Pa(4)] et [Pb(3), Pb(4)], associés au point d'intersection I. Pour chacun de ces segments, on mesure un paramètre, Ca et Cb respectivement, reflétant une continuité des segments par rapport aux contours auxquels ils appartiennent. Pour le segment [Pa(3), Pa(4)], le paramètre Ca obéit à la relation suivante (11) Ca = Pa(2)Pa(3)FP(4) mod n) + (Pa(3)Pa(4)Pa(5) mod 7r), avec "Pa(x)Pa(y)Pa(z)", un angle orienté formé par trois points consécutifs quelconque, x, y et z du polygone, et "mod n", une opération modulo z. Pour le segment [Pb(3), Pb(4)], le paramètre Cb obéit à la relation suivante (12): Cb = (Pb(2)Pb(3)Pb(4) mod n) + (Pb(3)Pb(4)Pb(5) mod 7t) Les paramètres Ca et Cb reflétant ce que l'on peut appeler un "degré de continuité" par rapport au polygone, plus ces valeurs sont faibles, plus le degré de continuité  By way of example, we consider the segments [Pa (3), Pa (4)] and [Pb (3), Pb (4)] associated with the point of intersection I. For each of these segments, measures a parameter, Ca and Cb respectively, reflecting a continuity of the segments with respect to the contours to which they belong. For the segment [Pa (3), Pa (4)], the parameter Ca obeys the following relation (11) Ca = Pa (2) Pa (3) FP (4) mod n) + (Pa (3) Pa (4) Pa (5) mod 7r), with "Pa (x) Pa (y) Pa (z)", an oriented angle formed by any three consecutive points, x, y and z of the polygon, and "mod n" , an operation modulo z. For the segment [Pb (3), Pb (4)], the parameter Cb obeys the following relation (12): Cb = (Pb (2) Pb (3) Pb (4) mod n) + (Pb (3) ) Pb (4) Pb (5) mod 7t) The Ca and Cb parameters reflect what can be called a "degree of continuity" with respect to the polygon, the lower these values are, the greater the degree of continuity

est fort.is strong.

Il s'ensuit que, pour éliminer le recouvrement détecté, on modifie le segment le moins "continu", en l'occurrence le segment [Pb(3), Pb(4)], car Cb est plus important que Ca (dans l'exemple). Modifier ce segment signifie qu'il faut supprimer l'un des deux points d'extrémité de ce segment. Pour déterminer le point à supprimer, Pb(3) ou Pb(4), on procède comme illustré sur la figure 4F. On calcule les projetés orthogonaux H(3) et H(4) des points Pb(3) et Pb(4), respectivement, c'est-à-dire les distances H(3)Pb(3) et H(4)Pb(4). Dans l'exemple décrit, on obtient H(4)Pb(4) < H(3)Pb(3). On en tire la conclusion que c'est le point Pb(4) qui doit être supprimé, car le plus  It follows that, in order to eliminate the detected overlap, the least "continuous" segment, in this case the segment [Pb (3), Pb (4)], is modified because Cb is more important than Ca (in FIG. 'example). Changing this segment means that you must delete one of the two endpoints in this segment. To determine the point to be removed, Pb (3) or Pb (4), proceed as illustrated in FIG. 4F. The orthogonal projections H (3) and H (4) of the points Pb (3) and Pb (4), respectively, ie the distances H (3) Pb (3) and H (4), are calculated. Pb (4). In the example described, H (4) Pb (4) <H (3) Pb (3) is obtained. It is concluded that it is point Pb (4) that must be deleted because the most

proche du segment [Pa(3), Pa(4)].close to the segment [Pa (3), Pa (4)].

On relie ensuite directement les deux points Pb(3) et Pb(5), comme illustré sur la figure 4G (segment en trait gras). On a représenté, par des croix, les segments supprimes: [Pb(3), Pb(4)] et [Pb(4), Pb(5)], du contour de droite. On constate bien qu'il n'existe plus d'intersections entre les deux contours partiels, l'intersection J ayant  The two points Pb (3) and Pb (5) are then directly connected as shown in FIG. 4G (segment in bold lines). Crosses represent the deleted segments: [Pb (3), Pb (4)] and [Pb (4), Pb (5)] of the right contour. It can be seen that there are no more intersections between the two partial contours, the intersection J having

également été supprimée par ce processus.  also been removed by this process.

On va maintenant décrire le processus de lissage du polygone. Pour ce faire, on passe en paramètre trois entiers, exprimés en pixels, à savoir une longueur L, une hauteur H et un paramètre d'éloignement E. Pour fixer les idées, on peut sélectionner les valeurs typiques suivantes: L = 5 pixels, H = 5 pixels et 5 < E < 10.pixels. Les paramètres d'entrée, H et L, définissent une boite virtuelle rectangulaire Bv. On effectue ensuite, de façon itérative (pas à pas), une suite d'opérations consistant à suivre le contour du polygone et à sélectionner, à chaque pas, trois points consécutifs du polygone (c'est-à-dire deux segments également consécutifs). Sur la figure 4H, on a représenté un tronçon de polygone comprenant six points d'inflexion, Pl à P6. Pour chacune des séries de trois points consécutifs, par exemple la série de points P2 à P3, on calcule les  We will now describe the smoothing process of the polygon. To do this, we pass in parameter three integers, expressed in pixels, namely a length L, a height H and a distance parameter E. To fix the ideas, we can select the following typical values: L = 5 pixels, H = 5 pixels and 5 <E <10.pixels. The input parameters, H and L, define a rectangular virtual box Bv. Then, iteratively (stepwise) is performed a series of operations consisting in following the contour of the polygon and selecting, at each step, three consecutive points of the polygon (that is to say two equally consecutive segments ). FIG. 4H shows a polygon section comprising six points of inflection, P1 to P6. For each series of three consecutive points, for example the series of points P2 to P3, the

dimensions en pixels d'une boîte B les englobant, c'est-à-  dimensions in pixels of a box B enclosing them, that is to say

dire en l'occurrence un rectangle de hauteur h et de largeur 1. Si 1> L et/ou h>H, on marque le point intermédiaire, P3, à un premier état dit invalide pour le polygone. Ses coordonnées sont mémorisées, mais ce point n'est pas immédiatement supprimé. Dans le cas contraire, le point intermédiaire, P3, est marqué à un second état dit valide. En fin du processus d'itérations, tous les points  say in this case a rectangle of height h and width 1. If 1> L and / or h> H, we mark the intermediate point, P3, to a first state said invalid for the polygon. Its coordinates are stored, but this point is not immediately deleted. In the opposite case, the intermediate point, P3, is marked at a second state said valid. At the end of the iteration process, all the points

invalides du polygone sont donc connus et mémorisés.  invalids of the polygon are thus known and memorized.

Le processus revient donc à comparer, à chaque nouveau pas, la largeur L et la hauteur H de la boite réelle B englobant trois points consécutifs, à la largeur 7  The process therefore amounts to comparing, at each new step, the width L and the height H of the real box B enclosing three consecutive points, at the width 7

et la hauteur h de la boite virtuelle Bv.  and the height h of the virtual box Bv.

Le troisième paramètre, l'éloignement E, va être utilisé pour supprimer effectivement les points invalides et lisser le polygone. Sur la figure 4I, on a représenté une portion de polygone comprenant quatorze points d'inflexion, P'Fl à P'14. Par rapport à la verticale (dans l'exemple décrit), il existe trois parties distinctes: deux parties extrêmes comprenant les points P'l à PF4 et P'11 à P'14, sensiblement alignés, et une partie intermédiaire comprenant les points P'5 à P'9, fortement décalée vers la gauche. Les points P'5 et P'9 ont été représentés en noir sur la  The third parameter, the distance E, will be used to effectively remove invalid points and smooth the polygon. FIG. 4I shows a polygon portion comprising fourteen points of inflection, P'F1 to P'14. With respect to the vertical (in the example described), there are three distinct parts: two extreme parts comprising the points P'l to PF4 and P'11 to P'14, substantially aligned, and an intermediate part comprising the points P '5 to P'9, strongly shifted to the left. The points P'5 and P'9 were represented in black on the

figure 4I et sont des points du polygone déclarés invalides.  Figure 4I and are points of the polygon declared invalid.

En effet, du fait de la longueur propre du segment [PF4, P'5], la boîte B' englobant les points P'4, P'5 et P'6 a, au moins, une largeur supérieure à la largeur prédéterminée L, saisie comme paramètre d'entrée. Il en est de même du point P'10, pour les mêmes raisons. Cependant, si l'on s'en tient aux seuls critères précédemment utilisés (largeur L et hauteur I), les points intermédiaires, P'6 à P'9, seront déclarés valides. L'éloignement e entre deux points invalides, en l'occurrence P'5 et P'9, permet de déterminer le nombre de points intermédiaires valides, soit quatre dans l'exemple: P'6 à P'8. Si e est supérieur à l'éloignement prédéterminé, E, entré comme paramètre, alors il y a lieu de supprimer les points intermédiaires, P'6 à P'8. On supprime également les points invalides, P'5 et P'9, et on réunit les points valides, amont et aval, du tronçon traité, soit P'4 et P'11. On obtient un nouveau segment, représenté en traits pointillés gras sur la figure 4I, reliant directement les points PF4 et P'11. L'opération de lisage est alors terminée, du moins pour cette partie du polygone. La figure 4C illustre le contour réel Cor finalement obtenu et l'objet Ob qu'il entoure. La figure 4D illustre le contour réel seul Cor. On constate la disparition des raies parasites (figure 4A: Rp) et le contour réel obtenu Cor  Indeed, because of the proper length of the segment [PF4, P'5], the box B 'encompassing the points P'4, P'5 and P'6 has at least a width greater than the predetermined width L , entered as input parameter. The same is true of point P'10, for the same reasons. However, if we stick to the criteria previously used (width L and height I), the intermediate points, P'6 to P'9, will be declared valid. The distance e between two invalid points, in this case P'5 and P'9, makes it possible to determine the number of valid intermediate points, ie four in the example: P'6 to P'8. If e is greater than the predetermined distance, E, entered as a parameter, then the intermediate points P'6 to P'8 must be deleted. We also delete the invalid points, P'5 and P'9, and we gather the valid points upstream and downstream of the treated section, P'4 and P'11. A new segment is obtained, represented in bold dashed lines in FIG. 4I, directly connecting the points PF4 and P'11. The reading operation is now complete, at least for this part of the polygon. Figure 4C illustrates the actual Cor contour finally obtained and the Ob object it surrounds. Figure 4D illustrates the actual contour only Cor. We notice the disappearance of parasitic lines (Figure 4A: Rp) and the actual contour obtained Cor

suit fidèlement les limites de l'objet Ob.  faithfully follows the limits of the Ob object.

A partir du moment o le contour réel Cor de l'objet Ob à extraire est reconstruit, l'objet lui-même Ob peut être obtenu aisément à partir de l'image source Img, en excluant tous les points situés à l'extérieur du contour et en ne gardant que les données d'information associées aux points intérieurs au contour Cor: luminosité, couleurs, coordonnées, etc. Ces informations peuvent être obtenues à partir de l'image numérique globale Img précédemment mémorisée. Cette image numérique Img constitue un des paramètres d'entrée, comme il a été indiqué. Ces données d'information peuvent être mémorisées en vue de reconstituer à tout moment l'objet extrait Oh, pour des usages ultérieurs  From the moment when the real contour Cor of the object Ob to be extracted is reconstructed, the object itself Ob can be obtained easily from the source image Img, excluding all the points situated outside the contour and keeping only the information data associated with the points inside the Cor contour: brightness, colors, coordinates, etc. This information can be obtained from the overall digital image Img previously stored. This digital image Img constitutes one of the input parameters, as has been indicated. These information data can be memorized in order to reconstitute at any time the extracted object Oh, for later uses.

qui seront détaillés ci-après.which will be detailed below.

A titre d'exemple non exhaustif, on va décrire brièvement l'application du procédé selon l'invention à la technique dite de "compositing". Il s'agit de superposer, à des fins de trucage par exemple, l'objet Ob, ou avant-plan, sur un arrière-plan entièrement différent de l'arrière-plan d'origine: paysage, foule, etc. La première étape consiste à obtenir, en suivant les phases et étapes du procédé de l'invention, le contour définitif de l'objet Oh, que l'on a appelé réel Cor (figure 4D). On peut procéder ensuite à un remplissage de ce contour Cor par une couleur uniforme, par  By way of non-exhaustive example, the application of the method according to the invention will be briefly described in the so-called "compositing" technique. This is to superimpose, for special effects for example, the object Ob, or foreground, on a background entirely different from the original background: landscape, crowd, etc. The first step is to obtain, following the phases and steps of the method of the invention, the final contour of the object Oh, which has been called real Cor (Figure 4D). This Cor contour can then be filled with a uniform color, for example

exemple le noir, pour constituer un masque de transparence.  example the black, to constitute a mask of transparency.

La superposition de l'image numérique d'origine Img, du masque de transparence obtenu à l'étape précédente et d'une image constituant le nouveau fond va permettre d'obtenir une nouvelle image sur laquelle l'avant-plan est l'objet détouré  The superposition of the original digital image Img, the transparency mask obtained in the previous step and an image constituting the new background will make it possible to obtain a new image on which the foreground is the object. Background

et l'arrière-plan le nouveau fond.and the background the new background.

Pour certaines applications, il peut être souhaitable que l'objet Ob laisse transparaître de façon plus ou moins prononcée le nouvel arrière-plan. Ce résultat peut être obtenu par des techniques bien connues, en assignant au masque un coefficient d'opacité déterminé. De même, il est possible d'obtenir plusieurs couches de  For some applications, it may be desirable for the Ob object to show more or less pronounced the new background. This result can be obtained by well-known techniques, by assigning to the mask a determined opacity coefficient. Similarly, it is possible to obtain several layers of

superposition, ou "layers" selon la terminologie anglo-  superposition, or "layers" according to the English terminology

saxonne, en réitérant tout ou partie des étapes précédentes.  Saxon, by repeating all or some of the previous steps.

De façon générale, tous types d'effets spéciaux peuvent être appliqués sur une image représentée par l'objet détouré seul ou sur une image composite, du type de celle  In general, all types of special effects can be applied to an image represented by the cut-out object alone or on a composite image, of the type of

qui vient d'être décrite: inversion vidéo, pseudo-  which has just been described: video inversion, pseudo

solarisation, flous, déformations diverses, etc. Ces méthodes sont biens connues de l'Homme de Métier, et il est  solarisation, fuzziness, various deformations, etc. These methods are well known to those skilled in the art, and they are

inutile de les décrire plus avant.no need to describe them further.

D'autres types classiques d'exploitation d'objets numériques, tels ceux extraits par le procédé de  Other conventional types of exploitation of digital objects, such as those extracted by the method of

l'invention, sont relatifs à l'indexation, au post-  the invention, relate to indexation, post-

traitement, à l'archivage, à la classification, etc. Si l'image numérique Img comporte plusieurs objets distincts, comme il a été implicitement admis jusqu'à présent (figure 1H: zones Zl à Z4), les étapes 1 à 3 peuvent être réitérées, si l'on désire extraire tous les objets. On dispose alors d'une liste d'objets présents dans l'image, chaque objet étant associé à un ensemble polygonal de points qui en délimite le contour dans l'image numérique d'origine Img. Dans le cas contraire, le processus d'extraction d'objets proprement dit, conforme à la seconde  processing, archiving, classification, etc. If the digital image Img has several distinct objects, as has been implicitly accepted so far (FIG. 1H: zones Z1 to Z4), steps 1 to 3 can be repeated if it is desired to extract all the objects. We then have a list of objects present in the image, each object being associated with a polygonal set of points which delimits the contour in the original digital image Img. Otherwise, the object extraction process itself, in accordance with the second

phase du procédé, est terminé.phase of the process, is finished.

A titre d'alternative, on peut prévoir, en fin de la première phase, une étape manuelle consistant à sélectionner, par exemple après affichage sur un écran informatique, l'une des zones significatives, Zl à Z4, ou plus simplement l'une des boîtes B1 à B4, à l'aide d'un organe de pointage, du type "souris" ou autre, en cliquant sur une de ces boîtes. Selon cette variante, seul l'objet englobé dans la boîte sélectionnée est extrait, en laissant se dérouler les trois étapes de la seconde phase de façon  As an alternative, one can provide, at the end of the first phase, a manual step of selecting, for example after display on a computer screen, one of the significant areas, Z1 to Z4, or more simply one boxes B1 to B4, using a pointing device, the "mouse" type or other, by clicking on one of these boxes. According to this variant, only the object included in the selected box is extracted, leaving the three stages of the second phase

entièrement automatique.fully automatic.

Selon le mode de réalisation préféré du procédé selon l'invention qui vient d'être décrit de façon détaillée, il est procédé à deux phases successives: localisation de contour d'objet et extraction. Cependant, comme il a été également indiqué dans le préambule de la  According to the preferred embodiment of the method according to the invention which has just been described in detail, two successive phases are carried out: location of object contour and extraction. However, as was also stated in the preamble of the

présente description, selon un autre mode de réalisation, la  this description, according to another embodiment, the

phase de localisation peut être omise.  locating phase can be omitted.

Tout d'abord, si l'on sait, a priori, que l'image numérique ne comporte qu'un seul objet à extraire, la première phase peut être omise sans difficultés particulières. Dans ce cas, c'est le cadre de l'image numérique Img elle-même qui peut servir de boîte de sélection. Les coordonnées du contour recherché sont  First, if we know, a priori, that the digital image has only one object to extract, the first phase can be omitted without particular difficulties. In this case, it is the frame of the Img digital image itself that can serve as a selection box. The coordinates of the desired outline are

déterminées à partir des côtés de l'image numérique!mg.  determined from the sides of the digital image! mg.

Si l'image numérique Img comporte plusieurs objets distincts, les étapes de la première phase étant omises, il n'est pas possible de les discriminer automatiquement. Il est alors nécessaire de définir "à la main" une boîte de sélection entourant chaque objet à extraire. Pour ce faire, l'image Img peut être affichée sur un écran. Un opérateur visualise les objets et définit une ou plusieurs boîtes englobant, chacune, un des objets qu'il désire extraire. En effet, il n'est pas nécessaire que tous les objets soient entourés par une boîte de sélection si l'opérateur précité n'est intéressé que par une partie des objets affichés. La  If the digital image Img has several different objects, the steps of the first phase being omitted, it is not possible to discriminate them automatically. It is then necessary to define "by hand" a selection box surrounding each object to be extracted. To do this, the Img image can be displayed on a screen. An operator visualizes the objects and defines one or more boxes including, each, one of the objects he wishes to extract. Indeed, it is not necessary for all objects to be surrounded by a selection box if the aforementioned operator is only interested in part of the displayed objects. The

méthode opératoire est simple.operating method is simple.

Une boite de sélection peut être définie par une interface dite "HommeMachine" ("IHM") et affichée sur un écran informatique. L'opérateur dispose d'un clavier et d'un organe de pointage, par exemple de type souris, comprenant avantageusement deux boutons de fonction, que l'on appellera droit et gauche. L'opérateur demande à l'interface d'afficher, en surimpression de l'image à traiter Img, un polygone rectangle de taille standard prédéterminée sur un écran informatique. Cette demande peut être effectuée à l'aide d'un menu, d'un raccourci clavier ou encore en cliquant sur une icône d'une boite d'outils également  A selection box can be defined by an interface called "ManMachine" ("HMI") and displayed on a computer screen. The operator has a keyboard and a pointing member, for example of the mouse type, advantageously comprising two function buttons, which will be called right and left. The operator requests the interface to display, superimposed on the image to be processed Img, a rectangle polygon of predetermined standard size on a computer screen. This request can be made using a menu, a keyboard shortcut or by clicking on an icon of a toolbox also

affichée sur l'écran.displayed on the screen.

En cliquant à l'intérieur du rectangle de sélection standard, à l'aide du bouton gauche de la souris, et en maintenant ce bouton enfoncé, l'opérateur peut déplacer le  By clicking inside the standard selection rectangle, using the left mouse button, and holding down this button, the operator can move the

polygone rectangle de sélection sur la surface de l'écran.  selection rectangle polygon on the screen surface.

Le rectangle est effacé de la position originelle et est ré-  The rectangle is erased from the original position and is re-

affiché à la dernière position atteinte.  displayed in the last position reached.

En cliquant à l'intérieur du rectangle de sélection à l'aide du bouton droit (généralement affecté à des fonctions dites contextuelles), et en maintenant ce bouton enfoncé, l'opérateur peut modifier la longueur et la hauteur du polygone rectangle. Le fait de relâcher le bouton droit  By clicking inside the selection rectangle with the right mouse button (usually assigned to so-called contextual functions), and holding down this button, the operator can change the length and height of the rectangle polygon. Releasing the right button

lance les étapes de la phase d'extraction d'objets. Celles-  starts the steps of the object extraction phase. Those-

ci s'exécutent alors automatiquement, comme dans le cas du mode de réalisation préféré, et il est inutile de les redécrire. Dans une autre variante, les deux opérations, modification et lancement de la phase d'extraction, sont combinées. Le polygone résultat de la phase d'extraction peut être mémorisé et éventuellement affiché sur l'écran. Il est aussi tout à fait possible de définir plusieurs polygones de sélection sur l'écran. Les étapes de la phase d'extraction sont alors exécutées pour chaque polygone de  They then execute automatically, as in the case of the preferred embodiment, and there is no need to redescribe them. In another variant, the two operations, modification and launch of the extraction phase, are combined. The polygon resulting from the extraction phase can be memorized and possibly displayed on the screen. It is also quite possible to define several selection polygons on the screen. The steps of the extraction phase are then executed for each polygon of

sélection de manière séquentielle.  selection sequentially.

Jusqu'à présent, on a admis, du moins implicitement,  So far, we have admitted, at least implicitly,

que les images numériques Img à traiter étaient statiques.  that the digital images Img to be processed were static.

Le procédé est cependant tout à fait compatible avec le traitement d'images numériques dynamiques, c'est-à-dire d'images composant une séquence vidéo. Il suffit que le  The method is, however, entirely compatible with the processing of dynamic digital images, that is to say images forming a video sequence. It is enough that the

système de mise en oeuvre du procédé qui va être décrit ci-  system for implementing the method which will be described below.

* après soit suffisamment rapide pour effectuer notamment les acquisitions successives et la localisation et/ou l'extraction des objets contenus dans chacune des images qui lui sont présentées, ainsi que les mémorisations de données intermédiaires et finales. Outre les attributs associés aux différents objets d'une même image Img, on peut leur adjoindre un attribut supplémentaire permettant d'identifier la ou les images de la séquence vidéo précitée dans lesquels* after is fast enough to perform in particular the successive acquisitions and the location and / or extraction of the objects contained in each of the images presented to it, as well as the intermediate and final data storage. In addition to the attributes associated with the different objects of the same image Img, it is possible to add to them an additional attribute making it possible to identify the image or images of the aforementioned video sequence in which

ils sont présents.they are present.

Dans une variante supplémentaire, il peut être procédé à une phase supplémentaire comprenant une étape de comparaison des objets successivement acquis, suivie d'une étape d'élimination des objets se répétant à l'identique dans différentes images de la séquence vidéo, adjacentes ou non. On peut naturellement tenir compte d'éventuelles modifications d'images par simple homothétie ou de variations de différents autres paramètres (luminosité, etc.) inférieures à un seuil prédéterminé. Cette disposition évite des redondances, notamment permet de n'enregistrer qu'une seule fois l'essentiel des données relatives à un objet extrait. On va maintenant décrire un système de localisation et/ou d'extraction automatique d'objets dans une image numérique, mettant en oeuvre le procédé selon l'invention,  In a further variant, it is possible to carry out an additional phase comprising a step of comparing the objects successively acquired, followed by a step of eliminating the objects repeating themselves identically in different images of the video sequence, adjacent or not . Naturally, it is possible to take into account possible image modifications by simple homothety or variations of various other parameters (brightness, etc.) lower than a predetermined threshold. This arrangement avoids redundancies, in particular makes it possible to record only once the bulk of the data relating to an extracted object. We will now describe a system for location and / or automatic extraction of objects in a digital image, implementing the method according to the invention,

par référence aux figures 5 et 6.with reference to Figures 5 and 6.

La figure 5 illustre schématiquement une chaîne complète 1 de traitement et d'exploitation numérique d'images. Elle comprend un dispositif 10 d'acquisition d'une ou plusieurs images analogiques, dont la sortie alimente un  Figure 5 schematically illustrates a complete chain 1 of processing and digital image exploitation. It comprises a device 10 for acquiring one or more analog images, the output of which feeds a

convertisseur analogique-numérique 11.  analog-digital converter 11.

A titre d'exemple, la source d'images analogiques  For example, the source of analog images

peut être constituée par une caméra vidéo conventionnelle.  can be constituted by a conventional video camera.

Ces deux premiers dispositifs peuvent être omis si l'on dispose d'une ou plusieurs sources générant directement des images sous forme numérique: caméra et appareils photographique numériques, scanner, etc. Les sorties du convertisseur analogique-numérique 11 et/ou des appareils précités, sources d'images numériques, alimentent un dispositif de stockage d'images numériques 12. Ce dernier présente ces images numériques en entrée du système de localisation et/ou d'extraction d'objets dans une image  These first two devices can be omitted if one or more sources directly generating images in digital form are available: camera and digital cameras, scanner, etc. The outputs of the analog-to-digital converter 11 and / or the aforementioned apparatuses, sources of digital images, feed a digital image storage device 12. The latter presents these digital images at the input of the localization and / or extraction system objects in an image

numérique 13 selon l'invention.digital 13 according to the invention.

Enfin, une fois extraits de l'image numérique présentée en entrée du système 13, le ou les objets numériques sont transmis à un ou plusieurs dispositifs d'exploitation 14, en vue d'un archivage, de la réalisation de trucages ou d'effets spéciaux, etc., selon les  Finally, once extracted from the digital image presented at the input of the system 13, the digital object or objects are transmitted to one or more operating devices 14, for archiving, performing special effects or effects. special, etc., according to the

applications visées.targeted applications.

La figure 6 illustre de façon plus détaillée un exemple de réalisation du système de localisation et/ou d'extraction d'objets dans une image numérique, système que  FIG. 6 illustrates in greater detail an exemplary embodiment of the system for locating and / or extracting objects in a digital image, a system that

l'on a référencé 2.it has been referenced 2.

Le système 2 comprend un organe de localisation et/ou d'extraction automatique d'objets proprement dit 20, implémentant le procédé selon l'invention. Dans l'exemple décrit sur la figure 6, l'organe 20 est sous la commande de circuits de traitement de l'information à programme enregistré 21. De façon classique en soi, ces circuits 21, appelés "Unité Centrale ", ou "U.C."I, sont avantageusement réalisés à base d'un microprocesseur, associé à divers circuits également classiques (non représentés): mémoire morte pour l'enregistrement du système d'exploitation et diverses routines et microprogrammes, mémoires vives pour l'enregistrement temporaire de données et de programmes,  The system 2 comprises a device for location and / or automatic extraction of objects proper 20, implementing the method according to the invention. In the example described in FIG. 6, the member 20 is under the control of recorded program information processing circuits 21. In a conventional manner, these circuits 21, called "Central Unit", or "CPU" I, are advantageously made on the basis of a microprocessor, associated with various conventional circuits (not shown): read-only memory for the recording of the operating system and various routines and firmware, RAM for the temporary recording of data and programs,

mémoires tampons (ou "buffers" selon la terminologie anglo-  buffers (or "buffers" according to the English terminology

saxonne), etc. L'unité centrale 21 est également reliée à une mémoire de masse (disque dur) 23, pour l'enregistrement à plus longue échéance de données et/ou programmes, à des organes d'entrée et de saisie de données et/ou d'instructions de programme, tels un clavier 24, des organes de pointage (par exemple une souris 25) et diverses unités d'enregistrement/lecture, internes et/ou externes,  Saxon), etc. The central unit 21 is also connected to a mass memory (hard disk) 23, for the longer-term recording of data and / or programs, to input and data input devices and / or to program instructions, such as a keyboard 24, pointing devices (for example a mouse 25) and various recording / reading units, internal and / or external,

représentés sous la référence unique 26 (lecteur/enre-  represented under the unique reference 26 (reader /

gistreur de disquette ou de bande magnétique, lecteur de CédéRom, etc.), ainsi que des organes de sortie, tels un écran de visualisation 27 (via une carte graphique non  floppy or magnetic tape recorder, CDROM reader, etc.), as well as output devices, such as a display screen 27 (via a non-graphic card

représentée), une imprimante 28 (via les circuits d'entrée-  shown), a printer 28 (via the input circuits-

sortie 22), ou encore une table traçante (non représentée).  output 22), or a plotter (not shown).

Le système 2 comprend enfin des circuits d'entrée- sortie 22, placés sous la commande de l'unité centrale 21, pouvant  The system 2 finally comprises input-output circuits 22, placed under the control of the central unit 21, which can

comporter notamment une carte d'entrée-sortie (non représentée), munie de divers ports de types série, parallèle, "SCSI" (pour "Small Computer System Interface"), "USB" (pour "Universal Serial Bus"), etc., d'une carte d'acquisition d'images numériques et/ou une carte de conversion analogique-numérique, si besoin est. Cette  include in particular an input-output card (not shown), provided with various ports of serial, parallel, "SCSI" (for "Small Computer System Interface"), "USB" (for "Universal Serial Bus"), etc. ., a digital image acquisition card and / or an analog-digital conversion card, if necessary. This

dernière carte joue le rôle des circuits 11 de la figure 5.  last card plays the role of circuits 11 of Figure 5.

Les circuits d'entrée-sortie 22 sont destinés à acquérir, ou pour le moins recevoir, les signaux représentant la ou les images numériques contenant des objets numériques à localiser et/ou à extraire automatiquement. Ils reçoivent en entrée une ou plusieurs sources d'images, et notamment, dans l'exemple décrit sur la figure 6, les sorties d'un appareil photographique numérique 3, d'une caméra vidéo 4, analogique ou numérique, et d'un scanner 5. On prévoit également que les images numériques puissent être transmises par un réseau local (non représenté) ou éloigné, via une ligne téléphonique, de type commuté ou de type numérique ("RNIS"I), et un modem 29. Il peut s'agir notamment d'images provenant de sites Internet, transmises via le réseau Internet R1, comme le suggère la  The input-output circuits 22 are intended to acquire, or at least receive, the signals representing the digital image or images containing digital objects to be located and / or extracted automatically. They receive as input one or more image sources, and in particular, in the example described in FIG. 6, the outputs of a digital camera 3, an analog or digital video camera 4, and a video camera. scanner 5. It is also expected that the digital images can be transmitted by a local (not shown) or remote network, via a telephone line, dial-up type or digital type ("ISDN" I), and a modem 29. It can This includes images from Internet sites transmitted over the Internet R1, as suggested by

figure 6.figure 6.

On doit comprendre que les images numériques peuvent être également entrées dans le système 2 par l'intermédiaire de supports (tels que disquettes 260, CédéRom, bandes magnétiques) sur lesquels elles ont été préalablement enregistrées, sous un format approprié ("JPEG", "BMP",  It should be understood that the digital images can also be input into the system 2 via media (such as floppy disks 260, Cédrom, magnetic tapes) on which they were previously recorded, in an appropriate format ("JPEG", " BMP "

"TIF", etc.)."TIF", etc.).

Quelle qu'en soit la source, une fois acquises, et éventuellement converties en un format compatible avec le système 2, la ou les images numériques sont présentées à l'unité centrale 21 pour y être stockées provisoirement dans sa mémoire vive (non représentée). Les signaux numériques correspondants peuvent être également stockés sur le disque dur 23, en vue d'un usage ultérieur. L'organe de visualisation 27 peut enfin afficher l'image en cours de traitement. Sous la conduite d'un opérateur (non représenté), entrant des instructions par l'intermédiaire du clavier 24 et/ou de la souris 25, et sous la commande de programmes enregistrés, les signaux associés à une image numérique à traiter sont ensuite transmis à l'organe de localisation et/ou d'extraction d'objets 20, sous la commande de l'unité centrale 21. Les signaux numériques servant d'entrée au procédé selon l'invention, tel qu'il a été décrit en regard des figures 1A à 4D, proviennent directement de l'unité centrale 21 (o ils sont stockés dans sa mémoire vive) ou  Whatever the source, once acquired, and possibly converted to a format compatible with the system 2, the digital image or images are presented to the central unit 21 to be stored temporarily in its RAM (not shown) . The corresponding digital signals can also be stored on the hard disk 23, for later use. The display member 27 may finally display the image being processed. Under the guidance of an operator (not shown), entering instructions via the keyboard 24 and / or the mouse 25, and under the control of recorded programs, the signals associated with a digital image to be processed are then transmitted to the object locating and / or extracting member 20, under the control of the central processing unit 21. The digital signals serving as input to the method according to the invention, as has been described with regard to FIGS. 1A to 4D, come directly from the central unit 21 (where they are stored in its random access memory) or

transitent par celle-ci en provenance du disque dur 23.  transit through it from the hard drive 23.

L'organe 20 de localisation et/ou d'extraction d'objets dans une image numérique peut se présenter sous diverses configurations. Il peut être d'un type entièrement câblé pour obtenir une rapidité maximale, c'est-àdire se présenter sous la forme d'un automate recevant en entrée l'image à traiter et délivrant en sortie des signaux numériques représentatifs du ou des objet(s) extrait(s), signaux transmis à l'unité centrale 21, par.exemple pour un stockage dans l'unité de disque dur 23, et/ou directement à un dispositif d'exploitation 14. L'inconvénient d'une telle  The member 20 for locating and / or extracting objects in a digital image can be in various configurations. It can be of a fully wired type to obtain maximum speed, that is to say it is in the form of a PLC receiving the image to be processed and outputting digital signals representative of the object or objects ( s) extracted (s) signals transmitted to the central unit 21, for example for storage in the hard disk drive 23, and / or directly to an operating device 14. The disadvantage of such a

solution est une grande rigidité du système.  solution is a high rigidity of the system.

Dans une autre variante, seules des routines répétitives sont câblées, ou plus précisément enregistrées dans des mémoires à lecture seule ("ROM" ou "Read Only Memory"), éventuellement reprogrammables ("PROM" ou "Programmable Read Only Memory", quel qu'en soit le type:  In another variant, only repetitive routines are wired, or more precisely recorded in read-only memories ("ROM" or "Read Only Memory"), possibly reprogrammable ("PROM" or "Programmable Read Only Memory", whatever 'is the type:

"EPROM", "EEPROM", etc.)."EPROM", "EEPROM", etc.).

Les diverses étapes du procédé selon l'invention se déroulent sous la commande combinée des instructions reçues de l'unité centrale 21, c'està-dire celles d'un programme chargé en mémoire vive, d'instructions et de paramétrage entrés par l'opérateur et des micro-instructions des routines précitées. Le programme précité peut à être chargé initialement ou mis à jour à l'aide d'un support tel qu'une disquette 260 (ou un CédéRom, etc.), lu par l'unité 26, ou encore transmis par des moyens télématiques (non représentés), voire par téléchargement à partir du réseau  The various steps of the method according to the invention take place under the combined control of the instructions received from the central unit 21, that is to say those of a program loaded in RAM, instructions and parameters entered by the operator and micro-instructions of the aforementioned routines. The aforementioned program can be loaded initially or updated using a medium such as a floppy disk 260 (or a CDRom, etc.), read by the unit 26, or transmitted by telematic means ( not shown) or download from the network

Internet RI.Internet RI.

On peut également prévoir, dans les circuits de localisation et d'extraction d'objets 20, un processeur rapide, spécialisé dans le traitement de signaux numériques ("signal processor" selon la terminologie anglo-saxonne), ou co-processeur, présentant avantageusement une architecture dite "RISC" ("Reduced Instruction Set Computer" ou processeur à jeu d'instructions réduit). Ce processeur  It is also possible, in the location and object extraction circuits 20, a fast processor, specialized in the processing of digital signals ("signal processor" according to the English terminology), or co-processor, having advantageously an architecture called "RISC" ("Reduced Instruction Set Computer" or processor with reduced instruction set). This processor

supplémentaire décharge le processeur principal, c'est-à-  additional unloads the main processor, ie

dire celui de l'unité centrale 21, des instructions plus spécifiques au procédé de l'invention. Il s'agit des instructions ou pas de programme nécessaires à l'obtention des différentes phases et étapes du procédé: segmentation de l'image numérique, étiquetage de l'image, etc. Dans tous les cas, l'organe de localisation et d'extraction d'objets 20 comprend notamment des circuits de mémorisation intermédiaire, tels des registres, des circuits d'horloge et des circuits d'interface, au moins avec l'unité centrale 21. De façon usuelle, les échanges s'effectuent par l'intermédiaire d'un bus système. Les circuits 20 peuvent également avoir un accès direct ("DMA", selon la terminologie anglo- saxonne) à la mémoire vive de l'unité  say that of the central unit 21, instructions more specific to the method of the invention. These are the instructions or no program needed to obtain the different phases and steps of the process: segmentation of the digital image, image labeling, etc. In all cases, the object locating and extracting device 20 comprises in particular intermediate storage circuits, such as registers, clock circuits and interface circuits, at least with the central unit 21 In the usual way, the exchanges are carried out via a system bus. The circuits 20 may also have a direct access ("DMA", according to the English terminology) to the RAM of the unit

centrale 21.Central 21.

Dans une autre variante encore, les circuits de l'organe 20 peuvent être placés directement sur la carte graphique ou sur une carte "fille" associée à cette carte, le processeur graphique dont est muni une telle carte étant aussi utilisé pour les besoins spécifiques du procédé selon  In yet another variant, the circuits of the member 20 can be placed directly on the graphics card or on a "daughter" card associated with this card, the graphics processor with which such a card is also being used for the specific needs of the card. process according to

l'invention.the invention.

Les signaux numériques générés à chaque instant, lors des différentes étapes du procédé, peuvent être stockés soit provisoirement en local, c'est-à-dire dans l'organe 20, si celui-ci est doté d'une mémoire vive suffisante, soit transmis à l'unité centrale 21 pour un stockage dans sa propre mémoire vive et/ou sur le disque dur 23. Les différentes transformations de l'image numérique à traiter, ainsi que la progression de la localisation et de l'extraction des objets contenus dans celle-ci, peuvent être visualisées sur l'écran 27, dans une ou plusieurs fenêtres. Bien que le processus, dans un mode de réalisation préféré de l'invention, puisse se dérouler de façon entièrement automatique, un opérateur peut cependant se voir offrir la possibilité d'intervenir à divers stades de ce processus. Il peut entrer, par exemple par l'intermédiaire du clavier 24 ou de la souris 25, des instructions et un paramétrage d'initialisation du système 2, lui indiquant notamment quelle est la source d'images (scanner 5, etc.), quel est le format des images à traiter, quel traitement préalable doit être réalisé (par exemple conversion analogique-numérique ou conversion de format), quel mode de réalisation du procédé est à mettre en oeuvre (localisation et extraction automatiques d'objets dans le mode préféré en conformité avec l'invention), préciser comment et o doivent être enregistrés les signaux numériques représentant les objets extraits, etc. En cours de processus, l'opérateur peut également intervenir pour fixer certains paramètres, notamment pour délimiter manuellement des zones d'extraction (si seule cette phase doit être réalisée), pour sélectionner une partie des objets extraits de façon automatique, voire un seul des objets, quel sera ensuite l'exploitation qui sera faite des objets extraits, etc. Pour ce faire, des instructions peuvent également être transmises au dispositif d'exploitation 14, via l'unité centrale 21 et après saisie manuelle. Le dispositif 14 peut également être muni de commandes propres (non représentées), ainsi que d'un écran de visualisation 140 (écran de télévision, etc.), et de façon plus générale, de tous dispositifs qui lui sont nécessaires pour effectuer un post-traitement sur les objets numériques transmis par le système 2, accompagnés ou non des  The digital signals generated at each instant, during the various steps of the method, can be stored either temporarily locally, ie in the member 20, if it is provided with a sufficient random access memory, or transmitted to the central unit 21 for storage in its own RAM and / or on the hard disk 23. The various transformations of the digital image to be processed, as well as the progress of the location and extraction of the objects contained in it, can be viewed on the screen 27, in one or more windows. Although the process, in a preferred embodiment of the invention, may be fully automatic, an operator may be offered the opportunity to intervene at various stages of this process. It can enter, for example via the keyboard 24 or the mouse 25, instructions and initialization setting of the system 2, indicating in particular which is the source of images (scanner 5, etc.), which is the format of the images to be processed, what pretreatment must be done (eg analog-to-digital conversion or format conversion), which mode of implementation of the process is to be implemented (automatic location and extraction of objects in the preferred mode in accordance with the invention), specify how and where to record the digital signals representing the extracted objects, etc. During the process, the operator can also intervene to set certain parameters, in particular to manually delimit extraction zones (if only this phase must be performed), to select a part of the extracted objects automatically, or even only one of objects, what will then be the exploitation of the objects extracted, etc. To do this, instructions can also be transmitted to the operating device 14 via the central unit 21 and after manual input. The device 14 can also be provided with own commands (not shown), as well as a display screen 140 (television screen, etc.), and more generally, all the devices that are necessary for it to perform a post -treatment on the digital objects transmitted by the system 2, accompanied or not by

images numériques originelles.original digital images.

De façon avantageuse, pour saisir et entrer les instructions et/ou paramètres précités, l'opérateur peut disposer de menus déroulants ou similaires qui lui sont présentés sur l'écran 27, sous la commande de l'unité centrale 21. Il lui suffit alors de "cliquer" sur les options désirées, préalablement au déroulement des phases et étapes du procédé selon l'invention, au cours du processus de localisation et d'extraction d'objets, et/ou en fin de ce processus, notamment pour préciser la destination et la nature du post-traitement à réaliser sur les objets extraits. Si le système n'est pas connecté directement au dispositif d'exploitation 14, les données relatives aux objets peuvent être enregistrées pour un traitement ultérieur, tout d'abord en local, sur le disque dur 23, mais aussi sur divers supports: disquette 260 (ou bande magnétique, CédéRom, etc.). Elles peuvent ensuite être transmises et utilisées en différé, avantageusement avec les  Advantageously, to enter and enter the above instructions and / or parameters, the operator may have drop-down menus or the like presented to him on the screen 27, under the control of the central unit 21. to "click" on the desired options, prior to the progress of the phases and steps of the method according to the invention, during the process of locating and extracting objects, and / or at the end of this process, in particular to specify the destination and the nature of the post-processing to be performed on the extracted objects. If the system is not directly connected to the operating device 14, the data relating to the objects can be recorded for further processing, first locally, on the hard disk 23, but also on various media: floppy disk 260 (or magnetic tape, CedeRom, etc.). They can then be transmitted and used later, advantageously with the

données correspondant à l'image numérique originelle Img.  data corresponding to the original digital image Img.

Ces mêmes données peuvent être aussi transmises par tout moyen télématique, voire par le réseau Internet RI, et être stockées dans un lieu distant ou être utilisées en temps  These same data can also be transmitted by any telematic means, even by the Internet network RI, and be stored in a remote place or be used in time

quasi-réel en ce lieu.almost real in this place.

Les moyens d'impression 2, ou similaires (table traçante, etc.) peuvent aussi être utilisés pour obtenir une  The printing means 2, or the like (plotter, etc.) can also be used to obtain a

représentation graphique des objets extraits, ainsi éven-  graphical representation of the objects extracted,

tuellement que pour effectuer le listage des données  only to perform the data listing

associées.associated.

Dans une autre variante de réalisation, le système de localisation et/ou d'extraction d'objets dans une image numérique Img peut être intégré dans le dispositif d'exploitation 14 et fonctionner en autonomie complète, sans aucune intervention extérieure, à l'exception du chargement initial d'un programme (qui peut d'ailleurs être résident en mémoire morte) et d'un paramètrage particulier. A titre d'exemples, la chaîne de traitement d'image complète de la figure ??? pourrait se résumer à une caméra vidéo numérique (figure 6: 4) et le dispositif d'exploitation 14 pourrait être muni d'un écran de visualisation propre 140. Le dispositif 14 incorpore le système 2 et reçoit les images vidéo produites par la caméra. Le dispositif 14 est programmé pour produire un post-traitement fixe sur les objets extraits et l'image finale est affichée sur l'écran 140. A la lecture de ce qui précède, on constate aisément  In another variant embodiment, the system for locating and / or extracting objects in a digital image Img can be integrated in the operating device 14 and operate completely autonomously, without any outside intervention, with the exception the initial loading of a program (which can also be resident in ROM) and a particular parameterization. As examples, the complete image processing chain of the figure ??? could be summarized as a digital video camera (Fig. 6: 4) and the operating device 14 could be provided with a clean display screen 140. The device 14 incorporates the system 2 and receives the video images produced by the camera. The device 14 is programmed to produce a fixed post-processing on the extracted objects and the final image is displayed on the screen 140. On reading the above, it is easy to see

que l'invention atteint bien les buts qu'elle s'est fixés.  that the invention achieves the goals it has set for itself.

Le procédé et le système de mise en oeuvre du procédé selon l'invention permettent bien, dans un mode de réalisation préféré, un traitement entièrement automatique d'une image numérique en vue d'extraire tous les objets  The method and the system for implementing the method according to the invention make it possible, in a preferred embodiment, to fully automatically process a digital image in order to extract all the objects.

numériques contenus dans l'image numérique précitée, c'est-  digital images contained in the aforementioned digital image,

à-dire sans intervention extérieure, ce quelle que soit la nature du fond (arrière-plan). Ce dernier n'a plus besoin notamment d'être uniforme. L'objet détecté et/ou extrait l'est de façon très précise (au pixel près, sous la forme de polygones), et rapidement, ce même si l'arrière-plan précité  that is to say without external intervention, whatever the nature of the background (background). The latter does not need to be uniform. The object detected and / or extracted is very precise (to the pixel, in the form of polygons), and quickly, even if the background above

est bruité.is noisy.

Il doit être clair cependant que l'invention n'est pas limitée aux seuls exemples de réalisation explicitement décrits, notamment en relation avec les figures 1A à 6. En particulier, les boîtes englobant les régions significatives pourraient différer de la forme rectangulaire, bien que cette dernière soit particulièrement adaptée pour servir d'axes de référence et pour déterminer les coordonnées des  It should be clear, however, that the invention is not limited to only the examples of embodiment explicitly described, especially in relation to FIGS. 1A to 6. In particular, the boxes encompassing the significant regions could differ from the rectangular shape, although the latter is particularly adapted to serve as reference axes and to determine the coordinates of the

points englobés.covered points.

Il doit être clair aussi que, bien que particulièrement adaptée à des applications du type des trucages, on ne saurait cantonner l'invention à ce seul type d'applications. Elle s'applique à chaque fois que l'on désire extraire automatiquement un objet d'une image numérique.  It must also be clear that, although particularly suited to applications of the type of special effects, the invention can not be confined to this type of application. It applies whenever you want to automatically extract an object from a digital image.

RE VE N DICATIO N SRE VE N DICATIO N S

1. Procédé de traitement d'une image numérique (Img) en vue d'en extraire des objets numériques constitués par des régions de pixels à caractéristiques optiques homogènes, lesdites régions ayant un contour fermé, caractérisé en ce qu'il comprend: - une phase de localisation d'au moins un desdits objets numériques (Zl-Z4), comprenant au moins une étape de création dans ladite image numérique d'une aire fermée (B1-B4) englobant cet objet numérique (Zl- Z4), les coordonnées des pixels la composant étant déterminées par rapport à un référentiel déterminé lié à ladite aire fermée (B1-B4); et - une phase d'extraction automatisée d'au moins un objet numérique (Zl-Z4) comprenant les étapes suivantes: a/ l'acquisition d'un jeu de vecteurs d'interception avec ledit contour de l'objet (Zl-Z4) représentant chacun une coordonnée d'un point de ce contour par rapport audit référentiel, l'interception étant déterminée par la fixation préalable d'un paramètre formant seuil caractérisant ladite homogénéité et la détection de la variation de ce paramètre au delà de ce seuil; b/ l'acquisition, à partir de ce jeu de vecteurs d'interception, des coordonnées, par rapport audit référentiel, des points décrivant un premier contour (Cop), de l'objet numérique (Zl-Z4), dit primaire; c/ la reconstruction, à partir de ce contour dit primaire (COp), d'un second contour représentant le contour réel (Cor) dudit objet à extraire, par élimination de bruits  A method for processing a digital image (Img) for extracting digital objects constituted by homogeneous optical characteristic pixel regions, said regions having a closed contour, characterized in that it comprises: phase of locating at least one of said digital objects (Z1-Z4), comprising at least one step of creating in said digital image a closed area (B1-B4) encompassing this digital object (Z1-Z4), the coordinates pixels of the component being determined with respect to a determined reference frame related to said closed area (B1-B4); and an automated extraction phase of at least one digital object (Z1-Z4) comprising the following steps: a / acquisition of a set of interception vectors with said contour of the object (Z1-Z4) ) each representing a coordinate of a point of this contour with respect to said frame, the interception being determined by the prior fixing of a threshold parameter characterizing said homogeneity and the detection of the variation of this parameter beyond this threshold; b / the acquisition, from this set of interception vectors, coordinates, with respect to said reference, points describing a first contour (Cop), the digital object (Zl-Z4), said primary; c / reconstruction, from this so-called primary contour (COp), of a second contour representing the real contour (Cor) of said object to be extracted, by elimination of noise

parasites et lissage dudit contour primaire (Cop).  parasites and smoothing said primary contour (Cop).

2. Procédé selon la revendication 1, caractérisé en ce que ladite image numérique (Img) comprend au moins un canal de couleur, lesdites caractéristiques optiques homogènes des pixels sont déterminées en testant, pour chacun desdits canaux, si la relation suivante est vérifiée pour tous les pixels: |I(P(n)) - a(P(n+ l)) < 6, o 5 est ledit seuil et I(P(n)) et I(P(n+l)) sont les intensités lumineuses de pixels P(n) et P(n+l) adjacents voisins, de rangs n et n+l respectivement, n étant un  2. Method according to claim 1, characterized in that said digital image (Img) comprises at least one color channel, said homogeneous optical characteristics of the pixels are determined by testing, for each of said channels, whether the following relationship is verified for all the pixels: | I (P (n)) - a (P (n + 1)) <6, where 5 is said threshold and I (P (n)) and I (P (n + 1)) are the light intensities adjacent adjacent pixels P (n) and P (n + 1) of ranks n and n + 1 respectively, n being a

nombre entier arbitraire.arbitrary integer.

3. Procédé selon la revendication 2, caractérisé en ce que ladite phase de localisation d'objets (Zl-Z4) est également automatisée et comprend les étapes suivantes: - la segmentation de ladite image numérique (Img) en régions (Ri(NE)) constituées de pixels adjacents à caractéristiques optiques homogènes, ladite homogénéité étant déterminée par la fixation préalable d'un paramètre dit d'homogénéité et la détection de la variation d'un pixel à l'autre de ce paramètre inférieure à un second seuil prédéterminé; - la détermination pour chacun desdits canaux d'une plage de couleur en retenant la valeur maximale et la valeur minimale desdites intensités lumineuses, ladite plage étant définie par la relation: intervalle [minimum; maximum]; - l'étiquetage desdites régions homogènes à l'aide d'un attribut représentant les états suivants: état initial dit "Non Etiqueté", état dit "Non Significatif" pour les régions (Rx(NS)) n'appartenant pas audit objet, et état dit "Significatif" pour les régions (Rz(S)) appartenant audit objet, l'étiquetage s'effectuant par l'initialisation de toutes les régions situées en bordure de ladite image numérique (Img) audit état I"Non Significatif", et, par balayage de toutes lesdites régions homogènes, l'attribution progressive d'un desdits états, "Significatif" ou "Non Significatif", en testant l'interception desdites plages de couleur de deux régions adjacentes et l'attribution à la région adjacente suivante de l'état de la région précédente si le test est positif et de l'état contraire si le test est négatif; - la fusion des régions voisines, associées audit attribut d'état "Significatif", pour former des régions  3. Method according to claim 2, characterized in that said object-locating phase (Z1-Z4) is also automated and comprises the following steps: the segmentation of said digital image (Img) into regions (Ri (NE)) ) consisting of adjacent pixels with homogeneous optical characteristics, said homogeneity being determined by the prior fixing of a so-called homogeneity parameter and the detection of the pixel-to-pixel variation of this parameter less than a second predetermined threshold; - determining for each of said channels a color range by retaining the maximum value and the minimum value of said light intensities, said range being defined by the relation: interval [minimum; maximum]; labeling of said homogeneous regions by means of an attribute representing the following states: initial state said "Not Labeled", said "Not Significant" state for the regions (Rx (NS)) not belonging to said object, and said "Significant" state for the regions (Rz (S)) belonging to said object, the labeling being effected by the initialization of all the regions situated at the edge of said digital image (Img) to said "Not Significant" state and, by scanning all said homogeneous regions, gradually assigning one of said "Significant" or "Not Significant" states, by testing the interception of said color ranges of two adjacent regions and assigning it to the region next adjacent state of the previous region if the test is positive and the opposite state if the test is negative; - merging neighboring regions, associated with said "Significant" status attribute, to form regions

correspondant auxdits objets numériques à extraire (Zî-  corresponding to said digital objects to be extracted (ZI-

Z4); - et ladite étape de création d'aires fermées (B1-B4)  Z4); and said step of creating closed areas (B1-B4)

englobant les objets numériques (Z1-Z4).  encompassing digital objects (Z1-Z4).

4. Procédé selon la revendication 3, caractérisé en ce que ledit balayage est effectué en suivant un parcours en spirale (T) parallèlement aux bords de ladite image (Img), débutant par lesdites régions homogènes (Rm(NS)), initialisées audit état "Non Significatif" et situées sur les bords, et se terminant vers le centre de ladite image (Img).  4. Method according to claim 3, characterized in that said scanning is performed following a spiral path (T) parallel to the edges of said image (Img), starting with said homogeneous regions (Rm (NS)), initialized to said state "Not Significant" and located at the edges, and ending at the center of said image (Img).

5. Procédé selon les revendications 3 ou 4,  5. Process according to claim 3 or 4,

caractérisé en ce que lesdites aires fermées (B1-B4) englobant lesdits objets numériques (Zj) sont délimitées, chacune, par un rectangle, dont les côtés verticaux et horizontaux constituent ledit référentiel, en ce que ladite étape d'acquisition d'un jeu de vecteurs d'interception consiste, pour chacune desdites aires (Bj), à analyser les pixels successifs les composant, à partir des quatre côtés dudit rectangle et sur des parcours (lancer 1 - lancer 4) parallèles à ces côtés, jusqu'à interception avec ledit contour de l'objet numérique englobé (Zj), de manière à déterminer un jeu de quatre vecteurs représentant les coordonnées des points dudit contour par rapport à chacun des côtés dudit rectangle, et en ce que lesdites interceptions sont effectives lorsque la relation suivante est vérifiée, pour un nombre N prédéterminé de pixels consécutifs sur chacun desdits quatre parcours (lancer 1 - lancer 4): I(P(n)) - I(P(n+l)) > b, avec 8 étant ledit second seuil prédéterminé, I(P(n)) et I(P(n+l)) étant les intensités lumineuses de pixels P(n) et P(n+l) adjacents voisins, de rang n et n+1 respectivement, et n et N étant des nombres entiers arbitraires. 6. Procédé selon la revendication 5, caractérisé en ce que la détermination desdites aires fermées (B1-B4) délimitées, chacune, par un rectangle, comprend les opérations suivantes, réalisées à l'aide d'un dispositif d'interface homme-machine comprenant au moins un écran (27), un clavier (24) et un organe de pointage (25), du type souris, muni d'au moins deux boutons de fonction: - l'affichage sur ledit écran, en surimpression de ladite image numérique (Img) d'un rectangle de dimensions standards, par actionnement dudit organe de pointage (25) ou par utilisation dudi clavier (24); - sélection dudit rectangle en cliquant dessus par actionnement de l'un desdits boutons de fonction; - déplacement dudit rectangle sur la surface dudit écran (27), par maintien dudit premier bouton de fonction enfoncé et déplacement dudit organe de pointage (25); - modification desdites dimensions standards en cliquant à l'intérieur dudit rectangle déplacé, à l'aide d'un deuxième bouton de fonction, de manière à englober ledit objet numérique (Zj); et et lancement de ladite phase d'extraction automatique,  characterized in that said closed areas (B1-B4) encompassing said digital objects (Zj) are delimited each by a rectangle, the vertical and horizontal sides of which constitute said reference frame, in that said step of acquiring a game of interception vectors consists, for each of said areas (Bj), of analyzing the successive pixels composing them, from the four sides of said rectangle and on courses (throwing 1 - throwing 4) parallel to these sides, until interception with said contour of the encompassed digital object (Zj), so as to determine a set of four vectors representing the coordinates of the points of said contour with respect to each of the sides of said rectangle, and in that said interceptions are effective when the following relation is satisfied, for a predetermined number N of consecutive pixels on each of said four courses (throw 1 - throw 4): I (P (n)) - I (P (n + 1))> b, with 8 being said second d predetermined threshold, I (P (n)) and I (P (n + 1)) being the luminous intensities of adjacent pixels P (n) and P (n + 1), of rank n and n + 1 respectively, and n and N being arbitrary integers. 6. Method according to claim 5, characterized in that the determination of said closed areas (B1-B4) delimited, each by a rectangle, comprises the following operations, performed using a human-machine interface device comprising at least one screen (27), a keyboard (24) and a pointer (25), of the mouse type, provided with at least two function buttons: - the display on said screen, superimposed on said image numerically (Img) of a rectangle of standard dimensions, by actuation of said pointing member (25) or by use of the keyboard (24); selecting said rectangle by clicking on it by actuating one of said function buttons; moving said rectangle on the surface of said screen (27) by holding said first depressed button and moving said pointing member (25); modifying said standard dimensions by clicking inside said displaced rectangle, with the aid of a second function button, so as to encompass said digital object (Zj); and and launching said automatic extraction phase,

par relâchement dudit deuxième bouton de fonction.  by releasing said second function button.

7. Procédé selon la revendication 5, caractérisé en ce que l'étape de construction dudit contour primaire (Cop) consiste à comparer lesdits vecteurs deux à deux, suivant chacune desdites directions verticale et horizontale, de manière à obtenir les abscisses et ordonnées de chacun des points dudit contour primaire (COp) par rapport auxdits côtés verticaux et horizontaux dudit rectangle, et à enregistrer les coordonnées de tous  7. Method according to claim 5, characterized in that the step of constructing said primary contour (Cop) consists in comparing said vectors two by two, according to each of said vertical and horizontal directions, so as to obtain the abscissa and ordinate of each points of said primary contour (COp) relative to said vertical and horizontal sides of said rectangle, and to record the coordinates of all

les points ainsi déterminés.the points thus determined.

8. Procédé selon la revendication 7, caractérisé en ce que ladite étape de reconstruction du contour réel (Cor) à partir des coordonnées enregistrées des points dudit contour primaire (Cop) consiste à effectuer les opérations de correction suivantes: - la suppression des recouvrements dudit contour primaire (Cop) suivant lesdites directions verticale ou horizontale; - et le lissage de la courbe représentée par l'ensemble des points dudit contour primaire (Cop) en détectant des discontinuités de ladite courbe et en les éliminant; et en ce que les nouvelles coordonnées obtenues pour les points dudit contour corrigé, constituant ledit contour  8. Method according to claim 7, characterized in that said step of reconstructing the real contour (Cor) from the registered coordinates of the points of said primary contour (Cop) consists in performing the following correction operations: - the suppression of the recoveries of said primary contour (Cop) along said vertical or horizontal directions; and smoothing the curve represented by all the points of said primary contour (Cop) by detecting discontinuities of said curve and eliminating them; and in that the new coordinates obtained for the points of said corrected contour constituting said contour

réel (Cor), sont enregistrées.real (Cor), are recorded.

9. Procédé selon la revendication 8, caractérisé en ce que ladite la suppression des recouvrements dudit contour primaire (Cop) comprend les opérations suivantes: - la détection de points d'intersections (1, J) entre des paires de segments de droites formant ledit contour primaire (COp); - la détermination, pour chacun desdits segments de droite d'un degré de continuité par rapport aux segments de droite qui l'entoure, détermination du segment de droite présentant le degré de continuité le plus faible; - calcul des projetés (H(3), H(4)) des points d'extrémité de ce segment de droite sur l'autre segment de ladite paire, détermination du plus faible projeté et élimination du point d'extrémité correspondant; et - et connexion directe du point d'extrémité subsistant (Pb(4)) au point suivant (Pb(6)) du contour 10. Procédé selon la revendication 9, caractérisé en ce que ledit lissage de courbe comprend les opérations suivantes: - la sélection de trois paramètres d'entrée déterminés, dits hauteur H, longueur L et éloignement E, exprimant des distances en pixels; - le suivi pas à pas dudit contour primaire, en sélectionnant, à chaque pas, trois points consécutifs (P2, P3, P4), extrémités de deux segments également consécutifs; - le calcul de la longueur 1 et de la hauteur h d'une boîte rectangulaire englobant lesdits trois points (P2, P3, P4) et comparaison avec les longueur L et hauteur H déterminés; - le marquage du point intermédiaire (P3) desdits trois points consécutifs selon l'un des deux états suivants et l'enregistrement de cet état: a/ invalide, si l>L et/ou h>H, b/ valide, dans le cas contraire; - le calcul de l'éloignement e en pixels de deux points invalides consécutifs (P'4, P'5) et l'élimination de ces points et des points intermédiaires valides si la relation suivante est vérifiée: e>,; et - interconnexion directe des points amont ('4) et aval  9. Method according to claim 8, characterized in that said deletion of recoveries of said primary contour (Cop) comprises the following operations: detection of intersection points (1, J) between pairs of line segments forming said primary contour (COp); determining, for each of said line segments, a degree of continuity with respect to the line segments surrounding it, determining the line segment having the lowest degree of continuity; calculating the projections (H (3), H (4)) of the end points of this line segment on the other segment of said pair, determination of the weakest projected and elimination of the corresponding endpoint; and - and direct connection of the remaining end point (Pb (4)) to the next point (Pb (6)) of the contour 10. The method of claim 9, characterized in that said curve smoothing comprises the following operations: the selection of three determined input parameters, said height H, length L and distance E, expressing distances in pixels; tracking step by step of said primary contour, by selecting, at each step, three consecutive points (P2, P3, P4), ends of two equally consecutive segments; the calculation of the length 1 and the height h of a rectangular box including said three points (P2, P3, P4) and comparison with the lengths L and height H determined; the marking of the intermediate point (P3) of said three consecutive points according to one of the following two states and the recording of this state: a / invalid, if l> L and / or h> H, b / valid, in the opposite case; calculating the distance e in pixels from two consecutive invalid points (P'4, P'5) and eliminating these points and valid intermediate points if the following relation is verified: e> ,; and - direct interconnection of upstream ('4) and downstream points

(PI11) dudit contour primaire.(PI11) of said primary contour.

11. Système pour la mise en oeuvre du procédé selon  11. System for implementing the method according to

l'une quelconque des revendications précédentes,  any one of the preceding claims,

caractérisé en ce qu'il comprend des circuits d'entrée-  characterized in that it comprises input circuits

sortie (22) connectés à au moins une source d'image numérique (3-5, 29), des moyens de commande et traitement de données à programme enregistré (21), recevant des signaux représentant ladite image numérique acquise par lesdits circuits d'entrée-sortie (22), des moyens de mémorisation (23) pour la lecture et l'enregistrement permanent de données numériques, notamment des données correspondant auxdits objets extraits, et des moyens de saisie de données (24, 25), connectés auxdits moyens de commande et de traitement de données numériques (21), des moyens de visualisation (27) et des moyens de traitement de données spécialisés (20), coopérant avec lesdits moyens de commande et de traitement de données numériques (21), effectuant lesdites phases de localisation et/ou  an output (22) connected to at least one digital image source (3-5, 29), stored program data control and processing means (21), receiving signals representing said digital image acquired by said digital image circuits; input-output device (22), storage means (23) for reading and permanently recording digital data, in particular data corresponding to said extracted objects, and data acquisition means (24, 25) connected to said means for controlling and processing digital data (21), display means (27) and specialized data processing means (20) cooperating with said digital data processing and control means (21), performing said phases location and / or

d'extraction d'objets.extraction of objects.

12. Système selon la revendication 11, caractérisé en ce que ladite source d'image numérique comprend un appareil photographique numérique (3) et/ou une caméra  12. System according to claim 11, characterized in that said digital image source comprises a digital camera (3) and / or a camera

numérique (4).digital (4).

FR9812093A 1998-09-28 1998-09-28 METHOD AND SYSTEM FOR PROCESSING A DIGITAL IMAGE TO EXTRACT DIGITAL OBJECTS Expired - Fee Related FR2783950B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR9812093A FR2783950B1 (en) 1998-09-28 1998-09-28 METHOD AND SYSTEM FOR PROCESSING A DIGITAL IMAGE TO EXTRACT DIGITAL OBJECTS

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR9812093A FR2783950B1 (en) 1998-09-28 1998-09-28 METHOD AND SYSTEM FOR PROCESSING A DIGITAL IMAGE TO EXTRACT DIGITAL OBJECTS

Publications (2)

Publication Number Publication Date
FR2783950A1 true FR2783950A1 (en) 2000-03-31
FR2783950B1 FR2783950B1 (en) 2000-11-24

Family

ID=9530915

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9812093A Expired - Fee Related FR2783950B1 (en) 1998-09-28 1998-09-28 METHOD AND SYSTEM FOR PROCESSING A DIGITAL IMAGE TO EXTRACT DIGITAL OBJECTS

Country Status (1)

Country Link
FR (1) FR2783950B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419144A (en) * 2022-01-20 2022-04-29 珠海市一杯米科技有限公司 Card positioning method based on external contour shape analysis
CN115722491A (en) * 2022-11-01 2023-03-03 智能网联汽车(山东)协同创新研究院有限公司 Control system for surface machining dust removal

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0627694A1 (en) * 1993-05-27 1994-12-07 Canon Kabushiki Kaisha Image processing apparatus and method
US5524064A (en) * 1992-09-09 1996-06-04 U.S. Philips Corporation Device for coding still images
US5748801A (en) * 1993-04-22 1998-05-05 Hitachi Medical Corporation Method of setting threshold values for extracting image data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5524064A (en) * 1992-09-09 1996-06-04 U.S. Philips Corporation Device for coding still images
US5748801A (en) * 1993-04-22 1998-05-05 Hitachi Medical Corporation Method of setting threshold values for extracting image data
EP0627694A1 (en) * 1993-05-27 1994-12-07 Canon Kabushiki Kaisha Image processing apparatus and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHASSERY J M ET AL: "DIAGRAMME DE VORONOI APPLIQUE A LA SEGMENTATION D'IMAGES ET A LA DETECTION D'EVENEMENTS EN IMAGERIE MULTI-SOURCES", TRAITEMENT DU SIGNAL, vol. 8, no. 3, 1 January 1991 (1991-01-01), pages 155 - 164, XP000309612 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419144A (en) * 2022-01-20 2022-04-29 珠海市一杯米科技有限公司 Card positioning method based on external contour shape analysis
CN115722491A (en) * 2022-11-01 2023-03-03 智能网联汽车(山东)协同创新研究院有限公司 Control system for surface machining dust removal
CN115722491B (en) * 2022-11-01 2023-09-01 智能网联汽车(山东)协同创新研究院有限公司 Control system for surface processing dust removal

Also Published As

Publication number Publication date
FR2783950B1 (en) 2000-11-24

Similar Documents

Publication Publication Date Title
Tan et al. Decomposing images into layers via RGB-space geometry
EP2828834B1 (en) Model and method for producing photorealistic 3d models
EP1292921B1 (en) Refinement of a three-dimensional triangular mesh
US6160923A (en) User directed dust and compact anomaly remover from digital images
EP1131789B1 (en) Method for building a three-dimensional scene model by analysing a sequence of images
US10535123B2 (en) Method for sliced inpainting
JP5597096B2 (en) Image processing apparatus, image processing method, and program
FR2751067A1 (en) SYSTEM AND SUBSYSTEM FOR DETERMINING THE ATTITUDE OF A CAMERA INSIDE AN OBJECT
Mudge et al. Robust and scientifically reliable rock art documentation from digital photographs
JP2001043376A (en) Image extraction method and device and storage medium
FR3051951A1 (en) METHOD FOR PRODUCING A DEFORMABLE MODEL IN THREE DIMENSIONS OF AN ELEMENT, AND SYSTEM THEREOF
James et al. An innovative photogrammetry color segmentation based technique as an alternative approach to 3D scanning for reverse engineering design
FR2811086A1 (en) METHOD FOR INDIVIDUALIZING AN INTEGRATED CIRCUIT ELEMENT
EP0961227B1 (en) Method of detecting the relative depth between two objects in a scene from a pair of images taken at different views
FR2783950A1 (en) Processing of digital image to automatically locate and extract one or more objects in the image
Nguyen et al. High-definition texture reconstruction for 3D image-based modeling
EP1139283A1 (en) Digital image processing method and system for the extraction of digital objects
FR2739953A1 (en) METHOD AND APPARATUS FOR TRANSFORMING IMAGE DATA
US11869125B2 (en) Generating composite images with objects from different times
FR2887347A1 (en) Digital image`s depth map constructing method for e.g. digital photography field, involves evaluating clarity of each block to obtain discrete function, and determining and assigning optimal value of focal distance to map
CA2296000C (en) Method for segmenting and identifying a document, in particular a technical chart
CA3057337A1 (en) 3d model texturation process
Trumpy et al. Deep-doLCE. A deep learning approach for the color reconstruction of digitized lenticular film
FR2994500A1 (en) METHOD OF OPTIMIZING THE EXECUTION OF A GRAPHIC PIPELINE
EP0293283B1 (en) Method for tracing curves exceeding the interior of a viewing-window, and circuits for carrying out such a method

Legal Events

Date Code Title Description
ST Notification of lapse