FR3060180A1 - DIGITAL IMAGE PROCESSING METHOD - Google Patents
DIGITAL IMAGE PROCESSING METHOD Download PDFInfo
- Publication number
- FR3060180A1 FR3060180A1 FR1662467A FR1662467A FR3060180A1 FR 3060180 A1 FR3060180 A1 FR 3060180A1 FR 1662467 A FR1662467 A FR 1662467A FR 1662467 A FR1662467 A FR 1662467A FR 3060180 A1 FR3060180 A1 FR 3060180A1
- Authority
- FR
- France
- Prior art keywords
- image
- mask
- subject
- matrix
- initial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
L'invention concerne un procédé de traitement d'une image initiale comprenant un sujet et un fond, comprenant : - si l'image initiale est en couleur, transformer (100) au moins un des canaux de l'image initiale en une image en niveaux de gris, et - enregistrer ladite image en niveaux de gris dans une mémoire. Il est essentiellement caractérisé par : - déterminer (110) le contraste de l'image en niveaux de gris afin d'obtenir une matrice comprenant un ensemble de coefficients correspondant chacun à un pixel (P) de l'image en niveaux de gris, - comparer (140) la valeur de chaque coefficient à une valeur seuil (Th), éventuellement respective, pour obtenir une image binarisée, - sélectionner (145) les coefficients supérieurs à la valeur seuil, afin d'obtenir un masque binaire comprenant un ensemble de contours, - remplir (150) l'intérieur des contours du masque binaire de façon homogène.The invention relates to a method for processing an initial image comprising a subject and a background, comprising: - if the initial image is in color, transforming (100) at least one of the channels of the initial image into an image in grayscale, and - record said grayscale image in a memory. It is essentially characterized by: determining (110) the contrast of the grayscale image in order to obtain a matrix comprising a set of coefficients each corresponding to a pixel (P) of the grayscale image, comparing (140) the value of each coefficient with a possibly respective threshold value (Th), to obtain a binarized image, - selecting (145) the coefficients greater than the threshold value, in order to obtain a binary mask comprising a set of outlines, - fill (150) the inside of the contours of the binary mask homogeneously.
Description
Titulaire(s) : CYCLOPUS Société par actions simplifiée.Holder (s): CYCLOPUS Simplified joint-stock company.
Demande(s) d’extensionExtension request (s)
Mandataire(s) : INNOVATION COMPETENCE GROUP.Agent (s): INNOVATION COMPETENCE GROUP.
loT) PROCEDE DE TRAITEMENT D'IMAGE NUMERIQUE.loT) PROCESS FOR DIGITAL IMAGE PROCESSING.
FR 3 060 180 - A1 _ L'invention concerne un procédé de traitement d'une image initiale comprenant un sujet et un fond, comprenant:FR 3 060 180 - A1 _ The invention relates to a method for processing an initial image comprising a subject and a background, comprising:
- si l'image initiale est en couleur, transformer (100) au moins un des canaux de l'image initiale en une image en niveaux de gris, et- if the initial image is in color, transform (100) at least one of the channels of the initial image into a grayscale image, and
- enregistrer ladite image en niveaux de gris dans une mémoire.- Save said grayscale image in a memory.
Il est essentiellement caractérisé par:It is essentially characterized by:
- déterminer (110) le contraste de l'image en niveaux de gris afin d'obtenir une matrice comprenant un ensemble de coefficients correspondant chacun à un pixel (P) de l'image en niveaux de gris,- determining (110) the contrast of the gray level image in order to obtain a matrix comprising a set of coefficients each corresponding to a pixel (P) of the gray level image,
- comparer (140) la valeur de chaque coefficient à une valeur seuil (Th), éventuellement respective, pour obtenir une image binarisée,- compare (140) the value of each coefficient with a threshold value (Th), possibly respective, to obtain a binarized image,
- sélectionner (145) les coefficients supérieurs à la valeur seuil, afin d'obtenir un masque binaire comprenant un ensemble de contours,- select (145) the coefficients greater than the threshold value, in order to obtain a binary mask comprising a set of contours,
- remplir (150) l'intérieur des contours du masque binaire de façon homogène.- fill (150) the inside of the contours of the binary mask evenly.
zx:zx:
160 zxz160 zxz
170 i170 i
PROCÉDÉ DE TRAITEMENT D’IMAGE NUMÉRIQUE.DIGITAL IMAGE PROCESSING METHOD.
DOMAINE DE L’INVENTION 5FIELD OF THE INVENTION 5
La présente invention concerne le domaine du traitement d’image numérique, ci-après « image » par concision, prise par un dispositif de prise de vue, typiquement un appareil photo ou une caméra, ce pourquoi on entend indistinctement ici « image » et « prise de vue », le traitement d’image étant basé sur des calculs matriciels.The present invention relates to the field of digital image processing, hereinafter "image" for the sake of brevity, taken by a shooting device, typically a camera or a camera, which is why we mean here without distinction "image" and " shooting ”, the image processing being based on matrix calculations.
Une vidéo comprend une pluralité d’images séquentielles. Sauf précision contraire, on entend ici par « image » indistinctement une image photographique ou une image individuelle d’une vidéo.A video includes a plurality of sequential images. Unless specified otherwise, the term "image" is used here to mean either a photographic image or an individual image of a video.
Pour acquérir des images, le dispositif de prise de vue comprend un dispositif optique (par exemple un ensemble d’au moins une lentille), un capteur numérique (par exemple un capteur CMOS / CCD / photodiodes). Typiquement, on prévoit également un dispositif électronique comprenant un calculateur (typiquement un processeur et par exemple un DSP), qui effectue au moins un algorithme de traitement d’images, ledit dispositif électronique pouvant être embarquéTo acquire images, the shooting device comprises an optical device (for example a set of at least one lens), a digital sensor (for example a CMOS / CCD / photodiodes sensor). Typically, an electronic device is also provided comprising a computer (typically a processor and for example a DSP), which performs at least one image processing algorithm, said electronic device being able to be embedded
20dans le dispositif de prise de vue ou dans un ordinateur distinct.20 in the shooting device or in a separate computer.
Le traitement selon la présente invention consiste a minima à détecter le fond et/ou le sujet d’une image initale, afin de pouvoir ensuite par exemple séparer le sujet du fond sur lequel celui-ci se trouve, que ce soit dans une image individuelle ou pour toutes les images d’une 25séquence vidéo, en vue notamment de fusionner le sujet avec le fond d’une autre image, dite image de fond, pour ajouter un objet virtuel entre le sujet et le fond, ou encore en supprimant des objets se situant devant le sujet (premier plan).The processing according to the present invention consists at least of detecting the background and / or the subject of an initial image, in order then to be able for example to separate the subject from the background on which it is located, whether in an individual image. or for all the images in a video sequence, in particular with a view to merging the subject with the background of another image, known as the background image, to add a virtual object between the subject and the background, or even by deleting objects standing in front of the subject (foreground).
L’image de fond peut être une image d’une séquence vidéo.The background image can be an image of a video sequence.
Par définition, on entend ici par « sujet » : tout élément situé dans le plan de mise au point du système optique ayant réalisé l’image, « fond » (ou background par anglicisme) toutes les autres parties de l’image, devant ou derrière le sujet, « scène » l’ensemble des éléments (sujet(s), objet(s), etc.) réels détectés par le capteur du dispositif de prise de vue et représentés dans l’image.By definition, here the term "subject" means: any element located in the plane of development of the optical system having produced the image, "background" (or background by anglicism) all the other parts of the image, in front behind the subject, "scene" the set of real elements (subject (s), object (s), etc.) detected by the sensor of the shooting device and represented in the image.
En général, le sujet de la scène a des propriétés optiques différentes de celles du fond.In general, the subject of the scene has different optical properties from those of the background.
5Par exemple, dans le domaine de la vidéosurveillance, le sujet correspond à tous les objets (personnes, voitures etc.) qui se déplacent sur la scène, et le fond est un environnement fixe (rue, intérieur du bâtiment, etc.).5For example, in the field of video surveillance, the subject corresponds to all the objects (people, cars, etc.) that move on the scene, and the background is a fixed environment (street, interior of the building, etc.).
En vidéo, l’intérêt de la détection de fond est de pouvoir filmer un sujet dans un lOenvironnement quelconque, et par exemple d’intégrer ensuite le sujet sur un autre fond pour créer un autre environnement (autre décor et/ou ajout d’informations, animations supplémentaires, etc.) par montage vidéo.In video, the interest of background detection is to be able to film a subject in any environment, and for example to then integrate the subject on another background to create another environment (other background and / or addition of information , additional animations, etc.) by video editing.
Traditionnellement, l’opération d’extraction du sujet, pour pouvoir être automatisée, 15nécessite de réaliser la prise de vue dans un studio équipé d’un fond de couleur uniforme, généralement vert ou bleu. C’est ensuite en temps réel ou en post-production que le fond est « supprimé » informatiquement, en éliminant tous les pixels de la couleur uniforme choisie. Cette technique présente l’inconvénient de nécessiter des conditions de tournages très contrôlées (uniformité du fond, de l’éclairage, distance minimum du sujet par rapport au fond).Traditionally, the subject extraction operation, in order to be automated, requires shooting in a studio equipped with a uniform color background, generally green or blue. It is then in real time or in post-production that the background is "deleted" by computer, by eliminating all the pixels of the chosen uniform color. This technique has the drawback of requiring very controlled shooting conditions (uniformity of the background, of the lighting, minimum distance of the subject from the background).
En outre, cette technique peut causer des erreurs ou des imperfections de traitements dans certains cas, par exemple elle peut éliminer des objets présentant au moins localement une teinte de même couleur que la couleur uniforme choisie et nécessiter diverses opérations dont un traitement colorimétrique.In addition, this technique can cause processing errors or imperfections in certain cases, for example it can eliminate objects having at least locally a tint of the same color as the uniform color chosen and require various operations including colorimetric processing.
Par ailleurs, l’opération de post-production est souvent au moins partiellement manuelle, elle peut être longue et fastidieuse, et nécessite des outils de calcul puissants pour pouvoir être réalisée en temps réel.In addition, the post-production operation is often at least partially manual, it can be long and tedious, and requires powerful calculation tools to be able to be performed in real time.
RESUME DE L’INVENTIONSUMMARY OF THE INVENTION
Plus précisément, l’invention concerne selon un premier de ses objets, un procédé de traitement d’un ensemble d’au moins une image numérique initiale comprenant un sujet et un fond, le procédé comprenant des étapes consistant à :More specifically, the invention relates, according to a first of its objects, to a method of processing a set of at least one initial digital image comprising a subject and a background, the method comprising steps consisting in:
- si l’image initiale est en couleur, transformer (100) au moins un des canaux de l’image initiale en une image en niveaux de gris en niveaux de gris, et enregistrer ladite image en niveaux de gris dans une mémoire.- if the initial image is in color, transform (100) at least one of the channels of the initial image into a grayscale image into grayscale, and save said grayscale image in a memory.
Il est essentiellement caractérisé en ce qu’il comprend en outre, des étapes consistant à : déterminer (110) le contraste de l’image en niveaux de gris, en calculant le niveau de netteté locale pour chaque pixel de l’image en niveaux de gris, afin d’obtenir une matrice d’image contrastée comprenant un ensemble de coefficients, chaque coefficient de la matrice de l’image contrastée correspondant à un pixel (P) de l’image en niveaux de gris, comparer (140) la valeur de chaque coefficient de la matrice de l’image contrastée à une valeur seuil (Th), éventuellement respective, enregistrée dans une mémoire, pour obtenir une image binarisée, sélectionner (145) les coefficients de la matrice de l’image contrastée dont la valeur est supérieure à la valeur seuil, afin d’obtenir un masque binaire comprenant un ensemble de contours, et remplir (150) l’intérieur des contours du masque binaire de façon homogène.It is essentially characterized in that it further comprises steps consisting in: determining (110) the contrast of the image in gray levels, by calculating the level of local sharpness for each pixel of the image in levels of gray, in order to obtain a contrasting image matrix comprising a set of coefficients, each coefficient of the matrix of the contrasting image corresponding to a pixel (P) of the image in gray levels, compare (140) the value of each coefficient of the matrix of the contrasted image at a threshold value (Th), possibly respective, recorded in a memory, to obtain a binarized image, select (145) the coefficients of the matrix of the contrasted image whose value is greater than the threshold value, in order to obtain a binary mask comprising a set of contours, and to fill (150) the inside of the contours of the binary mask in a homogeneous manner.
On peut prévoir en outre une étape (180) de filtrage des contours du masque binaire.It is also possible to provide a step (180) for filtering the contours of the binary mask.
De préférence, l’étape (180) de filtrage des contours du masque binaire comprend une étape (190) de filtrage guidé dans laquelle l’image initiale en niveaux de gris sert d’image-guide sur le masque binaire, pour obtenir un masque en niveaux de gris.Preferably, the step (180) of filtering the contours of the binary mask comprises a step (190) of guided filtering in which the initial image in gray levels serves as a guide image on the binary mask, to obtain a mask in grayscale.
Dans un mode de réalisation, l’ensemble d’au moins une image numérique initiale est une séquence vidéo, le procédé comprenant en outre une étape (200) de filtrage temporel d’un nombre prédéfini d’images individuelles séquentielles de la vidéo.In one embodiment, the set of at least one initial digital image is a video sequence, the method further comprising a step (200) of temporal filtering of a predefined number of individual sequential images of the video.
De préférence, l’étape (110) de détermination contraste comprend une étape (130)Preferably, the contrast determination step (110) comprises a step (130)
25consistant à calculer la matrice (cn ) résultante de la convolution de chacun des pixels de la matrice (j n) de l’image en niveaux de gris par un noyau Laplacien, le procédé comprenant optionnellement en outre et préalablement à l’étape (130), une étape (120) de filtrage passebas de l’image en niveaux de gris.25 consisting in calculating the matrix (c n ) resulting from the convolution of each of the pixels of the matrix (j n ) of the gray level image by a Laplacian kernel, the method optionally further comprising and prior to step ( 130), a step (120) of low-pass filtering of the gray level image.
On peut prévoir que la valeur du seuil (Th) est prédéterminée.We can predict that the threshold value (Th) is predetermined.
Le procédé peut comprendre en outre une étape consistant à :The method can also comprise a step consisting in:
extraire (160) le sujet de l’image initiale par application du masque binaire ou du masque en niveaux de gris sur l’image initiale.extract (160) the subject from the initial image by applying the binary mask or the grayscale mask to the initial image.
Le procédé peut comprendre en outre une étape de mélange par superposition de l’image initiale et de l’image de fond, réalisée en fonction de la valeur des coefficients de la matrice du masque, comme suit :The method can also comprise a step of mixing by superimposing the initial image and the background image, performed as a function of the value of the coefficients of the mask matrix, as follows:
pour les coefficients de la matrice du masque dont la valeur est 1, les valeurs 5 d’intensité des pixels du sujet de l’image initiale sont conservées sans modification, et les valeurs d’intensité des pixels du sujet de l’image de fond sont remplacées par lesdites valeurs d’intensité des pixels du sujet de l’image initiale, pour les coefficients de la matrice du masque dont la valeur est 0, les valeurs d’intensité des pixels du sujet de l’image initiale sont remplacées par les valeurs d’intensité des pixels du sujet de l’image de fond, et pour les coefficients de la matrice du masque dont la valeur est comprise entre 0 et 1, l’intensité des pixels de l’image résultant dudit mélange est composée des valeurs des pixels du sujet de l’image initiale multipliées par les coefficients du masque plus les valeurs des pixels de l’image du fond multipliées par les coefficients inverses du masque..for the mask matrix coefficients whose value is 1, the pixel intensity values 5 of the subject of the initial image are retained without modification, and the pixel intensity values of the subject of the background image are replaced by said intensity values of the pixels of the subject of the initial image, for the coefficients of the mask matrix whose value is 0, the intensity values of the pixels of the subject of the initial image are replaced by the intensity values of the pixels of the subject of the background image, and for the coefficients of the mask matrix whose value is between 0 and 1, the intensity of the pixels of the image resulting from said mixing is composed of the values pixels of the subject of the initial image multiplied by the coefficients of the mask plus the values of the pixels of the background image multiplied by the inverse coefficients of the mask.
On peut prévoir que l’étape de remplissage (150) comprend :We can predict that the filling step (150) includes:
une opération de remplissage qui consiste à remplir l’intérieur des contours du masque, et optionnellement en outre :a filling operation which consists in filling the inside of the contours of the mask, and optionally also:
une opération de dilatation qui consiste à grossir les traits de l’image binarisée selon un grossissement prédéfini.a dilation operation which consists in enlarging the lines of the binarized image according to a predefined magnification.
Selon un autre de ses objets, l’invention concerne un programme d’ordinateur comprenant des instructions de code de programme pour l’exécution des étapes du procédé selon l’invention, lorsque ledit programme est exécuté sur un ordinateur.According to another of its objects, the invention relates to a computer program comprising program code instructions for executing the steps of the method according to the invention, when said program is executed on a computer.
Selon un autre de ses objets, l’invention concerne un support de mémoire informatique dans lequel est enregistré le programme d’ordinateur selon l’invention.According to another of its objects, the invention relates to a computer memory medium in which the computer program according to the invention is recorded.
Selon un autre de ses objets, l’invention concerne un dispositif optique, comprenant un 30objectif optique et une mémoire, dans lequel la mémoire comprend le programme d’ordinateur selon l’invention.According to another of its objects, the invention relates to an optical device, comprising an optical objective and a memory, in which the memory comprises the computer program according to the invention.
L’invention proposée ici est une méthode automatique de traitement d’image, y compris vidéo qui diffère donc des méthodes au moins partiellement manuelles de séparation d’un sujetThe invention proposed here is an automatic method of image processing, including video which therefore differs from at least partially manual methods of separating a subject.
35vs. fond qui existent notamment dans les logiciels de retouche photo.35vs. background that exist in particular in photo editing software.
L’invention proposée ici permet un grand nombre d’applications, et se révèle particulièrement pertinente pour plusieurs types d’applications, pour lesquelles les exigences en termes de qualité d’image, de temps de traitement et précision de détourage sont élevées.The invention proposed here allows a large number of applications, and is particularly relevant for several types of applications, for which the requirements in terms of image quality, processing time and trimming precision are high.
Avantageusement, la présente invention met en oeuvre une solution passive, c'est-à-dire qu’elle ne nécessite pas de capteurs actifs de mesure de distance / profondeur, ce qui distingue la présente invention de tous les systèmes actifs, par exemple à base de capteurs infrarouge, qui peuvent en outre être perturbés par d’autres rayonnements infrarouge, e.g., le rayonnement du soleil.Advantageously, the present invention implements a passive solution, that is to say that it does not require active distance / depth measurement sensors, which distinguishes the present invention from all active systems, for example at based on infrared sensors, which can also be disturbed by other infrared radiation, eg, radiation from the sun.
En outre, selon l’invention, un seul objectif peut être utilisé, ce qui distingue la présente invention de tous les systèmes de stéréovision. De même, une seule image (une seule mise au point) peut être utilisée, ce qui rend la présente invention facile à mettre en œuvre.Furthermore, according to the invention, only one objective can be used, which distinguishes the present invention from all stereovision systems. Likewise, a single image (single focus) can be used, which makes the present invention easy to implement.
La présente invention élimine également la nécessité de fonds homogènes (par exemple verts ou bleus) utilisés en télévision ou cinéma. Le sujet peut donc porter des attributs / vêtements colorés en vert.The present invention also eliminates the need for homogeneous backgrounds (for example green or blue) used in television or cinema. The subject can therefore wear attributes / clothes colored in green.
Enfin, la présente invention peut être mise en œuvre tant en intérieur qu’en extérieur.Finally, the present invention can be implemented both indoors and outdoors.
D’autres caractéristiques et avantages de la présente invention apparaîtront plus clairement à la lecture de la description suivante donnée à titre d’exemple illustratif et non limitatif et faite en référence aux figures annexées.Other characteristics and advantages of the present invention will appear more clearly on reading the following description given by way of illustrative and nonlimiting example and made with reference to the appended figures.
DESCRIPTIF DES DESSINS la figure IA illustre une image initiale selon l’invention, la figure IB illustre une image finale selon l’invention, la figure 2A illustre une image en niveaux de gris selon l’invention, en l’espèce le visage 30de la figure IA, la figure 2B illustre une image filtrée selon l’invention, en l’espèce l’image de la figure 2A filtrée par un filtre passe-bas, la figure 2C illustre une image contrastée selon l’invention, en l’espèce l’image de la figure 2B transformée par un opérateur de Laplace, la figure 3A illustre une image binarisée, en l’espèce l’image de la figure 2C, selon une première valeur de seuil, la figure 3B illustre une image binarisée, en l’espèce l’image de la figure 2C, selon une deuxième valeur de seuil, la figure 3C illustre une image binarisée, en l’espèce l’image de la figure 2C, selon une troisième valeur de seuil, la figure 3D illustre une image binarisée, en l’espèce l’image de la figure 2C, selon une quatrième valeur de seuil, la figure 4A illustre le résultat d’une opération de dilatation des contours d’un masque d’une image binarisée, en l’espèce celle de la figure 3D, la figure 4B illustre le résultat d’une opération de traitement du masque d’une image, en l’espèce celle de la figure 4A, la figure 4C illustre le résultat d’une opération de remplissage effectuée sur le masque lOd’une image, en l’espèce celle de la figure 4B, la figure 4D illustre le résultat d’une opération de traitement appliquée au masque d’une image, en l’espèce celle de la figure 4C, la figure 4E illustre le résultat d’une opération de traitement appliquée au masque d’une image, en l’espèce celle de la figure 4D, la figure 5A illustre le résultat de l’application du masque de la figure 4E à l’image initiale de la figure 2A combiné à un autre fond que le fond de l’image initiale, la figure 5B illustre le résultat de l’application du masque de la figure 6A à l’image initiale de la figure 2A combiné au même fond que le fond de l’image de la figure 5A, la figure 6A illustre le résultat d’un algorithme de filtrage guidé sur le masque de la figure 204E grâce à l’image-guide de la figure 2A, la figure 7A illustre la fonction d’étalement de point, ou variation du diamètre du flou ε, en fonction de la distance entre un dispositif optique et un sujet, ledit dispositif optique ayant une longueur focale prédéterminée, la figure 7B est une photographie illustrant la figure 7A, en l’espèce de 3 sujets (pommes) 25disposées à 3 distances distinctes d’un même dispositif optique, la figure 8 illustre un schéma optique représentant l’estimation de flou de défocalisation ε en fonction de la distance du plan focal, et la figure 9 illustre un mode de réalisation du procédé selon l'invention.DESCRIPTION OF THE DRAWINGS FIG. 1A illustrates an initial image according to the invention, FIG. 1B illustrates a final image according to the invention, FIG. 2A illustrates a grayscale image according to the invention, in this case the face 30 of the FIG. 1A, FIG. 2B illustrates an image filtered according to the invention, in this case the image of FIG. 2A filtered by a low-pass filter, FIG. 2C illustrates a contrasted image according to the invention, in the present case the image of FIG. 2B transformed by a Laplace operator, FIG. 3A illustrates a binarized image, in this case the image of FIG. 2C, according to a first threshold value, FIG. 3B illustrates a binarized image, in in this case the image of FIG. 2C, according to a second threshold value, FIG. 3C illustrates a binarized image, in this case the image of FIG. 2C, according to a third threshold value, FIG. 3D illustrates a binarized image, in this case the image of figure 2 C, according to a fourth threshold value, FIG. 4A illustrates the result of an operation of dilating the contours of a mask of a binarized image, in this case that of FIG. 3D, FIG. 4B illustrates the result of an image mask processing operation, in this case that of FIG. 4A, FIG. 4C illustrates the result of a filling operation performed on the mask 10O of an image, in this case that of the FIG. 4B, FIG. 4D illustrates the result of a processing operation applied to the mask of an image, in this case that of FIG. 4C, FIG. 4E illustrates the result of a processing operation applied to the mask of an image, in this case that of FIG. 4D, FIG. 5A illustrates the result of the application of the mask of FIG. 4E to the initial image of FIG. 2A combined with another background than the background of the image Figure 5B illustrates the result of applying the mask of FIG. 6A to the initial image of FIG. 2A combined with the same background as the background of the image of FIG. 5A, FIG. 6A illustrates the result of a filtering algorithm guided on the mask of FIG. 204E using the guide image of FIG. 2A, FIG. 7A illustrates the point spreading function, or variation of the diameter of the blur ε, as a function of the distance between an optical device and a subject, said optical device having a predetermined focal length, FIG. 7B is a photograph illustrating FIG. 7A, in this case 3 subjects (apples) 25 arranged at 3 distinct distances from the same optical device, FIG. 8 illustrates an optical diagram representing the estimation of blur defocus ε as a function of the distance from the focal plane, and FIG. 9 illustrates an embodiment of the method according to the invention.
DESCRIPTION DETAILLEEDETAILED DESCRIPTION
PrincipePrinciple
Dans la présente description, on suppose un sujet placé dans le plan de mise au point de 351’objectif d’un dispositif de prise de vue. Le dispositif de prise de vue peut être de type standard, monovoie (c'est-à-dire pas de vision stéréo).In the present description, a subject is assumed to be placed in the focusing plane of the lens of a shooting device. The shooting device can be of standard type, single channel (that is to say no stereo vision).
L’image de la scène comprenant le sujet est appelée « image initiale », figure IA. Elle est par exemple enregistrée dans une mémoire, typiquement celle du dispositif de prise de vue ou envoyée sur une mémoire distante. Le traitement peut également être réalisé en diffusion en mode continu ou streaming par anglicisme, sans passer par la phase d’enregistrement de 5vidéo.The image of the scene including the subject is called the "initial image", Figure IA. It is for example recorded in a memory, typically that of the shooting device or sent to a remote memory. The processing can also be carried out in streaming mode or streaming by anglicism, without going through the recording phase of 5video.
Une image initiale est par exemple une image individuelle d’une séquence vidéo ou une image d’un appareil photo. Sauf précision contraire, il ne sera fait référence qu’à une image individuelle d’une séquence vidéo.An initial image is for example an individual image from a video sequence or an image from a camera. Unless otherwise specified, only an individual image from a video sequence will be referred to.
Comme illustré sur la figure 7, on définit par :As illustrated in Figure 7, we define by:
D, la distance à l’objectif, c'est-à-dire la distance entre le dispositif de prise de vue et le sujet,D, the distance to the lens, i.e. the distance between the camera and the subject,
DS, une distance dite « de sécurité », paramétrable, en avant et en arrière du 15 sujet, f, la focale de l’objectif utilisé par le dispositif de prise de vue.DS, a so-called “safety” distance, configurable, in front and behind the subject, f, the focal length of the lens used by the shooting device.
La distance D et la focale f sont connues. La profondeur de champ est connue ou déterminée. De préférence, la distance de sécurité DS est inférieure ou égale à la profondeurThe distance D and the focal length f are known. The depth of field is known or determined. Preferably, the safety distance DS is less than or equal to the depth
20de champ.20 of field.
Par « avant », on entend en avant du sujet, et notamment entre le dispositif de prise de vue et le sujet.By "before" is meant in front of the subject, and in particular between the camera and the subject.
Par « arrière » ou « au-delà », on entend en arrière du sujet, donc au-delà de la distance D et éventuellement au-delà de la distance de sécurité DS.By “rear” or “beyond”, we mean behind the subject, therefore beyond the distance D and possibly beyond the safety distance DS.
La présente invention permet de supprimer tous les éléments de l’image initiale se situant au-delà de la distance de sécurité DS du sujet, comme décrit ci-après.The present invention makes it possible to delete all the elements of the initial image lying beyond the safety distance DS of the subject, as described below.
A cet effet, le principe de l’invention repose sur la segmentation de l’image initiale en utilisant les propriétés optiques distinctes du sujet et du fond dans ladite image initiale.To this end, the principle of the invention is based on the segmentation of the initial image using the distinct optical properties of the subject and of the background in said initial image.
Le sujet étant dans le plan de mise au point situé à une distance D du capteur optique, il 35est caractérisé par un très fort contraste. A l’inverse le fond, lui, a un contraste très faible.The subject being in the focusing plane located at a distance D from the optical sensor, it is characterized by a very high contrast. Conversely, the background has a very low contrast.
La présente invention tire astucieusement partie de cette caractéristique et permet d’obtenir un traitement d’image capable de segmenter avec précision les zones à fort contraste et à faible contraste dans l’image initiale, et ce d’autant plus avec un dispositif optique capable d’avoir une forte différence de contraste entre le sujet et le fond.The present invention cleverly takes advantage of this characteristic and makes it possible to obtain an image processing capable of accurately segmenting the areas of high contrast and of low contrast in the initial image, and this all the more with an optical device capable to have a big difference in contrast between the subject and the background.
La présente invention prend en entrée une image initiale et la transforme en une imageThe present invention takes an initial image as input and transforms it into an image
5finale, dont un exemple est illustré figure IB, traitée, de résolution inférieure ou égale à celle de l’image initiale, dans laquelle le sujet de l’image initiale est détouré grâce à un masque, et dans laquelle le fond de l’image initiale est supprimé ou remplacé par un autre fond.5 final, an example of which is illustrated in FIG. 1B, processed, of resolution less than or equal to that of the initial image, in which the subject of the initial image is outlined with a mask, and in which the background of the image initial is deleted or replaced by another background.
Niveaux de grisShades of grey
L’image initiale peut être en couleur ou en niveau de gris.The initial image can be in color or grayscale.
Si l’image initiale d’une vidéo est en couleur, alors cela signifie que chaque image individuelle initiale n de la vidéo est composée de trois canaux couleurs : rouge Rn, vert Gn et 15bleu Bn où pour le traitement numérique de l’image, chaque canal est une matrice. Chaque matrice comprend un ensemble de coefficients.If the initial image of a video is in color, then this means that each initial individual image n of the video is composed of three color channels: red R n , green G n and 15 blue B n where for the digital processing of l image, each channel is a matrix. Each matrix includes a set of coefficients.
Ainsi, chaque pixel P de coordonnées (xp, yp) de l’image initiale est représenté par un vecteur (triplet) de valeur [Rn(xp, yp), Gn(xp, yp), Bn(xp, yp)]. Pour une image en couleurs, il existeThus, each pixel P of coordinates (x p , y p ) of the initial image is represented by a vector (triplet) of value [R n (xp, yp), G n (xp, y p ), B n ( x p , y p )]. For a color image, there are
20donc une correspondance entre un triplet de coefficients et un pixel.20 therefore a correspondence between a triplet of coefficients and a pixel.
Or, le principe de suppression de fond proposé ici n’est pas basé sur les informations de couleurs, et il est donc redondant de traiter ces trois canaux (ou matrices de pixels).However, the background suppression principle proposed here is not based on color information, and it is therefore redundant to process these three channels (or pixel arrays).
Pour éviter cette redondance, il est préférable de ne traiter qu’un seul canal. Tous les calculs exposés ci-après peuvent ainsi n’être réalisés que pour ce canal unique, ce qui permet d’augmenter la vitesse de calcul et de diminuer le temps de traitement.To avoid this redundancy, it is preferable to treat only one channel. All the calculations described below can thus only be carried out for this single channel, which allows the calculation speed to be increased and the processing time to be reduced.
Pour une image en niveaux de gris, il existe donc une correspondance entre un pixel deFor a grayscale image, there is therefore a correspondence between a pixel of
30ladite image et un coefficient de sa matrice correspondante. Chaque pixel P est caractérisé par sa position (x, y) et sa valeur d’intensité pour chaque canal R(x, y), G(x, y) et B(x, y). On peut donc considérer ici indistinctement un pixel ou son coefficient correspondant.30said image and a coefficient of its corresponding matrix. Each pixel P is characterized by its position (x, y) and its intensity value for each channel R (x, y), G (x, y) and B (x, y). We can therefore consider here without distinction a pixel or its corresponding coefficient.
Si l’image initiale est en couleur, on prévoit donc une étape 100 consistant à transformerIf the initial image is in color, we therefore plan a step 100 consisting in transforming
35au moins un des canaux de l’image initiale en niveaux de gris.35at least one of the channels in the initial grayscale image.
De préférence cette étape est mise en œuvre par tout logiciel approprié connu sur le marché. Par exemple, on peut utiliser la formule standard qui, pour chaque pixel, remplace le triplet de valeur d’intensité Γ d’une image individuelle initiale n de la vidéo par une seule valeur avec une certaine proportion de l’intensité de chacun des canaux :Preferably, this step is implemented by any suitable software known on the market. For example, we can use the standard formula which, for each pixel, replaces the intensity value triplet Γ of an initial individual image n of the video by a single value with a certain proportion of the intensity of each channel :
ln(xp, yp) = 0.2989 *Rn(xp, yp) + 0.5870 *Gn(xp, yp) + 0.1140 *Bn(xp, yp) (1).l n (xp, yp) = 0.2989 * R n (xp, y p ) + 0.5870 * G n (xp, yp) + 0.1140 * B n (xp, y p ) (1).
A la fin de cette étape, l’image initiale de la vidéo se présente en forme de matrice Γ dont les valeurs sont comprises entre 0 et 1, chaque valeur correspondant à un niveau de gris.At the end of this step, the initial image of the video is in the form of a matrix Γ whose values are between 0 and 1, each value corresponding to a gray level.
Un exemple d’image en niveaux de gris est illustré en figure 2A. Par simplification on entend par matrice « grisée », la matrice correspondant à l’image en niveaux de gris.An example of a grayscale image is illustrated in Figure 2A. By simplification is meant by "gray" matrix, the matrix corresponding to the grayscale image.
ContrasteContrast
Au stade de l’image en niveaux de gris, il n’est pas encore possible de savoir si un pixel de l’image en niveaux de gris correspond au sujet ou au fond.At the grayscale image stage, it is not yet possible to know whether a pixel in the grayscale image matches the subject or the background.
En effet, si on se limite à mesurer l’intensité lumineuse seule d’un pixel, cette unique mesure ne suffit pas à déterminer si ce pixel correspond à un point d’un objet appartenant au sujet ou au fond.Indeed, if we limit ourselves to measuring the light intensity alone of a pixel, this single measurement is not enough to determine whether this pixel corresponds to a point of an object belonging to the subject or to the background.
II est possible de s’affranchir de ce problème.It is possible to get rid of this problem.
A cet effet, on assume que plus un pixel est contrasté (ou net), plus la probabilité qu’il corresponde au sujet est grande. Inversement, moins un pixel est contrasté (ou net), plus la probabilité qu’il corresponde au sujet est faible. Par « pixel contrasté », on entend que la zone 25autour d’un pixel donné est contrastée, c'est-à-dire présente par exemple un gradient de contraste supérieur à une valeur seuil.For this purpose, we assume that the more a pixel is contrasted (or sharp), the more the probability that it corresponds to the subject. Conversely, the less a pixel is contrasted (or sharp), the lower the probability that it corresponds to the subject. By "contrasting pixel" is meant that the area around a given pixel is contrasted, that is to say has for example a contrast gradient greater than a threshold value.
En effet, au niveau optique, le niveau de contraste d’un objet dans une image dépend de la position de cet objet réel par rapport au plan de mise au point. Plus l’objet est loin du plan de 30mise au point (notamment en arrière) du sujet, plus le contraste se dégrade, ce dont il résulte une observation de flou dans l’image dudit objet, comme illustré figure 7B.Indeed, at the optical level, the level of contrast of an object in an image depends on the position of this real object relative to the focus plane. The further the object is away from the plane of focus (in particular behind) of the subject, the more the contrast degrades, which results in an observation of blurring in the image of said object, as illustrated in FIG. 7B.
On vise donc à remplacer un niveau de gris par un niveau de contraste ou de netteté pour chaque pixel.We therefore aim to replace a gray level with a level of contrast or sharpness for each pixel.
A cet effet, on prévoit une étape 110 de détermination de contraste consistant à calculer le niveau de netteté locale pour chaque pixel P, c'est-à-dire à transformer la matrice Γ(χρ, yp) de l’image en niveaux de gris en une matrice Cn(xp, yp) de même taille que l’image en niveaux de gris Γ(χΡ, yP), également en niveaux de gris, et dont les valeurs représentent le niveau de netteté locale pour chaque pixel P.To this end, a step 110 of determining the contrast is provided which consists in calculating the local level of sharpness for each pixel P, that is to say in transforming the matrix Γ (χ ρ , y p ) of the image into gray levels in a matrix C n (x p , y p ) of the same size as the image in gray levels Γ (χ Ρ , y P ), also in gray levels, and whose values represent the level of sharpness local for each pixel P.
Pour l’étape 110 de détermination de contraste, on prévoit d’utiliser une métrique de 5contraste.For the contrast determination step 110, provision is made to use a metric of 5 contrast.
Le niveau de netteté locale pour chaque pixel P est une valeur comprise en 0 et 1, calculée selon une fonction d’un gradient de luminosité selon une ou plusieurs directions prédéterminées à partir du pixel P. Plus le gradient est fort plus l’image est nette localement.The level of local sharpness for each pixel P is a value between 0 and 1, calculated according to a function of a brightness gradient in one or more directions predetermined from pixel P. The more the gradient is strong the more the image is locally clear.
Par simplification, on entend donc ici par « pixel contrasté » la valeur de la fonction d’un gradient de contraste autour dudit pixel selon au moins une direction prédéterminée.By simplification, here therefore is meant by "contrasting pixel" the value of the function of a contrast gradient around said pixel in at least one predetermined direction.
On peut prévoir une métrique de contraste de type fonction d’étalement du point. II existe 15aussi de nombreux algorithmes de métrique de contraste qui permettant de réaliser cette transformation, par exemple une revue de ces méthodes est présentée à l’adresse httpsT/wwvnesea^^ Par exemple une valeur 1 signifie un pixel très contrasté et une valeur 0 signifie un pixel pas contrasté, les valeurs intermédiaires correspondant à un contraste graduel entre ces deux extrêmes.We can provide a contrast metric of the point spread function type. There are also many contrast metric algorithms which make it possible to carry out this transformation, for example a review of these methods is presented at the address httpsT / wwvnesea ^^ For example a value 1 means a highly contrasted pixel and a value 0 means a pixel not contrasted, the intermediate values corresponding to a gradual contrast between these two extremes.
Une autre possibilité de mesurer le contraste (ou, à l'inverse, la quantité de flou), est de faire une estimation de la fonction d'étalement du point FEP (ou PSF pour Point Spread Function en anglais) pour une image. Elle est évaluée localement autour de chaque pixel et représentée par une matrice de petite taille (e.g., 15x15, 21x21). La forme de la FEP représente 251a forme du flou de l’image, et les caractéristiques de cette forme (comme la largeur, l’inclinaison ou autres) peuvent servir à évaluer le contraste de chaque pixel de l'image. Cependant, un inconvénient de cette méthode de mesure de contraste est qu’il faut prendre en compte la conception optique et le capteur du système optique, et réaliser un ensemble d’au moins une calibration de caméra pour pouvoir obtenir les différents niveaux de contraste et lierAnother possibility to measure the contrast (or, conversely, the amount of blurring), is to make an estimate of the spreading function of the FEP point (or PSF for Point Spread Function in English) for an image. It is evaluated locally around each pixel and represented by a small matrix (e.g., 15x15, 21x21). The shape of the FEP represents 251a shape of the blur of the image, and the characteristics of this shape (like the width, the inclination or others) can be used to evaluate the contrast of each pixel of the image. However, a disadvantage of this contrast measurement method is that it is necessary to take into account the optical design and the sensor of the optical system, and carry out a set of at least one camera calibration in order to be able to obtain the different levels of contrast and bind
30ensuite ces niveaux de contraste avec les caractéristiques de la FEP.30these levels of contrast with the characteristics of VET.
De préférence la transformation utilisée ici est un opérateur de Laplace, qui est une fonction omnidirectionnelle. Cette méthode est simple, donc rapide en temps de calculs, et efficace, et la seule décrite en détails ici.Preferably the transformation used here is a Laplace operator, which is an omnidirectional function. This method is simple, therefore fast in computation time, and efficient, and the only one described in detail here.
Cependant l’opérateur de Laplace est sensible aux bruits d’acquisition qui sont inévitables dans les caméras. Aussi, pour négliger l’influence du bruit, on applique avantageusement préalablement un filtrage passe-bas 120, qui permet de lisser l’image obtenue.However, Laplace’s operator is sensitive to acquisition noises that are inevitable in cameras. Also, to neglect the influence of noise, a low-pass filter 120 is advantageously applied beforehand, which makes it possible to smooth the image obtained.
273273
Par souci de clarté, l’image en niveauxFor the sake of clarity, the image in levels
Le filtrage passe-bas est réalisé par application d’un filtre de convolution avec un noyau G, ce qui consiste à calculer la matrice / n résultante de la convolution de chacun des pixels de la matrice grisée Γ(χρ, yp) par le noyau G, soit Tn = conv(jn ,G).The low-pass filtering is carried out by applying a convolution filter with a kernel G, which consists in calculating the matrix / n resulting from the convolution of each of the pixels of the gray matrix Γ (χ ρ , y p ) by the nucleus G, let T n = conv (j n , G).
En l’espèce, le noyau G est un noyau Gaussien.In this case, the nucleus G is a Gaussian nucleus.
| x2+y2 | x 2 + y 2
En l’espèce, on utilise une forme discrète du noyau Gaussien G(x,y) =-e 2σ~In this case, we use a discrete form of the Gaussian nucleus G (x, y) = -e 2σ ~
2πσ2 qui se présente sous la forme de matrice d’une taille prédéfinie, en l’espèce carrée, par exemple une matrice 3*3 ; une matrice 5*5, etc.2πσ 2 which is in the form of a matrix of a predefined size, in this case square, for example a 3 * 3 matrix; a 5 * 5 matrix, etc.
A titre purement illustratif, le noyau G peut se présenter sous la forme discrète :For purely illustrative purposes, the nucleus G can be presented in the discrete form:
7 4 1 '7 4 1 '
26 16 426 16 4
41 26 741 26 7
26 16 426 16 4
7 4 1 de gris ainsi transformée est appelée image7 4 1 of gray thus transformed is called image
15« filtrée ».15 "filtered".
Un exemple d’image filtrée par un filtre passe-bas est illustré sur la figure 2B. On peut voir que l’image filtrée est légèrement floutée. Le niveau de ce flou dépend du filtre, notamment des paramètres de son noyau.An example of an image filtered by a low-pass filter is illustrated in Figure 2B. You can see that the filtered image is slightly blurred. The level of this blur depends on the filter, in particular on the parameters of its kernel.
Après le filtrage passe-bas, la transformation par un opérateur de Laplace est aussi réalisée par une convolution, mais avec un autre noyau, et de préférence sous forme discrète.After the low-pass filtering, the transformation by a Laplace operator is also carried out by a convolution, but with another kernel, and preferably in discrete form.
d21 d21d 2 1 d 2 1
En l’espèce, on utilise le noyau L(x,y) = + —— pour calculer 130 la matrice c σχ oyIn this case, we use the nucleus L (x, y) = + —— to calculate 130 the matrix c σχ oy
25résultante de la convolution de chacun des pixels de la matrice j n de l’image en niveaux de gris par le noyau Laplacien L, soit : cn = conv(i n,L)25resulting from the convolution of each of the pixels of the matrix j n of the gray level image by the Laplacian kernel L, that is: c n = conv (i n , L)
Deux exemples typiques de noyaux Laplaciens discrets et carrés, en l’espèce 3*3, sont les suivants :Two typical examples of discrete and square Laplacian nuclei, in this case 3 * 3, are as follows:
Le choix d’un noyau Laplacien ou d’un d’autre permet d’évaluer le contraste en utilisant les pixels verticaux, horizontaux, ou diagonaux, et de détecter les détails du sujet avec différents niveaux de contrastesThe choice of a Laplacian nucleus or another allows to evaluate the contrast using the vertical, horizontal, or diagonal pixels, and to detect the details of the subject with different levels of contrast
L’image filtrée ainsi transformée est appelée image « de mesure de contraste » et ciaprès « image contrastée » par simplification. Un exemple d’image contrastée est illustré sur la figure 2C.The filtered image thus transformed is called the "contrast measurement" image and below "contrast image" for simplicity. An example of a contrasting image is shown in Figure 2C.
SeuillageThresholding
Après l’étape de détermination de contraste, on prévoit une étape 140 de seuillage qui consiste à comparer la valeur de chaque pixel P de la matrice de l’image contrastée à une valeur seuil Th enregistrée dans une mémoire.After the contrast determination step, a thresholding step 140 is provided, which consists in comparing the value of each pixel P of the matrix of the contrasted image with a threshold value Th recorded in a memory.
La valeur seuil Th peut être prédéterminée. Elle peut être identique pour tous les pixels ou différente pour au moins deux pixels, c'est-à-dire qu’à chaque pixel correspond une valeur seuil Th respective.The threshold value Th can be predetermined. It can be identical for all the pixels or different for at least two pixels, that is to say that each pixel corresponds to a respective threshold value Th.
La valeur seuil Th est choisie de sorte à simuler la valeur de la limite de netteté.The threshold value Th is chosen so as to simulate the value of the sharpness limit.
La comparaison avec la valeur seuil permet d’obtenir un résultat binaire : soit le résultat est positif, soit le résultat est négatif.The comparison with the threshold value makes it possible to obtain a binary result: either the result is positive, or the result is negative.
Si le résultat est positif, c'est-à-dire que la valeur de la matrice de l’image contrastée correspondant à un pixel P donné est supérieure à la valeur seuil, alors on considère que ledit pixel P est suffisamment contrasté et fait partie du sujet.If the result is positive, that is to say that the value of the matrix of the contrasting image corresponding to a given pixel P is greater than the threshold value, then it is considered that said pixel P is sufficiently contrasted and is part from subject.
Inversement, si le résultat est négatif, c'est-à-dire que la valeur de la matrice de l’imageConversely, if the result is negative, that is to say that the value of the matrix of the image
30contrastée correspondant à un pixel P donné est inférieure à la valeur seuil, alors on considère que ledit pixel P est insuffisamment contrasté et fait partie du fond.30 contrast corresponding to a given pixel P is less than the threshold value, then it is considered that said pixel P is insufficiently contrasted and is part of the background.
On peut donc déterminer le degré d’appartenance de pixel P de l’image contrastée au sujet ou au fond.We can therefore determine the degree of pixel belonging P of the contrasting image to the subject or background.
II y a plusieurs options possibles pour l’étape de seuillage.There are several possible options for the thresholding step.
Dans une première variante, la plus simple, on applique une valeur seuil uniforme sur toute l’image contrastée.In a first variant, the simplest one, a uniform threshold value is applied to the entire contrasted image.
L’étape de seuillage permet de transformer la matrice Cn en matrice binaire Bn telle que :The thresholding step makes it possible to transform the matrix C n into a binary matrix B n such that:
Bn = lsi Cn>Th, et Bn = 0 si Cn<Th.B n = l if C n > Th, and B n = 0 if C n <Th.
Par souci de clarté, l’image contrastée ainsi transformée est appelée image « binarisée ». lODes exemples d’images binarisées sont illustrés sur les figures 3A, 3B et 3C.For the sake of clarity, the contrasted image thus transformed is called the "binarized" image. Examples of binarized images are illustrated in Figures 3A, 3B and 3C.
La figure 3A représente l’image contrastée de la figure 2C binarisée selon une première valeur de seuil Thl.FIG. 3A represents the contrasting image of FIG. 2C binarized according to a first threshold value Th1.
La figure 3B représente l’image contrastée de la figure 2C binarisée selon une deuxième valeur de seuil Th2.FIG. 3B represents the contrasting image of FIG. 2C binarized according to a second threshold value Th2.
La figure 3C représente l’image contrastée de la figure 2C binarisée selon une troisième valeur de seuil Th3.FIG. 3C represents the contrasting image of FIG. 2C binarized according to a third threshold value Th3.
La figure 4C représente l’image contrastée de la figure 2C binarisée selon une quatrième valeur de seuil Th4.FIG. 4C represents the contrasting image of FIG. 2C binarized according to a fourth threshold value Th4.
Dans les figures 3A, 3B et 3C, les traits blancs correspondent à Bn = 1 pour lesquels on 25considère que les pixels correspondent au sujet, et les traits noirs correspondent à Bn = 0 pour lesquels on considère que les pixels correspondent au fond.In FIGS. 3A, 3B and 3C, the white lines correspond to B n = 1 for which it is considered that the pixels correspond to the subject, and the black lines correspond to B n = 0 for which it is considered that the pixels correspond to the background.
En l’espèce, Thl < Th2 < Th3. Plus la valeur du seuil Th est élevée, moins le nombre de pixels considérés comme nets dans l’image contrastée est grand.In this case, Thl <Th2 <Th3. The higher the Th threshold value, the lower the number of pixels considered to be sharp in the contrast image.
Dans une deuxième variante, plus sophistiquée, on applique une valeur seuil adaptative, c'est-à-dire que la valeur seuil n’est pas la même pour tous les pixels de l’image. Par exemple, on peut mettre en oeuvre un seuil d’Otsu, comme décrit dans la publication de Nobuyuki Otsu, « Athreshold sélection method from gray-level histograms », IEEE Trans. Sys., Man., Cyber., vol.In a second, more sophisticated variant, an adaptive threshold value is applied, that is to say that the threshold value is not the same for all the pixels of the image. For example, an Otsu threshold can be implemented, as described in the publication by Nobuyuki Otsu, "Athreshold selection method from gray-level histograms", IEEE Trans. Sys., Man., Cyber., Vol.
359, 1979, p. 62-66.359, 1979, p. 62-66.
A partir de l’étape de seuillage, il est possible de déterminer les contours de l’image binarisée, ce qui permet de définir un masque, comprenant des contours.From the thresholding step, it is possible to determine the contours of the binarized image, which makes it possible to define a mask, comprising contours.
Traitement morphologiqueMorphological treatment
La mesure de contraste étant basée sur un gradient, elle est d’autant plus fiable queSince the contrast measurement is based on a gradient, it is all the more reliable than
5l’image initiale présente des zones texturées, c’est-à-dire des zones locales avec un fort gradient, où par « fort » on entend supérieur à une valeur seuil prédéterminée.5the initial image shows textured areas, that is to say local areas with a strong gradient, where by "strong" is meant above a predetermined threshold value.
En effet, il arrive que les zones de l’image initiale présentant des intensités homogènes ou quasi-homogènes, c'est-à-dire un faible gradient, où par « faible» on entend inférieur à une lOvaleur seuil prédéterminée, ne ressortent pas après l’étape de seuillage.Indeed, it happens that the zones of the initial image having homogeneous or quasi-homogeneous intensities, that is to say a weak gradient, where by “weak” one understands lower than a predetermined threshold value, do not emerge after the thresholding step.
Or, on vise à obtenir un masque binaire plein : tout ce qui se situe à l’extérieur du contour du masque est considéré comme le fond, et tout ce qui se situe à l’intérieur du contour du maque est considéré comme le sujet, le contour présentant un fort niveau de contraste.Now, we aim to obtain a full binary mask: everything that is outside the outline of the mask is considered to be the background, and everything that is located inside the outline of the mask is considered to be the subject, the outline having a high level of contrast.
En conséquence, il peut être utile de mettre en œuvre une étape supplémentaire de traitement morphologique, pour remplir 150 les zones situées à l’intérieur des contours du masque de façon homogène.Consequently, it may be useful to implement an additional morphological processing step, to fill 150 the zones situated inside the contours of the mask in a homogeneous manner.
Les détails des opérations de morphologie mathématique utilisées sont classiques et sont bien décrites dans diverses sources bibliographiques sur le traitement d’images, par exemple dans le livre sur la morphologie mathématique [Image analysis and mathematical morphology, by J. Serra. Academie Press, London, 1982],The details of the mathematical morphology operations used are conventional and are well described in various bibliographic sources on image processing, for example in the book on mathematical morphology [Image analysis and mathematical morphology, by J. Serra. Academie Press, London, 1982],
Ainsi, dans un mode de réalisation, l’étape de morphologie mathématique, appliquée à l’image binarisée, comprend au moins l’une des opérations résumées ci-dessous, décrites séquentiellement.Thus, in one embodiment, the step of mathematical morphology, applied to the binarized image, comprises at least one of the operations summarized below, described sequentially.
DilatationDilation
On peut prévoir une opération de dilatation qui consiste à grossir les traits de l’image binarisée, selon un grossissement prédéfini. Cette opération permet de fermer les contours obtenus après l’étape de seuillage.We can foresee a dilation operation which consists in enlarging the features of the binarized image, according to a predefined magnification. This operation closes the contours obtained after the thresholding step.
La figure 4A illustre un exemple d’une opération de dilatation effectuée sur l’imageFigure 4A illustrates an example of a dilation operation performed on the image
35binarisée de la figure 3D.35binarized from Figure 3D.
Il peut être avantageux de mettre en œuvre d’autres opérations de traitement qui visent à assurer que les contours du masque du sujet restent toujours fermés, comme illustré figure 4B, qui illustre le résultat d’une opération de traitement appliqué à la figure 4A.It may be advantageous to implement other processing operations which aim to ensure that the contours of the subject mask always remain closed, as illustrated in FIG. 4B, which illustrates the result of a processing operation applied in FIG. 4A.
Une fois que les contours du masque du sujet restent toujours fermés, on peut ensuite prévoir une opération de remplissage.Once the contours of the subject mask are still closed, we can then provide a filling operation.
RemplissageFilling
On prévoit une opération de remplissage qui consiste à remplir l’intérieur des contours du lOmasque, en l’espèce par une valeur binaire, et en l’espèce par la valeur binaire correspondant au sujet.A filling operation is provided which consists in filling the inside of the contours of the mask, in this case with a binary value, and in this case with the binary value corresponding to the subject.
Par exemple, la figure 4C illustre le résultat d’une opération de remplissage appliquée à la figure 4B.For example, Figure 4C illustrates the result of a filling operation applied to Figure 4B.
A ce stade, la forme globale du sujet est bien détectée par les contours du masque binaire.At this stage, the overall shape of the subject is clearly detected by the contours of the binary mask.
On peut prévoir une autre opération de traitement du masque. Par exemple, la figure 4D 20illustre le résultat d’une telle opération de traitement appliquée au masque de la figure 4C.Another mask processing operation can be provided. For example, FIG. 4D 20 illustrates the result of such a processing operation applied to the mask of FIG. 4C.
La figure 4E illustre le résultat d’une autre opération de traitement appliquée au masque de la figure 4D.FIG. 4E illustrates the result of another processing operation applied to the mask of FIG. 4D.
Le paramétrage du traitement morphologique dépend de la résolution de l’image initiale et de la qualité de contours détectés par le filtrage de Laplace incluant le seuillage. Le paramétrage dépend donc avantageusement de la qualité de l’optique du dispositif optique et de son réglage.The configuration of the morphological processing depends on the resolution of the initial image and the quality of contours detected by Laplace filtering including thresholding. The configuration therefore advantageously depends on the quality of the optics of the optical device and its adjustment.
La séquence d’opérations n’est que l’un des modes de réalisation possibles de traitement morphologique, mais par concision le seul décrit ici.The sequence of operations is only one of the possible embodiments of morphological processing, but for the sake of brevity the only one described here.
En l’espèce après l’opération d’ouverture, on obtient un masque binaire, illustré en figure 4E, qui représente une séparation sujet/fond où en l’espèce les valeurs binaires de la matrice 35du masque comprennent deux valeurs : une valeur binaire qui correspond au fond, en l’espèce en pixels noir, et l’autre valeur binaire qui correspond au sujet, en l’espèce en pixels blanc.In this case after the opening operation, a binary mask is obtained, illustrated in FIG. 4E, which represents a subject / background separation where in this case the binary values of the matrix 35 of the mask include two values: a binary value which corresponds to the background, in this case in black pixels, and the other binary value which corresponds to the subject, in this case in white pixels.
Ce masque-là peut suffire pour certaines applications, car il permet de détourer le sujet du fond à un premier niveau.This mask can be enough for certain applications, because it allows to cut the subject from the background to a first level.
Filtrage des contoursContour filtering
En fonction du sujet, typiquement en fonction du degré de détails du sujet, et de la qualité recherchée, l’application du masque obtenu après l’étape de traitement morphologique à l’image initiale peut aboutir à des résultats plus ou moins satisfaisants.Depending on the subject, typically depending on the degree of detail of the subject, and the quality sought, the application of the mask obtained after the morphological processing step to the initial image can lead to more or less satisfactory results.
Par exemple l’application du masque de la figure 4E à la combinaison de l’image initiale de la figure 2A et un autre fond (en l’espèce une montagne) aboutit au résultat illustré sur la figure 5A, qui en n’apparait pas suffisamment réaliste, le photomontage reste grossier, en particulier au niveau des cheveux dans la région des oreilles.For example, the application of the mask of FIG. 4E to the combination of the initial image of FIG. 2A and another background (in this case a mountain) results in the result illustrated in FIG. 5A, which does not appear therefrom. sufficiently realistic, the photomontage remains coarse, in particular at the level of the hair in the region of the ears.
Pour améliorer encore le résultat, on peut prévoir une étape de filtrage des contours 180, qui permet d’avoir des contours du sujet plus fins et exacts.To further improve the result, it is possible to provide a step of filtering the contours 180, which makes it possible to have more precise and precise contours of the subject.
Pour cette étape, on utilise le masque binaire obtenu à la fin du traitement morphologique (c'est-à-dire une matrice binaire de même taille que celle de l’image initiale) et l’image initialeFor this step, we use the binary mask obtained at the end of the morphological processing (i.e. a binary matrix of the same size as that of the initial image) and the initial image
20grisée.20grey.
Dans un mode de réalisation, la méthode de filtrage des contours consiste à mettre en oeuvre un algorithme de filtrage guidé 190, comme décrit par exemple dans la publication “Guided Image Filtering”, by Kaiming He, Jian Sun, and Xiaoou Tang, in ECCV 2010.In one embodiment, the contour filtering method consists in implementing a guided filtering algorithm 190, as described for example in the publication “Guided Image Filtering”, by Kaiming He, Jian Sun, and Xiaoou Tang, in ECCV 2010.
Ce filtrage permet de renforcer les contours du filtre grâce aux contours de l’image-guide qui sont détectés par des calculs de gradients. La taille du filtre permet de contrôler la taille de la région sur l’image-guide qui est prise en compte pour évaluer l’importance des contours.This filtering makes it possible to reinforce the contours of the filter thanks to the contours of the guide image which are detected by gradient calculations. The size of the filter makes it possible to control the size of the region on the guide image which is taken into account to assess the importance of the contours.
Ce post-traitement permet d’avoir une qualité de contours supérieure à celle du masque binaire simple (obtenu à la fin du traitement morphologique) et le masque obtenu est en niveaux gris et de même taille que le masque binaire initial.This postprocessing makes it possible to have a quality of contours superior to that of the simple binary mask (obtained at the end of the morphological processing) and the mask obtained is in gray levels and of the same size as the initial binary mask.
Par exemple, la figure 6A illustre le résultat d’un algorithme de filtrage guidé sur leFor example, Figure 6A illustrates the result of a filtering algorithm guided on the
35masque de la figure 4E grâce à l’image-guide de la figure 2A. L’image initiale grisée sert d’image guide et permet d’affiner le masque de la figure 4E.35 mask of FIG. 4E thanks to the guide image of FIG. 2A. The initial gray image serves as a guide image and makes it possible to refine the mask of FIG. 4E.
Le masque résultant de l’étape de filtrage guidé n’est plus un masque binaire mais un masque en niveaux de gris.The mask resulting from the guided filtering step is no longer a binary mask but a grayscale mask.
II est clair que le masque résultant de l’étape de filtrage guidé illustré sur la figure 6A est 5beaucoup plus précis et fin que le masque issu de l’étape de traitement morphologique illustré sur la figure 4E.It is clear that the mask resulting from the guided filtering step illustrated in FIG. 6A is 5much more precise and fine than the mask resulting from the morphological processing step illustrated in FIG. 4E.
Ensuite, en appliquant le masque résultant de l’étape de filtrage guidé illustré sur la figure 6A à l’image initiale grisée illustrée sur la figure 2A, on obtient l’image illustrée sur la figure 5B lOqui, en comparaison avec la figure 5A, apparaît beaucoup plus réaliste.Then, by applying the mask resulting from the guided filtering step illustrated in FIG. 6A to the grayed-out initial image illustrated in FIG. 2A, the image illustrated in FIG. 5B is obtained. Which, in comparison with FIG. 5A, appears much more realistic.
Traitement globalOverall treatment
Toutes les étapes et opérations précédemment décrites peuvent être appliquées à chaque 15image individuelle d’une séquence vidéo.All the steps and operations previously described can be applied to each individual frame of a video sequence.
Toutefois, il peut arriver dans ce cas que cela génère des effets de gigue ou jitter par anglicisme, visible sur les bords du sujet, parce que le masque n’est pas exactement le même d’une image individuelle à une autre.However, it can happen in this case that it generates jitter or jitter effects by anglicism, visible on the edges of the subject, because the mask is not exactly the same from one individual image to another.
Filtrage temporelTime filtering
Pour limiter cet effet, on peut prévoir, en plus des étapes précédentes, une étape de filtrage temporel 200, ce qui permet d’obtenir un effet de fluidité à l’observation de la vidéoTo limit this effect, one can provide, in addition to the preceding steps, a time filtering step 200, which makes it possible to obtain a fluidity effect when watching the video.
25traitée.25treated.
A cet effet, on prévoit de sélectionner une « fenêtre », c'est-à-dire un nombre prédéfini d’images individuelles séquentielles de la vidéo. A chaque image individuelle correspond donc un masque respectif, obtenu par traitement morphologique ou par filtrage guidé.For this purpose, provision is made to select a "window", that is to say a predefined number of sequential individual images of the video. Each individual image therefore corresponds to a respective mask, obtained by morphological treatment or by guided filtering.
On peut prévoir que le filtrage temporel comprend au moins l’un des deux niveaux suivants.We can predict that the temporal filtering includes at least one of the following two levels.
Le premier niveau est un filtrage médian appliqué par pixel sur la fenêtre sélectionnée, ce 35qui permet d’éviter les sauts de masques et les valeurs aberrantes d’une image individuelle à une autre.The first level is a median filtering applied by pixel on the selected window, which avoids mask jumps and outliers from one individual image to another.
Le deuxième niveau est un filtrage moyen appliqué par pixel sur la fenêtre sélectionnée, pour ajouter de la fluidité aux résultats de traitement.The second level is an average filtering applied per pixel on the selected window, to add fluidity to the processing results.
Pour le premier ou le deuxième niveau de filtrage, on prend la position (x, y) d’un pixel P 5donné et les valeurs de masques de la même position (x, y) sur un ensemble prédéterminé d’images individuelles voisines.For the first or second level of filtering, we take the position (x, y) of a given pixel P 5 and the mask values of the same position (x, y) on a predetermined set of neighboring individual images.
On notera que le filtrage temporel est appliqué aux masques des images individuelles de la vidéo mais pas aux images individuelles elles-mêmes.It will be noted that the temporal filtering is applied to the masks of the individual images of the video but not to the individual images themselves.
Grâce à cette caractéristique, les valeurs d’intensité de chaque image individuelle, comme les combinaisons de couleurs de chaque image individuelle, ne sont pas modifiées.Thanks to this feature, the intensity values of each individual image, like the color combinations of each individual image, are not changed.
Mise au formatFormat
On prévoit de sélectionner ou extraire 160 le sujet de l’image initiale (grisée ou non) grâce au masque obtenu grâce au traitement morphologique ou au filtrage guidé, pour ensuite mélanger ledit sujet extrait avec une autre image, dite « image de fond ».We plan to select or extract 160 the subject from the initial image (grayed out or not) using the mask obtained thanks to morphological processing or guided filtering, and then mix said extracted subject with another image, called "background image".
L’image de fond peut être quelconque. Elle peut avoir une taille différente de celle de l’image initiale et une résolution différente de celle de l’image initiale. On peut prévoir une étape de mise à l’échelle de l’image de fond.The background image can be arbitrary. It may have a different size from that of the original image and a different resolution from that of the initial image. We can plan a scaling of the background image.
La valeur d’un coefficient, comprise entre 0 et 1, dans la matrice du masque indique leThe value of a coefficient, between 0 and 1, in the mask matrix indicates the
25niveau d’intensité du sujet à réapparaître sur l’image finale.25 intensity level of the subject to reappear on the final image.
Ainsi le mélange peut être réalisé en fonction de la valeur des coefficients de la matrice du masque, comme suit :Thus the mixing can be carried out as a function of the value of the coefficients of the mask matrix, as follows:
pour les coefficients de la matrice du masque dont la valeur est 1, on prend les valeurs d’intensité du sujet de l’image initiale sans modification, ce qui revient à remplacer 170 le fond de l’image initiale par des pixels correspondants de l’image de fond, pour les coefficients de la matrice du masque dont la valeur est 0, on prend les valeurs d’intensité du fond de l’image de fond sans modification, etfor the coefficients of the mask matrix whose value is 1, the intensity values of the subject of the initial image are taken without modification, which amounts to replacing 170 the background of the initial image by corresponding pixels of l background image, for the coefficients of the mask matrix whose value is 0, the intensity values of the background of the background image are taken without modification, and
- pour les coefficients de la matrice du masque dont la valeur est entre 0 et 1, on fait le mélange de l’intensité des pixels considérés avec les coefficients correspondant du masque. Ce qui signifie que l’intensité de l’image finale est composée des valeurs de l’image initiale (celles du sujet) multipliées par les coefficients du masque plus les valeurs de l’image du fond multipliées par les coefficients inverses du masque.- for the coefficients of the mask matrix whose value is between 0 and 1, the intensity of the pixels considered is mixed with the corresponding coefficients of the mask. This means that the intensity of the final image is made up of the values of the initial image (those of the subject) multiplied by the mask coefficients plus the values of the background image multiplied by the inverse mask coefficients.
Par masque inverse, on entend que la matrice dudit masque inverse comprend des 5coefficients complémentaires des coefficients de la matrice du masque obtenu grâce au traitement morphologique ou au filtrage guidé. Par coefficients complémentaires, on entend que la somme d’un coefficient de la matrice du masque obtenu grâce au traitement morphologique ou au filtrage guidé, et du coefficient correspondant de la matrice du masque inverse est égale àl.By reverse mask, it is meant that the matrix of said reverse mask comprises complementary coefficients of the coefficients of the matrix of the mask obtained thanks to the morphological treatment or to the guided filtering. By complementary coefficients, we mean that the sum of a coefficient of the mask matrix obtained thanks to morphological processing or guided filtering, and the corresponding coefficient of the inverse mask matrix is equal to l.
De préférence le mélange du sujet extrait avec le fond de l’image de fond est réalisé par simulation de transparence ou alpha blending par anglicisme.Preferably the mixture of the extracted subject with the background of the background image is carried out by transparency simulation or alpha blending by anglicism.
La présente invention peut être mise en oeuvre en post-traitement, par exemple pour des 15vidéos préenregistrées. Par exemple, le programme de post-traitement est un script Matlab (marque déposée) et la vidéo est en format HD (1920x1088).The present invention can be implemented in post-processing, for example for prerecorded videos. For example, the post-processing program is a Matlab script (registered trademark) and the video is in HD format (1920x1088).
La présente invention peut également être mise en oeuvre en temps réel, par exemple pour une diffusion en mode continu ou streaming par anglicisme.The present invention can also be implemented in real time, for example for streaming or streaming by anglicism.
On peut prévoir une post-analyse supplémentaire différente du traitement morphologique déjà décrit. Cette analyse impose certains a priori, ou critères de sélection, comme par exemple la taille du sujet, sa position sur l’image initiale, sa forme, la quantité de sujets maximale à extraire, etc. qui permet de filtrer l’image initiale en ne laissant sur le masque binaire que lesWe can provide an additional post-analysis different from the morphological treatment already described. This analysis imposes certain a priori, or selection criteria, such as for example the size of the subject, its position on the initial image, its shape, the maximum quantity of subjects to be extracted, etc. which allows you to filter the initial image by leaving only the binary mask on the
25objets correspondant aux critères de sélection et de supprimer tous les autres objets.25objects matching the selection criteria and deleting all other objects.
Distance de sécuritéSafety distance
L’étape de détermination de contraste permet de calculer une matrice dont les valeurs 30correspondent, pour chaque pixel de l’image contrastée, à un degré de netteté ou de contraste de celui-ci.The contrast determination step makes it possible to calculate a matrix whose values 30 correspond, for each pixel of the contrasted image, to a degree of sharpness or of contrast thereof.
On peut estimer le flou de défocalisation, ou niveau de flou, en calculant la fonction d’étalement du point FEP, qui représente, pour un objet réel dans une scène donnée, la 35variation de la taille ε en pixels dudit objet dans une image de ladite scène en fonction de la distance entre ledit objet et l’objectif ayant permis de réaliser l’image.We can estimate the defocus blur, or blur level, by calculating the spreading function of the FEP point, which represents, for a real object in a given scene, the variation of the size ε in pixels of said object in an image of said scene as a function of the distance between said object and the objective which made it possible to produce the image.
Autrement dit, plus un objet est situé loin du plan de mise au point, plus sa FEP est grande, donc plus la représentation de cet objet dans l’image est floue.In other words, the further an object is located from the focus plane, the higher its FEP, so the more blurred the representation of this object in the image.
Il y a toutefois une distance limite à dépasser pour considérer qu’un objet derrière ou 5devant le sujet (placé au plan de mise au point) soit flou. Il existe donc une zone de netteté ZN, ou profondeur de champ, dans laquelle est compris le plan de mise au point.There is however a limit distance to be exceeded to consider that an object behind or 5 in front of the subject (placed in the focus plane) is blurred. There is therefore a zone of sharpness ZN, or depth of field, in which the focus plane is included.
On peut donc définir une profondeur, appelée distance de sécurité DS, de préférence inférieure ou égale à la profondeur de champ, calculée depuis le plan de mise au point vers 101’arrière du sujet, et telle que tous les objets positionnés en dehors de cette distance de sécuritéWe can therefore define a depth, called DS safety distance, preferably less than or equal to the depth of field, calculated from the focusing plane towards the rear of the subject, and such that all objects positioned outside this safety distance
DS sont considérés comme suffisamment flous et seront supprimés dans l’image finale.DS are considered sufficiently blurred and will be removed from the final image.
Plus la distance de sécurité DS est grande, plus le risque que des objets parasites, c'està-dire n’ayant par exemple pas d’intérêt par rapport au sujet, soient compris dans l’image finaleThe greater the DS safety distance, the greater the risk that parasitic objects, that is to say, having no interest in the subject, for example, will be included in the final image.
15est grand.15 is great.
Pour diminuer la distance de sécurité DS, ce qui revient à avoir une forte pente de FEP on peut modifier les caractéristiques du dispositif optique (ouverture, qualité optique, meilleure mise au point, taille des pixels, etc). Typiquement, plus la distance du sujet (en référence au 20dispositif de prise de vue) et la distance de sécurité sont courtes, plus la focale de l’objectif du dispositif de prise de vue doit être petite et inversement, ce qui amène, pour les courtes distances, à des systèmes optiques particuliers et complexes.To reduce the DS safety distance, which amounts to having a steep FEP slope, the characteristics of the optical device can be modified (aperture, optical quality, better focusing, pixel size, etc.). Typically, the shorter the distance from the subject (with reference to the shooting device) and the safety distance, the shorter the focal length of the lens of the shooting device and vice versa, which leads to short distances, to specific and complex optical systems.
Optimisation optiqueOptical optimization
Un dispositif optique, typiquement une caméra ou un appareil photo (y compris d’un objet communicant, et notamment tout téléphone intelligent, tablette, etc), comprend un objectif optique et un capteur. Généralement, le dispositif optique comprend également une mémoire pour stocker les prises de vues, et un calculateur.An optical device, typically a camera or camera (including a communicating object, and in particular any smart phone, tablet, etc.), comprises an optical lens and a sensor. Generally, the optical device also includes a memory for storing the shots, and a computer.
Il est possible de mettre en oeuvre la présente invention soit en local sur le dispositif optique, soit à distance sur une machine distante vers laquelle sont envoyées la ou les images initiales, ladite machine comprenant une mémoire pour stocker les images initiales, et un calculateur.It is possible to implement the present invention either locally on the optical device, or remotely on a remote machine to which the initial image or images are sent, said machine comprising a memory for storing the initial images, and a computer.
Le capteur du dispositif optique est disposé de préférence dans le plan focal. La position relative du sujet et du dispositif optique est telle que le sujet est positionné dans la profondeur de champ ZN de l’objectif optique. Par exemple, la mise au point de l’objectif optique est faite sur le sujet.The sensor of the optical device is preferably arranged in the focal plane. The relative position of the subject and the optical device is such that the subject is positioned in the depth of field ZN of the optical objective. For example, the optical lens is focused on the subject.
On peut définir par :We can define by:
- ZN_AV la zone de netteté avant, c'est-à-dire l’espace de la zone de netteté en avant du sujet (supposé ponctuel et placé au plan de mise au point), et ZN_AR la zone de netteté arrière, c'est-à-dire l’espace de la zone de netteté en arrière du sujet (supposé ponctuel et placé au plan de mise au point).- ZN_AV the zone of sharpness before, that is to say the space of the zone of sharpness in front of the subject (supposed punctual and placed in the plane of focusing), and ZN_AR the zone of rear sharpness, it that is to say the space of the zone of sharpness behind the subject (assumed to be punctual and placed in the focus plane).
De préférence, on choisit une distance de sécurité DS telle que DS < ZN_AR.Preferably, a safety distance DS is chosen such that DS <ZN_AR.
Pour un sujet d’épaisseur EP (ou profondeur selon l’axe optique de l’objectif optique), on choisit de préférence, on choisit de préférence une distance de sécurité DS telle que ZN_AR > DS > EP. En effet, tout élément de la scène compris dans la distance de sécurité est considéréFor a subject of thickness EP (or depth along the optical axis of the optical objective), we preferably choose, we preferably choose a safety distance DS such as ZN_AR> DS> EP. Indeed, any element of the scene included in the safety distance is considered
15comme appartenant au sujet.15as belonging to the subject.
De préférence on prévoit une distance de sécurité DS_AV en avant du sujet et une distance de sécurité DS_AR en arrière du sujet, la distance de sécurité DS_AV en avant du sujet pouvant être de valeur différente de la distance de sécurité DS_AR en arrière du sujet.Preferably a safety distance DS_AV is provided in front of the subject and a safety distance DS_AR behind the subject, the safety distance DS_AV in front of the subject being able to be of value different from the safety distance DS_AR behind the subject.
De préférence, on prévoit de configurer le dispositif optique de sorte que le gradient de flou selon l’axe optique soit supérieur à une valeur seuil prédéterminée.Preferably, provision is made to configure the optical device so that the blurring gradient along the optical axis is greater than a predetermined threshold value.
La présente invention n’est pas limitée aux modes de réalisation précédemment décrits.The present invention is not limited to the embodiments previously described.
Claims (10)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1662467A FR3060180A1 (en) | 2016-12-14 | 2016-12-14 | DIGITAL IMAGE PROCESSING METHOD |
PCT/FR2017/053534 WO2018109372A1 (en) | 2016-12-14 | 2017-12-13 | Method for digital image processing |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1662467A FR3060180A1 (en) | 2016-12-14 | 2016-12-14 | DIGITAL IMAGE PROCESSING METHOD |
FR1662467 | 2016-12-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3060180A1 true FR3060180A1 (en) | 2018-06-15 |
Family
ID=58010053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1662467A Withdrawn FR3060180A1 (en) | 2016-12-14 | 2016-12-14 | DIGITAL IMAGE PROCESSING METHOD |
Country Status (2)
Country | Link |
---|---|
FR (1) | FR3060180A1 (en) |
WO (1) | WO2018109372A1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111275139B (en) * | 2020-01-21 | 2024-02-23 | 杭州大拿科技股份有限公司 | Handwritten content removal method, handwritten content removal device, and storage medium |
CN111583365B (en) * | 2020-04-24 | 2023-09-19 | 完美世界(北京)软件科技发展有限公司 | Processing method and device for animation element display, storage medium and terminal |
CN112634155B (en) * | 2020-12-22 | 2024-03-22 | 北京达佳互联信息技术有限公司 | Image processing method, device, electronic equipment and storage medium |
CN113139953B (en) * | 2021-05-10 | 2022-11-04 | 宁波永新光学股份有限公司 | Method for detecting and identifying particle pollutants in image and computer readable storage medium |
CN115601232B (en) * | 2022-12-14 | 2023-03-10 | 华东交通大学 | Color image decoloring method and system based on singular value decomposition |
-
2016
- 2016-12-14 FR FR1662467A patent/FR3060180A1/en not_active Withdrawn
-
2017
- 2017-12-13 WO PCT/FR2017/053534 patent/WO2018109372A1/en active Application Filing
Non-Patent Citations (4)
Title |
---|
HONGLIANG LI ET AL: "Unsupervized Video Segmentation With Low Depth of Field", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 17, no. 12, 1 December 2007 (2007-12-01), pages 1742 - 1751, XP011195136, ISSN: 1051-8215, DOI: 10.1109/TCSVT.2007.903326 * |
RASHMI ET AL: "Algorithm and Technique on Various Edge Detection : A Survey", SIGNAL AND IMAGE PROCESSING: AN INTERNATIONAL JOURNAL, vol. 4, no. 3, 30 June 2013 (2013-06-30), IN, pages 65 - 75, XP055373481, ISSN: 2229-3922, DOI: 10.5121/sipij.2013.4306 * |
SAID PERTUZ ET AL: "Analysis of focus measure operators for shape-from-focus", PATTERN RECOGNITION, vol. 46, no. 5, 1 May 2013 (2013-05-01), pages 1415 - 1432, XP055173399, ISSN: 0031-3203, DOI: 10.1016/j.patcog.2012.11.011 * |
TSAI D-M ET AL: "Segmenting focused objects in complex visual images", PATTERN RECOGNITION LETTERS, ELSEVIER, AMSTERDAM, NL, vol. 19, no. 10, 1 August 1998 (1998-08-01), pages 929 - 940, XP004148120, ISSN: 0167-8655, DOI: 10.1016/S0167-8655(98)00078-6 * |
Also Published As
Publication number | Publication date |
---|---|
WO2018109372A1 (en) | 2018-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018109372A1 (en) | Method for digital image processing | |
KR102172234B1 (en) | Image processing method and apparatus, and electronic device | |
EP2457379B1 (en) | Method for estimating a defect in an image capture system and associated systems | |
EP2174289B1 (en) | Method for processing a digital object and related system | |
JP2022509034A (en) | Bright spot removal using a neural network | |
US8472744B2 (en) | Device and method for estimating whether an image is blurred | |
EP2465255B1 (en) | Image-capture system and method with two operating modes | |
CN113170030A (en) | Correction of photographic underexposure using neural networks | |
CA2834883A1 (en) | Method of controlling an action, such as a sharpness modification, using a colour digital image | |
KR102049080B1 (en) | Image processing apparatus and method thereof | |
EP2930659A1 (en) | Method for detecting points of interest in a digital image | |
EP1673728B1 (en) | Method and system for differentially and regularly modifying a digital image by pixel | |
EP2011329B1 (en) | Method of processing a relative illumination phenomenon on a digital image and associated processing system | |
Cao et al. | Digital multi-focusing from a single photograph taken with an uncalibrated conventional camera | |
EP0961227A1 (en) | Method of detecting the relative depth between two objects in a scene from a pair of images taken at different views | |
CA2965323C (en) | Method for detecting defective pixels. | |
WO2019166720A1 (en) | Dynamic detection of stray light in a digital image | |
Schedl et al. | Coded exposure HDR light‐field video recording | |
Cao et al. | Single image multi-focusing based on local blur estimation | |
Takeuchi et al. | Low-light scene color imaging based on luminance estimation from near-infrared flash image | |
EP4150574B1 (en) | Method for processing images | |
WO2018083099A1 (en) | Method for displaying a mixed reality image | |
WO2024194544A1 (en) | Method for processing a raw image, and associated computer program product and processing device | |
FR3123734A1 (en) | Pixel data processing method, device and corresponding program | |
Heo et al. | Dual exposure fusion with entropy-based residual filtering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20180615 |
|
ST | Notification of lapse |
Effective date: 20190906 |