FR3113432A1 - AUTOMATIC IMAGE CLASSIFICATION PROCESS - Google Patents

AUTOMATIC IMAGE CLASSIFICATION PROCESS Download PDF

Info

Publication number
FR3113432A1
FR3113432A1 FR2008459A FR2008459A FR3113432A1 FR 3113432 A1 FR3113432 A1 FR 3113432A1 FR 2008459 A FR2008459 A FR 2008459A FR 2008459 A FR2008459 A FR 2008459A FR 3113432 A1 FR3113432 A1 FR 3113432A1
Authority
FR
France
Prior art keywords
image
points
complexity
polygons
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2008459A
Other languages
French (fr)
Other versions
FR3113432B1 (en
Inventor
Thibault Autheman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to FR2008459A priority Critical patent/FR3113432B1/en
Publication of FR3113432A1 publication Critical patent/FR3113432A1/en
Application granted granted Critical
Publication of FR3113432B1 publication Critical patent/FR3113432B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

Procédé de reconnaissance automatique d’image, permettant une classification d’image, le procédé comprenant : une première étape de lecture de l’image par un curseur de lecture venant recouvrir n points de l’image ; une mesure de l’intensité et du niveau gris pour chacun des n points ; une mesure de l’intensité pour chacune des trois couleurs rouge, vert, bleu en chacun des n points, la somme des valeurs obtenues pour l’ensemble des n points étant comparée à une valeur seuil, la lecture de l’image formant quatre images matricielles ; une identification des polygones fermés avec côtés non sécants ; une détermination de la valeur d’une fonction propositionnelle A, par une évaluation de la proportion P de polygones présentant des côtés rectilignes, l’image étant classée comme représentant un paysage naturel si la proportion P est inférieure à une valeur seuil, pour chacune des trois images matricielles en niveau de gris, en couleur verte, et en couleur rouge.Automatic image recognition method, allowing image classification, the method comprising: a first step of reading the image by a reading cursor covering n points of the image; a measurement of intensity and gray level for each of the n points; a measurement of the intensity for each of the three colors red, green, blue at each of the n points, the sum of the values obtained for all of the n points being compared with a threshold value, the reading of the image forming four images matrix; an identification of closed polygons with non-intersecting sides; a determination of the value of a propositional function A, by an evaluation of the proportion P of polygons having straight sides, the image being classified as representing a natural landscape if the proportion P is less than a threshold value, for each of the three raster images in gray level, in green color, and in red color.

Description

PROCEDE DE CLASSIFICATION AUTOMATIQUE D’IMAGESAUTOMATIC IMAGE CLASSIFICATION PROCESS

L’invention a trait à la reconnaissance automatique d’images, permettant une classification des images.The invention relates to automatic image recognition, allowing image classification.

Par « image » on désigne ici la reproduction d’une partie de l’univers à un instant donné, cette reproduction prenant la forme d’une photographie ou d’un extrait vidéo.By “image” we designate here the reproduction of a part of the universe at a given moment, this reproduction taking the form of a photograph or a video extract.

Une image se présente par exemple sous la forme d’un fichier numérique au format GIF, JPEG, TGA, PNG.An image is presented for example in the form of a digital file in GIF, JPEG, TGA, PNG format.

Par «reconnaissance automatique d’images», on désigne ici un système automatique permettant de classer les images par type, notamment image prise en extérieur ou en intérieur, image comprenant une présence humaine ou non, image représentant un milieu urbain ou image représentant un paysage naturel.By " automatic image recognition " is meant here an automatic system making it possible to classify images by type, in particular an image taken outdoors or indoors, an image including a human presence or not, an image representing an urban environment or an image representing a landscape natural.

L’invention est applicable aux images numériques multi-spectrales dont chaque pixel comporte plusieurs composantes à différentes longueurs d’onde. L’invention est notamment applicable à des images à trois composantes RGB.The invention is applicable to multi-spectral digital images in which each pixel comprises several components at different wavelengths. The invention is particularly applicable to images with three RGB components.

Etat de la techniqueState of the art

La classification d’images est réalisée dans l’état de la technique par un traitement en quatre étapes.The image classification is carried out in the state of the art by a four-step processing.

Considérant l’image comme une collection de régions d’intérêts, généralement de taille faible par rapport à la taille de l’image, ces régions sont détectées, dans une première étape, par extraction de primitives.Considering the image as a collection of regions of interest, generally of small size compared to the size of the image, these regions are detected, in a first step, by extraction of primitives.

Ces régions sont ensuite transformées en vecteurs représentant les caractéristiques de l’image, comme par exemple des contours et/ou des orientations, par une deuxième étape de description des primitives.These regions are then transformed into vectors representing the characteristics of the image, such as for example contours and/or orientations, by a second stage of description of the primitives.

Une troisième étape vise à construire une représentation d’images à partir de descripteurs générés lors de la deuxième étape.A third step aims to build an image representation from descriptors generated during the second step.

La quatrième étape est la prédiction de la présence ou non d’objets dans une image, en utilisant une des méthodes de classification supervisée. La détection d’objet dans l’image permet de classer l’image dans une catégorie, par exemple image comprenant une présence humaine ou non, image urbaine ou paysage.The fourth step is the prediction of the presence or absence of objects in an image, using one of the supervised classification methods. Object detection in the image makes it possible to classify the image in a category, for example image including a human presence or not, urban image or landscape.

Différentes techniques ont été mises en œuvre, pour chacune de ces quatre étapes.Different techniques have been implemented for each of these four steps.

La première étape d’extraction des primitives peut être effectuée en considérant l’image entière, par extraction dense, tous les pixels de l’image étant traités. Un exemple d’extraction dense est présenté parJurie et al, 10th International Conf erence on Computer Vision IEEE Computer Society, 1, pp.604- 610, 2005. Cette approche nécessite des ressources en temps et mémoire très importantes, une part du temps de calcul étant passée à traiter des régions peu informatives.The first step of extracting the primitives can be carried out by considering the entire image, by dense extraction, all the pixels of the image being processed. An example of dense extraction is presented by Jurie et al, 10th International Conf erence on Computer Vision IEEE Computer Society, 1, pp.604-610 , 2005 . This approach requires very significant time and memory resources, part of the computation time being spent processing regions that are not very informative.

Dans d’autres techniques de l’art antérieur, l’extraction des primitives est effectuée par détection des régions d’intérêt, plusieurs familles de détecteurs de points d’intérêt ayant été proposées : détecteurs de contours, détecteurs de blobs, détecteurs de régions, détecteurs de salliance.In other techniques of the prior art, the extraction of the primitives is carried out by detection of the regions of interest, several families of detectors of points of interest having been proposed: detectors of contours, detectors of blobs, detectors of regions , salliance detectors.

Les détecteurs de contours détectent les points qui correspondent à un changement brutal de l’intensité lumineuse. Des exemples de détecteurs de contour sont les détecteurs de Harris et leurs variantes Harris-Laplace, Harris-affine. Les points d’intérêt sont extraits le long des contours en ne prenant en compte que les points de courbure maximale ainsi que les intersections de contours.Edge detectors detect points that correspond to a sudden change in light intensity. Examples of contour detectors are Harris detectors and their variants Harris-Laplace, Harris-affine. The points of interest are extracted along the contours taking into account only the points of maximum curvature as well as the intersections of contours.

Les détecteurs de blobs détectent les régions qui diffèrent dans leurs propriétés comme la couleur, la luminosité. Un exemple de détecteur de blob est le détecteur de Hessian et ses variantes Hessian-Laplace, Hessian-affine. Un blob est en général défini comme une région de l’image qui est plus claire ou plus sombre que son environnement. Les points appartenant à ces régions sont désignés comme points-selles ou points-cols.Blob detectors detect regions that differ in their properties like color, brightness. An example of a blob detector is the Hessian detector and its Hessian-Laplace, Hessian-affine variants. A blob is generally defined as a region of the image that is brighter or darker than its surroundings. The points belonging to these regions are designated as saddle-points or col-points.

Les détecteurs de régions sont basés sur les méthodes de segmentation. Un exemple de détecteur de région est le MSER (Maximally Stable Extremal Regions). Une mise en œuvre est présentée parLee et al, Performance evaluation of local descriptors for maximally stable extremal regions, Journal of Visual Communi cation and Image Representation, Aug. 2017, vol.47, pp. 62-72.Region detectors are based on segmentation methods. An example of a region detector is the MSER ( Maximally Stable Extremal Regions ). An implementation is presented by Lee et al, Performance evaluation of local descriptors for maximally stable extremal regions, Journal of Visual Communication and Image Representation, Aug. 2017, vol.47, p. 62-72 .

Les détecteurs de saillance détectent les régions les plus informatives par rapport à l’attention humaine. Un exemple est le détecteur issu des travaux de Laurent Itti. L’intensité et la couleur, ainsi que l’orientation des contours sont souvent considérés comme les caractéristiques visuelles les plus pertinentes pour l’attention humaine. Le repérage des régions pertinentes dans l’image, pour l’attention humaine, permet de réduire la complexité de calcul.Salience detectors detect the most informative regions with respect to human attention. An example is the detector resulting from the work of Laurent Itti. Intensity and color, as well as edge orientation, are often considered the most relevant visual characteristics for human attention. The identification of relevant regions in the image, for human attention, makes it possible to reduce the computational complexity.

La deuxième étape de description des primitives peut mettre en œuvre des descripteurs différentiels, des descripteurs basés sur les distributions, des descripteurs de texture.The second stage of description of the primitives can implement differential descriptors, descriptors based on distributions, texture descriptors.

Les descripteurs différentiels se basent sur le calcul des dérivés d’ordre n pour approximer le voisinage des points d’intérêt. Un exemple de descripteur différentiel a été proposé parFreeman et al, The design and use of steerable filters, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol 13, N°9, 1991.The differential descriptors are based on the calculation of derivatives of order n to approximate the neighborhood of the points of interest. An example of a differential descriptor has been proposed by Freeman et al, The design and use of steerable filters, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol 13, N°9, 1991 .

Les descripteurs basés sur les distributions utilisent des histogrammes pour représenter les caractéristiques d’apparence ou de forme d’une région locale de l’image. L’histogramme décrit par exemple la distribution des intensités de pixels. Des exemples de tels descripteurs sont le SIFT (Scale Invariant Feature Transform), le SURF, utilisant les ondelettes de Haar, le HOG (Hi stogram of Oriented Gradient). Un exemple de mise en œuvre des descripteurs SIFT, SURF, et HOG est présenté dans le document WO 2019106095 (Yellow Line). On peut se référer également aux documents EP1850270 (Toyota), US6711293 (Univ British Col).Distribution-based descriptors use histograms to represent appearance or shape characteristics of a local region of the image. The histogram describes for example the distribution of pixel intensities. Examples of such descriptors are SIFT ( Scale Invariant Feature Transform ), SURF, using Haar wavelets, HOG ( Histogram of Oriented Gradient ). An example of implementation of the SIFT, SURF, and HOG descriptors is presented in the document WO 2019106095 (Yellow Line). Reference may also be made to documents EP1850270 (Toyota), US6711293 (Univ British Col).

Les descripteurs de texture cherchent à caractériser la texture d’une image, par exemple texture structurelle, détectant la répétition de motifs élémentaires, ou texture aléatoire présentant un aspect désordonné tout en apparaissant globalement homogène.Texture descriptors seek to characterize the texture of an image, for example structural texture, detecting the repetition of elementary patterns, or random texture presenting a disordered aspect while appearing globally homogeneous.

La description de la texture peut être effectuée par exemple par une approche statistique, utilisant une matrice de co-occurence ou d’auto corrélation. Cette approche est couteuse en temps et en mémoire.The description of the texture can be performed for example by a statistical approach, using a co-occurrence or auto-correlation matrix. This approach is expensive in time and memory.

La description de la texture peut être effectuée par un modèle auto-régressif ou un modèle de Markov. La matrice d’autocorrélation est calculée, pour une mesure des variations locales de l’image aux points anguleux de l’image, points aux voisinages desquels l’image varie significativement dans plusieurs directions. Cette approche est couteuse en temps de calcul.The description of the texture can be carried out by an auto-regressive model or a Markov model. The autocorrelation matrix is calculated, for a measurement of the local variations of the image at the corner points of the image, points in the vicinity of which the image varies significantly in several directions. This approach is computationally expensive.

La description de la texture peut être effectuée par une approche fréquentielle. Les méthodes les plus utilisées sont basées sur les transformées de Fourier ou de Gabor. Les descripteurs construits à partie de la transformée de Fourier sont issus d’images en niveaux de gris ou d’images couleur, traitées plan par plan. Le document US7353224 (HP) décrit l’utilisation de descripteurs obtenus par transformée de Fourier-Mellin, pour l’identification d’images similaires dans une base de données. Le document FR2790571 (France Telecom) décrit l’utilisation de descripteurs DF de Fourier-Mellin pour l’identification de formes dans une image, une comparaison des descripteurs DF avec des descripteurs de référence étant effectuée après une étape d’apprentissage des descripteurs de référence, à l’aide d’un réseau de neurones.The description of the texture can be carried out by a frequency approach. The most widely used methods are based on Fourier or Gabor transforms. The descriptors built from the Fourier transform come from images in gray levels or color images, processed plane by plane. The document US7353224 (HP) describes the use of descriptors obtained by Fourier-Mellin transform, for the identification of similar images in a database. The document FR2790571 (France Telecom) describes the use of Fourier-Mellin DF descriptors for the identification of shapes in an image, a comparison of the DF descriptors with reference descriptors being carried out after a step of learning the reference descriptors , using a neural network.

La troisième étape vise à construire une représentation d’images à partir de descripteurs générés lors de la deuxième étape.The third step aims to build an image representation from descriptors generated during the second step.

L’image peut être représentée par un histogramme global, par exemple histogramme de couleurs, histogramme de textures.The image can be represented by a global histogram, for example color histogram, texture histogram.

L’image peut être représentée par un histogramme de valeurs statistiques calculées à partir des descripteurs locaux extraits de l’image, par exemple par sac de mot visuels.The image can be represented by a histogram of statistical values calculated from the local descriptors extracted from the image, for example by bag of visual words.

Le sac de mot visuel comprend une construction du vocabulaire visuel, les descripteurs étant extraits d’une base d’image et ensuite clustérisés par une méthode de classification non supervisée, telle que k-moyenne, ou GMM. Le sac de mot visuel comprend ensuite une construction des histogrammes de codage (Vector CodingVQ, ouLocality-constrained Linear C odingLLC). Une variante d’algorithme LLC est présentée parWang et al, A Dual Lo calit y-Constrained Linear Coding Algo rithm for Image Classification, IEEE. 6:19247-19254 2018. The visual word bag comprises a construction of the visual vocabulary, the descriptors being extracted from an image database and then clustered by an unsupervised classification method, such as k-means, or GMM. The visual word bag then includes a construction of the coding histograms ( Vector Coding VQ, or Locality-constrained Linear C oding LLC). A variant of LLC algorithm is presented by Wang et al, A Dual Locality - Constrained Linear Coding Algorithm for Image Classification, IEEE. 6:19247-19254 2018.

La quatrième étape est la prédiction de la présence ou non d’objets dans une image, en utilisant une des méthodes de classification supervisée, notamment classifieur de Bayes ou machine à vecteur support. Le document US7840059 (Microsoft) décrit un procédé de reconnaissance d’objet dans une image utilisant un dictionnaire de textons.The fourth step is the prediction of the presence or absence of objects in an image, using one of the supervised classification methods, in particular Bayes classifier or support vector machine. The document US7840059 (Microsoft) describes a method for recognizing an object in an image using a dictionary of textons.

Le document FR3072806 (CEA) décrit un procédé de calcul d’un descripteur global d’une image. Le descripteur global comprend un descripteur local associé à chaque pixel, un voisinage étant défini pour chaque pixel associé au descripteur local, une étiquette étant attribuée à chaque pixel du voisinage, deux pixels de valeurs différentes ayant deux étiquettes différentes, deux pixels de valeurs identiques ayant la même étiquette, l’ensemble des étiquettes du voisinage formant un motif, la valeur du descripteur local étant affectée à un représentant d’une classe d’équivalence à laquelle appartient le motif.Document FR3072806 (CEA) describes a method for calculating a global descriptor of an image. The global descriptor comprises a local descriptor associated with each pixel, a neighborhood being defined for each pixel associated with the local descriptor, a label being assigned to each pixel of the neighborhood, two pixels of different values having two different labels, two pixels of identical values having the same label, the set of labels in the neighborhood forming a pattern, the value of the local descriptor being assigned to a representative of an equivalence class to which the pattern belongs.

Le document FR3009635 (STMicro) décrit un procédé de recherche d’une image similaire dans une banque d’images à partir d’une image de référence.The document FR3009635 (STMicro) describes a method for searching for a similar image in an image bank from a reference image.

Objet de l’inventionObject of the invention

Les approches mises en œuvre dans l’art antérieur pour la classification d’images nécessitent des ressources en temps et mémoire très importantes.The approaches implemented in the prior art for image classification require very large time and memory resources.

Les approches par réseaux de neurone nécessitent de disposer d’une banque d’images annotées, images dont la classe à prédire est connue, pour l’apprentissage.Neural network approaches require a bank of annotated images, images whose class to be predicted is known, for learning.

Si l’utilisation de grandes ressources mémoire et d’un temps de calcul élevé sont acceptables pour les secteurs de recherche (par exemple la vision artificielle), les applications de sécurité (images satellites, biométrie), les applications médicales, ou la construction de moteurs de recherche d’images sur internet, il n’en va pas de même des usages privés, domestiques ou personnels.If the use of large memory resources and a high calculation time are acceptable for research sectors (for example artificial vision), security applications (satellite images, biometrics), medical applications, or the construction of image search engines on the Internet, the same does not apply to private, domestic or personal use.

Or, le développement des terminaux mobiles de communication a transformé chaque utilisateur en photographe, au quotidien. Il est estimé que le nombre de smartphones actifs est de plus de 7 milliards, et qu’environ 50 smartphones sont vendus chaque seconde dans le monde. Chaque année, plus d’un milliard de photos sont prises par les utilisateurs de smartphones, mais également de tablettes ou d’appareils photos numériques. Une carte mémoire peut contenir plusieurs dizaines de milliers de photos et il n’est pas rare qu’un utilisateur d’ordinateur personnel stocke plus d’une centaine de milliers de photos sur différents supports. Sauf à nommer, voire indexer les images au fur et à mesure, il est fréquent qu’un utilisateur ne parvienne pas à retrouver une image dans la masse de données enregistrées.However, the development of mobile communication terminals has transformed each user into a photographer, on a daily basis. It is estimated that the number of active smartphones is more than 7 billion, and about 50 smartphones are sold every second in the world. Every year, more than a billion photos are taken by users of smartphones, but also tablets or digital cameras. A memory card can contain several tens of thousands of photos and it is not uncommon for a personal computer user to store more than a hundred thousand photos on different media. Except for naming, or even indexing the images as they go along, it is common for a user not to be able to find an image in the mass of recorded data.

L’invention vise à fournir un procédé de reconnaissance automatique d’images, permettant une classification des images, sans avoir recours à la comparaison extensive de l’image avec une base de données conséquente.The invention aims to provide an automatic image recognition process, allowing image classification, without resorting to extensive comparison of the image with a large database.

L’invention vise à fournir un procédé de reconnaissance automatique d’images pouvant être exécuté par un ordinateur de bureau, ou un terminal de communication mobile, tel que smartphone ou tablette.The invention aims to provide an automatic image recognition method that can be executed by a desktop computer, or a mobile communication terminal, such as a smartphone or tablet.

A ces fins, il est proposé, selon un premier aspect, à un procédé de reconnaissance automatique d’image, permettant une classification de l’image, le procédé comprenant une première étape de lecture de l’image par un curseur de lecture représenté par une grille matricielle venant recouvrirnpoints de l’image, le procédé comprenant une mesure de l’intensité et du niveau gris pour chacun desnpoints de l’image, et une mesure de l’intensité pour chacune des trois couleurs rouge, vert, bleu en chacun desnpoints de l’image, la somme des valeurs obtenues pour l’ensemble desnpoints étant comparée à une valeur seuil, la lecture de l’image formant quatre images matricielles, une en niveau de gris, une pour chacune des trois couleurs rouge, vert, bleu, le procédé comprenant une deuxième étape d’identification des polygones fermés avec côtés non sécants, le procédé comprenant, pour chacune des trois images matricielles en niveau de gris, en couleur verte, et en couleur rouge, une étape de détermination de la valeur d’une fonction propositionnelleA, la fonction propositionnelleAétant vraie lorsque l’image décrit un paysage urbain, la détermination des valeurs de cette fonction étant effectuée par une évaluation de la proportion de polygones présentant des côtés rectilignes pour chacune des trois images matricielles en niveau de gris, en couleur verte, et en couleur rouge, l’image étant classée comme représentant un paysage naturel si la proportionPde polygones présentant des côtés rectilignes est inférieure à une valeur seuil, pour chacune des trois images matricielles en niveau de gris, en couleur verte, et en couleur rouge.For these purposes, it is proposed, according to a first aspect, to an automatic image recognition method, allowing classification of the image, the method comprising a first step of reading the image by a reading cursor represented by a matrix grid covering n points of the image, the method comprising a measurement of the intensity and of the gray level for each of the n points of the image, and a measurement of the intensity for each of the three colors red, green , blue at each of the n points of the image, the sum of the values obtained for all of the n points being compared with a threshold value, the reading of the image forming four raster images, one in gray level, one for each of the three colors red, green, blue, the method comprising a second step of identifying the closed polygons with non-intersecting sides, the method comprising, for each of the three raster images in gray level, in green color, and in red color , a step of d determination of the value of a propositional function A , the propositional function A being true when the image describes an urban landscape, the determination of the values of this function being carried out by an evaluation of the proportion of polygons having straight sides for each of the three raster images in gray level, in green color, and in red color, the image being classified as representing a natural landscape if the proportion P of polygons having straight sides is less than a threshold value, for each of the three raster images in grayscale, in green color, and in red color.

Dans une mise en œuvre avantageuse, la valeur seuil de polygones présentant des côtés rectilignes est de l’ordre de 30%.In an advantageous implementation, the threshold value of polygons having straight sides is of the order of 30%.

Le procédé comprend avantageusement une étape de détermination de la surface et de la position du centroïde du plus grand polygone dans l’image matricielle en couleur bleue.The method advantageously comprises a step of determining the area and the position of the centroid of the largest polygon in the raster image in blue color.

Le procédé comprend avantageusement une étape de calcul de la complexité de l’image, la complexité de l’image étant calculée en fonction du nombre de polygones détectés dans l’image, en utilisant la relation :The method advantageously comprises a step of calculating the complexity of the image, the complexity of the image being calculated as a function of the number of polygons detected in the image, using the relationship:

Pi étant la probabilité associée à l’apparition d’une configuration de vertex ou de côtés de polygone, le procédé comprenant une étape de comparaison de la valeur de complexité de l’image à une valeur de complexité seuil.Pi being the probability associated with the occurrence of a configuration of vertices or polygon sides, the method comprising a step of comparing the complexity value of the image with a threshold complexity value.

Avantageusement, le calcul de la complexité de l’image est effectué avant l’évaluation de la proportion de polygones présentant des côtés rectilignes. L’appartenance du résultat du calcul de complexité de l’image à un intervalle de valeur déterminé détermine en partie la caractéristique descriptive de l’image entre paysage artificiel, urbain, et paysage naturel. C’est ensuite qu’est déterminé la proportion de polygones présentant des côtés rectilignes, les polygones qui décrivent des objets artificiels étant par hypothèse plus réguliers que les polygones qui décrivent des objets naturels.Advantageously, the calculation of the complexity of the image is carried out before the evaluation of the proportion of polygons presenting rectilinear sides. The fact that the result of the image complexity calculation belongs to a given value interval partly determines the descriptive characteristic of the image between artificial, urban and natural landscapes. It is then that the proportion of polygons presenting rectilinear sides is determined, the polygons which describe artificial objects being by hypothesis more regular than the polygons which describe natural objects.

Avantageusement, l’étape de calcul de la complexité de l’image est effectuée pour les quatre images matricielles, une en niveau de gris, une pour chacune des trois couleurs rouge, vert, bleu.Advantageously, the step of calculating the complexity of the image is carried out for the four raster images, one in gray level, one for each of the three colors red, green, blue.

Dans une mise en œuvre, l’image est classée comme représentant un paysage naturel si la complexité de l’image est comprise dans une gamme seuil de valeurs de complexité. La gamme seuil de valeurs de complexité est avantageusement de 100 à 400.In one implementation, the image is classified as representing a natural landscape if the complexity of the image falls within a threshold range of complexity values. The threshold range of complexity values is advantageously from 100 to 400.

Dans certaines mises en œuvre, le curseur de lecture est une grille matricielle carrée comprenant neuf cellules, une mesure de l’intensité des niveaux de gris et de l’intensité pour chacune des trois couleurs rouge, vert, bleu étant effectuée pour chacun des neuf points de l’image recouvert par le curseur de lecture, la somme de ces valeurs étant comparée à une valeur seuil, la valeur 1 étant attribuée aux points de l’image dans l’image matricielle lorsque la somme est supérieure à la valeur seuil.In some implementations, the playback cursor is a square matrix grid comprising nine cells, a measurement of grayscale intensity and intensity for each of the three colors red, green, blue being made for each of the nine points of the image covered by the reading cursor, the sum of these values being compared with a threshold value, the value 1 being assigned to the points of the image in the raster image when the sum is greater than the threshold value.

D’autres objets et avantages de l’invention apparaîtront à la lumière de la description de modes de réalisation.Other objects and advantages of the invention will appear in the light of the description of embodiments.

Acquisition de l’imageImage acquisition

Le procédé comprend une étape d’acquisition de l’image.The method includes an image acquisition step.

Les images, par exemple des photographies aux formats GIF, JPG, TGA, PNG, sont enregistrées.Images, for example photographs in GIF, JPG, TGA, PNG formats, are saved.

Dans une mise en œuvre, l’image est mise aux dimensions 256x206 pixels au format paysage, ou pour le format portrait avec les dimensions 206x256 pixels.In one implementation, the image is set to the dimensions 256x206 pixels in landscape format, or for portrait format with the dimensions 206x256 pixels.

Grille matricielle de référenceReference matrix grid

Les données numériques de l’image, concernant le spectre des couleurs en RGB ainsi que la distribution des pixels noir ou blanc en niveau de gris, sont enregistrées sur une grille orthogonale de référence.The digital data of the image, concerning the color spectrum in RGB as well as the distribution of black or white pixels in gray level, are recorded on an orthogonal reference grid.

L’image est placée dans un espace vectoriel euclidien affine, muni d’un repère orthonormé. Une application bijective de dans2fait correspondre à tous les points quelconque de l’image, le couple de nombre réel (xi, yj). Le sommet du cadre supérieur gauche de l’image correspond au point d’origine du repère.The image is placed in an affine Euclidean vector space, equipped with an orthonormal reference. A one-to-one mapping from in 2 maps to any point in the image the pair of real numbers (x i , y j ). The vertex of the upper left frame of the image corresponds to the point of origin of the marker.

Une grille matricielle de référence G=(Gij) est construite. La matrice G est mise aux dimensions de l’image, par exemple 256 x 206 pixels.A reference matrix grid G=(G ij ) is constructed. The matrix G is set to the dimensions of the image, for example 256×206 pixels.

Lecture de l’imageImage playback

Une fonction de lecture scanne successivement l’image en tranches verticales.A playback function successively scans the image in vertical slices.

Le curseur de lecture est un cadre superposé à l’image.The playback cursor is a frame superimposed on the image.

Dans une mise en œuvre, le curseur de lecture est représenté par une grille matricielle carrée contenant 3 x 3 cellules de longueur CellLength, avec neuf positions indexées de 0 à 8.In one implementation, the playback cursor is represented by a square matrix grid containing 3 x 3 cells of CellLength, with nine positions indexed from 0 to 8.

Les déplacements successifs du curseur de lecture sur l’image sont incrémentés à chaque séquence par la valeur CellLength. CellLength est un entier de valeur m qui peut être compris entre 1 et 9.The successive movements of the playback cursor on the image are incremented for each sequence by the CellLength value. CellLength is an integer of value m which can be between 1 and 9.

Pour chaque séquence de déplacement, la valeur des données RGB et de niveaux de gris présente à la surface de l’image sont mesurées pour les neuf positions de la matrice.For each motion sequence, the value of the RGB and grayscale data present on the surface of the image are measured for the nine positions of the matrix.

Une valeur 0 ou 1 est attribuée aux neuf positions, en fonction de l’intensité enregistrée sur l’image.A value of 0 or 1 is assigned to the nine positions, depending on the intensity recorded on the image.

Une fonction compare la somme totale des valeurs enregistrées par le curseur avec un seuil d’intensité moyen, et détermine ainsi la valeur respective de toutes les positions d’indice i et j sur la grille de référence, produisant ainsi une image matricielle.A function compares the total sum of the values recorded by the cursor with an average intensity threshold, and thus determines the respective value of all the index positions i and j on the reference grid, thus producing a raster image.

La matrice carrée C d’ordre n=3 et de dimensions 3 x 3 avec neuf positionsThe square matrix C of order n=3 and dimensions 3 x 3 with nine positions

est le curseur de lecture, qui définit une séquence de lecture.is the playback slider, which defines a playback sequence.

Le déplacement du curseur de lecture est une série de translations verticales, le long de l’axe des ordonnées, suivie d’une translation horizontale le long de l’axe des abscisses, afin de couvrir la totalité de la surface de l’image.Moving the playback cursor is a series of vertical translations, along the y-axis, followed by a horizontal translation along the x-axis, to cover the entire image area.

Les indices i = 0 et j = 0 du curseur de lecture sont mis en correspondance avec le point de coordonnée (0,0) du repère.The indices i = 0 and j = 0 of the playback cursor are mapped to the coordinate point (0,0) of the mark.

Une matrice de translation Ty, qui a pour domaine de définition l’ensemble des points de coordonnée de l’image, applique une série de translations successives au curseur de lecture C, en suivant l’axe des ordonnées.A translation matrix T y , whose domain of definition is the set of coordinate points of the image, applies a series of successive translations to the reading cursor C, following the ordinate axis.

Les coefficients du curseur de lecture sont incrémentés de la valeur CellLength à chaque séquence.Playback slider coefficients are incremented by the CellLength value with each sequence.

L’expression de la matrice de translation Tyen coordonnées homogènes est alorsThe expression of the translation matrix T y in homogeneous coordinates is then

AvecΔx= 0 etΔy= m pour chaque translation du curseur C dans la direction verticale, on obtient pour l’ensemble des neuf points de coordonnées (x, y) que couvre le curseur les coordonnées (x’, y’) :With Δx = 0 and Δy = m for each translation of the cursor C in the vertical direction, we obtain for the set of nine coordinate points (x, y) covered by the cursor the coordinates (x', y'):

La surface du curseur est donc déplacée verticalement par le coefficient m.The surface of the cursor is therefore moved vertically by the coefficient m.

Lorsque le curseur atteint le bord de l’image, minoré par le coefficient m afin de ne pas sortir des limites de l’image, on effectue alors une translation horizontale Txsur l’axe des abscisses.When the cursor reaches the edge of the image, reduced by the coefficient m so as not to leave the limits of the image, a horizontal translation T x is then performed on the abscissa axis.

L’expression de la matrice de translation Txen coordonnées homogènes estThe expression of the translation matrix T x in homogeneous coordinates is

AvecΔ’x= m etΔ’y= 0 pour chaque translation du curseur C dans la direction horizontale, on obtient pour l’ensemble des neuf points de coordonnées (x, y) que couvre le curseur :With Δ'x = m and Δ'y = 0 for each translation of the cursor C in the horizontal direction, we obtain for the set of nine coordinate points (x, y) covered by the cursor:

Une séquence de lecture est donc une translation verticale du curseur C par le coefficient m ou une translation horizontale du curseur C par le coefficient m. Autrement dit, CellLength fait avancer la séquence de lecture d’une longueur m. La valeur m détermine la valeur de l’incrément du déplacement du curseur à la surface de l’image. La valeur de la surface de lecture du curseur est proportionnelle à CellLength.A reading sequence is therefore a vertical translation of the cursor C by the coefficient m or a horizontal translation of the cursor C by the coefficient m. That is, CellLength advances the read sequence by a length m. The value m determines the value of the increment of the displacement of the slider on the surface of the image. The value of the slider reading area is proportional to CellLength.

Pour chaque translation de coefficient m, une mesure de l’intensité, 0 ou 1, des niveaux de gris et du spectre des couleurs RGB est prise sur les neuf points de la surface de l’image couvert par la matrice C du curseur.For each translation of coefficient m, a measurement of the intensity, 0 or 1, of the levels of gray and of the RGB color spectrum is taken on the nine points of the surface of the image covered by the matrix C of the cursor.

La somme S des 9 valeursThe sum S of the 9 values

est comparée à une valeur seuil.is compared to a threshold value.

Si S ≥ Seuil alors [Gij]= 1. Si la somme S est supérieure à la valeur seuil, alors la valeur 1 est attribuée aux indices i, j de la grille matricielle de référence G.If S ≥ Threshold then [Gij]= 1. If the sum S is greater than the threshold value, then the value 1 is assigned to the indices i, j of the reference matrix grid G.

Si S < Seuil alors [Gij]= 0. Si la somme S est inférieure à la valeur seuil, alors la valeur 0 est attribuée aux indices i, j de la grille de matricielle de référence G.If S < Threshold then [Gij]= 0. If the sum S is less than the threshold value, then the value 0 is assigned to the indices i, j of the reference matrix grid G.

Une fois que la totalité des points (x, y) de l’image ont été lus, la matrice G a enregistré une image matricielle, de résolution CellLength = m, de l’image sur sa grille. La matrice G est une représentation binaire de l’image, composée de 0 ou de 1 obtenue par le déplacement successif du curseur de lecture C sur la surface de l’image. G est composée par l’évaluation de la somme répétée des valeurs rapportée par le curseur C sur ses neuf positions.Once all the points (x, y) of the image have been read, the matrix G recorded a raster image, of resolution CellLength = m, of the image on its grid. The matrix G is a binary representation of the image, composed of 0 or 1 obtained by the successive displacement of the reading cursor C on the surface of the image. G is composed by the evaluation of the repeated sum of the values reported by the cursor C on its nine positions.

Le curseur de lecture C peur être représenté par un ensemble de neuf éléments, ou à chacun des éléments est associée la valeur 0 ou 1.The playback cursor C can be represented by a set of nine elements, where each of the elements is associated with the value 0 or 1.

D’après la loi binomiale, le nombre d’états possibles pour le curseur C est de 29, soit 512 configurations possibles, ces états étant tous équiprobables. Ces configurations peuvent être classées en dix sous-ensembles, selon le nombre d’éléments du curseur valant 1. Pour les configurations dans lesquelles le curseur C a une de ses neuf positions égales à 1 :According to the binomial law, the number of possible states for the cursor C is 2 9 , ie 512 possible configurations, these states all being equiprobable. These configurations can be classified into ten subsets, according to the number of elements of the cursor equal to 1. For the configurations in which the cursor C has one of its nine positions equal to 1:

9 combinaisons sont possibles, avec une probabilité valant P(C1) = 9/512.9 combinations are possible, with a probability equal to P(C 1 ) = 9/512.

En suivant le même raisonnement, les probabilités des autres configurations pour le curseur C sont les suivantes :Following the same reasoning, the probabilities of the other configurations for cursor C are as follows:

  • C a 2 de ses positions égales à 1, P(C2) = 36/512C has 2 of its positions equal to 1, P(C 2 ) = 36/512
  • C a 3 de ses positions égales à 1 : P(C3) = 84/512C has 3 of its positions equal to 1: P(C 3 ) = 84/512
  • C a 4 de ses positions égales à 1 : P(C4) = 126/512C has 4 of its positions equal to 1: P(C 4 ) = 126/512
  • C a 5 de ses positions égales à 1 : P(C5) = 126/512C has 5 of its positions equal to 1: P(C 5 ) = 126/512
  • C a 6 de ses positions égales à 1 : P(C6) = 84/512C has 6 of its positions equal to 1: P(C 6 ) = 84/512
  • C a 7 de ses positions égales à 1 : P(C7) = 36/512C has 7 of its positions equal to 1: P(C 7 ) = 36/512
  • C a 8 de ses positions égales à 1 : P(C8) = 9/512C has 8 of its positions equal to 1: P(C 8 ) = 9/512
  • C a 9 de ses positions égales à 1 : P(C9) = 1/512C has 9 of its positions equal to 1: P(C 9 ) = 1/512
  • C n’a aucune de ses positions égales à 1 : P(C10) = 1/512C has none of its positions equal to 1: P(C 10 ) = 1/512

Acquisition des figuresAcquisition of tricks

Le procédé comprend une étape de détermination de présence de polygones fermés non croisés, dans les grilles de référence. Afin de simplification, dans ce qui suit, ces polygones non croisés sont appelés « figures ».The method includes a step of determining the presence of non-crossing closed polygons in the reference grids. For simplicity, in what follows, these non-intersecting polygons are called “figures”.

Le périmètre d’une figure est la limite continue du contour qui dessine sa surface. Le périmètre est une limite continue observable.The perimeter of a figure is the continuous limit of the contour that draws its surface. The perimeter is a continuous observable boundary.

L’acquisition d’une figure se fait par une séquence de lecture continue sur la longueur de son périmètre. Une séquence de lecture est l’intervalle de temps nécessaire pour accomplir une lecture continue de la longueur du périmètre d’une figure.The acquisition of a figure is done by a continuous reading sequence along the length of its perimeter. A read sequence is the time interval required to accomplish a continuous read of the perimeter length of a figure.

Un cycle de lecture est une boucle positive. Les périmètres des figures sont finis, donc, les séquences de lecture sont des intervalles de temps finis.A read cycle is a positive loop. The perimeters of the figures are finite, therefore, the reading sequences are finite time intervals.

Des points d’entrées sur le périmètre commandent le départ d’une séquence de lecture. Lorsque le point d’entrée est identique au point final, la séquence est finie et la figure enregistrée.Entry points on the perimeter control the start of a reading sequence. When the start point is the same as the end point, the sequence is finished and the pattern is saved.

Avantageusement, le départ de chaque séquence de lecture se fait dans le sens positif, dans le plan vectoriel, sur l’axe des abscisses. Le sens positif est définit par l’incrémentation positive des indices i et j sur la grille G. Le sens négatif est défini par l’incrémentation négative des indices i et j sur la grille G. Le curseur C se déplace orthogonalement sur la grille en suivant l’incrémentation des indices i et j.Advantageously, the start of each read sequence is in the positive direction, in the vector plane, on the abscissa axis. The positive direction is defined by the positive incrementation of the indices i and j on the grid G. The negative direction is defined by the negative incrementation of the indices i and j on the grid G. The cursor C moves orthogonally on the grid in according to the incrementation of the indices i and j.

Chaque vertex implémente un changement de direction du curseur C de lecture sur le périmètre de la figure.Each vertex implements a direction change of the playback C cursor on the perimeter of the figure.

Les directions de recherches sont au nombre de quatre. Le curseur effectue des déplacements sur quatre directions, sur deux axes et dans le sens positif ou négatif.The directions of research are four in number. The cursor moves in four directions, on two axes and in the positive or negative direction.

Lorsque le curseur est sur le périmètre, il lit les matrices carrées de neuf positions qui suivent le bord de la figure. Le bord est toujours parallèle à la direction de la lecture.When the cursor is on the perimeter, it reads the nine-position square arrays that follow the edge of the figure. The edge is always parallel to the reading direction.

La description du périmètre lu pendant une séquence sont les six positions, non vides, de la matrice carrée C du curseur qui est parallèle à la direction de lecture.The description of the perimeter read during a sequence are the six positions, not empty, of the square matrix C of the cursor which is parallel to the direction of reading.

Sur l’axe I, sens positif :On axis I, positive direction:

Sur l’axe J, sens négatif :On the J axis, negative direction:

Sur l’axe J, sens positif :On the J axis, positive direction:

Sur l’axe J, sens négatif :On the J axis, negative direction:

Nous trouvons de même, sur les bords des figures, douze configurations possibles dans lesquelles la limite du périmètre peut ne pas être rectiligne.We also find, on the edges of the figures, twelve possible configurations in which the boundary of the perimeter may not be rectilinear.

En fonction des quatre directions de lecture, nous avons pour une valeur à sept positions non nulles :According to the four directions of reading, we have for a value with seven non-zero positions:

sur l’axe I, sens positif :on axis I, positive direction:

sur l’axe I, sens négatif :on axis I, negative direction:

sur l’axe J, sens positif :on the J axis, positive direction:

sur l’axe J, sens négatif :on the J axis, negative direction:

sur l’axe I, sens positif :on axis I, positive direction:

sur l’axe I, sens négatif :on axis I, negative direction:

sur l’axe J, sens positif :on the J axis, positive direction:

sur l’axe J, sens négatif :on the J axis, negative direction:

sur l’axe I, sens positif :on axis I, positive direction:

sur l’axe I, sens négatif :on axis I, negative direction:

sur l’axe J, sens positif :on the J axis, positive direction:

sur l’axe J, sens négatif :on the J axis, negative direction:

Et pour une valeur a 8 positions non nulles, quatre configurations :And for a value with 8 non-zero positions, four configurations:

sur l’axe I, sens positif :on axis I, positive direction:

sur l’axe I, sens négatif :on axis I, negative direction:

sur l’axe J, sens positif :on the J axis, positive direction:

sur l’axe J, sens négatif :on the J axis, negative direction:

Pour valider une figure, le curseur doit passer par au minimum une fois sur les quatre directions en accomplissant une boucle dans le sens positif, le dernier vertex doit être identique au point d’entrée.To validate a figure, the cursor must pass through at least once in the four directions by completing a loop in the positive direction, the last vertex must be identical to the entry point.

Ainsi qu’il a été indiqué, sur la grille de référence G, les figures sont des polygones fermés non croisés.As indicated, on the reference grid G, the figures are unintersected closed polygons.

Pendant la séquence, les changements de directions de la lecture sur le périmètre s’effectuent sur les points de sommet ou vertex.During the sequence, the changes of direction of the reading on the perimeter are carried out on the points of vertex or vertex.

Un polygone est défini par le nombre et la direction de ses vertex et la longueur de son périmètre, ainsi que l’intervalle de temps nécessaire pour en faire une description. Le polygone le plus petit a quatre vertex. Le polygone le plus simple de surface non nulle est le carré.A polygon is defined by the number and direction of its vertices and the length of its perimeter, as well as the time interval needed to describe it. The smallest polygon has four vertices. The simplest non-zero area polygon is the square.

Pour représenter l’image matricielle d’un carré sur une matrice 3x3, il faut que quatre positions adjacentes de la matrice soient non nulle.To represent the raster image of a square on a 3x3 matrix, four adjacent positions of the matrix must be non-zero.

Quatre configurations sont possibles :Four configurations are possible:

Le polygone le plus simple lu dans le sens positif a quatre vertex, chaque vertex étant une matrice carrée de d’ordre n=3, avec quatre positions adjacentes égales à 1. Les configurations a-d, représentent le vertex le plus simple possible dans les quatre directions de lectures.The simplest polygon read in the positive direction has four vertices, each vertex being a square matrix of order n=3, with four adjacent positions equal to 1. The configurations a-d, represent the simplest possible vertex in the four reading directions.

On appelle respectivement G00, G01, G02, G03 les matrices carrées, d’ordre n=3 et de dimensions 3 x 3, avec neuf positions.We call respectively G00, G01, G02, G03 the square matrices, of order n=3 and of dimensions 3 x 3, with nine positions.

Les matrices portent des coefficients arrangés sur leurs positions respectives, en fonction de la direction de lecture qu’elles représentent.The matrices carry coefficients arranged on their respective positions, according to the reading direction they represent.

Si on se déplace dans la matrice du coefficient 1 au coefficient 9, le sens de lecture représenté commence toujours par le coefficient 1.If we move in the matrix from coefficient 1 to coefficient 9, the reading direction represented always begins with coefficient 1.

G01 représente la direction horizontale et le sens positif, G03 la direction horizontale et le sens négatif, G02 la direction verticale et le sens positif, G00 la direction verticale et le sens négatif.G01 represents horizontal direction and positive direction, G03 horizontal direction and negative direction, G02 vertical direction and positive direction, G00 vertical direction and negative direction.

Si on prend la configuration de a) comme exemple on invoqueIf we take the configuration of a) as an example we invoke

On fait la somme Val des positions non nulle sur C dans le cas de a).We make the sum Val of the non-zero positions on C in the case of a).

Pour n = 9For n = 9

Val = 1 + 1 + 1 + 1 =4.Val = 1 + 1 + 1 + 1 =4.

La somme W : on reporte les quatre positions non nulle de C sur G01 est on fait la somme des valeurs correspondantes.The sum W: we transfer the four non-zero positions of C to G01 and we make the sum of the corresponding values.

Pour n = 9For n = 9

W = 9 + 6 + 7 + 8 = 30.W=9+6+7+8=30.

La valeur W du vertex le plus simple est 30.The W value of the simplest vertex is 30.

La somme des matrices carrée lues qui dénotent les bords du périmètre et des vertex donne la valeur du périmètre.The sum of the read square matrices denoting the edges of the perimeter and the vertices gives the value of the perimeter.

La valeur du périmètre représente le nombre de matrices carrée lue par le curseur C pour faire le tour complet du polygone.The value of the perimeter represents the number of square matrices read by the cursor C to go completely around the polygon.

La somme Val permet de classer les vertex par catégorie, en fonction du nombre de position non nulle sur leur matrice.The sum Val makes it possible to classify the vertices by category, according to the number of non-zero position on their matrix.

Le vertex le plus simple avec la surface la plus petite a la valeur val = 4.The simplest vertex with the smallest area has the value val = 4.

En utilisant le principe que le périmètre est une limite continue observable et que les vertex se trouvent tous sur le périmètre, le vertex avec la surface la plus grande qui porte le dessin du contour de la figure est le vertex à huit positions non nulles. Donc Val = 8 est la valeur maximale.Using the principle that the perimeter is an observable continuous boundary and that the vertices all lie on the perimeter, the vertex with the largest area that bears the outline drawing of the figure is the nonzero eight-position vertex. So Val = 8 is the maximum value.

Ci-dessous, Vertex pour Val = 8, dans les 4 directions de lecture.Below, Vertex for Val = 8, in the 4 reading directions.

Si on fait la somme W du vertex qui a la valeur 8 avec la surface observable la plus grande on obtient W = 44.If we make the sum W of the vertex which has the value 8 with the largest observable surface we obtain W = 44.

Avantageusement, le curseur de lecture C enregistre uniquement les points du périmètre qui ont une somme W comprise entre 30 et 44.Advantageously, the reading cursor C records only the points of the perimeter which have a sum W between 30 and 44.

Autrement dit, pour être un point du périmètre il faut satisfaire la condition : 30 ≤ W ≤ 44.In other words, to be a point on the perimeter, the condition must be satisfied: 30 ≤ W ≤ 44.

Pour calculer le cardinal de l’ensemble V des vertex, il faut faire la somme du cardinal des catégories des sous ensemble de Vertex de V.To calculate the cardinal of the set V of the vertices, it is necessary to sum the cardinal of the categories of the subset of Vertex of V.

Il y cinq catégories de vertex pour la valeur Val comprise entre 4 et 8.There are five categories of vertices for the Val value between 4 and 8.

Pour trouver les combinaisons de vertex possibles, il faut calculer combien de combinaisons possible il y a pour remplir la surface avec les cinq positions restantes qui sont successivement 1, 2, 3, 4 cases égales à 1. En supposant que tous les tirages sont équiprobables, l’ensemble des grilles possibles qui valide un vertex pour chaque direction de recherche est le résultat de ce calcul.To find the combinations of possible vertices, it is necessary to calculate how many possible combinations there are to fill the surface with the five remaining positions which are successively 1, 2, 3, 4 squares equal to 1. Assuming that all the draws are equiprobable , the set of possible grids that validates a vertex for each search direction is the result of this calculation.

Avec p représentant le nombre de case de valeur 1 et n étant égal au nombre total de positions sur la grille,With p representing the number of squares of value 1 and n being equal to the total number of positions on the grid,

Pour Val = 4, vertex avec le contour le plus simple, il n’y aucune possibilité, juste 1 solution :For Val = 4, vertex with the simplest contour, there is no possibility, just 1 solution:

Il y a une possibilité, qui a une somme W tel que 30 ≤ W ≤ 44.There is a possibility, which has a sum W such that 30 ≤ W ≤ 44.

En appliquant le même raisonnement, le nombre de possibilités pour lesquelles la somme W est telle que 30 ≤ W ≤ 44,Applying the same reasoning, the number of possibilities for which the sum W is such that 30 ≤ W ≤ 44,

  • pour Val = 5, cinq possibilités,for Val = 5, five possibilities,
  • pour Val = 6, huit possibilités,for Val = 6, eight possibilities,
  • pour Val = 7, quatre possibilités,for Val = 7, four possibilities,
  • pour Val = 8, une possibilité.for Val = 8, a possibility.

Le calcul des combinaisons a été fait ci-dessus pour une direction, sachant qu’il y a quatre directions, il faut multiplier par quatre pour obtenir le nombre total de combinaisons. Ainsi, par exemple, pour Val = 4, on a donc un total de quatre configurations possibles.The calculation of the combinations was done above for one direction, knowing that there are four directions, it is necessary to multiply by four to obtain the total number of combinations. Thus, for example, for Val=4, there is therefore a total of four possible configurations.

Calcul de la complexité de l’imageImage complexity calculation

Le procédé comprend, dans une mise en œuvre, un calcul de la complexité de l’image.The method includes, in one implementation, a calculation of the complexity of the image.

L’image décrit la somme des discontinuités observables que sont les polygones. Les polygones sont le résultat de la somme des probabilités indépendantes de l’apparition de certains types de sommet ou vertex ainsi que la somme des probabilités indépendantes de l’apparition des configurations des côtés à chaque séquence de lecture sur le périmètre.The image describes the sum of the observable discontinuities that are the polygons. The polygons are the result of the sum of the independent probabilities of the appearance of certain types of vertices or vertices as well as the sum of the independent probabilities of the appearance of the configurations of the sides at each sequence of readings on the perimeter.

Le cardinal de l’ensemble des vertex vautThe cardinality of all vertices is

Card(v) = 4 + 32 + 16 + 4 = 76.Card(v) = 4 + 32 + 16 + 4 = 76.

Le cardinal de l’ensemble des points du périmètre vautThe cardinality of all the points of the perimeter is

Card(p) = 76 + 4 +12 + 4 = 96.Card(p) = 76 + 4 +12 + 4 = 96.

La probabilité d’obtenir un vertex quelconque vautThe probability of obtaining any vertex is

Pv = Card(v)/ Card(p) = 76/96.Pv = Card(v)/ Card(p) = 76/96.

Les probabilités pour chaque configuration de vertex valent :The probabilities for each vertex configuration are:

  • pour Val = 4 ; P(v4) = Card(v4)/ Card(p) = 4/96=1/24for Val=4; P(v4) = Card(v4)/ Card(p) = 4/96=1/24
  • pour Val = 5 ; P(v5) = Card(v5)/ Card(p) = 20/96 = 5/24for Val=5; P(v5) = Card(v5)/ Card(p) = 20/96 = 5/24
  • pour Val = 6 ; P(v6) = Card(v6)/ Card(p) = 32/96 = 1/3for Val=6; P(v6) = Card(v6)/ Card(p) = 32/96 = 1/3
  • pour Val = 7 ; P(v7) = Card(v7)/ Card(p) = 16/96 = 1/6for Val=7; P(v7) = Card(v7)/ Card(p) = 16/96 = 1/6
  • pour Val = 8 ; P(v8) = Card(v8)/ Card(p) = 4/96 = 1/24for Val=8; P(v8) = Card(v8)/ Card(p) = 4/96 = 1/24

La probabilité d’obtenir un côté quelconque vautThe probability of getting any side is

Pv = Card(c)/ Card(p) = 20/96 = 5/24.Pv = Card(c)/ Card(p) = 20/96 = 5/24.

Les probabilités pour chaque configuration de côtés valent :The probabilities for each side configuration are:

  • pour Val = 6; P(c6) = Card(c6)/ Card(p) = 4/96 = 1/24for Val = 6; P(c6) = Card(c6)/ Card(p) = 4/96 = 1/24
  • pour Val = 7; P(c7) = Card(c7)/ Card(p) = 12/96 = 1/8for Val = 7; P(c7) = Card(c7)/ Card(p) = 12/96 = 1/8
  • pour Val = 8; P(c8) = Card(c8)/ Card(p) = 4/96 = 1/24for Val = 8; P(c8) = Card(c8)/ Card(p) = 4/96 = 1/24

Dans une mise en œuvre, la complexité de l’image est calculée en fonction du nombre de polygones détectés dans l’image, en utilisant la relation :In one implementation, the image complexity is calculated based on the number of polygons detected in the image, using the relationship:

avec Pi la probabilité associée à l’apparition d’une configuration de vertex ou de côtés.with Pi the probability associated with the appearance of a configuration of vertices or sides.

Dans une mise en œuvre, la complexité est calculée en fonction de la séquence de lecture totale qui compose l’image.In one implementation, the complexity is calculated based on the total read sequence that composes the image.

avec Pci la probabilité associée à l’actualisation des motifs du curseur de lecture qui composent la totalité de l’image.with Pci the probability associated with updating the playback cursor patterns that make up the entire image.

Le calcul C(I) peut être apprécié comme une description instantanée et Ct(I) comme une moyenne.The calculation C(I) can be appreciated as an instantaneous description and Ct(I) as an average.

Détermination des aires des polygones et des positions des centroïdesDetermination of polygon areas and centroid positions

Le procédé comprend avantageusement une détermination des centroïdes.The method advantageously comprises a determination of the centroids.

Les figures sont des polygones fermés de n vertex avec des côtes non sécants. Les figures les plus simples sont des polygones réguliers à quatre vertex, les figures les plus complexes sont des polygones irréguliers à n vertex.The figures are closed polygons of n vertices with non-intersecting sides. The simplest figures are regular polygons with four vertices, the most complex figures are irregular polygons with n vertices.

La fonction CalculAire() calcule l’aire respective de la surface de chaque polygone. La fonction CalculCentrGrav () calcule la position respective du centroïde de chaque polygone.The CalculArea() function calculates the respective surface area of each polygon. The CalculCentrGrav() function calculates the respective position of the centroid of each polygon.

Le procédé comprend avantageusement un calcul des aires de chaque polygone. Le vecteur [] SurfacePoly reçoit le calcul respectif de l’aire de chaque polygone.The method advantageously comprises a calculation of the areas of each polygon. The []SurfacePoly vector receives the respective calculation of the area of each polygon.

Les polygones sont numérotes par l’indice z qui suit l’ordre des polygones trouvés. Pour le calcul on applique la formule de Gauss :The polygons are numbered by the index z which follows the order of the polygons found. For the calculation we apply the Gauss formula:

L’indice z est numéroté sur le nombre de polygones trouvés.The z index is numbered on the number of polygons found.

Les vecteurs [] PolyAX et [] PolyAY contiennent les coordonnées (x,y) des vertex.The [] PolyAX and [] PolyAY vectors contain the (x,y) coordinates of the vertices.

L’indice i des vertex est numéroté en fonction de leur apparition sur le périmètre du polygone, dans le sens de déplacement du curseur de lecture enregistré sur les vecteurs [] PolyAX et [] PolyAY.The index i of the vertices is numbered according to their appearance on the perimeter of the polygon, in the direction of movement of the reading cursor recorded on the vectors [] PolyAX and [] PolyAY.

Dans ce cas, le vertex(xn, yn) est identique au vertex(x0, y0).In this case, vertex(x n , y n ) is identical to vertex(x 0 , y 0 ).

Le procédé comprend avantageusement un calcul des centroïdes.The method advantageously comprises a calculation of the centroids.

Les vecteurs [] XGrav et [] YGrav reçoivent les coordonnées (x,y) des centroïdes respectifs de chaque polygone.The vectors [] XGrav and [] YGrav receive the (x,y) coordinates of the respective centroids of each polygon.

Les coordonnées du centroïde d’un polygone fermé de n Vertex avec des cotés non sécants sont définies par les formules suivantes (pour simplifier l’expression on pose : Az=SurfacePoly[z]) :The coordinates of the centroid of a closed polygon of n Vertex with non-intersecting sides are defined by the following formulas (to simplify the expression we set: A z =SurfacePoly[z]):

  • abscisse du centroïde :centroid abscissa:

  • ordonnée du centroïde :ordinate of the centroid:

Description de l’image et fonctions propositionnellesDescription of the image and propositional functions

Le procédé comprend avantageusement une description de l’image, à l’aide de fonctions propositionnelles.The method advantageously includes a description of the image, using propositional functions.

On appelle I l’ensemble de tous les éléments contenus dans l’image. Une fonction propositionnelle définie sur I est une expression de la forme Pr(x) qui a la propriété de rendre Pr(b) vraie ou fausse pour chaque élément b qui appartient à I. Pr(x) devient un énoncé sur I, c'est-à-dire une proposition qui décrit une propriété de I, chaque fois qu’un élément b appartenant à I est substitué à la variable x.We call I the set of all the elements contained in the image. A propositional function defined on I is an expression of the form Pr(x) which has the property of making Pr(b) true or false for each element b which belongs to I. Pr(x) becomes a statement on I, c' that is, a proposition that describes a property of I, each time an element b belonging to I is substituted for the variable x.

On nomme l’ensemble Tpde tous les éléments de I tel que Pr(b) est vraie, l’ensemble de vérité de Pr(x).We call the set T p of all the elements of I such that Pr(b) is true, the truth set of Pr(x).

On a : Tp= {x : x ∈ I, Pr(x) est vraie} et si {x : x ∈ I, P(x)} = I alors x, Pr(x) est vraie ; si non x, Pr(x) est fausse.We have: T p = {x: x ∈ I, Pr(x) is true} and if {x: x ∈ I, P(x)} = I then x, Pr(x) is true; if not x, Pr(x) is false.

De même si {x : Pr(x)} ≠ alors x tel que Pr(x) est vraie ; si non Pr(x) est fausse.Similarly if {x: Pr(x)} ≠ then x such that Pr(x) is true; if not Pr(x) is false.

Dans une mise en œuvre avantageuse, deux fonctions propositionnelles A et N sont prises en compte, les fonctions propositionnelles A et N qui ont pour domaine de définition Tp, décrivant le résultat du calcul de complexité de l’image.In an advantageous implementation, two propositional functions A and N are taken into account, the propositional functions A and N which have the domain of definition T p , describing the result of the computation of the complexity of the image.

En fonction du nombre de polygones présent dans l’ensemble I, un échantillon des polygones avec la plus grande surface est avantageusement prélevé.Depending on the number of polygons present in the set I, a sample of the polygons with the largest area is advantageously taken.

Sur cet échantillon, on applique deux fonctions d’évaluations, P et S, qui ont pour domaine Tp.On this sample, we apply two evaluation functions, P and S, whose domain is T p .

Dans une mise en œuvre, la fonction P évalue les caractéristiques géométriques des polygones.In one implementation, the function P evaluates the geometric characteristics of the polygons.

Dans une mise en œuvre, la fonction S calcule la grande surface de distribution des centroïdes en fonction des trois couleurs.In one implementation, the S function calculates the large centroid distribution area based on the three colors.

Avantageusement, le procédé met en œuvre une troisième fonction propositionnelle W, concernant la distribution des centroïdes qui appartiennent à la couleur bleue.Advantageously, the method implements a third propositional function W, relating to the distribution of centroids which belong to the color blue.

Avantageusement, le calcul de complexité et/ou le calcul des fonctions propositionnelles est effectué successivementAdvantageously, the complexity calculation and/or the calculation of the propositional functions is carried out successively

  • sur les éléments x qui appartiennent à l’ensemble L pour la lumière,on the elements x which belong to the set L for the light,
  • sur les éléments y qui appartiennent à l’ensemble R pour la couleur rouge,on the elements y which belong to the set R for the color red,
  • sur les éléments z qui appartiennent à l’ensemble V pour la couleur verte,on the elements z which belong to the set V for the color green,

les éléments x, y, et z étant les résultats obtenus pour la complexité et/ou le calcul des fonctions propositionnelles propres à chaque ensemble L, R, V.the elements x, y, and z being the results obtained for the complexity and/or the computation of the propositional functions specific to each set L, R, V.

Exemple de mise en œuvreExample of implementation

Dans un exemple de mise en œuvre, les fonctions propositionnelles sont construites pour une classification d’images en deux catégories sémantiques : images d’un paysage naturel ou bien image de structures urbaines.In an example of implementation, the propositional functions are built for a classification of images in two semantic categories: images of a natural landscape or image of urban structures.

x ∈ I, A(x) est vraie signifie que I est un paysage contenant des structures urbaines ou artificielles.x ∈ I, A(x) is true means that I is a landscape containing urban or man-made structures.

x ∈ I, N(x) est vraie signifie que I est un paysage naturel contenant des arbres, des montagnes ou des étendues d’eau.x ∈ I, N(x) is true means that I is a natural landscape containing trees, mountains or bodies of water.

Le demandeur a constaté de manière inattendue que si des éléments de I qui sont identifiés comme des polygones régulier ou irrégulier non croisés ont des côtés rectilignes droit et continu avec un pourcentage supérieur à 30 %, l’image correspondant le plus souvent à des éléments artificiels, notamment des immeubles.The Applicant has unexpectedly found that if elements of I which are identified as non-intersecting regular or irregular polygons have straight and continuous rectilinear sides with a percentage greater than 30%, the image most often corresponds to artificial elements , especially buildings.

Inversement, le demandeur a constaté de manière inattendue que si P a un pourcentage inférieur à 30%, les polygones sont très probablement des éléments naturels du paysage, arbres, feuilles, relief.Conversely, the Applicant has unexpectedly found that if P has a percentage lower than 30%, the polygons are most likely natural elements of the landscape, trees, leaves, relief.

Ainsi, pour tous les éléments x appartenant à l’ensemble L, quatre situations sont possibles :Thus, for all the elements x belonging to the set L, four situations are possible:

- la fonction propositionnelle A est vraie ;- the propositional function A is true;

- la fonction propositionnelle N est vraie ;- the propositional function N is true;

- les fonctions propositionnelles A et N sont toutes les deux vraies. Avec l’expression (A(x) N(x)), on ne peut pas déterminer un résultat appartenant uniquement à une des deux catégories sémantiques. L’image décrit simultanément les deux possibilités ;- the propositional functions A and N are both true. With the expression (A(x) N(x)), one cannot determine a result belonging only to one of the two semantic categories. The image simultaneously describes both possibilities;

- un résultat pour les fonctions propositionnelles A et N ne peut pas être déterminé. Pour l’expression ¬(A(x) N(x)), Il n’y a aucune solution.- a result for propositional functions A and N cannot be determined. For the expression ¬(A(x) N(x)), there is no solution.

De même, pour tous les éléments y appartenant à l’ensemble R, quatre situations sont possibles :Similarly, for all the elements y belonging to the set R, four situations are possible:

- la fonction propositionnelle A est vraie. Les surfaces de couleur rouge décrivent les caractéristiques d’un paysage urbain ;- the propositional function A is true. Red-colored surfaces describe features of an urban landscape;

- la fonction propositionnelle N est vraie. Les surfaces de couleur rouge décrivent les caractéristiques d’un paysage naturel ;- the propositional function N is true. Red-colored surfaces depict features of a natural landscape;

- les fonctions propositionnelles A et N sont toutes les deux vraies. Avec l’expression (A(y) N(y)), on ne peut pas déterminer un résultat appartenant uniquement à une des deux catégories sémantiques. L’image décrit simultanément les deux possibilités, c’est peut être un paysage ou une scène mixte ;- the propositional functions A and N are both true. With the expression (A(y) N(y)), one cannot determine a result belonging only to one of the two semantic categories. The image simultaneously describes both possibilities, it may be a landscape or a mixed scene;

- un résultat pour les fonctions propositionnelles A et N ne peut pas être déterminé. Pour l’expression ¬(A(y) N(y)), Il n’ y a aucune solution.- a result for propositional functions A and N cannot be determined. For the expression ¬(A(y) N(y)), there is no solution.

De même, pour tous les éléments appartenant à l’ensemble V, quatre situations sont possibles :Similarly, for all the elements belonging to the set V, four situations are possible:

- la fonction propositionnelle A est vraie. Les surfaces de couleur verte décrivent les caractéristiques d’un paysage urbain ;- the propositional function A is true. Green-colored surfaces describe features of an urban landscape;

- la fonction propositionnelle N est vraie. Les surfaces de couleur verte décrivent les caractéristiques d’un paysage naturel ;- the propositional function N is true. Green-colored surfaces describe features of a natural landscape;

- les fonctions propositionnelles A et N sont toutes les deux vraies. Avec l’expression (A(z) N(z)), on ne peut pas déterminer un résultat appartenant uniquement à une des deux catégories sémantiques. L’image décrit simultanément les deux possibilités, c’est peut être un paysage ou une scène mixte ;- the propositional functions A and N are both true. With the expression (A(z) N(z)), one cannot determine a result belonging only to one of the two semantic categories. The image simultaneously describes both possibilities, it may be a landscape or a mixed scene;

- un résultat pour les fonctions propositionnelles A et N ne peut pas être déterminé. Pour l’expression ¬(A(z) N(z)), Il n’y a aucune solution.- a result for propositional functions A and N cannot be determined. For the expression ¬(A(z) N(z)), there is no solution.

Dans une mise en œuvre avantageuse, la fonction propositionnelle P est utilisée afin de trouver un résultat pour les expressions (A(x) N(x)) et ¬ (A(x) N(x)) définies sur les ensembles L, V, R.In an advantageous implementation, the propositional function P is used to find a result for the expressions (A(x) N(x)) and ¬ (A(x) N(x)) defined on the sets L, V , R.

Le demandeur a constaté de manière inattendue que si pour toutes les variables x, y, z appartenant respectivement à L, V ou R, le résultat du calcul de la fonction P est supérieur à 30% alors la fonction A est valide. Inversement, si le calcul de P est inférieur à 30% alors la fonction N est vraie.The applicant has unexpectedly found that if for all the variables x, y, z belonging respectively to L, V or R, the result of the calculation of the function P is greater than 30% then the function A is valid. Conversely, if the calculation of P is less than 30% then the function N is true.

Dans une mise en œuvre avantageuse, la fonction propositionnelle S permet de distinguer quatre situations :In an advantageous implementation, the propositional function S makes it possible to distinguish four situations:

- situation S1, deux catégories de couleurs et la lumière présentent une symétrie ;- situation S1, two categories of colors and light present a symmetry;

- situation S2, une catégorie de couleur et la lumière dessinent un pattern ;- situation S2, a category of color and the light draw a pattern;

- situation S3, la lumière seule dévoile une symétrie ;- situation S3, light alone reveals symmetry;

- situation S4, la symétrie est absente.- situation S4, the symmetry is absent.

Dans une mise en œuvre avantageuse, une fonction propositionnelle W, concernant la distribution des centroïdes qui appartiennent à la couleur bleue, permet de distinguer quatre situations :In an advantageous implementation, a propositional function W, concerning the distribution of centroids which belong to the color blue, makes it possible to distinguish four situations:

- situation C1, le ciel est étroit ;- situation C1, the sky is narrow;

- situation C2, le ciel est étendu avec un horizon haut ;- situation C2, the sky is wide with a high horizon;

- situation C3, le ciel est grand avec un horizon bas ;- situation C3, the sky is wide with a low horizon;

- situation C4, la qualité du ciel est inconnue.- situation C4, the quality of the sky is unknown.

La formule F qui représente l’arbre de décidabilité s’exprime dans sa forme non développée avec l’expression suivante :The formula F which represents the decidability tree is expressed in its unexpanded form with the following expression:

{(A(x) N(x) (A(x) N(x)) ¬ (A(x) N(x))){(A(x) N(x) (A(x) N(x)) ¬ (A(x) N(x)))

(A(y) N(y) (A(y) N(y)) ¬ (A(y) N(y)))(A(y) N(y) (A(y) N(y)) ¬ (A(y) N(y)))

(A(z) N(z) (A(z) N(z)) ¬ (A(z) N(z)))}(A(z) N(z) (A(z) N(z)) ¬ (A(z) N(z)))}

{( S1(w) S2(w) S3(w) S4(w))}{( S1(w) S2(w) S3(w) S4(w))}

{(C1(x) C2(x) C3(x) C4(x))}{(C1(x) C2(x) C3(x) C4(x))}

La première partie de l’expression entre crochet exprime 216 combinaisons possibles.The first part of the expression in square brackets expresses 216 possible combinations.

L’inventeur a découvert de manière inattendue que huit catégories permettent de distinguer les images de paysages artificiels et les images de paysages naturels :The inventor unexpectedly discovered that eight categories make it possible to distinguish between images of artificial landscapes and images of natural landscapes:

  • paysages artificielsartificial landscapes

(A(x) A(y) A(z))(A(x) A(y) A(z))

(A(x) A(y) N(z))(A(x) A(y) N(z))

(A(x) N(y) N(z))(A(x) N(y) N(z))

(A(x) N(y) A(z))(A(x) N(y) A(z))

  • paysages naturelsnatural scenery

(N(x) N(y) N(z))(N(x) N(y) N(z))

(N(x) N(y) A(z))(N(x) N(y) A(z))

(N(x) A(y) A(z))(N(x) A(y) A(z))

(N(x) A(y) N(z))(N(x) A(y) N(z))

Avec un échantillon de 200 images choisit aléatoirement parmi les catégories paysages urbain ou paysages naturel on obtient ainsi :With a sample of 200 images chosen randomly from the categories urban landscapes or natural landscapes, we thus obtain:

83.3 % de réussites avec la détermination de paysages urbain.83.3% success with the determination of urban landscapes.

86.2 % de réussites avec la détermination de paysages naturel.86.2% success with the determination of natural landscapes.

Le procédé selon l’invention pour la classification d’images ne nécessite pas d’importantes ressources en temps et mémoire.The method according to the invention for the classification of images does not require significant time and memory resources.

L’invention fournit un procédé de reconnaissance automatique d’images, permettant une classification des images, sans avoir recours à la comparaison extensive de l’image avec une base de données conséquente.The invention provides an automatic image recognition process, allowing image classification, without resorting to extensive comparison of the image with a large database.

Le procédé de classification d’images selon l’invention peut être exécuté à l’aide d’un ordinateur de bureau ou un terminal de communication mobile, par exemple un smartphone, une tablette.The image classification method according to the invention can be executed using a desktop computer or a mobile communication terminal, for example a smartphone, a tablet.

Claims (8)

Procédé de reconnaissance automatique d’image, permettant une classification de l’image, le procédé comprenant une première étape de lecture de l’image par un curseur de lecture représenté par une grille matricielle venant recouvrirnpoints de l’image, le procédé comprenant une mesure de l’intensité et du niveau gris pour chacun desnpoints de l’image, et une mesure de l’intensité pour chacune des trois couleurs rouge, vert, bleu en chacun desnpoints de l’image, la somme des valeurs obtenues pour l’ensemble desnpoints étant comparée à une valeur seuil, la lecture de l’image formant quatre images matricielles, une en niveau de gris, une pour chacune des trois couleurs rouge, vert, bleu, le procédé comprenant une deuxième étape d’identification des polygones fermés avec côtés non sécants, le procédé étantcaractérisé en ce qu’il comprend, pour chacune des trois images matricielles en niveau de gris, en couleur verte, et en couleur rouge, une étape de détermination de la valeur d’une fonction propositionnelleA, la fonction propositionnelleAétant vraie lorsque l’image décrit un paysage urbain, la détermination des valeurs de cette fonction étant effectuée par une évaluation de la proportion de polygones présentant des côtés rectilignes pour chacune des trois images matricielles en niveau de gris, en couleur verte, et en couleur rouge, l’image étant classée comme représentant un paysage naturel si la proportionPde polygones présentant des côtés rectilignes est inférieure à une valeur seuil, pour chacune des trois images matricielles en niveau de gris, en couleur verte, et en couleur rouge.Automatic image recognition method, allowing classification of the image, the method comprising a first step of reading the image by a reading cursor represented by a matrix grid coming to cover n points of the image, the method comprising a measurement of the intensity and of the gray level for each of the n points of the image, and a measurement of the intensity for each of the three colors red, green, blue at each of the n points of the image, the sum of values obtained for all of the n points being compared with a threshold value, the reading of the image forming four raster images, one in gray level, one for each of the three colors red, green, blue, the method comprising a second step of identifying closed polygons with non-intersecting sides, the method being characterized in that it comprises, for each of the three raster images in gray level, in green color, and in red color, a step of determining the value of a propositional function A , the propositional function A being true when the image describes an urban landscape, the determination of the values of this function being carried out by an evaluation of the proportion of polygons presenting rectilinear sides for each of the three raster images in level of gray, in green color, and in red color, the image being classified as representing a natural landscape if the proportion P of polygons having straight sides is less than a threshold value, for each of the three raster images in gray level, in green color, and red color. Procédé selon la revendication 1,caractérisé en ce quela valeur seuil de polygones présentant des côtés rectilignes est de 30%.Method according to Claim 1, characterized in that the threshold value of polygons having straight sides is 30%. Procédé selon la revendication 1 ou 2,caractérisé en ce qu’il comprend une étape de détermination de la surface et de la position du centroïde du plus grand polygone dans l’image matricielle en couleur bleue.Method according to claim 1 or 2, characterized in that it comprises a step of determining the area and the position of the centroid of the largest polygon in the raster image in blue color. Procédé selon l’une quelconque des revendications 1 à 3,caractérisé en ce qu’il comprend une étape de calcul de la complexité de l’image, la complexité de l’image étant calculée en fonction du nombre de polygones détectés dans l’image, en utilisant la relation :

avec Pi la probabilité associée à l’apparition d’une configuration de vertex ou de côtés de polygone, le procédé comprenant une étape de comparaison de la valeur de complexité de l’image à une valeur de complexité seuil.
Method according to any one of Claims 1 to 3, characterized in that it comprises a step of calculating the complexity of the image, the complexity of the image being calculated as a function of the number of polygons detected in the image , using the relationship:

with Pi the probability associated with the occurrence of a configuration of vertices or polygon sides, the method comprising a step of comparing the complexity value of the image with a threshold complexity value.
Procédé selon la revendication 4,caractérisé en ce quel’étape de calcul de la complexité de l’image est effectuée pour les quatre images matricielles, une en niveau de gris, une pour chacune des trois couleurs rouge, vert, bleu.Method according to Claim 4, characterized in that the step of calculating the complexity of the image is carried out for the four raster images, one in gray level, one for each of the three colors red, green, blue. 6. Procédé selon la revendication 4 ou 5,caractérisé en ce quel’image est classée comme représentant un paysage naturel si la complexité de l’image est comprise dans une gamme seuil de valeurs de complexité.6. Method according to claim 4 or 5, characterized in that the image is classified as representing a natural landscape if the complexity of the image is included in a threshold range of complexity values. 7. Procédé selon la revendication 6,caractérisé en ce quela gamme seuil de valeurs de complexité est de 100 à 400.7. Method according to claim 6, characterized in that the threshold range of complexity values is from 100 to 400. 8. Procédé selon l’une quelconque des revendications 1 à 7,caractérisé en ce quele curseur de lecture est une grille matricielle carrée comprenant neuf cellules, une mesure de l’intensité des niveaux de gris et de l’intensité pour chacune des trois couleurs rouge, vert, bleu étant effectuée pour chacun des neuf points de l’image recouvert par le curseur de lecture, la somme de ces valeurs étant comparée à une valeur seuil, la valeur 1 étant attribuée aux points de l’image dans l’image matricielle lorsque la somme est supérieure à la valeur seuil.8. A method according to any one of claims 1 to 7, characterized in that the playback cursor is a square matrix grid comprising nine cells, a measure of grayscale intensity and intensity for each of the three colors red, green, blue being carried out for each of the nine points of the image covered by the reading cursor, the sum of these values being compared with a threshold value, the value 1 being attributed to the points of the image in the raster image when the sum is greater than the threshold value.
FR2008459A 2020-08-12 2020-08-12 AUTOMATIC IMAGE CLASSIFICATION PROCESS Active FR3113432B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2008459A FR3113432B1 (en) 2020-08-12 2020-08-12 AUTOMATIC IMAGE CLASSIFICATION PROCESS

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2008459 2020-08-12
FR2008459A FR3113432B1 (en) 2020-08-12 2020-08-12 AUTOMATIC IMAGE CLASSIFICATION PROCESS

Publications (2)

Publication Number Publication Date
FR3113432A1 true FR3113432A1 (en) 2022-02-18
FR3113432B1 FR3113432B1 (en) 2022-08-05

Family

ID=73643031

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2008459A Active FR3113432B1 (en) 2020-08-12 2020-08-12 AUTOMATIC IMAGE CLASSIFICATION PROCESS

Country Status (1)

Country Link
FR (1) FR3113432B1 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2790571A1 (en) 1999-03-03 2000-09-08 France Telecom METHOD FOR RECOGNIZING FORMS
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
EP1850270A1 (en) 2006-04-28 2007-10-31 Toyota Motor Europe NV Robust interest point detector and descriptor
US7353224B2 (en) 2001-12-04 2008-04-01 Hewlett-Packard Development Company, L.P. System and method for efficiently finding near-similar images in massive databases
US7840059B2 (en) 2006-09-21 2010-11-23 Microsoft Corporation Object recognition using textons and shape filters
EP2801951A1 (en) * 2013-05-08 2014-11-12 Honeywell International Inc. Aerial image segmentation for refineries
FR3009635A1 (en) 2013-08-08 2015-02-13 St Microelectronics Sa METHOD FOR SEARCHING A SIMILAR IMAGE IN A BANK OF IMAGES FROM A REFERENCE IMAGE
WO2017021753A1 (en) * 2015-08-06 2017-02-09 Accenture Global Services Limited Condition detection using image processing
FR3072806A1 (en) 2017-10-19 2019-04-26 Commissariat A L'energie Atomique Et Aux Energies Alternatives METHOD FOR CALCULATING A GLOBAL DESCRIPTOR OF AN IMAGE
WO2019106095A1 (en) 2017-11-29 2019-06-06 Yellow Line Parking Ltd. Hierarchical image interpretation system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2790571A1 (en) 1999-03-03 2000-09-08 France Telecom METHOD FOR RECOGNIZING FORMS
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
US7353224B2 (en) 2001-12-04 2008-04-01 Hewlett-Packard Development Company, L.P. System and method for efficiently finding near-similar images in massive databases
EP1850270A1 (en) 2006-04-28 2007-10-31 Toyota Motor Europe NV Robust interest point detector and descriptor
US7840059B2 (en) 2006-09-21 2010-11-23 Microsoft Corporation Object recognition using textons and shape filters
EP2801951A1 (en) * 2013-05-08 2014-11-12 Honeywell International Inc. Aerial image segmentation for refineries
FR3009635A1 (en) 2013-08-08 2015-02-13 St Microelectronics Sa METHOD FOR SEARCHING A SIMILAR IMAGE IN A BANK OF IMAGES FROM A REFERENCE IMAGE
WO2017021753A1 (en) * 2015-08-06 2017-02-09 Accenture Global Services Limited Condition detection using image processing
FR3072806A1 (en) 2017-10-19 2019-04-26 Commissariat A L'energie Atomique Et Aux Energies Alternatives METHOD FOR CALCULATING A GLOBAL DESCRIPTOR OF AN IMAGE
WO2019106095A1 (en) 2017-11-29 2019-06-06 Yellow Line Parking Ltd. Hierarchical image interpretation system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FREEMAN ET AL.: "The design and use of steerable filters", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 13, no. 9, 1991, XP000231520, DOI: 10.1109/34.93808
JURIE ET AL., 10TH INTERNATIONAL CONFERENCE ON COMPUTER VISION IEEE COMPUTER SOCIETY, vol. 1, 2005, pages 604 - 610
LEE ET AL.: "Performance évaluation of local descriptors for maximally stable extremal regions", JOURNAL OF VISUAL COMMUNICATION AND IMAGE REPRESENTATION, vol. 47, August 2017 (2017-08-01), pages 62 - 72, XP085053214, DOI: 10.1016/j.jvcir.2017.05.008
WANG ET AL.: "A Dual Locality-Constrained Linear Coding Algorithm for Image Classification", vol. 6, 2018, IEEE, pages: 19247 - 19254

Also Published As

Publication number Publication date
FR3113432B1 (en) 2022-08-05

Similar Documents

Publication Publication Date Title
Qureshi et al. A bibliography of pixel-based blind image forgery detection techniques
CN109376611A (en) A kind of saliency detection method based on 3D convolutional neural networks
CN108154133B (en) Face portrait-photo recognition method based on asymmetric joint learning
Thajeel et al. State of the art of copy-move forgery detection techniques: a review
CN113627472A (en) Intelligent garden defoliating pest identification method based on layered deep learning model
CN110211127B (en) Image partition method based on bicoherence network
CN111126412A (en) Image key point detection method based on characteristic pyramid network
CN109977899B (en) Training, reasoning and new variety adding method and system for article identification
Zhang et al. Spatial–temporal gray-level co-occurrence aware CNN for SAR image change detection
CN114842478A (en) Text area identification method, device, equipment and storage medium
CN110633691A (en) Binocular in-vivo detection method based on visible light and near-infrared camera
Kazimi et al. Semantic segmentation of manmade landscape structures in digital terrain models
Mohammed et al. Proposed approach for automatic underwater object classification
CN108960285B (en) Classification model generation method, tongue image classification method and tongue image classification device
Roslan et al. Individual tree crown detection using GAN and RetinaNet on tropical forest
FR3113432A1 (en) AUTOMATIC IMAGE CLASSIFICATION PROCESS
Dixit et al. Copy-move image forgery detection using frequency-based techniques: a review
Sheikh et al. Noise tolerant classification of aerial images into manmade structures and natural-scene images based on statistical dispersion measures
Collins et al. CSDD features: Center-surround distribution distance for feature extraction and matching
Yuan et al. Graph neural network based multi-feature fusion for building change detection
Zhang et al. Novel approaches to enhance coral reefs monitoring with underwater image segmentation
Wen et al. Shoeprint image retrieval and crime scene shoeprint image linking by using convolutional neural network and normalized cross correlation
Sulaiman et al. Image tampering detection using extreme learning machine
Liu et al. Identification of Damaged Building Regions from High-Resolution Images Using Superpixel-Based Gradient and Autocorrelation Analysis
Banwaskar et al. An Efficient Flower Classification System Using Feature Fusion

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5