FR2989804A1 - Method for reconstructing seismic data from color images to identify presence of oil fields, involves extracting geographical position of image pixels and colors within color space to realize reconstruction of data from image - Google Patents

Method for reconstructing seismic data from color images to identify presence of oil fields, involves extracting geographical position of image pixels and colors within color space to realize reconstruction of data from image Download PDF

Info

Publication number
FR2989804A1
FR2989804A1 FR1253655A FR1253655A FR2989804A1 FR 2989804 A1 FR2989804 A1 FR 2989804A1 FR 1253655 A FR1253655 A FR 1253655A FR 1253655 A FR1253655 A FR 1253655A FR 2989804 A1 FR2989804 A1 FR 2989804A1
Authority
FR
France
Prior art keywords
color
point
curve
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1253655A
Other languages
French (fr)
Other versions
FR2989804B1 (en
Inventor
Yohann Agullo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Spie Oil & Gas Services
Original Assignee
Spie Oil & Gas Services
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spie Oil & Gas Services filed Critical Spie Oil & Gas Services
Priority to FR1253655A priority Critical patent/FR2989804B1/en
Publication of FR2989804A1 publication Critical patent/FR2989804A1/en
Application granted granted Critical
Publication of FR2989804B1 publication Critical patent/FR2989804B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/28Processing seismic data, e.g. for interpretation or for event detection
    • G01V1/282Application of seismic models, synthetic seismograms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/28Processing seismic data, e.g. for interpretation or for event detection
    • G01V1/34Displaying seismic recordings or visualisation of seismic data or attributes
    • G01V1/345Visualisation of seismic data or attributes, e.g. in 3D cubes

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Environmental & Geological Engineering (AREA)
  • Geology (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Geophysics (AREA)
  • Image Processing (AREA)

Abstract

The method involves selecting or defining a color space representing all color shades associated with images. A color scale appearing as a curve evolving in the space is defined. A geographical position of an image pixel as well as color coordinates within the space is extracted in the image. A color of the pixel is compared with the curve representative of the scale defined in the space to determine data associated with the pixel color. Geographical position of other image pixels and colors within the space are extracted to realize complete reconstruction of data from the image.

Description

PROCEDE DE RECONSTRUCTION DE DONNEES A PARTIR D'UNE IMAGE EN COULEUR A LAQUELLE EST ASSOCIEE DE LA DONNEE. L'invention concerne le domaine des procédés de reconstruction de données, à partir d'une image à laquelle est associée de la donnée. Ce type de procédé est par exemple utilisé pour reconstruire les données sismiques d'une image sismique. Les données sismiques sont notamment utilisées par les compagnies pétrolières pour identifier la présence de champs pétrolifères. La sismique est une technique de mesure indirecte consistant à enregistrer en surface des échos issus de la propagation dans le sous-sol d'une onde sismique provoquée par exemple par un dispositif mécanique situé en surface. METHOD OF RECONSTRUCTING DATA FROM A COLOR IMAGE TO WHICH THE DATA IS ASSOCIATED. The invention relates to the field of data reconstruction methods, from an image with which data is associated. This type of method is for example used to reconstruct the seismic data of a seismic image. Seismic data is used by oil companies to identify the presence of oil fields. Seismic is an indirect measurement technique consisting of recording surface echoes from the propagation in the basement of a seismic wave caused for example by a mechanical device located on the surface.

Ces échos sont générés par les hétérogénéités du sous-sol sondé. Par exemple, le passage de l'onde sismique d'une couche d'argile à une couche de sable va générer un écho, i.e. une onde retour, dont l'amplitude est détectable en surface par un enregistreur. 2 0 L'acquisition de ces données sismiques permet d'élaborer une image dite image sismique représentant le sous-sol sondé. Un exemple d'une telle image sismique d'un sous-sol est représenté sur la figure 1. Dans le cas d'espèce, cette image est représentée en niveau de gris et montre les différentes couches du sous-sol depuis la 2 5 surface du sol jusqu'à une profondeur de 3500m. Avec la sismique, la localisation géographique de l'image est connue (latitude, longitude, profondeur dans le sous-sol). Par ailleurs, la représentation en niveau de gris de l'image fournit l'amplitude de l'onde sismique enregistrée par l'enregistreur. 30 Les compagnies pétrolières peuvent mener des campagnes de mesures pour obtenir de telles images. Cependant, ces campagnes sont coûteuses. Il arrive tout de même fréquemment que les images, en l'absence des données obtenues par l'enregistreur, soient mises sur le marché. Cela permet aux compagnies pétrolières d'obtenir ces images sans mener de campagnes d'acquisition. Toutefois, ces images fournissent des données « brutes », qui ne sont pas directement exploitables par les compagnies pétrolières. En effet, il n'est pas possible de connaître précisément sur ce type d'images la valeur de la donnée, c'est-à-dire l'amplitude sismique, associée au niveau de gris représenté. La simple lecture permet seulement d'obtenir des ordres de grandeur, selon que l'on est plus proche d'un gris clair que d'un gris foncé. Les procédés de reconstructions de données visent à fournir des données exploitables, c'est-à-dire précises, aux compagnies pétrolières, à partir de ces images sismiques. A cet effet, il est nécessaire de la traiter afin d'associer une valeur de la donnée à chaque point de l'image représentée en niveau de gris. Ceci ne pose aucune difficulté particulière et le traitement de ce 15 type d'images représentées en niveau de gris, avec ou sans donnée relative à l'amplitude sismique, est effectué depuis longtemps par les sociétés spécialisées. Cependant, de plus en plus d'images sismiques sont désormais représentées en couleur. 20 Or, les procédés de reconstruction de données utilisés pour les images représentées en niveau de gris ne sont pas transposables aux images sismiques représentées en couleur. En effet, la donnée reconstruite est généralement erronée si bien qu'aucune donnée fiable, amplitude sismique ou toute autre donnée, ne peut être fournie aux compagnies pétrolières. 25 L'invention vise à pallier ce problème du traitement des images sismiques représentées en couleur à laquelle est associée de la donnée, en l'occurrence liée à l'amplitude sismique. Plus généralement, l'invention vise la reconstruction de données de toute image représentée en couleur et comportant une échelle 30 d'amplitude en couleur à laquelle est associée de la donnée. A cet effet, l'invention propose un procédé de reconstruction de données à partir d'une image en couleur à laquelle est associée de la donnée, procédé dans lequel il est prévu les étapes suivantes : a) choisir ou définir un espace de couleur, ledit espace étant susceptible de représenter toutes les teintes de couleur associées à l'image ; puis, mettre en oeuvre par ordinateur les étapes suivantes : b) définir, dans cet espace de couleur, une échelle de couleur se présentant sous la forme d'une courbe évoluant dans ledit espace, chaque point de cette courbe pouvant être associé à une donnée à reconstruire ; c) extraire la position géographique, dans cette image, d'un pixel de l'image ainsi que les coordonnées de sa couleur dans l'espace de couleur défini à l'étape (a), cette couleur étant assimilable à un point P dans cet espace de couleur ; d) comparer la couleur du pixel ainsi décomposée à l'étape (c) à la courbe représentative de l'échelle de couleur définie dans cet espace, pour déterminer la donnée associée à la couleur de ce pixel ; e) extraire la position géographique, dans cette image, des autres pixels de l'image ainsi que leurs couleurs dans l'espace de couleur défini à l'étape (a), pour réaliser la reconstruction complète des données de ladite image. Le procédé selon l'invention pourra également comprendre l'une au moins des caractéristiques suivantes, prises seules ou en combinaison : - l'étape (b) comprend les sous-étapes suivantes : b1) extraire la couleur d'un pixel de l'échelle de couleur associée à l'image, dans l'espace de couleur défini à l'étape (a) ; b2) effectuer, pour chaque composante de l'espace de couleur défini à 2 5 l'étape (a), une moyenne de la composante considérée sur un ensemble de pixels, par exemple l'ensemble des pixels d'une même ligne lorsque l'échelle de couleur associée à l'image à traiter est positionnée verticalement, pour définir un nuage de points dans lequel chaque point est associé à l'ensemble de pixels considéré et sa décomposition dans l'espace de couleur défini à l'étape (a) ; 30 b3) définir la courbe représentative de l'échelle de couleur dans l'espace de couleur défini à l'étape (a), à partir de ce nuage de points ; - l'étape (d) consiste à : o si le point P est situé sur ladite courbe : di) enregistrer cette couleur et la valeur associée à cette couleur ; o si le point P n'est pas situé sur ladite courbe : d2) déterminer le point P" appartenant à ladite courbe associé à la couleur la plus représentative de la couleur du point P puis, à l'issue de cette étape (d2), mettre en oeuvre l'étape (di). - si le point P n'est pas situé sur ladite courbe et que la courbe ne comporte qu'un seul segment, l'étape (d2) consiste à effectuer la projection orthogonale P" du point P sur ledit segment, ledit point P" ainsi obtenu sur le segment étant alors associé à la couleur la plus représentative de la couleur associée au point P et éventuellement, à déterminer la distance PP" ; - si le point P n'est pas situé sur la courbe et que la courbe comporte plusieurs segments, l'étape (d2) consiste à : - effectuer la projection orthogonale P', P", P'", P" du point P sur chaque segment ; - déterminer la distance entre le point P et chacune de ses projections orthogonales P', P", P"', P" sur les différents segments ; - conserver la distance PP" la plus faible, le point P" appartenant à l'un des segments étant alors associé à la couleur la plus représentative de la couleur du point P. - on compare la distance PP" à une valeur seuil prédéterminée et, si la distance PP" est supérieure à cette valeur seuil, on met alors en oeuvre à la place de l'étape (d1), une étape (d'1) dans laquelle soit on n'enregistre que la couleur, soit on enregistre la couleur et on associe la donnée à une non valeur. - l'étape (b) consiste également à définir, dans l'espace de couleur défini à l'étape (a), un ou plusieurs point(s) de couleur fixe n'appartenant pas à ladite courbe. - si le point P n'est pas situé sur la courbe, l'étape (d2) consiste alors à déterminer le point appartenant soit à ladite courbe soit défini par l'un des points fixes dont la couleur est la plus représentative de la couleur du point P ; - si le point dont la couleur est la plus représentative de la couleur du point P est l'un des points fixes, on met alors en oeuvre à la place de l'étape (di), une étape (d'1) dans laquelle soit on n'enregistre que la couleur, soit on enregistre la couleur et on associe la donnée à une non valeur ; - l'étape (e) consiste à répéter les étapes (c) et (d) pour l'ensemble des pixels de l'image ; - l'étape (e) consiste à mettre en oeuvre l'étape (c) puis, à déterminer si la couleur du pixel a été préalablement enregistrée pour un autre pixel et, si cette couleur a été préalablement enregistrée, à enregistrer directement la valeur lui correspondant. A cet effet également, l'invention propose un procédé de reconstruction de données à partir d'une image en couleur à laquelle est associée de la donnée, procédé dans lequel il est prévu les étapes suivantes : A) choisir ou définir un espace de couleur, ledit espace étant susceptible de représenter toutes les teintes de couleur associées à l'image ; puis, mettre en oeuvre par ordinateur les étapes suivantes : B) définir, dans cet espace de couleur, une échelle de couleur se présentant sous la forme d'une courbe évoluant dans ledit espace, chaque point de cette courbe pouvant être associé à une valeur de la donnée à reconstruire ; C) définir une table de conversion couleur-donnée couvrant l'ensemble des couleurs disponibles pour le codage de couleurs dans l'ordinateur, à partir de la courbe définie à l'étape (B) ; D) extraire la position géographique, dans l'image, d'un pixel de l'image ainsi que les coordonnées de sa couleur dans l'espace de couleur défini à l'étape (A), cette couleur étant assimilable à un point P dans cet espace de couleur ; E) comparer la couleur extraite à l'étape (D) à la table de conversion couleur-donnée définie à l'étape (C), pour déterminer la valeur de la donnée associée à cette couleur ; F) extraire la position géographique, dans cette image, des autres pixels de l'image ainsi que leurs couleurs dans l'espace de couleur défini à l'étape (A), pour réaliser la reconstruction complète des données de ladite image. Cette variante du procédé selon l'invention pourra également comprendre l'une au moins des caractéristiques suivantes, prises seules ou en combinaison : - l'étape (B) comprend les sous-étapes suivantes : B1) extraire la couleur d'un pixel de l'échelle de couleur présente sur l'image, dans l'espace de couleur défini à l'étape (A) ; B2) effectuer, pour chaque composante de l'espace de couleur défini à l'étape (A), une moyenne de la composante considérée sur un ensemble de pixels, par exemple l'ensemble des pixels d'une même ligne lorsque l'échelle de couleur présente sur l'image à traiter est positionnée verticalement, pour définir un nuage de points dans lequel chaque point est associé à l'ensemble de pixels considéré et sa décomposition dans l'espace de couleur défini à l'étape (A) ; B3) définir la courbe représentative de l'échelle de couleur dans l'espace de couleur défini à l'étape (A), à partir de ce nuage de points ; - l'étape (C) consiste à : Cl) exprimer une couleur prévue pour le codage des couleurs dans l'ordinateur dans l'espace de couleur défini à l'étape (A), cette couleur étant assimilable à un point M dans cet espace de couleur ; C2) comparer cette couleur à la courbe représentative de l'échelle de couleur définie dans cet espace, pour déterminer la donnée associée à cette couleur ; C3) déterminer, sur ladite courbe, la couleur associée aux autres couleurs prévues dans l'ordinateur pour le codage des couleurs, pour réaliser la table de conversion couleur-donnée ; - l'étape (C2) consiste à : o si le point M est situé sur ladite courbe : C21) enregistrer cette couleur et la valeur de la donnée associée à cette couleur ; o si le point M n'est pas situé sur ladite courbe : C22) déterminer le point M" appartenant à ladite courbe associé à la couleur la plus représentative de la couleur du point M puis, à l'issue de cette étape (C22), mettre en oeuvre l'étape (C21) ; - si le point M n'est pas situé sur ladite courbe et que la courbe ne comporte qu'un seul segment, l'étape (C22) consiste à effectuer la projection orthogonale M" du point M sur ledit segment, ledit point M" ainsi obtenu sur le segment étant alors associé à la couleur la plus représentative de la couleur associée au point M et éventuellement, à déterminer la distance MM" ; - si le point M n'est pas situé sur la courbe et que la courbe comporte plusieurs segments, l'étape (C22) consiste à : - effectuer la projection orthogonale M', M", M"', M"" du point M sur chaque segment ; - déterminer la distance entre le point M et chacune de ses projections orthogonales M', M", M"', M" sur les différents segments ; - conserver la distance MM" la plus faible, le point M" appartenant à l'un des segments étant alors associé à la couleur la plus représentative de la couleur du point M ; - on compare la distance MM" à une valeur seuil prédéterminée et, si la distance MM" est supérieure à cette valeur seuil, on met alors en oeuvre à la place de l'étape (C21), une étape (C'21) dans laquelle soit on n'enregistre que la couleur, soit on enregistre la couleur et on associe la donnée à une non valeur ; - l'étape (B) consiste également à définir, dans l'espace de couleur défini à l'étape (A), un ou plusieurs point(s) de couleur fixe n'appartenant pas à ladite courbe ; - si le point M n'est pas situé sur la courbe, l'étape (C22) consiste alors à déterminer le point appartenant soit à ladite courbe soit défini par l'un des points fixes dont la couleur est la plus représentative de la couleur du point M ; - si le point dont la couleur est la plus représentative de la couleur du point M est l'un des points fixes, on met alors en oeuvre à la place de l'étape (C21), une étape (C'21) dans laquelle soit on n'enregistre que la couleur, soit on enregistre la couleur et on associe la donnée à une non valeur ; - l'étape (C3) consiste à répéter les étapes (C1) et (C2) pour l'ensemble des couleurs disponibles, dans l'ordinateur, pour le codage des couleurs ; - l'étape (F) consiste à répéter les étapes (D) et (E) pour l'ensemble des pixels de l'image. Quelle que soit la variante du procédé selon l'invention, celui-ci s'applique avantageusement à la reconstruction de données sismiques, susceptibles d'intéresser les compagnies pétrolières. L'invention est cependant applicable à l'obtention de n'importe quel type de données, susceptibles d'être reconstruites à partir d'une image représentée avec une échelle de couleur à laquelle est associée de la donnée. A titre d'exemple non limitatif, il peut s'agir d'images météorologiques telles que des cartes de température, pression, des champs de vitesses ou des cartes de niveaux. Contrairement à la sismique où l'existence des valeurs de l'amplitude sismique sur l'échelle de couleur, et parfois de l'échelle de couleur elle-même, ne sont pas nécessaires pour reconstruire des données pertinentes telle que l'évolution de cette amplitude, il est nécessaire d'avoir une échelle de couleur associée à l'image à traiter comportant, selon le cas, les valeurs de température, pression, vitesse ou niveau sur l'échelle de couleur pour reconstruire la donnée. L'invention sera mieux comprise et d'autres buts, avantages et caractéristiques de celle-ci apparaîtront plus clairement à la lecture de la description qui suit et qui est faite au regard des figures annexées, sur lesquelles : la figure 2(a) est un exemple d'une échelle de couleur possible ; la figure 2(b) représente l'évolution des composantes RVB de l'échelle de couleur représentée sur la figure 2(a) ; - la figure 2(c) représente, dans l'espace RVB, l'évolution de la courbe associée à l'échelle de couleur représentée sur la figure 2(a) ; la figure 3(a) représente le placement d'un point P, représentatif de la couleur d'un pixel d'une image en couleur devant être traitée par le procédé selon l'invention, dans l'espace RVB, par rapport à l'échelle de couleur représentée sur la figure 2(c), le point P appartenant à la courbe associée à l'échelle de couleur définie sur la figure 2(b) ; la figure 3(b) représente le placement d'un point P, représentatif de la couleur d'un pixel d'une image devant être traitée par le procédé selon l'invention, dans l'espace RVB, par rapport à l'échelle de couleur représentée sur la figure 2(c) et d'un point P' correspondant à la projection orthogonale du point P sur la courbe associée à l'échelle de couleur définie sur la figure 2(b) ; - la figure 4 est une image de représentation couleur de données sismiques, en l'occurrence associée à une échelle de couleur noir-blanc-rouge ; - la figure 5 est un tableau représentant les données reconstruites avec le procédé selon l'invention, à partir de l'image de la figure 4 ; la figure 6 représente l'image équivalente à celle de la figure 4, après reconstruction à partir des données de la figure 5. These echoes are generated by the heterogeneities of the subsoil probed. For example, the passage of the seismic wave from a clay layer to a sand layer will generate an echo, i.e. a return wave, whose amplitude is detectable on the surface by a recorder. The acquisition of these seismic data makes it possible to develop an image called seismic image representing the subsoil probed. An example of such a seismic image of a subsoil is shown in FIG. 1. In the case in point, this image is represented in gray level and shows the different layers of the subsoil from the surface. from the ground to a depth of 3500m. With seismic, the geographic location of the image is known (latitude, longitude, depth in the basement). In addition, the gray-scale representation of the image provides the amplitude of the seismic wave recorded by the recorder. Oil companies can conduct measurement campaigns to obtain such images. However, these campaigns are expensive. However, it frequently happens that the images, in the absence of the data obtained by the recorder, are placed on the market. This allows oil companies to obtain these images without conducting acquisition campaigns. However, these images provide "raw" data, which are not directly exploitable by the oil companies. Indeed, it is not possible to know precisely on this type of images the value of the data, that is to say the seismic amplitude, associated with the level of gray represented. Simple reading only allows you to obtain orders of magnitude, depending on whether you are closer to a light gray than a dark gray. Data reconstruction processes aim to provide exploitable, ie accurate, data to oil companies from these seismic images. For this purpose, it is necessary to process it in order to associate a value of the data with each point of the image represented in gray level. This poses no particular difficulty and the processing of this type of image represented in gray level, with or without data relating to the seismic amplitude, has been carried out for a long time by specialized companies. However, more and more seismic images are now represented in color. However, the data reconstruction methods used for the gray-scale images are not transposable to the seismic images represented in color. In fact, the reconstructed data is generally erroneous so that no reliable data, seismic amplitude or any other data can be supplied to the oil companies. The aim of the invention is to overcome this problem of the processing of the seismic images represented in color with which the data is associated, in this case related to the seismic amplitude. More generally, the invention aims at reconstructing data of any image represented in color and having a scale of color amplitude with which data is associated. For this purpose, the invention proposes a method for reconstructing data from a color image with which data is associated, in which method the following steps are provided: a) choosing or defining a color space, said space being capable of representing all the color tones associated with the image; then, implement by computer the following steps: b) define, in this color space, a color scale in the form of a curve evolving in said space, each point of this curve being able to be associated with a datum to rebuild; c) extracting the geographical position, in this image, of a pixel of the image as well as the coordinates of its color in the color space defined in step (a), this color being comparable to a point P in this color space; d) comparing the color of the pixel thus decomposed in step (c) to the curve representative of the color scale defined in this space, to determine the data associated with the color of this pixel; e) extracting the geographical position, in this image, of the other pixels of the image as well as their colors in the color space defined in step (a), to carry out the complete reconstruction of the data of said image. The method according to the invention may also comprise at least one of the following characteristics, taken alone or in combination: step (b) comprises the following substeps: b1) extracting the color of a pixel from the color scale associated with the image, in the color space defined in step (a); b2) performing, for each component of the color space defined in step (a), an average of the component considered over a set of pixels, for example the set of pixels of the same line when the color scale associated with the image to be processed is positioned vertically, to define a cloud of points in which each point is associated with the set of pixels considered and its decomposition in the color space defined in step (a). ); B3) defining the curve representative of the color scale in the color space defined in step (a), from this point cloud; step (d) consists of: o if point P is situated on said curve: di) register this color and the value associated with this color; o if the point P is not situated on the said curve: d2) determining the point P "belonging to the said curve associated with the most representative color of the color of the point P, then at the end of this step (d2) implementing step (di): - if point P is not situated on said curve and the curve has only one segment, step (d2) consists in performing orthogonal projection P " the point P on said segment, said point P "thus obtained on the segment then being associated with the most representative color of the color associated with the point P and possibly determining the distance PP"; if the point P is not situated on the curve and the curve comprises several segments, step (d2) consists in: performing the orthogonal projection P ', P ", P'", P "of the point P on each segment - determine the distance between the point P and each of its orthogonal projections P ', P ", P"', P "on the different segments; - keep the distance PP "the weakest, the point P" belonging to one of the segments then being associated with the color most representative of the color of the point P. - the distance PP "is compared with a predetermined threshold value and if the distance PP "is greater than this threshold value, then a step (of 1) is implemented in place of step (d1) in which either the color is recorded or the color and we associate the data with a non-value. step (b) also consists in defining, in the color space defined in step (a), one or more point (s) of fixed color not belonging to said curve. if the point P is not situated on the curve, step (d2) then consists in determining the point belonging to either said curve or defined by one of the fixed points whose color is the most representative of the color point P; if the point whose color is the most representative of the color of the point P is one of the fixed points, then a step (of 1) is used in place of the step (di) in which either we only record the color, or we record the color and we associate the data with a non-value; step (e) consists in repeating steps (c) and (d) for all the pixels of the image; step (e) consists of implementing step (c) and then determining whether the color of the pixel has been previously recorded for another pixel and, if this color has been previously recorded, recording directly the value corresponding to him. For this purpose also, the invention proposes a method for reconstructing data from a color image with which data is associated, in which method the following steps are provided: A) choosing or defining a color space said space being capable of representing all the color tones associated with the image; then, implement by computer the following steps: B) define, in this color space, a color scale in the form of a curve evolving in said space, each point of this curve being able to be associated with a value data to rebuild; C) defining a color-data conversion table covering all the colors available for the color coding in the computer, from the curve defined in step (B); D) extracting the geographical position, in the image, of a pixel of the image as well as the coordinates of its color in the color space defined in step (A), this color being comparable to a point P in this color space; E) comparing the color extracted in step (D) to the color-data conversion table defined in step (C), to determine the value of the data associated with this color; F) extracting the geographical position, in this image, of the other pixels of the image as well as their colors in the color space defined in step (A), to carry out the complete reconstruction of the data of said image. This variant of the method according to the invention may also comprise at least one of the following characteristics, taken alone or in combination: step (B) comprises the following substeps: B1) extracting the color of a pixel from the color scale present on the image, in the color space defined in step (A); B2) performing, for each component of the color space defined in step (A), an average of the component considered over a set of pixels, for example the set of pixels of the same line when the scale the color of the image to be treated is positioned vertically, to define a cloud of points in which each point is associated with the set of pixels considered and its decomposition in the color space defined in step (A); B3) defining the representative curve of the color scale in the color space defined in step (A), from this point cloud; step (C) consists in: C1) expressing a color intended for color coding in the computer in the color space defined in step (A), this color being comparable to a point M in this color space; C2) comparing this color with the curve representative of the color scale defined in this space, to determine the data associated with this color; C3) determining, on said curve, the color associated with the other colors provided in the computer for color coding, to achieve the color-data conversion table; step (C2) consists in: o if the point M is situated on the said curve: C21) registering this color and the value of the data associated with this color; o if the point M is not situated on the said curve: C22) determining the point M "belonging to the said curve associated with the most representative color of the color of the point M, then at the end of this step (C22) implementing step (C21); - if point M is not situated on said curve and the curve comprises only one segment, step (C22) consists in performing orthogonal projection M " of the point M on said segment, said point M "thus obtained on the segment being then associated with the most representative color of the color associated with the point M and possibly, to determine the distance MM"; if the point M is not situated on the curve and the curve comprises several segments, the step (C22) consists in: performing the orthogonal projection M ', M ", M"', M "" of the point M on each segment; determining the distance between the point M and each of its orthogonal projections M ', M ", M"', M "on the different segments - keeping the distance MM" the weakest, the point M "belonging to the one segments then being associated with the color most representative of the color of the point M, the distance MM "is compared with a predetermined threshold value and, if the distance MM" is greater than this threshold value, the following is then implemented. the place of the step (C21), a step (C'21) in which only the color is recorded, or the color is recorded and the data is associated with a non-value, - the step (B) also consists in defining, in the color space defined in step (A), one or more point (s) of fixed color not belonging to said curve; - if the point M is not situated on the curve, the step (C22) then consists in determining the point belonging to either said curve or defined by one of the fixed points whose color r is the most representative of the color of the point M; if the point whose color is the most representative of the color of the point M is one of the fixed points, then a step (C'21) is used in place of the step (C21) in which either we only record the color, or we record the color and we associate the data with a non-value; the step (C3) consists in repeating the steps (C1) and (C2) for all the available colors, in the computer, for the coding of the colors; step (F) consists of repeating steps (D) and (E) for all the pixels of the image. Whatever the variant of the process according to the invention, it is advantageously applicable to the reconstruction of seismic data, likely to interest the oil companies. The invention is however applicable to obtaining any type of data that can be reconstructed from an image represented with a color scale with which data is associated. By way of non-limiting example, these may be meteorological images such as temperature maps, pressure maps, velocity fields or level maps. Unlike seismic where the existence of seismic amplitude values on the color scale, and sometimes the color scale itself, are not necessary to reconstruct relevant data such as the evolution of this amplitude, it is necessary to have a color scale associated with the image to be processed comprising, as the case, the values of temperature, pressure, speed or level on the color scale to reconstruct the data. The invention will be better understood and other objects, advantages and characteristics thereof will appear more clearly on reading the description which follows and which is made with reference to the appended figures, in which: FIG. 2 (a) is an example of a possible color scale; Fig. 2 (b) shows the evolution of the RGB components of the color scale shown in Fig. 2 (a); FIG. 2 (c) represents, in the RGB space, the evolution of the curve associated with the color scale represented in FIG. 2 (a); FIG. 3 (a) shows the placement of a point P, representative of the color of a pixel of a color image to be processed by the method according to the invention, in the RGB space, relative to the the color scale shown in FIG. 2 (c), the point P belonging to the curve associated with the color scale defined in FIG. 2 (b); FIG. 3 (b) shows the placement of a point P, representative of the color of a pixel of an image to be processed by the method according to the invention, in the RGB space, with respect to the scale. the color represented in FIG. 2 (c) and a point P 'corresponding to the orthogonal projection of the point P on the curve associated with the color scale defined in FIG. 2 (b); FIG. 4 is a color representation image of seismic data, in this case associated with a black-white-red color scale; FIG. 5 is a table showing the data reconstructed with the method according to the invention, from the image of FIG. 4; FIG. 6 represents the image equivalent to that of FIG. 4, after reconstruction from the data of FIG. 5.

Le procédé selon l'invention vise à reconstruire des données à partir d'une image en couleur. Cette image peut être récupérée directement sous forme numérique ou parfois, doit être préalablement numérisée si elle a été récupérée sous format papier. Il convient cependant de noter que la plupart des images en couleur à traiter sont récupérées directement sous un format numérique. Nous allons tout d'abord décrire un premier procédé de reconstruction de données, à partir d'une image en couleur à laquelle est associée de la donnée, conformément à l'invention. The method according to the invention aims at reconstructing data from a color image. This image can be retrieved directly in digital form or sometimes, must be previously scanned if it has been recovered in paper format. It should be noted, however, that most color images to be processed are retrieved directly in a digital format. We will first describe a first data reconstruction method, from a color image with which data is associated, according to the invention.

Une première étape (étape (a)) du procédé consiste à choisir ou définir un espace de couleur. Cet espace peut par exemple être défini par un repère orthonormé avec les coordonnées Rouge-Vert-Bleu (RVB). Cet espace est en effet susceptible de représenter toutes les teintes de couleur associées à l'image en couleur. On pourrait cependant définir cet espace avec d'autres coordonnées, également susceptibles de représenter toutes les couleurs d'une échelle de couleur quelconque associée à ladite image. Par exemple, et de manière non limitative, on peut citer les 2 0 espaces définis par les ensembles de couleurs Cyan-Magenta-Jaune- Noir (CMJN), Teinte-Saturation-Luminosité (TSL), Teinte-Saturation- Valeur (TSV), XYZ, xyY, UVW, U'V'W', Lab, LUV, YUV, YDbDr, YCbCr. On pourra se référer au lien suivant http://fr.wikipedia.orci/wiki/Car/oC3%A9qorie:Espace Couleur. 25 Les autres étapes du procédé sont mises en oeuvre par un ordinateur, un processeur ou un ensemble de processeurs. Une deuxième étape (étape (b)) consiste à définir, dans cet espace de couleur, une échelle de couleur se présentant sous la forme d'une courbe évoluant dans ledit espace. Cette échelle de couleur doit être, pour que 30 le procédé fonctionne, une reproduction fidèle de l'échelle de couleur associée à l'image à traiter. Il convient de noter que la définition de cette courbe appartient à l'opérateur chargé de reconstruire les données de l'image à traiter. A first step (step (a)) of the method consists in choosing or defining a color space. This space can for example be defined by an orthonormal frame with the coordinates Red-Green-Blue (RGB). This space is indeed likely to represent all the color tones associated with the color image. However, we could define this space with other coordinates, also likely to represent all the colors of any color scale associated with said image. For example, and in a nonlimiting manner, mention may be made of the spaces defined by the color sets Cyan-Magenta-Yellow-Black (CMYK), Hue-Saturation-Brightness (TSL), Hue-Saturation-Value (TSV) , XYZ, xyY, UVW, U'V'W ', Lab, LUV, YUV, YDbDr, YCbCr. We can refer to the following link http: //en.wikipedia.orci/wiki/Car/oC3%A9qorie: Color Space. The other steps of the method are implemented by a computer, a processor or a set of processors. A second step (step (b)) consists in defining, in this color space, a color scale in the form of a curve evolving in said space. This color scale must be, for the process to work, a faithful reproduction of the color scale associated with the image to be processed. It should be noted that the definition of this curve belongs to the operator responsible for reconstructing the data of the image to be processed.

La courbe représentative de l'échelle de couleur dans cet espace est ainsi classiquement une courbe en trois dimensions évoluant dans ledit espace. Nous allons décrire la construction de cette courbe représentative de l'échelle de couleur à l'appui des figures 2(a) à 2(c), lesquelles ne forment qu'un exemple fourni à simple but illustratif. La figure 2(a) représente une échelle de couleur associée à l'image à traiter, à laquelle est associée une donnée arbitraire, en ordonnées, allant de la valeur nulle à la valeur unité. L'évolution des données sur cette échelle de couleur est en l'occurrence linéaire. Cette échelle de couleur se présente sous forme numérique, par exemple au format bitmap. Dans le cas d'espèce, il s'agit d'une échelle de couleur « arc-en-ciel » allant du Bleu au Rouge. Tout d'abord, une sous-étape (b1) consiste, pour un pixel de l'échelle de couleur associée à l'image à traiter, à en extraire sa couleur dans l'espace de couleur défini à l'étape (a). Ceci est facilement géré de manière automatique par l'ordinateur. Par exemple, on peut utiliser une bibliothèque du commerce telle que OpenCV (pour « Open Source Computer Vision Library » selon la terminologie anglo-saxonne), cf. http://opencv.willofflarage.com/wiki/. On peut, selon un autre exemple, utiliser une autre bibliothèque du commerce telle que MODI (pour « Microsoft Office Document Imaging » selon la terminologie anglo- saxonne), cf. http://office.microsoft.com/en-us/help/about-microsoft-office- document-imaging-HP001 0771 03.aspx. En pratique, il est avantageux d'utiliser une bibliothèque permettant d'extraire la couleur du pixel directement dans l'espace de couleur définie à l'étape (a). Toutefois, si cette bibliothèque permet d'extraire cette couleur dans un autre espace de couleur que celui qui a été défini à l'étape (a), la sous- étape (b1) doit également prévoir une conversion de la couleur du pixel de cet espace de couleur vers l'espace de couleur défini à l'étape (a). Cette conversion s'effectue en utilisant les règles de conversion des couleurs, parfaitement connues de l'homme du métier. Par exemple, le passage de l'espace RVB à l'espace TSL est explicité sous le lien suivant http://vvww. irem . un iv-montp2.fr/optionsciences/200520006/n uanciers. pdf. La sous-étape (b1) est répétée pour chaque pixel de l'échelle de couleur associée à l'image à traiter. Si l'échelle de couleur est représentée verticalement, une sous-étape (b2) consistant à effectuer, pour chaque composante de l'espace de couleur défini à l'étape (a), une moyenne, par exemple arithmétique, de la composante considérée R, V ou B sur l'ensemble des pixels d'une même ligne est ensuite effectuée. On comprend que si l'échelle de couleur est représentée horizontalement, cette moyenne est effectuée par colonne. A l'issue de la sous-étape (b2), il est alors possible de représenter l'évolution des composantes R, V et B en fonction du numéro de la ligne de pixels de l'échelle de couleur. On obtient ainsi un nuage de points, la coordonnée de chaque point correspondant, en abscisse, au numéro de la ligne de pixels et en ordonnées, à sa décomposition selon les trois composante RVB. Par ailleurs, la sous-étape (b2) permet d'associer chaque ligne à une donnée particulière, en l'occurrence comprise entre la valeur nulle et la valeur unité. Une sous-étape (b3) est ensuite mise en oeuvre. Cette sous-étape (b3) consiste à définir la courbe représentative de l'échelle de couleur dans l'espace de couleur défini à l'étape (a), à partir de 25 ce nuage de points. Dans le même temps, les données associées à chaque point sont associées à cette courbe. Dans l'exemple choisi, les points formant le nuage de points dans l'espace RVB peuvent être associés à des segments de droite, qui peuvent être entièrement définis avec seulement cinq points du nuage de 30 points. Dans le cas d'espèce, on définit ainsi une courbe représentative de l'échelle de couleur présente sur l'image à traiter qui est linéaire par morceaux et, plus précisément, formée de quatre segments. The representative curve of the color scale in this space is thus conventionally a three-dimensional curve evolving in said space. We will describe the construction of this curve representative of the color scale in support of Figures 2 (a) to 2 (c), which form an example provided for illustrative purposes only. Figure 2 (a) represents a color scale associated with the image to be processed, with which is associated an arbitrary datum, ordinate, ranging from the null value to the unit value. The evolution of the data on this color scale is in this case linear. This color scale is in digital form, for example in bitmap format. In this case, it is a "rainbow" color scale from Blue to Red. Firstly, a substep (b1) consists, for a pixel of the color scale associated with the image to be processed, in extracting its color from the color space defined in step (a) . This is easily managed automatically by the computer. For example, one can use a commercial library such as OpenCV (for "Open Source Computer Vision Library" in English terminology), cf. http://opencv.willofflarage.com/wiki/. According to another example, another commercial library such as MODI (for Microsoft Office Document Imaging) can be used, cf. http://office.microsoft.com/en-us/help/about-microsoft-office- document-imaging-HP001 0771 03.aspx. In practice, it is advantageous to use a library for extracting the color of the pixel directly in the color space defined in step (a). However, if this library makes it possible to extract this color in another color space that has been defined in step (a), the sub-step (b1) must also provide for a conversion of the pixel color of this color. color space to the color space defined in step (a). This conversion is done using the color conversion rules, perfectly known to those skilled in the art. For example, the transition from the RGB space to the TSL space is explained under the following link http: // vvww. irem. an iv-montp2.fr/optionsciences/200520006/n uanciers. pdf. Substep (b1) is repeated for each pixel of the color scale associated with the image to be processed. If the color scale is represented vertically, a substep (b2) of performing, for each component of the color space defined in step (a), an average, for example arithmetic, of the considered component R, V or B on all the pixels of the same line is then performed. It is understood that if the color scale is represented horizontally, this average is carried out by column. At the end of the sub-step (b2), it is then possible to represent the evolution of the components R, V and B as a function of the number of the pixel line of the color scale. A point cloud is thus obtained, the coordinate of each point corresponding, on the abscissa, to the number of the pixel line and to the ordinate, to its decomposition according to the three RGB components. Moreover, the sub-step (b2) makes it possible to associate each line with a particular datum, in this case between the null value and the unit value. A substep (b3) is then implemented. This sub-step (b3) consists in defining the representative curve of the color scale in the color space defined in step (a), from this point cloud. At the same time, the data associated with each point is associated with this curve. In the example chosen, the points forming the cloud of points in the RGB space can be associated with line segments, which can be fully defined with only five points of the 30 point cloud. In the case in point, we thus define a representative curve of the color scale present on the image to be treated which is linear in pieces and, more precisely, formed of four segments.

C'est ce qui peut être visualisé sur la figure 2(b). La figure 2(b) représente l'évolution des proportions respectives de trois couleurs de base Rouge, Vert et Bleu pour former une échelle de couleur dans l'espace RVB associée à l'échelle de couleur présente sur l'image à traiter. En l'occurrence, l'échelle de couleur présente sur l'image à traiter est celle qui est représentée sur la figure 2(a) et qui est reproduite à la base de la figure 2(b), en abscisse. La donnée associée à chaque ligne de pixels de l'échelle de couleur présente sur l'image à traiter est facilement extraite, dans la mesure où l'on connait le numéro de ligne et le nombre de lignes. Une simple règle de proportionnalité sur l'échelle de valeur [0 ; 1] permet donc de connaître la donnée/valeur associée à la ligne considérée. Comme on peut le constater sur cette figure 2(b), la composante « Bleu » est à sa valeur maximale (Vmax = 255) entre 0 et 0,25 sur l'échelle de couleur, puis décroît linéairement entre 0,25 et 0,5 jusqu'à sa valeur minimale (Vmin = 0) et enfin, reste à cette valeur minimale entre 0,5 et 1. En informatique, le codage des couleurs est classiquement réalisé dans l'espace RVB, avec des valeurs comprises entre 0 et 255 pour chaque composante R, V et B de cet espace. This can be seen in Figure 2 (b). Figure 2 (b) shows the evolution of the respective proportions of three basic colors Red, Green and Blue to form a color scale in the RGB space associated with the color scale present on the image to be processed. In this case, the color scale present on the image to be processed is that shown in Figure 2 (a) and which is reproduced at the base of Figure 2 (b), as abscissa. The data associated with each line of pixels of the color scale present on the image to be processed is easily extracted, insofar as we know the line number and the number of lines. A simple rule of proportionality on the scale of value [0; 1] thus makes it possible to know the data / value associated with the line considered. As can be seen in this figure 2 (b), the "Blue" component is at its maximum value (Vmax = 255) between 0 and 0.25 on the color scale, then decreases linearly between 0.25 and 0. , 5 up to its minimum value (Vmin = 0) and finally, remains at this minimum value between 0.5 and 1. In computer science, color coding is conventionally performed in the RGB space, with values between 0 and 255 for each R, V and B component of this space.

La composante « Rouge » est à sa valeur minimale (Vmin = 0) entre 0 et 0,5 sur l'échelle de couleur, puis croît linéairement entre 0,5 et 0,75 jusqu'à sa valeur maximale (Vmax = 255) et enfin, reste à cette valeur maximale entre 0,75 et 1. Enfin, la composante « Vert » croît linéairement depuis sa 25 valeur minimale (Vmin = 0) jusqu'à sa valeur maximale (Vmax = 255) entre 0 et 0,25 sur l'échelle de couleur, reste constante entre 0,25 et 0,75 puis, décroît linéairement entre 0,75 et 1 jusqu'à sa valeur minimale (Vmin = 0). On obtient ainsi une échelle de couleur allant du bleu au rouge, en passant par différentes teintes comprises entre le bleu et le rouge. Dans le 30 cas d'espèce, le bleu de l'échelle de couleur est associé à la valeur nulle (donnée) et le rouge à la valeur unité (donnée). La courbe représentative de l'échelle de couleur représentée sur la figure 2(b) est représentée dans l'espace RVB sur la figure 2(c). The "Red" component is at its minimum value (Vmin = 0) between 0 and 0.5 on the color scale, then increases linearly between 0.5 and 0.75 up to its maximum value (Vmax = 255) and finally, remains at this maximum value between 0.75 and 1. Finally, the "Green" component increases linearly from its minimum value (Vmin = 0) to its maximum value (Vmax = 255) between 0 and 0, 25 on the color scale, remains constant between 0.25 and 0.75 then, decreases linearly between 0.75 and 1 until its minimum value (Vmin = 0). We obtain a color scale from blue to red, through various shades between blue and red. In the case in point, the blue of the color scale is associated with the null value (given) and the red with the value unit (given). The representative curve of the color scale shown in Fig. 2 (b) is shown in the RGB space in Fig. 2 (c).

Il convient de noter que la courbe représentative de l'échelle de couleur dans l'espace de couleur défini à l'étape (a) pourrait être définie différemment. Par exemple, la courbe représentative de l'échelle de couleur présente sur l'image à traiter pourrait se présenter, dans l'espace de couleur défini à l'étape (a), sous la forme du nuage de points obtenu à l'issue de la sous-étape (b2). Toutefois, cette solution est moins avantageuse par rapport à la définition de la courbe représentée sur les figures 2(b) et 2(c). En effet, dans ce cas, la mise en oeuvre de l'étape (e), laquelle est décrite ultérieurement, nécessite un temps de calcul plus important. Selon un exemple intermédiaire, on pourrait définir lors de la sous étape (b3), une courbe linéaire par morceaux comportant plus de quatre segments. Là encore, cette solution est moins avantageuse en temps de calcul. La troisième étape (étape (c)) consiste, pour un pixel de l'image 15 en couleur, à en extraire les coordonnées de sa couleur dans l'espace de couleur défini à l'étape (a), ainsi que sa position dans ladite image. L'extraction de la couleur est facilement gérée de manière automatique par l'ordinateur. Comme évoqué précédemment, l'extraction de la couleur d'un pixel peut s'effectuer avec une bibliothèque du commerce telle 2 0 qu'OpenCV ou MODI. Si la bibliothèque utilisée ne permet pas une extraction directe dans l'espace de couleur choisi ou défini à l'étape (a), mais dans un autre espace de couleur ; on convertit les coordonnées de la couleur de ce pixel dans cet espace de couleur vers celui qui a été défini à l'étape (a). Comme évoqué 2 5 précédemment, cette conversion s'effectue en utilisant les règles de conversion des couleurs parfaitement connues de l'homme du métier. En reprenant notre exemple, on obtient ainsi les composantes du pixel considérée dans l'espace RVB. Ainsi, on obtient un point P dans l'espace RVB. 30 Par ailleurs, l'extraction de la position de ce pixel dans l'image est dans la plupart des cas obtenue en appliquant une loi de correspondance linéaire qui s'appuie sur la position de trois coins de l'image à traiter. It should be noted that the representative curve of the color scale in the color space defined in step (a) could be defined differently. For example, the representative curve of the color scale present on the image to be processed could appear, in the color space defined in step (a), in the form of the cloud of points obtained at the end of the sub-step (b2). However, this solution is less advantageous compared to the definition of the curve shown in Figures 2 (b) and 2 (c). Indeed, in this case, the implementation of step (e), which is described later, requires a longer calculation time. According to an intermediate example, it would be possible to define, during the sub-step (b3), a piecewise linear curve comprising more than four segments. Again, this solution is less advantageous in computing time. The third step (step (c)) consists, for a pixel of the color image 15, in extracting the coordinates of its color in the color space defined in step (a), as well as its position in said image. The extraction of color is easily managed automatically by the computer. As mentioned above, the color extraction of a pixel can be done with a commercial library such as OpenCV or MODI. If the library used does not allow direct extraction into the color space chosen or defined in step (a), but in another color space; the color coordinates of this pixel in this color space are converted to the one defined in step (a). As previously discussed, this conversion is accomplished using the color conversion rules well known to those skilled in the art. Taking our example again, we obtain the components of the pixel considered in the RGB space. Thus, we obtain a point P in the RGB space. Moreover, the extraction of the position of this pixel in the image is in most cases obtained by applying a linear correspondence law which is based on the position of three corners of the image to be processed.

Cette approche est largement répandue et traitée sans difficulté par l'homme du métier. En effet, chaque pixel de l'image peut être positionné grâce à son numéro de ligne (Xp) et son numéro de colonne (Yp). Si, avec 3 coins de l'image, on définit le repère géographique (O, X, Y) dont un coin est l'origine O, on peut déterminer la loi de correspondance (Xp, Yp) vers (X, Y) telle que X=a.Xp+b.Yp+c et Y=d.Xp+e.Yp+f. On obtient ainsi les coordonnées géographiques (X, Y) du pixel considéré ; a, b, c, d, e et f étant des nombres réels. This approach is widely used and treated without difficulty by those skilled in the art. Indeed, each pixel of the image can be positioned thanks to its line number (Xp) and its column number (Yp). If, with 3 corners of the image, we define the geographical reference (O, X, Y) whose corner is the origin O, we can determine the law of correspondence (Xp, Yp) to (X, Y) such that X = a.Xp + b.Yp + c and Y = d.Xp + e.Yp + f. The geographical coordinates (X, Y) of the pixel in question are thus obtained; a, b, c, d, e and f being real numbers.

En effet, la plupart des images en couleur ne sont pas déformées, si bien qu'une approche linéaire peut être employée. Pour cela, on comprend que la position géographique de 3 coins de l'image est déterminée au préalable. Ceci peut s'effectuer, de manière connue, avec un calage de l'image par exemple réalisé avec le logiciel Lynx®. Indeed, most color images are not distorted, so a linear approach can be used. For this, it is understood that the geographical position of 3 corners of the image is determined beforehand. This can be done, in a known manner, with a calibration of the image for example made with the Lynx® software.

La détermination de la position du pixel traité est utile pour reconstruire l'image dans l'espace RVB et/ou pour élaborer un tableau de type « Excel® » associant la donnée que l'on cherche à reconstruire à des coordonnés dans l'image. Dans des cas où l'image est déformée, il existe des logiciels du 2 0 commerce bien connus de l'homme du métier pour déterminer la position d'un pixel dans l'image. Par exemple, on peut citer le logiciel Lynx®, lequel met en oeuvre une méthode mathématique basée sur la triangulation de Delaunay. La quatrième étape (étape (d)) consiste à comparer la couleur du pixel traité à l'étape (c) à la courbe représentative de l'échelle de couleur 25 définie dans l'espace de couleur défini à l'étape (a). On comprend que la couleur d'un pixel est assimilable à un point P dans l'espace de couleur défini à l'étape (a). L'étape (d) permet de déterminer la donnée associée à la couleur du pixel considéré. 3 0 Deux cas peuvent alors se présenter. Dans le premier cas, le point P se situe sur la courbe. Dans ce cas, il suffit, lors d'une sous-étape (di), d'enregistrer cette couleur et la donnée associée à cette couleur. The determination of the position of the treated pixel is useful for reconstructing the image in the RGB space and / or for developing an "Excel®" type table associating the data that one seeks to reconstruct with coordinates in the image. . In cases where the image is distorted, there are commercial software programs well known to those skilled in the art for determining the position of a pixel in the image. For example, there is the Lynx® software, which implements a mathematical method based on the Delaunay triangulation. The fourth step (step (d)) is to compare the color of the pixel processed in step (c) with the curve representative of the color scale defined in the color space defined in step (a). . It is understood that the color of a pixel is comparable to a point P in the color space defined in step (a). Step (d) makes it possible to determine the datum associated with the color of the pixel in question. Two cases can then arise. In the first case, the point P is on the curve. In this case, it is sufficient, during a substep (di), to record this color and the data associated with this color.

Dans la mesure où cette couleur est associée à une donnée prédéfinie par la définition de l'échelle de couleur lors de l'étape (b), la donnée est aisément reconstruite. La figure 3(a) représente un tel cas, où un point P représentatif d'une couleur d'un pixel de l'image à traiter est placé dans l'espace RVB pour déterminer sa position par rapport à l'échelle de couleur associée à cet exemple représentée sur la figure 2(c). Dans le cas d'espèce, le point P correspond à une couleur située entre le jaune et le vert et est associé à la donnée 0,625. Dans le deuxième cas, le point P n'est pas situé sur la courbe. Since this color is associated with a datum predefined by the definition of the color scale during step (b), the datum is easily reconstructed. Fig. 3 (a) shows such a case where a point P representative of a color of a pixel of the image to be processed is placed in the RGB space to determine its position with respect to the associated color scale in this example shown in Figure 2 (c). In this case, the point P corresponds to a color located between yellow and green and is associated with the data 0.625. In the second case, the point P is not located on the curve.

Dans ce cas, une sous-étape supplémentaire (d2) est nécessaire. Elle consiste à déterminer le point P" situé sur la courbe dont la couleur est la plus représentative de la couleur associée au point P. En pratique, cela peut s'effectuer en déterminant le point P" appartenant à la courbe, qui est le plus proche du point P. In this case, an additional substep (d2) is required. It consists in determining the point P "situated on the curve whose color is the most representative of the color associated with the point P. In practice, this can be done by determining the point P" belonging to the curve, which is the most close to point P.

A cet effet, on peut utiliser la projection orthogonale du point P sur ladite courbe. La figure 3(b) représente un tel cas, où un point P représentatif d'une couleur d'un pixel de l'image à traiter est placé dans l'espace RVB pour déterminer sa position par rapport à l'échelle de couleur représentée sur la 2 0 figure 2(c). Plus précisément, ce point P appartient au plan défini par les points A1, B1 et C1 qui sont respectivement associés aux données 0,5 ; 0,75 et 0,25. La projection orthogonale P" du point P sur la courbe (segment S2 de cette courbe) est la plus représentative de la couleur associée au point P. Dans le cas d'espèce, cela correspond à une couleur proche du jaune qui est 2 5 associée à la valeur 0,7. En effet, compte tenu d'une part, de la forme de la courbe représentative de l'échelle de couleur choisie figure 2(b) (en l'occurrence une courbe linéaire par morceaux, comportant quatre segments référencés S1 à S4) et de la position du point P dans l'espace RVB, d'autres projections 30 orthogonales P', P"' et P" du point P sur la courbe peuvent être effectuées. Plus précisément, le point P' correspond à la projection orthogonale du point P sur le segment S1 et se confond, dans le cas d'espèce avec le point B1 auquel est associée la donnée 0,75. Le point P"' correspond à la projection orthogonale du point P sur le segment S3. Le point P" correspond à la projection orthogonale du point P sur le segment S4 et se confond, dans le cas d'espèce avec le point C1 auquel est associée la donnée 0,25. Cependant, ces autres projections orthogonales sont moins représentatives de la couleur associée au point P que la projection orthogonale P" sur le segment S2, dans la mesure où les distances PP', PP"' et PP" sont toutes supérieures à la distance PP". Pour effectuer la projection orthogonale du point P sur les différents segments de la courbe, on peut utiliser le produit scalaire entre deux 10 vecteurs. Par exemple, pour obtenir le point P" sur le segment S2 de la courbe, on effectue le produit scalaire entre les vecteurs AiB; et À. Ce produit scalaire s'exprime sous la forme : 15 AiBi .A1/3 = (RBi-RA1).(RP-RAI) + (VB1-VM).(VP-Vdm) + (BB1-BA1).(BP-13m) Où (Rm ; V, ; Bm) ; (Rgi ; Vgi ; BB1) et (Rp ; Vp ; Bp) sont les coordonnées respectives des points A1, B1 et P dans le repère orthonormé RVB. Dans cette équation, les coordonnées des points Al et B1, 20 lesquels correspondent respectivement aux deux points extrêmes du segment S2 sur lequel est effectuée la projection orthogonale du point P, sont connues à l'issue de l'étape (b). De même, les coordonnées du point P dans cet espace sont connues à l'issue de l'étape (c). Par ailleurs, la distance PP" peut être obtenue aisément. Il 25 s'agit en effet d'effectuer un calcul de la distance séparant deux points situés dans un repère orthonormé, en l'occurrence défini dans l'espace RVB. Des opérations similaires sont effectuées pour les distances PP', PP"' et PP"" à comparer avec la distance PP". L'exemple fourni à l'appui de la figure 3(b) est intéressant, car il 30 montre que, dans certains cas et en pratique, dans la grande majorité des cas, plusieurs projections orthogonales du point P sur la courbe peuvent être envisagées. For this purpose, it is possible to use the orthogonal projection of the point P on said curve. Figure 3 (b) shows such a case, where a point P representative of a color of a pixel of the image to be processed is placed in the RGB space to determine its position with respect to the color scale represented. in Figure 2 (c). More precisely, this point P belongs to the plane defined by the points A1, B1 and C1 which are respectively associated with the data 0.5; 0.75 and 0.25. The orthogonal projection P "of the point P on the curve (segment S2 of this curve) is the most representative of the color associated with the point P. In the case in point, this corresponds to a color close to yellow which is associated with in fact, taking into account, on the one hand, the shape of the curve representative of the chosen color scale figure 2 (b) (in this case a piecewise linear curve, comprising four segments referenced S1 to S4) and the position of the point P in the RGB space, other orthogonal projections P ', P "' and P" of the point P on the curve can be made. corresponds to the orthogonal projection of the point P on the segment S1 and merges, in this case with the point B1 with which the data 0.75 is associated, the point P "'corresponds to the orthogonal projection of the point P on the S3 segment. The point P "corresponds to the orthogonal projection of the point P on the segment S4 and merges, in this case with the point C1 with which the data 0.25 is associated, However, these other orthogonal projections are less representative of the color associated with the point P as the orthogonal projection P "on the segment S2, insofar as the distances PP ', PP"' and PP "are all greater than the distance PP" .To perform the orthogonal projection of the point P on the For example, to obtain the point P "on the segment S2 of the curve, the dot product is made between the vectors AiB; and to. This scalar product is expressed as: AiBi .A1 / 3 = (RBi-RA1). (RP-RAI) + (VB1-VM). (VP-Vdm) + (BB1-BA1). 13m) Where (Rm; V,; Bm); (Rgi; Vgi; BB1) and (Rp; Vp; Bp) are the respective coordinates of the points A1, B1 and P in the orthonormal frame RGB. In this equation, the coordinates of the points A1 and B1, which respectively correspond to the two end points of the segment S2 on which the orthogonal projection of the point P is performed, are known at the end of step (b). Similarly, the coordinates of the point P in this space are known at the end of step (c). Moreover, the distance PP "can be obtained easily, since it involves calculating the distance separating two points situated in an orthonormal coordinate system, in this case defined in the RGB space. for the distances PP ', PP "and PP" "to be compared with the distance PP" The example provided in support of Figure 3 (b) is interesting because it shows that in some cases and in practice, in the vast majority of cases, several orthogonal projections of the point P on the curve can be envisaged.

On détermine alors la donnée associée à la couleur du pixel considéré. En effet, le produit scalaire A1B1 .A1P permet d'obtenir la distance relative du point P" sur le segment [A1B1] et par suite, d'y associer la valeur 0,7 de la donnée. Des opérations similaires sont effectuées pour déterminer la position des autres points P', P"' et P"" sur les autres segments de la courbe. Cette donnée est finalement enregistrée. Lorsque le point P n'est pas situé sur la courbe, il convient de noter qu'un cas particulier peut se présenter sur la représentation figure 2(c) dans l'espace de couleur choisi. En effet, il est possible que le point P se situe sur la bissectrice de l'angle formé par les vecteurs associés à deux segments de la courbe. Par exemple, le point P peut être situé dans le plan défini par les points A1, Blet Ci et sur la bissectrice de l'angle formé par les vecteurs A1131 et AiCi. Dans un tel cas, les distances PP" et PP"' sont identiques et un choix arbitraire doit être effectué sur le point le plus représentatif de la couleur réelle du pixel associé au point P. Par ailleurs, à l'issue de l'étape (d2) on peut mettre en oeuvre une étape additionnelle au cours de laquelle on compare la distance PP" à une valeur seuil prédéterminée. Si la distance PP" est supérieure à la valeur seuil, on met alors en oeuvre à la place de l'étape (di), l'étape (d'1) dans laquelle soit on n'enregistre que la couleur (aucune donnée n'est alors enregistrée), soit on enregistre la couleur et on associe la donnée à une non valeur. The data associated with the color of the pixel in question is then determined. Indeed, the scalar product A1B1 .A1P makes it possible to obtain the relative distance of the point P "on the segment [A1B1] and consequently to associate the value 0.7 of the data with it. the position of the other points P ', P "' and P" "on the other segments of the curve. This data is finally saved. When the point P is not situated on the curve, it should be noted that a particular case may occur in the representation in FIG. 2 (c) in the chosen color space. Indeed, it is possible that the point P lies on the bisector of the angle formed by the vectors associated with two segments of the curve. For example, the point P can be located in the plane defined by the points A1, Blet Ci and on the bisector of the angle formed by the vectors A1131 and AiCi. In such a case, the distances PP "and PP" 'are identical and an arbitrary choice must be made on the most representative point of the actual color of the pixel associated with the point P. Moreover, at the end of the step (d2) it is possible to implement an additional step during which the distance PP "is compared with a predetermined threshold value If the distance PP" is greater than the threshold value, then the procedure is implemented instead of step (di), the step (of 1) in which either only the color is recorded (no data is then recorded), or the color is recorded and the data is associated with a non-value.

Ce seuil permet d'écarter des données trop éloignées de la courbe. Ceci permet d'améliorer la fiabilité des données reconstruites. L'étape (e) consiste à extraire la position géographique des autres pixels de l'image ainsi que leurs couleurs dans l'espace de couleur défini à l'étape (a), pour réaliser la reconstruction complète des données de ladite 30 image. En pratique, cela peut s'effectuer en répétant, pour chaque pixel de l'image à traiter, les étapes (c) et (d) conformément à la description faite précédemment. This threshold makes it possible to discard data too far from the curve. This improves the reliability of the reconstructed data. Step (e) consists in extracting the geographical position of the other pixels of the image as well as their colors in the color space defined in step (a), to carry out the complete reconstruction of the data of said image. In practice, this can be done by repeating, for each pixel of the image to be processed, steps (c) and (d) according to the description made above.

Cependant, il est fréquent que la couleur associée au pixel traité ait déjà été traitée avant pour un autre pixel. Dans un tel cas, il peut être avantageux de déterminer si la couleur du pixel en cours de traitement a déjà été enregistrée pour un autre pixel. Cela permet d'aller directement, à l'issue de l'étape (c) à l'enregistrement de la donnée. Pour cet autre pixel, l'étape (d) n'est donc pas nécessaire. Un gain en temps de calcul peut ainsi être obtenu. Par ailleurs, il convient de noter que les étapes (b) et (c) peuvent être interverties. However, it is common for the color associated with the processed pixel to have been processed before for another pixel. In such a case, it may be advantageous to determine whether the color of the pixel being processed has already been recorded for another pixel. This makes it possible to go directly, at the end of step (c) to the recording of the data. For this other pixel, step (d) is not necessary. A saving in calculation time can thus be obtained. Furthermore, it should be noted that steps (b) and (c) can be reversed.

Dans certains cas, les images en couleur dont on cherche à reconstruire les données comprennent des couleurs qui ne sont pas associées à de la donnée. Par exemple, sur des images sismiques, il arrive que les contours du puits soient représentés. Si cela facilite le positionnement du puits sur l'image, ces contours ne sont pas assimilables à des données sismiques et doivent, lors de la reconstruction de données, être écartés. Selon un autre exemple, les contours de pays ou régions sont fréquemment représentés sur des cartes météorologiques. Pour cela, l'étape (b) peut optionnellement consister à définir, dans l'espace de couleur défini à l'étape (a), un ou plusieurs point(s) de couleur fixe n'appartenant pas à ladite courbe. Ces points fixes correspondant classiquement aux couleurs des contours « à ignorer ». L'étape (e) consiste alors à déterminer le point appartenant soit à ladite courbe soit défini par l'un des points fixes dont la couleur est la plus représentative de la couleur du point P. Pour cela, on peut effectuer la projection orthogonale du point P sur la courbe conformément au procédé décrit précédemment. Si l'on reprend notre exemple, on effectue alors la projection orthogonale P', P", P"', P"" de ce point P sur chacun des quatre segments S1 à S4 de la courbe (figure 3(b)). In some cases, the color images whose data is being reconstructed include colors that are not associated with data. For example, on seismic images, it happens that the contours of the well are represented. If this facilitates the positioning of the well on the image, these contours are not comparable to seismic data and must, during the reconstruction of data, be discarded. In another example, the contours of countries or regions are frequently depicted on weather maps. For this, step (b) may optionally consist in defining, in the color space defined in step (a), one or more point (s) of fixed color not belonging to said curve. These fixed points conventionally correspond to the colors of the outlines to be ignored. Step (e) then consists in determining the point belonging either to said curve or defined by one of the fixed points whose color is the most representative of the color of the point P. For this, it is possible to perform the orthogonal projection of the point P on the curve according to the method described above. If we take again our example, one then carries out the orthogonal projection P ', P ", P"', P "" of this point P on each of the four segments S1 to S4 of the curve (figure 3 (b)).

Par ailleurs, la distance entre le point P et le ou chaque point fixe est également déterminée. Si la distance entre le point P et l'un des points fixes est plus faible que la distance PP" alors, le point P est assimilé à ce point fixe et aucune donnée n'est extraite. En pratique, on détermine les distances PP', PP", PP"', PP"" et celles séparant le point P du ou de chaque point fixe défini à l'étape (b) et on ne conserve que la plus faible distance. Par ailleurs, dans un tel cas, on met alors en oeuvre, à la place de l'étape (di), l'étape (d'1) dans laquelle soit on n'enregistre que la couleur, soit on enregistre la couleur et on associe la donnée à une non valeur. On élimine ainsi les couleurs de l'image qui ne sont pas assimilables à de la donnée. L'image traitée par le procédé fournit alors uniquement des informations correspondant à de la donnée. Moreover, the distance between the point P and the or each fixed point is also determined. If the distance between the point P and one of the fixed points is smaller than the distance PP "then the point P is assimilated to this fixed point and no data is extracted.In practice, the distances PP 'are determined. , PP ", PP" ', PP "" and those separating the point P from or from each fixed point defined in step (b) and only the smallest distance is kept. In this case, then implements, in place of step (di), the step (of 1) in which either the color is recorded only, or the color is recorded and the data is associated with a non-value. This eliminates the colors of the image that can not be assimilated to data, and the image processed by the method only provides information corresponding to data.

L'exemple utilisé pour illustrer l'invention aboutit à définir une courbe représentative de l'échelle de couleur présente sur l'image à traiter dans l'espace de couleur RVB se présentant sous la forme d'une courbe linéaire par morceaux, en l'occurrence formée de quatre segments (sous-étape (b3)). Nous avons déjà précisé qu'on pourrait retenir, pour définir cette courbe, un nuage de points (sous-étape (b2)). Dans ces deux cas, l'échelle de couleur présente sur l'image à traiter est une échelle de type « arc-en-ciel ». Cependant, il convient de noter que ladite courbe représentative dans l'espace de couleur RVB dépend également de la nature 2 0 de l'échelle de couleur présente sur l'image à traiter. Par exemple, si l'échelle de couleur présente sur l'image à traiter est une échelle allant du rouge au jaune, la courbe représentative dans l'espace RVB pourrait être, à l'issue de la sous-étape (b3), un simple segment. Dans un tel cas, une seule projection orthogonale du point P, associé à la 2 5 couleur d'un pixel dans l'espace RVB et n'appartenant pas à ce segment, sur ce segment est possible. Aucune étape de comparaison de différentes distances de projection n'est réalisée dans ce cas. Les figures 4 à 6 permettent d'illustrer l'intérêt du procédé selon l'invention. 30 Dans le cas d'espèce, cette valeur peut être l'amplitude sismique si l'image est associée à une échelle de couleur comportant les valeurs d'amplitude sismique. D'autres données peuvent alors en être déduites comme l'évolution de l'amplitude sismique au sein de cette image. The example used to illustrate the invention results in defining a curve representative of the color scale present on the image to be treated in the RGB color space in the form of a piecewise linear curve, in which occurrence of four segments (substep (b3)). We have already specified that we could retain, to define this curve, a cloud of points (substep (b2)). In these two cases, the color scale present on the image to be treated is a "rainbow" type scale. However, it should be noted that said representative curve in the RGB color space also depends on the nature of the color scale present on the image to be processed. For example, if the color scale present on the image to be treated is a scale from red to yellow, the representative curve in the RGB space could be, at the end of the substep (b3), a simple segment. In such a case, a single orthogonal projection of the point P, associated with the color of a pixel in the RGB space and not belonging to that segment, on this segment is possible. No step of comparing different projection distances is performed in this case. Figures 4 to 6 illustrate the interest of the method according to the invention. In the case in point, this value may be the seismic amplitude if the image is associated with a color scale comprising the seismic amplitude values. Other data can then be deduced as the evolution of the seismic amplitude within this image.

Cependant, dans le cas spécifique des données sismiques, ce n'est pas la valeur de l'amplitude sismique en elle-même qui est importante, mais les variations relatives de cette valeur. Ainsi, lorsque l'échelle de couleur est connue, par exemple parce qu'elle est présente sur l'image à traiter ou déterminable par des techniques connues de l'homme du métier, il suffit de fixer des valeurs limites arbitraires de l'amplitude sismique, par exemple -1000 à +1000, sur l'échelle de couleur. Sur la figure 4, on a représenté une image d'acquisition sismique dans un plan horizontal X, Y à une profondeur Z donnée dans le sous- sol, non encore traitée par le procédé selon l'invention (l'échelle de couleur associée à cette image, en l'occurrence fournie avec des valeurs d'amplitude sismique, n'est pas représentée). Dans le cas d'espèce, il s'agit d'une image représentée avec l'échelle de couleur noir- blanc-rouge. Sur cette figure 4, aucune donnée associée à l'amplitude sismique n'est exploitable. En effet, la lecture de cette image ne permet d'obtenir que des ordres de grandeur insuffisamment précis en comparant la couleur de l'image aux valeurs d'amplitude sismique associées à l'échelle de couleur présente sur l'image à traiter. Le procédé selon l'invention permet de récupérer cette 2 0 amplitude avec des valeurs chiffrées beaucoup plus précises et ce, à partir de l'image représentée sur la figure 4. En effet, la mise en oeuvre de ce procédé permet de construire la figure 5 annexée (tableau). Dans ce tableau, on retrouve un échantillon de 25 coordonnées X, Y exprimées en mètres, à chacune desquelles est associée la 2 5 valeur de l'amplitude sismique. Ces données peuvent être exploitées par une compagnie pétrolière. Si on le souhaite, une image avec les données de la figure 5 peut également être reconstruite, avec toute échelle de couleur. 3 0 Une telle image est représentée sur la figure 6 avec l'échelle de couleur bleu-blanc-rouge. En pratique, les données peuvent être représentées dans une échelle de couleur différente de celle de l'image à traiter. Ceci permet de distinguer aisément l'image non traitée de la représentation des données qui en sont extraites. Nous allons maintenant décrire un deuxième mode de réalisation d'un procédé de reconstruction de données, à partir d'une image en couleur, conformément à l'invention. Ce procédé résout le même problème technique de la reconstruction de données à partir d'une image en couleur associée à de la donnée. Ce mode de réalisation est basé sur la définition d'une table de 10 conversion couleur-donnée pour l'ensemble des couleurs disponibles, dans l'ordinateur, pour le codage de couleurs. Classiquement, le codage des couleurs est effectué avec 16 millions de couleurs (256*256*256 couleurs). Toutefois, l'invention n'est pas limitée à ce codage particulier. 15 Dans ce cas, l'invention propose un procédé de reconstruction de données à partir d'une image en couleur à laquelle est associée de la donnée, procédé dans lequel il est prévu les étapes suivantes : A) choisir ou définir un espace de couleur, ledit espace étant susceptible de représenter toutes les teintes de couleur associées à l'image ; puis, mettre en 20 oeuvre par ordinateur les étapes suivantes : B) définir, dans cet espace de couleur, une échelle de couleur se présentant sous la forme d'une courbe évoluant dans ledit espace, chaque point de cette courbe pouvant être associé à une donnée à reconstruire ; C) définir une table de conversion couleur-donnée couvrant l'ensemble des 25 couleurs disponibles pour le codage de couleurs dans l'ordinateur, à partir de la courbe définie à l'étape (B) ; D) extraire la position géographique, dans l'image, d'un pixel de l'image ainsi que les coordonnées de sa couleur dans l'espace de couleur défini à l'étape (A), cette couleur étant assimilable à un point P dans cet espace de couleur ; 30 E) comparer la couleur extraite à l'étape (D) à la table de conversion couleur- donnée définie à l'étape (C), pour déterminer la donnée associée à cette couleur ; F) extraire les positions géographiques, dans cette image, des autres pixels de l'image ainsi que leurs couleurs dans l'espace de couleur défini à l'étape (A), pour réaliser la reconstruction complète des données de ladite image. Par rapport au premier procédé, on note que les étapes (A), (B) (D) et (F) sont similaires aux étapes (a), (b), (c) et (e) respectivement. Il convient de noter que ce deuxième mode de réalisation met en oeuvre les principes du premier mode de réalisation pour construire au préalable un tableau de conversion couleur-donnée pour l'ensemble des couleurs disponibles pour le codage de couleur, dans lequel chaque pixel de l'image à traiter trouvera nécessairement une correspondance. Dans ces conditions, l'étape (C) consiste avantageusement à : Ci) exprimer une couleur prévue pour le codage des couleurs dans l'ordinateur dans l'espace de couleur choisi ou défini à l'étape (A), cette couleur étant assimilable à un point M dans cet espace de couleur ; C2) comparer cette couleur à la courbe représentative de l'échelle de couleur définie dans cet espace, pour déterminer la donnée associée à cette couleur puis : C3) déterminer, sur ladite courbe, la couleur associée aux autres couleurs prévues dans l'ordinateur pour le codage des couleurs, pour réaliser une table de conversion couleur-donnée. Il convient de noter que l'étape (C3) consiste avantageusement à répéter les étapes (Ci) et (C2) pour l'ensemble des couleurs disponibles, dans l'ordinateur, pour le codage de couleurs. De plus, l'étape (C2) consiste avantageusement à : - si le point M est situé sur ladite courbe : C21) enregistrer cette couleur et la donnée associée à cette couleur ; - si le point M n'est pas situé sur ladite courbe : C22) déterminer le point M" appartenant à ladite courbe associé à la couleur la plus représentative de la couleur du point M puis, à l'issue de cette étape (C22), mettre en oeuvre l'étape (C21). Par ailleurs, si le point M n'est pas situé sur ladite courbe et que la courbe ne comporte qu'un seul segment, l'étape (C22) consiste à : - effectuer la projection orthogonale M" du point M sur ledit segment, ledit point M" ainsi obtenu sur le segment étant alors associé à la couleur la plus représentative de la couleur associée au point M et éventuellement, à déterminer la distance MM". However, in the specific case of seismic data, it is not the value of the seismic amplitude itself that is important, but the relative variations of this value. Thus, when the color scale is known, for example because it is present on the image to be processed or determinable by techniques known to those skilled in the art, it is sufficient to set arbitrary limit values of the amplitude seismic, for example -1000 to +1000, on the color scale. FIG. 4 shows a seismic acquisition image in a horizontal plane X, Y at a given depth Z in the subsoil, not yet processed by the method according to the invention (the color scale associated with this image, in this case supplied with seismic amplitude values, is not shown). In the case in point, this is an image represented with the black-white-red color scale. In this FIG. 4, no data associated with the seismic amplitude is exploitable. Indeed, the reading of this image makes it possible to obtain only orders of magnitude insufficiently precise by comparing the color of the image with the seismic amplitude values associated with the color scale present on the image to be processed. The method according to the invention makes it possible to recover this amplitude with much more precise numerical values and this, starting from the image represented in FIG. 4. In fact, the implementation of this method makes it possible to construct the FIG. 5 attached (table). In this table, there is a sample of 25 X, Y coordinates expressed in meters, each of which is associated with the value of the seismic amplitude. These data can be exploited by an oil company. If desired, an image with the data of Figure 5 can also be reconstructed, with any color scale. Such an image is shown in Figure 6 with the blue-white-red color scale. In practice, the data can be represented in a color scale different from that of the image to be processed. This makes it easy to distinguish the untreated image from the representation of the data that is extracted from it. We will now describe a second embodiment of a data reconstruction method, from a color image, according to the invention. This method solves the same technical problem of reconstructing data from a color image associated with data. This embodiment is based on the definition of a color-data conversion table for all available colors in the computer for color coding. Classically, color coding is done with 16 million colors (256 * 256 * 256 colors). However, the invention is not limited to this particular coding. In this case, the invention proposes a method for reconstructing data from a color image with which data is associated, in which method the following steps are provided: A) choosing or defining a color space said space being capable of representing all the color tones associated with the image; then, computerizing the following steps: B) defining, in this color space, a color scale in the form of a curve evolving in said space, each point of this curve being able to be associated with a given to rebuild; C) defining a color-data conversion table covering all 25 colors available for color coding in the computer, from the curve defined in step (B); D) extracting the geographical position, in the image, of a pixel of the image as well as the coordinates of its color in the color space defined in step (A), this color being comparable to a point P in this color space; E) comparing the extracted color in step (D) to the color-data conversion table defined in step (C) to determine the data associated with that color; F) extracting the geographical positions, in this image, of the other pixels of the image as well as their colors in the color space defined in step (A), to carry out the complete reconstruction of the data of said image. With respect to the first method, steps (A), (B) (D) and (F) are similar to steps (a), (b), (c) and (e) respectively. It should be noted that this second embodiment implements the principles of the first embodiment to first construct a color-data conversion table for all the colors available for color coding, in which each pixel of the image to be processed will necessarily find a correspondence. Under these conditions, step (C) advantageously consists in: Ci) expressing a color intended for color coding in the computer in the color space chosen or defined in step (A), this color being assimilable at a point M in this color space; C2) comparing this color with the curve representative of the color scale defined in this space, to determine the data associated with this color and then: C3) determining, on said curve, the color associated with the other colors provided in the computer for the color coding, to achieve a color-data conversion table. It should be noted that the step (C3) advantageously consists in repeating the steps (Ci) and (C2) for all the colors available in the computer for the color coding. In addition, the step (C2) advantageously consists in: - if the point M is situated on said curve: C21) registering this color and the data associated with this color; - if the point M is not situated on the said curve: C22) determining the point M "belonging to the said curve associated with the most representative color of the color of the point M then at the end of this step (C22) (C21) Furthermore, if the point M is not situated on the said curve and the curve has only one segment, the step (C22) consists of: orthogonal projection M "of the point M on said segment, said point M" thus obtained on the segment then being associated with the color most representative of the color associated with the point M and possibly, to determine the distance MM ".

Par ailleurs, si le point M n'est pas situé sur la courbe et que la courbe comporte plusieurs segments, l'étape (C22) consiste à : - effectuer la projection orthogonale (M', M", M"', M") du point M sur chaque segment ; - déterminer la distance entre le point M et chacune de ses projections orthogonales (M', M", M"', M") sur les différents segments ; - conserver la distance MM" la plus faible, le point M" appartenant à l'un des segments étant alors associé à la couleur la plus représentative de la couleur du point M. Les points M, M', M", M"' et M", non représentés, peuvent cependant être assimilés aux points P, P', P", P"' et P" représentés sur les figures 3(a) et 3(b). Par ailleurs, le cas « quatre segments » n'est qu'un cas particulier, l'étape (C22) ci-dessus s'appliquant aussi bien à deux segments ou plus ; tout comme d'ailleurs l'étape (d2) lorsque plusieurs segments sont pris en considération. 2 0 De plus, selon une variante de réalisation, on peut comparer la distance MM" à une valeur seuil prédéterminée et, si la valeur de cette distance est supérieure à la valeur seuil, on met alors en oeuvre à la place de l'étape (C21), l'étape (C'21) dans laquelle soit on n'enregistre que la couleur, soit on enregistre la couleur et on associe la donnée à une non valeur. 25 L'étape (B) peut être réalisée selon les sous-étapes (b1) à (b3) décrites précédemment et respectivement nommées, dans ce deuxième mode de réalisation (B1), (B2) et (B3). Par ailleurs, l'étape (B) peut également consister à définir, dans l'espace de couleur défini à l'étape (A), un ou plusieurs point(s) de couleur fixe 30 n'appartenant pas à ladite courbe. Dans ce cas, si le point M n'est pas situé sur la courbe, l'étape (C22) consiste alors à déterminer le point appartenant soit à ladite courbe soit défini par l'un des points fixes dont la couleur est la plus représentative de la couleur du point M. Et si le point dont la couleur est la plus représentative de la couleur du point M est l'un des points fixes, on met alors en oeuvre à la place de l'étape (C21), l'étape (C'21) dans laquelle soit on n'enregistre que la couleur, soit on enregistre la couleur et on associe la donnée à une non valeur. Moreover, if the point M is not situated on the curve and the curve comprises several segments, step (C22) consists in: - performing the orthogonal projection (M ', M ", M"', M ") ) of the point M on each segment - to determine the distance between the point M and each of its orthogonal projections (M ', M ", M"', M ") on the different segments; - Keep the distance MM "the weakest, the point M" belonging to one of the segments then being associated with the color most representative of the color of the point M. The points M, M ', M ", M"' and M ", not shown, can however be assimilated to the points P, P ', P", P "' and P" shown in Figures 3 (a) and 3 (b). On the other hand, the "four segment" case is only a particular case, the step (C22) above applying to two or more segments; just as step (d2) when several segments are taken into consideration. In addition, according to an alternative embodiment, the distance MM "can be compared with a predetermined threshold value and, if the value of this distance is greater than the threshold value, the step is then implemented instead of the step (C21), the step (C'21) in which either only the color is recorded, or the color is recorded and the data is associated with a non-value, Step (B) can be performed according to sub-steps (b1) to (b3) previously described and respectively named, in this second embodiment (B1), (B2) and (B3), and step (B) may also consist in defining, in the color space defined in step (A), one or more point (s) of fixed color 30 not belonging to said curve, in this case, if the point M is not situated on the curve, step (C22) then consists in determining the point belonging either to said curve or defined by one of the fixed points whose color is the most representative of the color of the point M. And if the point whose color is the most representative of the color of the point M is one of the fixed points, then it implements instead of the step (C21), the step (C'21) in which either the color is recorded or the color is recorded and the data is associated with a non-value.

Par ailleurs, l'étape (F) consiste à répéter les étapes (D) et (E) pour l'ensemble des pixels de l'image. Enfin, l'étape (D) peut être réalisée entre l'étape (A) et l'étape (B) ou entre l'étape (B) et l'étape (C). Encore une fois, il convient de rappeler que le procédé selon l'invention, selon l'un ou l'autre des procédés décrits précédemment, n'est pas limité aux traitements de données sismiques. Il peut s'appliquer à toute image représentée en couleur à laquelle est associée une échelle de couleur comportant de la donnée. A titre d'exemple non limitatif, ces données peuvent être des données météorologiques telles que la température ou la pression, ou encore des données d'altitude. Moreover, step (F) consists in repeating steps (D) and (E) for all the pixels of the image. Finally, step (D) may be performed between step (A) and step (B) or between step (B) and step (C). Once again, it should be remembered that the method according to the invention, according to one or other of the methods described above, is not limited to seismic data processing. It can be applied to any image represented in color with which is associated a color scale comprising data. By way of non-limiting example, these data may be meteorological data such as temperature or pressure, or altitude data.

Claims (24)

REVENDICATIONS1. Procédé de reconstruction de données à partir d'une image en couleur à laquelle est associée de la donnée, procédé dans lequel il est prévu les étapes suivantes : a) choisir ou définir un espace de couleur, ledit espace étant susceptible de représenter toutes les teintes de couleur associées à l'image ; puis, mettre en oeuvre par ordinateur les étapes suivantes : b) définir, dans cet espace de couleur, une échelle de couleur se présentant sous la forme d'une courbe évoluant dans ledit espace, chaque point de cette courbe pouvant être associé à une donnée à reconstruire ; c) extraire la position géographique, dans cette image, d'un pixel de l'image ainsi que les coordonnées de sa couleur dans l'espace de couleur défini à l'étape (a), cette couleur étant assimilable à un point P dans cet espace de couleur ; d) comparer la couleur du pixel ainsi décomposée à l'étape (c) à la courbe représentative de l'échelle de couleur définie dans cet espace, pour déterminer la donnée associée à la couleur de ce pixel ; e) extraire la position géographique, dans cette image, des autres pixels de l'image ainsi que leurs couleurs dans l'espace de couleur défini à l'étape (a), pour réaliser la reconstruction complète des données de ladite image. REVENDICATIONS1. A method of reconstructing data from a color image with which data is associated, wherein the following steps are provided: a) choosing or defining a color space, said space being capable of representing all the hues color associated with the image; then, implement by computer the following steps: b) define, in this color space, a color scale in the form of a curve evolving in said space, each point of this curve being able to be associated with a datum to rebuild; c) extracting the geographical position, in this image, of a pixel of the image as well as the coordinates of its color in the color space defined in step (a), this color being comparable to a point P in this color space; d) comparing the color of the pixel thus decomposed in step (c) to the curve representative of the color scale defined in this space, to determine the data associated with the color of this pixel; e) extracting the geographical position, in this image, of the other pixels of the image as well as their colors in the color space defined in step (a), to carry out the complete reconstruction of the data of said image. 2. Procédé selon la revendication 1, dans lequel, l'étape (b) comprend les sous-étapes suivantes : b1) extraire la couleur d'un pixel de l'échelle de couleur associée à l'image, dans l'espace de couleur défini à l'étape (a) ; b2) effectuer, pour chaque composante de l'espace de couleur défini à l'étape (a), une moyenne de la composante considérée sur un ensemble de pixels, par exemple l'ensemble des pixels d'une même ligne lorsque l'échelle de couleur associée à l'image à traiter est positionnée verticalement, pour définir un nuage de points dans lequel chaque point est associé à l'ensemble de pixels considéré et sa décomposition dans l'espace de couleur défini à l'étape (a) ;b3) définir la courbe représentative de l'échelle de couleur dans l'espace de couleur défini à l'étape (a), à partir de ce nuage de points. The method according to claim 1, wherein step (b) comprises the following substeps: b1) extracting the color of a pixel from the color scale associated with the image, in the space of color defined in step (a); b2) performing, for each component of the color space defined in step (a), an average of the component considered over a set of pixels, for example the set of pixels of the same line when the scale of color associated with the image to be processed is positioned vertically, to define a cloud of points in which each point is associated with the set of pixels considered and its decomposition in the color space defined in step (a); b3) defining the representative curve of the color scale in the color space defined in step (a), from this scatter plot. 3. Procédé selon l'une des revendications précédentes, dans lequel l'étape (d) consiste à : - si le point P est situé sur ladite courbe : di) enregistrer cette couleur et la valeur associée à cette couleur ; - si le point P n'est pas situé sur ladite courbe : d2) déterminer le point P" appartenant à ladite courbe associé à la couleur la plus représentative de la couleur du point P puis, à l'issue de cette étape (d2), mettre en oeuvre l'étape (di). 3. Method according to one of the preceding claims, wherein step (d) consists of: - if the point P is located on said curve: di) record this color and the value associated with this color; if the point P is not situated on the said curve: d2) determining the point P "belonging to the said curve associated with the color most representative of the color of the point P, then at the end of this step (d2) , implement step (di). 4. Procédé selon la revendication précédente, dans lequel, si le point P n'est pas situé sur ladite courbe et que la courbe ne comporte qu'un seul segment, l'étape (d2) consiste à : - effectuer la projection orthogonale P" du point P sur ledit segment, ledit point P" ainsi obtenu sur le segment étant alors associé à la couleur la plus représentative de la couleur associée au point P et éventuellement, à déterminer la distance PP". 4. Method according to the preceding claim, wherein, if the point P is not situated on said curve and the curve has only one segment, the step (d2) consists in: - performing the orthogonal projection P "of the point P on said segment, said point P" thus obtained on the segment then being associated with the most representative color of the color associated with the point P and possibly, to determine the distance PP ". 5. Procédé selon la revendication 3, dans lequel, si le point P n'est pas situé sur la courbe et que la courbe comporte plusieurs segments, l'étape (d2) consiste à : - effectuer la projection orthogonale (P', P", P"', P"") du point P sur chaque 25 segment ; - déterminer la distance entre le point P et chacune de ses projections orthogonales (P', P", P"', P"") sur les différents segments ; - conserver la distance PP" la plus faible, le point P" appartenant à l'un des segments étant alors associé à la couleur la plus représentative de la couleur 30 du point P. 5. Method according to claim 3, in which, if the point P is not situated on the curve and the curve comprises several segments, step (d2) consists in: performing the orthogonal projection (P ', P) ", P" ', P "") of the point P on each segment; determining the distance between the point P and each of its orthogonal projections (P ', P ", P"', P "") on the different segments; - Keep the distance PP "the lowest, the point P" belonging to one of the segments then being associated with the color most representative of the color 30 of the point P. 6. Procédé selon la revendication précédente, dans lequel on compare la distance PP" à une valeur seuil prédéterminée et, si la distance PP"est supérieure à cette valeur seuil, on met alors en oeuvre à la place de l'étape (di), une étape (d'1) dans laquelle soit on n'enregistre que la couleur, soit on enregistre la couleur et on associe la donnée à une non valeur. 6. Method according to the preceding claim, wherein the distance PP "is compared with a predetermined threshold value and, if the distance PP" is greater than this threshold value, it then implements the step (di) a step (of 1) in which either only the color is recorded or the color is recorded and the data is associated with a non-value. 7. Procédé selon l'une des revendications précédentes, dans lequel l'étape (b) consiste également à définir, dans l'espace de couleur défini à l'étape (a), un ou plusieurs point(s) de couleur fixe n'appartenant pas à ladite courbe. 7. Method according to one of the preceding claims, wherein step (b) also consists in defining, in the color space defined in step (a), one or more point (s) of fixed color n. not belonging to said curve. 8. Procédé selon la revendication précédente, dans lequel, si le point P n'est pas situé sur la courbe, l'étape (d2) consiste alors à déterminer le point appartenant soit à ladite courbe soit défini par l'un des points fixes dont la couleur est la plus représentative de la couleur du point P. 8. Method according to the preceding claim, wherein, if the point P is not situated on the curve, step (d2) then consists in determining the point belonging to either said curve or defined by one of the fixed points. whose color is the most representative of the color of the point P. 9. Procédé selon la revendication précédente, dans lequel, si le point dont la couleur est la plus représentative de la couleur du point P est l'un des points fixes, on met alors en oeuvre à la place de l'étape (di), une étape (d'1) dans laquelle soit on n'enregistre que la couleur, soit on enregistre la couleur et on associe la donnée à une non valeur. 9. Method according to the preceding claim, wherein, if the point whose color is the most representative of the color of the point P is one of the fixed points, it is then implemented in place of step (di) a step (of 1) in which either only the color is recorded or the color is recorded and the data is associated with a non-value. 10. Procédé selon l'une des revendications précédentes, dans lequel l'étape (e) consiste à répéter les étapes (c) et (d) pour l'ensemble des pixels de l'image. 10. Method according to one of the preceding claims, wherein step (e) consists of repeating steps (c) and (d) for all the pixels of the image. 11. Procédé selon l'une des revendications 3 à 9, dans lequel l'étape (e) consiste à mettre en oeuvre l'étape (c) puis, à déterminer si la couleur du pixel a été préalablement enregistrée pour un autre pixel et, si cette couleur a été préalablement enregistrée, à enregistrer directement la valeur lui correspondant. 11. Method according to one of claims 3 to 9, wherein step (e) consists of implementing step (c) and then determining whether the color of the pixel has been previously recorded for another pixel and , if this color has been previously registered, to directly record the corresponding value. 12. Procédé de reconstruction de données à partir d'une image en couleur à laquelle est associée de la donnée, procédé dans lequel il est prévu les étapes suivantes :A) choisir ou définir un espace de couleur, ledit espace étant susceptible de représenter toutes les teintes de couleur associées à l'image ; puis, mettre en oeuvre par ordinateur les étapes suivantes : B) définir, dans cet espace de couleur, une échelle de couleur se présentant 5 sous la forme d'une courbe évoluant dans ledit espace, chaque point de cette courbe pouvant être associé à une valeur de la donnée à reconstruire ; C) définir une table de conversion couleur-donnée couvrant l'ensemble des couleurs disponibles pour le codage de couleurs dans l'ordinateur, à partir de la courbe définie à l'étape (B) ; 10 D) extraire la position géographique, dans l'image, d'un pixel de l'image ainsi que les coordonnées de sa couleur dans l'espace de couleur défini à l'étape (A), cette couleur étant assimilable à un point P dans cet espace de couleur ; E) comparer la couleur extraite à l'étape (D) à la table de conversion couleur-donnée définie à l'étape (C), pour déterminer la valeur de la donnée associée à 15 cette couleur ; F) extraire la position géographique, dans cette image, des autres pixels de l'image ainsi que leurs couleurs dans l'espace de couleur défini à l'étape (A), pour réaliser la reconstruction complète des données de ladite image. 20 12. A method for reconstructing data from a color image with which data is associated, in which method the following steps are provided: A) choosing or defining a color space, said space being able to represent all the color tones associated with the image; then, computer-implemented the following steps: B) define, in this color space, a color scale in the form of a curve evolving in said space, each point of this curve being able to be associated with a value of the data to be reconstructed; C) defining a color-data conversion table covering all the colors available for the color coding in the computer, from the curve defined in step (B); D) extracting the geographic position, in the image, of a pixel of the image as well as the coordinates of its color in the color space defined in step (A), this color being comparable to a point P in this color space; E) comparing the extracted color in step (D) to the color-data conversion table defined in step (C) to determine the value of the data associated with that color; F) extracting the geographical position, in this image, of the other pixels of the image as well as their colors in the color space defined in step (A), to carry out the complete reconstruction of the data of said image. 20 13. Procédé selon la revendication précédente, dans lequel, l'étape (B) comprend les sous-étapes suivantes : B1) extraire la couleur d'un pixel de l'échelle de couleur présente sur l'image, dans l'espace de couleur défini à l'étape (A) ; B2) effectuer, pour chaque composante de l'espace de couleur défini à 2 5 l'étape (A), une moyenne de la composante considérée sur un ensemble de pixels, par exemple l'ensemble des pixels d'une même ligne lorsque l'échelle de couleur présente sur l'image à traiter est positionnée verticalement, pour définir un nuage de points dans lequel chaque point est associé à l'ensemble de pixels considéré et sa décomposition dans l'espace de couleur défini à l'étape (A) ; 30 B3) définir la courbe représentative de l'échelle de couleur dans l'espace de couleur défini à l'étape (A), à partir de ce nuage de points. 13. Method according to the preceding claim, wherein, step (B) comprises the following substeps: B1) extracting the color of a pixel from the color scale present on the image, in the space of color defined in step (A); B2) performing, for each component of the color space defined in step (A), an average of the component considered over a set of pixels, for example the set of pixels of the same line when the the color scale present on the image to be processed is positioned vertically, to define a cloud of points in which each point is associated with the set of pixels considered and its decomposition in the color space defined in step (A) ); B3) define the representative curve of the color scale in the color space defined in step (A), from this scatter plot. 14. Procédé selon la revendication précédente, dans lequel l'étape (C) consiste à : C1) exprimer une couleur prévue pour le codage des couleurs dans l'ordinateur dans l'espace de couleur défini à l'étape (A), cette couleur étant assimilable à un point M dans cet espace de couleur ; C2) comparer cette couleur à la courbe représentative de l'échelle de couleur définie dans cet espace, pour déterminer la donnée associée à cette couleur ; C3) déterminer, sur ladite courbe, la couleur associée aux autres couleurs prévues dans l'ordinateur pour le codage des couleurs, pour réaliser la table de conversion couleur-donnée. 14. Method according to the preceding claim, wherein step (C) consists in: C1) expressing a color intended for color coding in the computer in the color space defined in step (A), this color being assimilable to a point M in this color space; C2) comparing this color with the curve representative of the color scale defined in this space, to determine the data associated with this color; C3) determining, on said curve, the color associated with the other colors provided in the computer for the color coding, to achieve the color-data conversion table. 15. Procédé selon la revendication précédente, dans lequel l'étape (C2) consiste à : - si le point M est situé sur ladite courbe : C21) enregistrer cette couleur et la valeur de la donnée associée à cette couleur ; - si le point M n'est pas situé sur ladite courbe : C22) déterminer le point M" appartenant à ladite courbe associé à la couleur la plus représentative de la couleur du point M puis, à l'issue de cette étape (C22), mettre en oeuvre l'étape (C21). 15. Method according to the preceding claim, wherein step (C2) comprises: if the point M is located on said curve: C21) register this color and the value of the data associated with this color; - if the point M is not situated on the said curve: C22) determining the point M "belonging to the said curve associated with the most representative color of the color of the point M then at the end of this step (C22) , implement step (C21). 16. Procédé selon la revendication précédente, dans lequel, si le point M n'est pas situé sur ladite courbe et que la courbe ne comporte qu'un seul segment, l'étape (022) consiste à : - effectuer la projection orthogonale M" du point M sur ledit segment, ledit point M" ainsi obtenu sur le segment étant alors associé à la couleur la plus représentative de la couleur associée au point M et éventuellement, à déterminer la distance MM". 16. Method according to the preceding claim, wherein, if the point M is not situated on said curve and the curve has only one segment, the step (022) consists of: - performing the orthogonal projection M "of the point M on said segment, said point M" thus obtained on the segment being then associated with the most representative color of the color associated with the point M and possibly, to determine the distance MM ". 17. Procédé selon la revendication 15, dans lequel, si le point M n'est pas situé sur la courbe et que la courbe comporte plusieurs segments, l'étape (022) consiste à :- effectuer la projection orthogonale (M', M", M"', M"") du point M sur chaque segment ; - déterminer la distance entre le point M et chacune de ses projections orthogonales (M', M", M"', M"") sur les différents segments ; - conserver la distance MM" la plus faible, le point M" appartenant à l'un des segments étant alors associé à la couleur la plus représentative de la couleur du point M. 17. The method of claim 15, wherein, if the point M is not situated on the curve and the curve comprises several segments, the step (022) consists in: performing the orthogonal projection (M ', M') ", M" ', M "") of the point M on each segment; determining the distance between the point M and each of its orthogonal projections (M ', M ", M"', M "") on the different segments; - keep the distance MM "the weakest, the point M" belonging to one of the segments then being associated with the color most representative of the color of the point M. 18. Procédé selon l'une des revendications 16 ou 17, dans lequel on compare la distance MM" à une valeur seuil prédéterminée et, si la distance MM" est supérieure à cette valeur seuil, on met alors en oeuvre à la place de l'étape (C21), une étape (C'21) dans laquelle soit on n'enregistre que la couleur, soit on enregistre la couleur et on associe la donnée à une non valeur. 18. Method according to one of claims 16 or 17, wherein the distance MM "is compared with a predetermined threshold value and, if the distance MM" is greater than this threshold value, it is then implemented in place of step (C21), a step (C'21) in which either the color is recorded only, or the color is recorded and the data is associated with a non-value. 19. Procédé selon l'une des revendications 12 à 18, dans lequel l'étape (B) consiste également à définir, dans l'espace de couleur défini à l'étape (A), un ou plusieurs point(s) de couleur fixe n'appartenant pas à ladite courbe. 2 0 19. Method according to one of claims 12 to 18, wherein step (B) also consists in defining, in the color space defined in step (A), one or more color point (s). stationary not belonging to said curve. 2 0 20. Procédé selon la revendication précédente, dans lequel, si le point M n'est pas situé sur la courbe, l'étape (C22) consiste alors à déterminer le point appartenant soit à ladite courbe soit défini par l'un des points fixes dont la couleur est la plus représentative de la couleur du point M. 25 20. Method according to the preceding claim, wherein, if the point M is not situated on the curve, the step (C22) then consists in determining the point belonging either to said curve or defined by one of the fixed points. the color of which is most representative of the color of the point M. 25 21. Procédé selon la revendication précédente, dans lequel, si le point dont la couleur est la plus représentative de la couleur du point M est l'un des points fixes, on met alors en oeuvre à la place de l'étape (C21), une étape (C'21) dans laquelle soit on n'enregistre que la couleur, soit on enregistre la couleur et on associe la donnée à une non valeur. 30 21. Method according to the preceding claim, wherein, if the point whose color is the most representative of the color of the point M is one of the fixed points, it is then implemented in place of the step (C21). a step (C'21) in which either the color is recorded only or the color is recorded and the data is associated with a non-value. 30 22. Procédé selon l'une des revendications 12 à 21, dans lequel l'étape (C3) consiste à répéter les étapes (Cl) et (C2) pour l'ensemble des couleurs disponibles, dans l'ordinateur, pour le codage des couleurs. 22. Method according to one of claims 12 to 21, wherein the step (C3) consists in repeating the steps (C1) and (C2) for all available colors, in the computer, for the coding of colors. 23. Procédé selon l'une des revendications 12 à 22, dans lequel l'étape (F) consiste à répéter les étapes (D) et (E) pour l'ensemble des pixels de l'image. 23. Method according to one of claims 12 to 22, wherein step (F) consists of repeating steps (D) and (E) for all the pixels of the image. 24. Procédé selon l'une des revendications précédentes, dans lequel les données reconstruites sont des données sismiques. 24. The method according to one of the preceding claims, wherein the reconstructed data is seismic data.
FR1253655A 2012-04-20 2012-04-20 METHOD OF RECONSTRUCTING DATA FROM A COLOR IMAGE TO WHICH THE DATA IS ASSOCIATED. Expired - Fee Related FR2989804B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1253655A FR2989804B1 (en) 2012-04-20 2012-04-20 METHOD OF RECONSTRUCTING DATA FROM A COLOR IMAGE TO WHICH THE DATA IS ASSOCIATED.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1253655A FR2989804B1 (en) 2012-04-20 2012-04-20 METHOD OF RECONSTRUCTING DATA FROM A COLOR IMAGE TO WHICH THE DATA IS ASSOCIATED.

Publications (2)

Publication Number Publication Date
FR2989804A1 true FR2989804A1 (en) 2013-10-25
FR2989804B1 FR2989804B1 (en) 2014-05-23

Family

ID=46852114

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1253655A Expired - Fee Related FR2989804B1 (en) 2012-04-20 2012-04-20 METHOD OF RECONSTRUCTING DATA FROM A COLOR IMAGE TO WHICH THE DATA IS ASSOCIATED.

Country Status (1)

Country Link
FR (1) FR2989804B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110967741A (en) * 2018-09-27 2020-04-07 中国石油化工股份有限公司 Method and system for detecting in-phase axis based on graphics
US11500118B2 (en) 2019-03-08 2022-11-15 International Business Machines Corporation Seismic data representation and comparison

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997013166A1 (en) * 1995-10-06 1997-04-10 Amoco Corporation Method and apparatus for seismic signal processing and exploration

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997013166A1 (en) * 1995-10-06 1997-04-10 Amoco Corporation Method and apparatus for seismic signal processing and exploration

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JÉSUS ANGULO ET AL: "Mathematical Morphology in Color Spaces Applied To The Analysis Of Cartographic Images", 1 January 2003 (2003-01-01), XP055047989, Retrieved from the Internet <URL:http://malte.ensmp.fr/~serra/communications_pdf/C-81.pdf> [retrieved on 20121217] *
L. LUCCHESE ET AL: "Color Image Segmentation A State-of-the-Art Survey", 1 January 2001 (2001-01-01), XP055047994, Retrieved from the Internet <URL:http://ultra.sdk.free.fr/docs/Image-Processing/filters/Color Image Segmentation-A State-of-the-Art Survey.pdf> [retrieved on 20121217] *
STEFAN LEYK ET AL: "Colors of the past: color image segmentation in historical topographic maps based on homogeneity", GEOINFORMATICA ; AN INTERNATIONAL JOURNAL ON ADVANCES OF COMPUTER SCIENCE FOR GEOGRAPHIC INFORMATION SYSTEMS, KLUWER ACADEMIC PUBLISHERS, BO, vol. 14, no. 1, 16 January 2009 (2009-01-16), pages 1 - 21, XP019768950, ISSN: 1573-7624 *
STEPHEN THEOPHANIS ET AL: "Color display of the localized spectrum", GEOPHYSICS, VOL. 65, NO 4, 1 January 2000 (2000-01-01), pages 1330 - 1340, XP055047902, Retrieved from the Internet <URL:http://library.seg.org/doi/pdf/10.1190/1.1444825> [retrieved on 20121214] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110967741A (en) * 2018-09-27 2020-04-07 中国石油化工股份有限公司 Method and system for detecting in-phase axis based on graphics
US11500118B2 (en) 2019-03-08 2022-11-15 International Business Machines Corporation Seismic data representation and comparison

Also Published As

Publication number Publication date
FR2989804B1 (en) 2014-05-23

Similar Documents

Publication Publication Date Title
FR3039684A1 (en) OPTIMIZED METHOD OF ANALYSIS OF THE CONFORMITY OF THE SURFACE OF A TIRE
CN112132196B (en) Cigarette case defect identification method combining deep learning and image processing
FR3011368A1 (en) METHOD AND DEVICE FOR REINFORCING THE SHAPE OF THE EDGES FOR VISUAL IMPROVEMENT OF THE RENDER BASED ON DEPTH IMAGES OF A THREE-DIMENSIONAL VIDEO STREAM
Fayaz et al. Underwater image restoration: A state‐of‐the‐art review
Anitha et al. Restoration of X-ray fluorescence images of hidden paintings
FR2905188A1 (en) Input image e.g. palm imprint image, density converting method for e.g. image processing improving system, involves converting minimum local and maximum local values into minimum and maximum common values, and reconstructing input image
US20220215509A1 (en) Physics-based recovery of lost colors in underwater and atmospheric images under wavelength dependent absorption and scattering
CN111951284A (en) Optical remote sensing satellite image refined cloud detection method based on deep learning
EP3359978A1 (en) Method for processing an sar image and associated target-detecting method
Wang et al. Multiscale single image dehazing based on adaptive wavelet fusion
EP2875316B1 (en) Method for determining parameters of water surface observation by imaging
CN114241344B (en) Plant leaf disease and pest severity assessment method based on deep learning
Babu et al. An efficient image dahazing using Googlenet based convolution neural networks
FR2989804A1 (en) Method for reconstructing seismic data from color images to identify presence of oil fields, involves extracting geographical position of image pixels and colors within color space to realize reconstruction of data from image
Hirahara et al. Cloud-free sea-surface-temperature image reconstruction from anomaly inpainting network
McKay et al. An automated approach to extracting river bank locations from aerial imagery using image texture
WO2022122625A1 (en) Method for verifying a digital image
Agarwal Bit plane average filtering to remove Gaussian noise from high contrast images
FR2933520A1 (en) METHOD AND DEVICE FOR RESTORING A VIDEO SEQUENCE
Hsu et al. A hybrid algorithm with artifact detection mechanism for region filling after object removal from a digital photograph
Li et al. Underwater image enhancement utilizing adaptive color correction and model conversion for dehazing
FR2697930A1 (en) Method for producing a synthesized reference image for inspecting objects
EP3633625A1 (en) Method for texturing a 3d model
CN111754524B (en) Remote sensing image rapid sea and land segmentation method based on shoreline data
FR3026534B1 (en) GENERATING A PERSONALIZED ANIMATION FILM

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 4

RM Correction of a material error

Effective date: 20150408

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

ST Notification of lapse

Effective date: 20201214