WO2022223901A1 - Procédé de génération d'une base de données d'images pseudo-réalistes de matériaux composites - Google Patents

Procédé de génération d'une base de données d'images pseudo-réalistes de matériaux composites Download PDF

Info

Publication number
WO2022223901A1
WO2022223901A1 PCT/FR2022/050680 FR2022050680W WO2022223901A1 WO 2022223901 A1 WO2022223901 A1 WO 2022223901A1 FR 2022050680 W FR2022050680 W FR 2022050680W WO 2022223901 A1 WO2022223901 A1 WO 2022223901A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
artificial
trinary
acquired
neural network
Prior art date
Application number
PCT/FR2022/050680
Other languages
English (en)
Inventor
Yanneck WIELHORSKI
Arturo MENDOZA QUISPE
Roger Fernando TRULLO RAMIREZ
Julien Paul SCHNEIDER-DIE-GROSS
Teddy FIXY
Original Assignee
Safran
Safran Aircraft Engines
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR2104126A external-priority patent/FR3122272B1/fr
Priority claimed from FR2104127A external-priority patent/FR3122273B1/fr
Application filed by Safran, Safran Aircraft Engines filed Critical Safran
Publication of WO2022223901A1 publication Critical patent/WO2022223901A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • TITLE Process for generating a database of pseudo-realistic images of composite materials
  • the technical field of the invention is that of composite materials and more particularly that of databases of images of composite materials intended to be used for the segmentation of each strand of a composite material.
  • the present invention relates to a method for generating a database of images of composite materials and in particular a method for generating a database of pseudo-realistic images of composite materials intended to be used for the supervised learning of an algorithm making it possible to segment each strand of the reinforcement of a composite material.
  • the present invention also relates to a method for reconstructing the architecture of the reinforcement of a composite material using the generated database.
  • each strand is defined by a neutral fiber and a plurality of cross sections, the neutral fiber being the line connecting the barycenters of the cross sections along the entire length of the strand and the cross sections being an approximation of the envelope of the strand.
  • the invention offers a solution to the problems mentioned above, by making it possible to obtain an image database for the reconstruction of the architecture of the reinforcement of a composite material, more quickly and with a risk of errors. reduced.
  • a first aspect of the invention relates to a method for generating a database of pseudo-realistic images of composite materials reproducing the characteristics of images acquired by an imaging system, from an image three-dimensional image of composite material acquired by the imaging system, a composite material comprising a plurality of strands arranged along a plurality of reinforcement axes, the method comprising the following steps:
  • Constitution of a first training database comprising each trinary image and the corresponding acquired image and supervised learning of a first artificial neural network on the first training database to obtain a first trained artificial neural network capable of providing, from a trinary image, a pseudo-realistic image reproducing the characteristics of an image acquired by the imaging system;
  • the pseudo-realistic image database comprising a plurality of pseudo-realistic images obtained by using the first artificial neural network on the plurality of artificial trinary images, and the artificial parametric model associated with the three-dimensional image corresponding artificial.
  • a database comprising a plurality of pseudo-realistic images of composite materials reproducing the characteristics of images of composite materials acquired by an imaging system and in which the barycenter and several points of the circumference of each strand section have been identified, is generated.
  • an artificial neural network was trained on a training database to make it capable of generating a pseudo-realistic image from a trinary image.
  • the training database comprises a plurality of trinary images each associated with an acquired image corresponding to a cross section of a three-dimensional image acquired by the imaging system. Each image acquired therefore reproduces the characteristics of images of composite materials acquired by the imaging system.
  • Trinary images are obtained from a parametric model in which each barycenter of a strand section identified in an acquired image is assigned an elliptical circumference.
  • the constitution of the training database therefore requires only the manual or semi-manual identification of the barycenter of each section of strand in each acquired image, the circumference of the envelope of each strand being considered as elliptical, which avoids having to manually identify several points on the circumference of each section of strand in each acquired image.
  • the artificial neural network is used on a plurality of artificial trinary images, generated from an artificial parametric model, to obtain a plurality of pseudo-realistic images.
  • the artificial parametric model is representative of reality, in particular the section of each strand is of arbitrary circumference and the pseudo-realistic images generated therefore also present strand sections of arbitrary circumference.
  • the neural network therefore manages not only to convert the trinary images into pseudo-realistic images but also to modify the shape of the sections of each strand in order to make them more realistic as well.
  • the artificial parametric model therefore compensates for the lack of manual identification of the circumference of each strand section in each acquired image.
  • each pseudo-realistic image with the barycenter and several points of the circumference of each section of each strand present in the corresponding artificial trinary image therefore makes it possible to obtain a database suitable for supervised learning an algorithm to automatically reconstitute the architecture of the reinforcement of a composite material.
  • the database images are generated automatically, the generated database can have any number of images and thus be used to train any algorithm.
  • the generation method according to the first aspect of the invention may have one or more additional characteristics from among the following, considered individually or in all technically possible combinations.
  • the imaging system is a tomographic imaging system.
  • the first artificial neural network is a deep convolutional artificial neural network.
  • the supervised learning of the first artificial neural network is carried out by minimizing a cost function for each trinary image of the first training database, the cost function comprising a first component depending on the mean square error between the acquired image associated with the trinary image in the first training database and the image provided by the first artificial neural network from the trinary image and a second perceptual error dependent component between the acquired image associated with the trinary image in the first training database and the image provided by the first artificial neural network from the trinary image.
  • the cost function takes into account, on the one hand, the pixel-by-pixel error and, on the other hand, the characteristic-by-characteristic error, a characteristic being an intermediate representation used by an artificial neural network to carry out its prediction.
  • the perceptual error is calculated from a feature vector corresponding to the acquired image associated with the trinary image in the first database of training and a feature vector corresponding to the image provided by the first artificial neural network from the trinary image, each feature vector being obtained using a pre-convolutional artificial neural network trained.
  • the cost function is equal to:
  • the root mean square error between the acquired image associated with the trinary image in the first training database and the image provided by the first artificial neural network from the trinary image L P , the perceptual error between the acquired image associated with the trinary image in the first training database and the image provided by the first artificial neural network from the trinary image and has a coefficient between 0 and 1 .
  • a second aspect of the invention relates to a method for automatically reconstructing the architecture of the reinforcement of a composite material, comprising a step of supervised learning of an algorithm on the basis of pseudo-realistic image data. generated by the generation method according to the first aspect of the invention.
  • the reconstitution of the architecture of the reinforcement of a composite material can be obtained automatically by using an algorithm based on supervised learning since the generated database used for learning can include as many images reproducing the characteristics of a composite material image acquired by an imaging system as necessary and includes precise information because it is obtained via finite element calculation software and not by manual identification.
  • the invention relates to a method for automatically reconstructing the architecture, along a reinforcement axis, of the reinforcement of a composite material, the reinforcement comprising a plurality of strands arranged along the reinforcement axis, the process comprising the following steps:
  • Supervised learning of a second artificial neural network on a second training database to obtain a second trained artificial neural network capable of providing, from an acquired image, the barycenter and a set of points of the circumference of each section of strand present in the acquired image, the second training database comprising a set of images of composite training materials each according to a section plane perpendicular to a reinforcement axis of the composite training material, each image of the set of images being associated with the barycenter and with the set of points of the circumference of each section of strand present in the image;
  • the reconstitution method according to the invention may have one or more additional characteristics from among the following, considered individually or according to all the technically possible combinations:
  • the system of imaging is a CT imaging system;
  • the set of images of the second training database comprises a plurality of images obtained from at least one three-dimensional image acquired by the imaging system, and the barycenter and the set of points of the circumference of each section of strand present in an image are obtained by manual identification;
  • the method further includes a step of generating the second training database;
  • the set of images of the second training database comprises a plurality of pseudo-realistic images reproducing the characteristics of images acquired by the imaging system; each pseudo-realistic image is obtained using a first deep convolutional artificial neural network from an artificial trinary image generated using finite element calculation software;
  • the barycenter and the set of points of the circumference associated with each image of the set of images of the second training database are obtained via the finite element calculation software;
  • the second artificial neural network is a deep convolutional artificial neural
  • the invention also relates to a method for automatically reconstructing the architecture of the reinforcement of a composite material, comprising, for each axis of reinforcement of the composite material, the steps of the method for automatically reconstructing the architecture of the reinforcement of the material composite along a reinforcing axis according to the invention.
  • a third aspect of the invention relates to a computer configured to implement the steps of the generation method according to the first aspect of the invention and/or of the reconstitution method according to the second aspect of the invention.
  • a fourth aspect of the invention relates to a computer program product comprising instructions which, when the program is executed by a computer, lead the latter to implement the steps of the generation method according to the first aspect of the invention and/or of the method of reconstitution according to the second aspect of the invention.
  • a fifth aspect of the invention relates to a computer-readable recording medium comprising instructions which, when executed by a computer, lead the latter to implement the steps of the generation method according to the first aspect of the invention and/or of the method of reconstitution according to the second aspect of the invention.
  • Figure 1 shows a three-dimensional image of a composite material acquired by X-ray tomography.
  • Figure 2 is a block diagram illustrating the sequence of steps of a generation method according to the invention.
  • Figure 3 shows a schematic representation of an isolated strand intersected by a section plane.
  • Figure 4 shows a trinary image corresponding to an acquired image obtained from the acquired three-dimensional image.
  • Figure 5 shows a pseudo-realistic image obtained from an artificial trinary image.
  • Figure 6 is a block diagram illustrating the sequence of steps of a reconstitution method according to the invention.
  • Figure 7 illustrates the result of a fourth step of the reconstitution method according to the invention.
  • Figure 8 shows a mesh of finite elements obtained from a reconstitution of the architecture of the reinforcement of a composite material obtained thanks to the reconstitution method according to the invention.
  • a first aspect of the invention relates to a method for generating a database comprising a plurality of pseudo-realistic images of composite materials.
  • pseudo-realistic image means an image generated digitally but reproducing the characteristics of an image acquired by an imaging system.
  • the imaging system is for example an X-ray tomography, synchrotron or transmission electron microscopy imaging system.
  • a composite material comprises a textile reinforcement and a matrix.
  • the textile reinforcement comprises strands woven according to a predefined weaving pattern.
  • the matrix is a binder, often made of plastic.
  • a strand of the textile reinforcement is composed of a plurality of fibers, often carbon or glass.
  • the strands are woven according to a weaving pattern defined according to at least two orientations, also called reinforcement axes.
  • the weaving pattern is defined over several layers. These layers are linked by strands called binders.
  • Figure 1 shows a three-dimensional l3D_acq image of a composite material acquired by X-ray tomography.
  • the composite material is a 3D woven composite material having a reinforcement 300 consisting of strands 302 woven according to a weaving pattern defined over several layers 301 and along two orthogonal reinforcement axes X and Y, conventionally called warp and frame.
  • the images of the database to be generated can be images of composite materials before assembly with their matrices or after assembly with their matrices.
  • the database to be generated is intended to be used for supervised learning of an algorithm making it possible to reconstruct the architecture of the reinforcement of a composite material, that is to say to segment each strand 302 of the reinforcement 300 of the composite material to obtain its geometry, and more precisely its neutral fiber and an approximation of its envelope.
  • each pseudo-realistic image of the database is associated with the barycenter and with several points of the circumference of the section of each strand 302 present in the pseudo-realistic image.
  • the term "reconstruction of the architecture of the reinforcement of a composite material” means obtaining a parametric model of the architecture of the reinforcement of the composite material then allowing numerical characterizations of the composite material to be carried out, for example the thermo-physical and/or thermo-mechanical properties at each point of the reinforcement 300 or even the location of weaving defects.
  • FIG. 2 is a block diagram illustrating the sequence of steps of the generation method 101 according to the invention.
  • the method 101 of generation according to the invention is carried out from a three-dimensional image l3D_ acq of composite material such as that represented in FIG. 1.
  • a plurality of acquired images is obtained from the l3D_acq three-dimensional image, each acquired image being a section of the l3D_acq three-dimensional image along a section plane perpendicular to a reinforcement axis X, Y of the composite material .
  • the plurality of acquired images comprises for example between 2000 and 4000 images.
  • the plurality of acquired images comprises for example 3512 acquired images, for example 1814 images acquired along a section plane perpendicular to the reinforcement axis X and 1698 images acquired along a section plane perpendicular to the reinforcement axis Y.
  • the section planes of the acquired images are mutually parallel and not coincident, that is to say that the section planes are spaced from each other along the reinforcement axis X, Y to which they are perpendicular.
  • Figure 3 shows a schematic representation of an insulated strand 302, arranged along the reinforcement axis X and intersected by a section plane 3031 perpendicular to the reinforcement axis X.
  • an image acquired according to the section plane 3031 comprises a section 3020 of the strand 302.
  • This section 3020 can be defined by its barycenter 3021 and its circumference 3022.
  • a first step 1011 of the method 101 of generation according to the invention consists in identifying in each acquired image the barycenter 3021 of each section
  • the identification is carried out manually or semi-manually using image processing software.
  • the first step 1011 is for example carried out using image annotation software.
  • Figure 4 shows an image acquired l acq on which the barycenter
  • a second step 1012 of the generation method 101 according to the invention consists in creating a parametric model from each barycenter 3021 identified in the first step 1011.
  • each strand section 3020 whose barycenter 3021 has been identified in the first step 1011 is assigned an elliptical circumference 3022 to obtain a simplified strand section.
  • the characteristics of the ellipse for example its major axis and its minor axis, may be identical or different for each section 3020 of strand.
  • the characteristics of the ellipse are for example identical for each section 3020 of strand belonging to the same strand 302.
  • the parametric model then includes the coordinates in the acquired image l acq of the barycenter 3021 identified in the first step 1011 and the coordinates of a set of points on the circumference 3022 of the associated simplified strand section, that is ie of circumference 3022 elliptical.
  • the set of points comprises for example 10 points.
  • a third step 1013 of the generation method 101 according to the invention consists in converting the parametric model obtained in the second step 1012 into a simplified three-dimensional image using image conversion software.
  • This image conversion software converts a continuous parametric model to a discrete regular grid.
  • This new grid can be seen as a volume image in which each element is a voxel and in which the value of each voxel is zero if the center of the voxel is outside any strand, or if the center of the voxel is inside a strand , equal to the value of the strand.
  • the software will assign the value of the nearest strand by analyzing the distances between the center of the voxel and the neutral fibers of the strands concerned.
  • a fourth step 1014 of the generation method 101 according to the invention consists in generating a trinary image IM for each acquired image lacq.
  • Each trinary image IM is a section of the simplified three-dimensional image obtained in the third step 1013, according to the section plane 3031 associated with the corresponding acquired image lacq.
  • each strand section is therefore a simplified section 3020′ of elliptical circumference 3022.
  • trimer image is understood to mean an image comprising three levels of gray.
  • a first gray level is assigned to the pixels included in a strand 302 arranged along the reinforcement axis X, Y perpendicular to the section plane 3031 associated with the acquired image lacq corresponding
  • a second gray level is assigned to the pixels included in a strand 302 arranged along a reinforcement axis different from the reinforcement axis X, Y perpendicular to the section plane 3031
  • a third gray level is assigned to the other pixels that is to say to the pixels not included in a strand 302 arranged along a reinforcement axis X, Y.
  • the first level of gray is 1, corresponding to a white color
  • the third level of gray is 0, corresponding to a black color
  • the second level of gray is a level intermediate, for example 0.5, corresponding to a gray color.
  • a fifth step 1015 of the method 101 of generation according to the invention consists in constituting a first training database then in training in a supervised manner a first network of artificial neurons on the first training database to obtain a first trained artificial neural network capable of providing, from a trinary Itri image, a pseudo-realistic image reproducing the characteristics of an image acquired l acq by the imaging system.
  • the first artificial neural network used is for example a deep convolutional artificial neural network, such as the U-Net artificial neural network.
  • Supervised learning makes it possible to train the artificial neural network for a predefined task, by updating the hyperparameters of the artificial neural network so as to minimize a cost function corresponding to the error between the output data provided by the artificial neural network and the real output data, i.e. what the artificial neural network should output to fulfill the predefined task on a certain input data.
  • a training database therefore comprises input data, each associated with a real output data.
  • the first training database comprises each trinary image Itri obtained in the fourth step 1014, and for each trinary image Itri, the associated acquired image lacq.
  • the input data are the Itri trinary images and the real output data are the acquired lacq images.
  • the supervised learning of the first artificial neural network therefore consists in updating the hyperparameters so as to minimize a cost function corresponding to the error between the image provided by the first network of artificial neurons from a trinary image Iw of the first training database and the real image l acq associated with the trinary image IM in the first training database.
  • Figure 5 shows a pseudo-realistic image Lu provided by the first artificial neural network.
  • the cost function includes for example a first component depending on the mean square error between the image l acq associated with the trinary image IM in the first training database and the image n provided by the first artificial neural network, and a second component depending on the perceptual error between the image l acq associated with the trinary image IM in the first training database and the image l art provided by the first network of artificial neurons.
  • the perceptual error corresponds to the mean square error between a vector of characteristics corresponding to the image l acq associated with the trinary image IM in the first training database and a vector of characteristics corresponding to l image n provided by the first artificial neural network.
  • Each feature vector is obtained using a pre-trained convolutional artificial neural network.
  • a feature vector is an intermediate representation used by the pre-trained convolutional artificial neural network to perform its prediction.
  • Pre-trained artificial neural network means an artificial neural network having been previously trained on a different database.
  • the pre-trained convolutional artificial neural network is for example VGG-16 pre-trained on the ImageNet database and the feature vector corresponds for example to the output of the fourth convolutional block and therefore to the input of the fifth convolutional block.
  • the feature vector corresponding to the image l acq associated with the trinary image IM in the first training database is then obtained by providing the image l acq associated with the trinary image IM in the first pre-trained convolutional artificial neural network training database and the feature vector corresponding to the image n provided by the first artificial neural network, by providing the image n provided by the first artificial neural network to the pre-trained convolutional artificial neural network.
  • the cost function L T is calculated for example as follows:
  • L 2 the mean square error between the image l acq associated with the trinary image Iw in the first training database and the image Lu provided by the first artificial neural network
  • L P the perceptual error between the l acq image associated with the trinary image Iw in the first training database and the l art image provided by the first artificial neural network and has a coefficient between 0 and 1.
  • a is for example 0.5.
  • a sixth step 1016 of the generation method 101 according to the invention consists in obtaining at least one artificial parametric model using finite element calculation software, then in converting the artificial parametric model into an image artificial three-dimensional image using image conversion software.
  • the finite element calculation software is for example Multifil, WiseTex, TexGen or even DFMA.
  • a seventh step 1017 of the generation method 101 according to the invention consists in obtaining a plurality of artificial trinary images ltri_gen from each artificial three-dimensional image obtained in the sixth step 1016, each artificial trinary image ltri_gen being a section of the artificial three-dimensional image according to a section plane 3031 perpendicular to a reinforcement axis X, Y.
  • An eighth step 1018 of the generation method 101 according to the invention consists in using the first artificial neural network on each artificial trinary image ltri_gen obtained in the seventh step 1017 to obtain a pseudo realistic image Lrt.
  • FIG. 5 shows an example of a pseudo-realistic image Lu obtained by the first artificial neural network from an artificial trinary image ltri_gen.
  • the pseudo-realistic image database then comprises each pseudo-realistic image n obtained and the artificial parametric model associated with the corresponding artificial three-dimensional image.
  • the artificial parametric model comprises the coordinates of the barycenter 3021 and of the set of points of the circumference 3022 of each section 3020 of strand present in an artificial trinary image ltri_gen obtained from the corresponding artificial three-dimensional image.
  • the barycenter 3021 and a set of points on the circumference 3022 of each strand section 3020 are represented by points on the artificial trinary image ltri_gen.
  • a second aspect of the invention relates to a method for reconstructing the architecture of the reinforcement 300 of a composite material along a reinforcement axis X, Y of the composite material.
  • the method according to the second aspect of the invention will be applied to the axis of reinforcement X, that is to say that the architecture of the reinforcement 300 of the composite material will be determined according to the reinforcement axis X.
  • Figure 6 is a block diagram illustrating the sequence of steps of the reconstitution method 100 according to the invention.
  • the reconstitution method 100 according to the invention may include a first step 101 of generating a second training database.
  • the second training database is generated by the generation method 101 according to the first aspect of the invention, that is to say that the first step 101 comprises the steps of the generation method 101 according to the first aspect of the invention.
  • the second generated training database then comprises a plurality of pseudo-realistic images Lu of composite training materials reproducing the characteristics of images cq of composite materials each corresponding to a section of a three-dimensional image l3D_acq acquired by the imaging system according to a section plane 3031 perpendicular to a reinforcement axis X, Y of the composite training material, and each pseudo-realistic image Un is associated with the barycenter 3021 and at a set of points on the circumference 3022 of each section 3020 of strand 302 present in the pseudo-realistic image Un, obtained via the finite element calculation software.
  • the second training database comprises a plurality of images of composite training materials, each corresponding to a section of a three-dimensional l3D_acq image acquired by the imaging system according to a plane of section 3031 perpendicular to an axis of reinforcement X, Y of the composite drive material, and each image is associated with the barycenter 3021 and with a set of points of the circumference 3022 of each section 3020 of strand 302 present in the image acquired the acq obtained by manual identification.
  • the composite drive material or materials may be identical to or different from the composite material whose architecture of the reinforcement 300 is to be reconstituted.
  • a second step 102 of the reconstitution method 100 according to the invention consists in acquiring a three-dimensional l3D_ acq image of the composite material whose architecture of the reinforcement 300 is to be reconstructed using the imaging system and obtaining a plurality of acquired images l acq each corresponding to a section of the three-dimensional image l3D_ acq according to a section plane 3031 perpendicular to the reinforcement axis X.
  • a third step 103 of the reconstitution method 100 according to the invention consists in training in a supervised manner a second artificial neural network on the second training database to obtain a second trained artificial neural network capable of providing from an image acquired l acq , that is to say an image corresponding to a section of a three-dimensional image l3D_ acq acquired by the imaging system according to a section plane 3031 perpendicular to a reinforcement axis X, Y of the composite material, the barycenter 3021 and the set of points of the circumference 3022 of each section 3020 of strand 302 present in the acquired image lacq.
  • the second artificial neural network used is for example a deep convolutional artificial neural network, such as the Fast R-CNN, Faster R-CNN or Mask R-CNN artificial neural network.
  • the supervised training of the second artificial neural network therefore consists in updating the hyperparameters so as to minimize the error between the barycenter 3021 and the set of points of the circumference 3022 of each section 3020 of strand 302 provided by the second artificial neural network from an image of the second training database and the barycenter 3021 and the set of points of the circumference 3022 of each section 3020 of strand 302 associated with the image in the second training database.
  • a fourth step 104 of the reconstitution method 100 according to the invention consists in using the second artificial neural network trained in the third step 103 on each acquired image lacq obtained in the second step 102 to obtain the barycenter 3021 and the set of points of the circumference 3022 of each section 3020 of strand 302 present in the acquired image lacq.
  • Figure 7 illustrates the result of the fourth step of the reconstitution method according to the invention on an acquired image lacq obtained in the second step 102.
  • a third aspect of the invention relates to a method for automatically reconstituting the complete architecture of the reinforcement of the composite material.
  • the method according to the third aspect of the invention comprises the steps of the method 100 according to the second aspect of the invention for each reinforcement axis X, Y of the reinforcement 300 of the composite material.
  • Figure 8 shows a mesh of finite elements obtained from the reconstitution of the architecture of the reinforcement of a composite material obtained thanks to the reconstitution method according to the invention.
  • the generation method 101 according to the first aspect of the invention and the reconstitution method 100 according to the second aspect of the invention can be implemented by a computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)

Abstract

Procédé de génération d'une base de données d'images pseudo- réalistes de matériaux composites Un aspect de l'invention concerne un procédé de génération d'une base de données d'images pseudo-réalistes de matériaux composites à partir d'une image tridimensionnelle acquise par un système d'imagerie, comportant les étapes suivantes : - Constitution d'une première base de données d'entraînement comportant, pour chaque image acquise obtenue à partir de l'image tridimensionnelle, une image trinaire correspondant à l'image acquise dans laquelle chaque section de toron a une circonférence elliptique, et l'image acquise correspondante; - Apprentissage supervisé d'un premier réseau de neurones artificiels sur la première base de données d'entraînement; - Obtention d'au moins un modèle paramétrique artificiel à l'aide d'un logiciel de calculs d'éléments finis, conversion du modèle paramétrique artificiel en une image tridimensionnelle artificielle à l'aide du logiciel de conversion d'images et obtention d'une pluralité d'images trinaires artificielles à partir de l'image tridimensionnelle artificielle; - Constitution de la base de données d'images pseudo-réalistes comportant une pluralité d'images pseudo-réalistes obtenue en utilisant le premier réseau de neurones artificiels sur la pluralité d'images trinaires artificielles, et le modèle paramétrique artificiel associée.

Description

DESCRIPTION
TITRE : Procédé de génération d’une base de données d’images pseudo-réalistes de matériaux composites
DOMAINE TECHNIQUE DE L’INVENTION
[0001] Le domaine technique de l’invention est celui des matériaux composites et plus particulièrement celui des bases de données d’images de matériaux composites destinées à être utilisées pour la segmentation de chaque toron d’un matériau composite.
[0002] La présente invention concerne un procédé de génération d’une base de données d’images de matériaux composites et en particulier un procédé de génération d’une base de données d’images pseudo-réalistes de matériaux composites destinée à être utilisée pour l’apprentissage supervisé d’un algorithme permettant de segmenter chaque toron du renfort d’un matériau composite. La présente invention concerne également un procédé de reconstitution de l’architecture du renfort d’un matériau composite utilisant la base de données générée.
ARRIERE-PLAN TECHNOLOGIQUE DE L’INVENTION
[0003] Dans le domaine des matériaux composites, la reconstitution de l’architecture du renfort d’un matériau composite par la segmentation de chaque fil du renfort, également appelé mèche ou toron, dans le volume du matériau composite, est un excellent moyen d’avoir accès à la géométrie interne réelle du matériau. En particulier, la reconstitution de la géométrie de chaque toron permet d’obtenir la morphologie du textile indispensable pour le calcul des propriétés thermo-physiques et thermomécaniques locales. La géométrie de chaque toron est définie par une fibre neutre et une pluralité de sections transversales, la fibre neutre étant la ligne reliant les barycentres des sections transversales sur l’ensemble de la longueur du toron et les sections transversales étant une approximation de l’enveloppe du toron.
[0004] Il existe actuellement des algorithmes basés sur de l’apprentissage supervisé permettant de reconstituer automatiquement la fibre neutre de chaque toron d’un renfort de matériau composite. Pour cela, une base de données comportant un nombre important d’images tomographiques dans lesquelles le barycentre de chaque section de toron a été identifié est utilisée. Etant donné que l’identification est réalisée manuellement ou semi-manuellement à l’aide d’un logiciel de traitement d’images, et qu’une pièce en matériau composite peut comporter plusieurs milliers de torons, une telle opération est extrêmement chronophage et également sujette à de nombreuses erreurs car il est parfois impossible, même à l’œil nu, de distinguer les torons les uns des autres tant leur densité est grande.
[0005] Pour ces raisons, le recours à des algorithmes basés sur de l’apprentissage supervisé pour reconstituer en plus l’enveloppe de chaque toron d’un matériau composite est difficilement envisageable, dans la mesure où il faudrait, en sus de l’identification du barycentre de chaque section de toron, identifier manuellement plusieurs points de la circonférence de chaque section de toron dans chaque image tomographique de la base de données, ce qui n’est pas réalisable en un temps raisonnable et avec un taux de précision suffisamment important pour que l’algorithme soit performant.
[0006] Il existe donc un besoin d’obtenir une base de données d’images destinée à l’apprentissage supervisé d’un algorithme permettant d’obtenir la géométrie de chaque toron d’un matériau composite, en minimisant le nombre d’étapes nécessitant une intervention humaine.
RESUME DE L’INVENTION
[0007] L’invention offre une solution aux problèmes évoqués précédemment, en permettant d’obtenir une base de données d’images pour la reconstitution de l’architecture du renfort d’un matériau composite, plus rapidement et avec un risque d’erreurs réduit.
[0008] Un premier aspect de l’invention concerne un procédé de génération d’une base de données d’images pseudo-réalistes de matériaux composites reproduisant les caractéristiques d’images acquises par un système d’imagerie, à partir d’une image tridimensionnelle de matériau composite acquise par le système d’imagerie, un matériau composite comportant une pluralité de torons agencés selon une pluralité d’axes de renfort, le procédé comportant les étapes suivantes :
Pour chaque image acquise d’une pluralité d’images acquises correspondant chacune à une section de l’image tridimensionnelle selon un plan de section perpendiculaire à un axe de renfort, identification du barycentre de chaque section de toron présent dans l’image acquise ; Obtention d’un modèle paramétrique comprenant, pour chaque section de toron présent dans une image acquise, les coordonnées dans l’image acquise du barycentre identifié et d’un ensemble de points de la circonférence d’une section simplifiée de toron ayant le barycentre identifié pour barycentre et une circonférence elliptique ;
Conversion du modèle paramétrique obtenu en une image tridimensionnelle simplifiée à l’aide d’un logiciel de conversion d’images ; Pour chaque image acquise, obtention d’une image trinaire correspondant à une section de l’image tridimensionnelle simplifiée selon le plan de section associé à l’image acquise et présentant un premier niveau de gris pour les pixels compris dans un toron agencé selon l’axe de renfort perpendiculaire au plan de section, un deuxième niveau de gris pour les pixels compris dans un toron agencé selon un axe de renfort différent de l’axe de renfort perpendiculaire au plan de section, et un troisième niveau de gris pour les pixels non compris dans un toron ;
Constitution d’une première base de données d’entraînement comportant chaque image trinaire et l’image acquise correspondante et apprentissage supervisé d’un premier réseau de neurones artificiels sur la première base de données d’entraînement pour obtenir un premier réseau de neurones artificiels entraîné capable de fournir à partir d’une image trinaire, une image pseudo-réaliste reproduisant les caractéristiques d’une image acquise par le système d’imagerie ;
Obtention d’au moins un modèle paramétrique artificiel à l’aide d’un logiciel de calculs d’éléments finis et conversion du modèle paramétrique artificiel en une image tridimensionnelle artificielle à l’aide du logiciel de conversion d’images ;
Obtention d’une pluralité d’images trinaires artificielles correspondant chacune à une section de l’image tridimensionnelle artificielle selon un plan de section perpendiculaire à un axe de renfort ;
Constitution de la base de données d’images pseudo-réalistes comportant une pluralité d’images pseudo-réalistes obtenue en utilisant le premier réseau de neurones artificiels sur la pluralité d’images trinaires artificielles, et le modèle paramétrique artificiel associé à l’image tridimensionnelle artificielle correspondante. [0009] Grâce à l’invention, une base de données comportant une pluralité d’images pseudo-réalistes de matériaux composites reproduisant les caractéristiques d’images de matériaux composites acquises par un système d’imagerie et dans lesquelles le barycentre et plusieurs points de la circonférence de chaque section de toron ont été identifiés, est générée.
[0010] Pour cela, un réseau de neurones artificiels a été entraîné sur une base de données d’entraînement pour le rendre capable de générer une image pseudo-réaliste à partir d’une image trinaire. La base de données d’entraînement comporte une pluralité d’images trinaires chacune associée à une image acquise correspondant à une section transversale d’une image tridimensionnelle acquise par le système d’imagerie. Chaque image acquise reproduit donc les caractéristiques d’images de matériaux composites acquises par le système d’imagerie. Les images trinaires sont obtenues à partir d’un modèle paramétrique dans lequel chaque barycentre d’une section de toron identifiée dans une image acquise est affecté d’une circonférence elliptique. La constitution de la base de données d’entraînement nécessite donc uniquement l’identification manuelle ou semi-manuelle du barycentre de chaque section de toron dans chaque image acquise, la circonférence de l’enveloppe de chaque toron étant considérée comme elliptique, ce qui évite d’avoir à identifier manuellement plusieurs points de la circonférence de chaque section de toron dans chaque image acquise.
[0011] Une fois entraîné, le réseau de neurones artificiels est utilisé sur une pluralité d’images trinaires artificielles, générées à partir d’un modèle paramétrique artificiel, pour obtenir une pluralité d’images pseudo-réalistes. Le modèle paramétrique artificiel est représentatif de la réalité, en particulier la section de chaque toron est de circonférence quelconque et les images pseudo-réalistes générées présentent donc également des sections de toron de circonférence quelconque. Le réseau de neurones arrive donc non seulement à convertir les images trinaires en images pseudo-réalistes mais également à modifier la forme des sections de chaque toron afin de les rendre plus réalistes également. Le modèle paramétrique artificiel permet donc de pallier l’absence d’identification manuelle de la circonférence de chaque section de toron dans chaque image acquise.
[0012] Comme le modèle paramétrique artificiel a été obtenu à l’aide d’un logiciel de calculs d’éléments finis, la fibre neutre et l’enveloppe de chaque toron sont donc connues et donc le barycentre et plusieurs points de la circonférence de chaque section de chaque toron sont connus pour chaque image trinaire artificielle.
[0013] L’association de chaque image pseudo-réaliste avec le barycentre et plusieurs points de la circonférence de chaque section de chaque toron présent dans l’image trinaire artificielle correspondante permet donc d’obtenir une base de données adaptée pour l’apprentissage supervisé d’un algorithme permettant de reconstituer automatiquement l’architecture du renfort d’un matériau composite. Comme les images de la base de données sont générées automatiquement, la base de données générée peut comporter n’importe quel nombre d’images et donc être utilisée pour entraîner n’importe quel algorithme.
[0014] Outre les caractéristiques qui viennent d’être évoquées dans le paragraphe précédent, le procédé de génération selon le premier aspect de l’invention peut présenter une ou plusieurs caractéristiques complémentaires parmi les suivantes, considérées individuellement ou selon toutes les combinaisons techniquement possibles.
[0015] Selon une variante de réalisation, le système d’imagerie est un système d’imagerie tomographique.
[0016] Selon une variante de réalisation compatible avec les variantes de réalisation précédentes, le premier réseau de neurones artificiels est un réseau de neurones artificiels convolutif profond.
[0017] Selon une variante de réalisation compatible avec les variantes de réalisation précédentes, l’apprentissage supervisé du premier réseau de neurones artificiels est réalisé par minimisation d’une fonction de coût pour chaque image trinaire de la première base de données d’entraînement, la fonction de coût comportant une première composante dépendant de l’erreur quadratique moyenne entre l’image acquise associée à l’image trinaire dans la première base de données d’entraînement et l’image fournie par le premier réseau de neurones artificiels à partir de l’image trinaire et une deuxième composante dépendant de l’erreur perceptuelle entre l’image acquise associée à l’image trinaire dans la première base de données d’entraînement et l’image fournie par le premier réseau de neurones artificiels à partir de l’image trinaire.
[0018] Ainsi, la fonction de coût prend en compte d’une part l’erreur pixel par pixel et d’autre part l’erreur caractéristique par caractéristique, une caractéristique étant une représentation intermédiaire utilisée par un réseau de neurones artificiels pour réaliser sa prédiction.
[0019] Selon une alternative de réalisation de la sous-variante de réalisation précédente, l’erreur perceptuelle est calculée à partir d’un vecteur de caractéristiques correspondant à l’image acquise associée à l’image trinaire dans la première base de données d’entraînement et d’un vecteur de caractéristiques correspondant à l’image fournie par le premier réseau de neurones artificiels à partir de l’image trinaire, chaque vecteur de caractéristiques étant obtenu à l’aide d’un réseau de neurones artificiels convolutif pré-entraîné.
[0020] Selon une sous-variante de réalisation de la variante de réalisation précédente compatible avec la sous-variante de réalisation précédente, la fonction de coût est égale à :
Lj — cc 1*2 + (1 ce) Lp
Avec 2, l’erreur quadratique moyenne entre l’image acquise associée à l’image trinaire dans la première base de données d’entraînement et l’image fournie par le premier réseau de neurones artificiels à partir de l’image trinaire, LP, l’erreur perceptuelle entre l’image acquise associée à l’image trinaire dans la première base de données d’entraînement et l’image fournie par le premier réseau de neurones artificiels à partir de l’image trinaire et a un coefficient compris entre 0 et 1 .
[0021] Un deuxième aspect de l’invention concerne un procédé de reconstitution automatique de l’architecture du renfort d’un matériau composite, comportant une étape d’apprentissage supervisé d’un algorithme sur la base de données d’images pseudo-réalistes générée par le procédé de génération selon le premier aspect de l’invention.
[0022] Ainsi, la reconstitution de l’architecture du renfort d’un matériau composite peut être obtenue automatiquement en utilisant un algorithme basé sur de l’apprentissage supervisé puisque la base de données générée utilisée pour l’apprentissage peut comporter autant d’images reproduisant les caractéristiques d’une image de matériau composite acquise par un système d’imagerie que nécessaire et comporte des informations précises car obtenues via un logiciel de calculs d’éléments finis et non par identification manuelle.
[0023] En particulier, l’invention concerne un procédé de reconstitution automatique de l’architecture, selon un axe de renfort, du renfort d’un matériau composite, le renfort comprenant une pluralité de torons agencés selon l’axe de renfort, le procédé comportant les étapes suivantes :
Acquisition par un système d’imagerie, d’une image tridimensionnelle du matériau composite et obtention d’une pluralité d’images acquises correspondant chacune à une section de l’image tridimensionnelle selon un plan de section perpendiculaire à l’axe de renfort ;
Apprentissage supervisé d’un deuxième réseau de neurones artificiels sur une deuxième base de données d’entraînement pour obtenir un deuxième réseau de neurones artificiels entraîné capable de fournir à partir d’une image acquise, le barycentre et un ensemble de points de la circonférence de chaque section de toron présent dans l’image acquise, la deuxième base de données d’entraînement comportant un ensemble d’images de matériaux composites d’entraînement chacune selon un plan de section perpendiculaire à un axe de renfort du matériau composite d’entraînement, chaque image de l’ensemble d’images étant associée au barycentre et à l’ensemble de points de la circonférence de chaque section de toron présent dans l’image ;
Utilisation du deuxième réseau de neurones artificiels entraîné sur chaque image acquise pour obtenir le barycentre et l’ensemble de points de la circonférence de chaque section de toron présent dans l’image acquise.
[0024] Outre les caractéristiques qui viennent d’être évoquées dans le paragraphe précédent, le procédé de reconstitution selon l’invention peut présenter une ou plusieurs caractéristiques complémentaires parmi les suivantes, considérées individuellement ou selon toutes les combinaisons techniquement possibles : le système d’imagerie est un système d’imagerie par tomodensitométrie ; l’ensemble d’images de la deuxième base de données d’entraînement comporte une pluralité d’images obtenues à partir d’au moins une image tridimensionnelle acquise par le système d’imagerie, et le barycentre et l’ensemble de points de la circonférence de chaque section de toron présent dans une image sont obtenus par identification manuelle ; le procédé comporte en outre une étape de génération de la deuxième base de données d’entraînement ; l’ensemble d’images de la deuxième base de données d’entraînement comporte une pluralité d’images pseudo-réalistes reproduisant les caractéristiques d’images acquises par le système d’imagerie ; chaque image pseudo-réaliste est obtenue à l’aide d’un premier réseau de neurones artificiels convolutif profond à partir d’une image trinaire artificielle générée à l’aide d’un logiciel de calculs d’éléments finis ; le barycentre et l’ensemble de points de la circonférence associés à chaque image de l’ensemble d’images de la deuxième base de données d’entraînement sont obtenus via le logiciel de calculs d’éléments finis ; le deuxième réseau de neurones artificiels est un réseau de neurones artificiels convolutif profond.
[0025] L’invention concerne également un procédé de reconstitution automatique de l’architecture du renfort d’un matériau composite, comportant pour chaque axe de renfort du matériau composite, les étapes du procédé de reconstitution automatique de l’architecture du renfort du matériau composite selon un axe de renfort selon l’invention.
[0026] Un troisième aspect de l’invention concerne un calculateur configuré pour mettre en œuvre les étapes du procédé de génération selon le premier aspect de l’invention et/ou du procédé de reconstitution selon le deuxième aspect de l’invention.
[0027] Un quatrième aspect de l’invention concerne un produit-programme d’ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, conduisent celui-ci à mettre en œuvre les étapes du procédé de génération selon le premier aspect de l’invention et/ou du procédé de reconstitution selon le deuxième aspect de l’invention. [0028] Un cinquième aspect de l’invention concerne un support d’enregistrement lisible par ordinateur comprenant des instructions qui, lorsqu’elles sont exécutées par un ordinateur, conduisent celui-ci à mettre en œuvre les étapes du procédé de génération selon le premier aspect de l’invention et/ou du procédé de reconstitution selon le deuxième aspect de l’invention.
[0029] L’invention et ses différentes applications seront mieux comprises à la lecture de la description qui suit et à l’examen des figures qui l’accompagnent.
BREVE DESCRIPTION DES FIGURES
[0030] Les figures sont présentées à titre indicatif et nullement limitatif de l’invention.
La figure 1 montre une image tridimensionnelle d’un matériau composite acquise par tomographie par rayons X.
La figure 2 est un schéma synoptique illustrant l’enchaînement des étapes d’un procédé de génération selon l’invention.
La figure 3 montre une représentation schématique d’un toron isolé intersecté par un plan de section.
La figure 4 montre une image trinaire correspondant à une image acquise obtenue à partir de l’image tridimensionnelle acquise.
La figure 5 montre une image pseudo-réaliste obtenue à partir d’une image trinaire artificielle.
La figure 6 est un schéma synoptique illustrant l’enchaînement des étapes d’un procédé de reconstitution selon l’invention.
La figure 7 illustre le résultat d’une quatrième étape du procédé de reconstitution selon l’invention.
La figure 8 montre un maillage d’éléments finis obtenu à partir d’une reconstitution de l’architecture du renfort d’un matériau composite obtenue grâce au procédé de reconstitution selon l’invention.
DESCRIPTION DETAILLEE
[0031] Sauf précision contraire, un même élément apparaissant sur des figures différentes présente une référence unique. [0032] Un premier aspect de l’invention concerne un procédé de génération d’une base de données comportant une pluralité d’images pseudo-réalistes de matériaux composites.
[0033] On entend par « image pseudo-réaliste », une image générée numériquement mais reproduisant les caractéristiques d’une image acquise par un système d’imagerie.
[0034] Le système d’imagerie est par exemple un système d’imagerie par tomographie par rayons X, par synchrotron ou par microscopie électronique en transmission.
[0035] Un matériau composite comporte un renfort textile et une matrice. Dans un matériau composite tissé, le renfort textile comprend des torons tissés suivant un motif de tissage prédéfini. La matrice est un liant, souvent en matière plastique.
[0036] Un toron du renfort textile est composé d’une pluralité de fibres, souvent de carbone ou verre. Les torons sont tissés suivant un motif de tissage défini selon au moins deux orientations, également appelées axes de renfort.
[0037] Pour les matériaux composites tissés 3D, le motif de tissage est défini sur plusieurs couches. Ces couches sont liées par des torons appelés liants.
[0038] [Fig. 1 ] La figure 1 montre une image tridimensionnelle l3D_acq d’un matériau composite acquise par tomographie par rayons X.
[0039] Sur la figure 1 , le matériau composite est un matériau composite tissé 3D présentant un renfort 300 constitué de torons 302 tissés suivant un motif de tissage défini sur plusieurs couches 301 et selon deux axes de renfort orthogonaux X et Y, classiquement appelés chaîne et trame.
[0040] Les images de la base de données à générer peuvent être des images de matériaux composites avant assemblage avec leurs matrices ou après assemblage avec leurs matrices. [0041] La base de données à générer est destinée à être utilisée pour l’apprentissage supervisé d’un algorithme permettant de reconstituer l’architecture du renfort d’un matériau composite, c’est-à-dire de segmenter chaque toron 302 du renfort 300 du matériau composite pour obtenir sa géométrie, et plus précisément sa fibre neutre et une approximation de son enveloppe. Pour cela, chaque image pseudo réaliste de la base de données est associée au barycentre et à plusieurs points de la circonférence de la section de chaque toron 302 présent dans l’image pseudo-réaliste.
[0042] On entend par « reconstitution de l’architecture du renfort d’un matériau composite », l’obtention d’un modèle paramétrique de l’architecture du renfort du matériau composite permettant ensuite d’effectuer des caractérisations numériques du matériau composite, par exemple les propriétés thermo-physiques et/ou thermomécaniques en chaque point du renfort 300 ou encore la localisation de défauts de tissage.
[0043] [Fig. 2] La figure 2 est un schéma synoptique illustrant l’enchaînement des étapes du procédé 101 de génération selon l’invention.
[0044] Le procédé 101 de génération selon l’invention est réalisée à partir d’une image tridimensionnelle l3D_acq de matériau composite telle que celle représentée sur la figure 1.
[0045] Une pluralité d’images acquises est obtenue à partir de l’image tridimensionnelle l3D_acq, chaque image acquise étant une section de l’image tridimensionnelle l3D_acq selon un plan de section perpendiculaire à un axe de renfort X, Y du matériau composite.
[0046] La pluralité d’images acquises comporte par exemple entre 2000 et 4000 images.
[0047] La pluralité d’images acquises comporte par exemple 3512 images acquises, par exemple 1814 images acquises selon un plan de section perpendiculaire à l’axe de renfort X et 1698 images acquises selon un plan de section perpendiculaire à l’axe de renfort Y. [0048] Les plans de section des images acquises sont parallèles entre eux et non confondus, c’est-à-dire que les plans de section sont espacés entre eux selon l’axe de renfort X, Y auquel ils sont perpendiculaires.
[0049] [Fig. 3] La figure 3 montre une représentation schématique d’un toron 302 isolé, agencé selon l’axe de renfort X et intersecté par un plan de section 3031 perpendiculaire à l’axe de renfort X.
[0050] Comme illustré sur la figure 3, une image acquise selon le plan de section 3031 comprend une section 3020 du toron 302. Cette section 3020 peut être définie par son barycentre 3021 et sa circonférence 3022.
[0051] Une première étape 1011 du procédé 101 de génération selon l’invention consiste à identifier dans chaque image acquise le barycentre 3021 de chaque section
3020 de toron présent dans l’image acquise.
[0052] L’identification est réalisée manuellement ou semi-manuellement à l’aide d’un logiciel de traitement d’images.
[0053] La première étape 1011 est par exemple réalisée à l’aide d’un logiciel de d’annotation d’images.
[0054] [Fig. 4] La figure 4 montre une image acquise lacq sur laquelle le barycentre
3021 de chaque section 3020 de toron 302 présent dans l’image lacq a été identifié par un point noir.
[0055] Une deuxième étape 1012 du procédé 101 de génération selon l’invention consiste à créer un modèle paramétrique à partir de chaque barycentre 3021 identifié à la première étape 1011.
[0056] Pour cela, chaque section 3020 de toron dont le barycentre 3021 a été identifié à la première étape 1011 est affectée d’une circonférence 3022 elliptique pour obtenir une section simplifiée de toron.
[0057] Les caractéristiques de l’ellipse, par exemple son grand axe et son petit axe, peuvent être identiques ou différentes pour chaque section 3020 de toron.
[0058] Les caractéristiques de l’ellipse sont par exemple identiques pour chaque section 3020 de toron appartenant à un même toron 302. [0059] Le modèle paramétrique comprend alors les coordonnées dans l’image acquise lacq du barycentre 3021 identifié à la première étape 1011 et les coordonnées d’un ensemble de points de la circonférence 3022 de la section simplifiée de toron associée, c’est-à-dire de la circonférence 3022 elliptique.
[0060] L’ensemble de points comporte par exemple 10 points.
[0061] Une troisième étape 1013 du procédé 101 de génération selon l’invention consiste à convertir le modèle paramétrique obtenu à la deuxième étape 1012 en une image tridimensionnelle simplifiée à l’aide d’un logiciel de conversion d’images.
[0062] Ce logiciel de conversion d’images, autrement appelé « voxeliseur », permet de convertir un modèle paramétrique continu vers une grille régulière discrète. Cette nouvelle grille peut être vue comme une image volumique dont chaque élément est un voxel et dans laquelle, la valeur de chaque voxel est zéro si le centre du voxel se trouve hors de tout toron, ou si le centre du voxel se trouve dans un toron, égale à la valeur du toron. Ici, le logiciel attribuera la valeur du toron le plus proche en analysant les distances entre le centre du voxel et les fibres neutres des torons concernés.
[0063] Une quatrième étape 1014 du procédé 101 de génération selon l’invention consiste à générer une image trinaire IM pour chaque image acquise lacq.
[0064] Chaque image trinaire IM est une section de l’image tridimensionnelle simplifiée obtenue à la troisième étape 1013, selon le plan de section 3031 associé à l’image acquise lacq correspondante. Dans une image trinaire IM, chaque section de toron est donc une section simplifiée 3020’ de circonférence 3022 elliptique.
[0065] On entend par « image trinaire », une image comportant trois niveaux de gris.
[0066] Dans une image trinaire IM selon l’invention, un premier niveau de gris est affecté aux pixels compris dans un toron 302 agencé selon l’axe de renfort X, Y perpendiculaire au plan de section 3031 associé à l’image acquise lacq correspondante, un deuxième niveau de gris est affecté aux pixels compris dans un toron 302 agencé selon un axe de renfort différent de l’axe de renfort X, Y perpendiculaire au plan de section 3031 , et un troisième niveau de gris est affecté aux autres pixels c’est-à-dire aux pixels non compris dans un toron 302 agencé selon un axe de renfort X, Y. [0067] Dans l’image trinaire Itri sur la figure 4, le premier niveau de gris est 1 , correspondant à une couleur blanche, le troisième niveau de gris est 0, correspondant à une couleur noire et le deuxième niveau de gris est un niveau intermédiaire, par exemple 0.5, correspondant à une couleur grise.
[0068] Une cinquième étape 1015 du procédé 101 de génération selon l’invention consiste à constituer une première base de données d’entraînement puis à entraîner de manière supervisée un premier réseau de neurones artificiels sur la première base de données d’entraînement pour obtenir un premier réseau de neurones artificiels entraîné capable de fournir à partir d’une image trinaire Itri, une image pseudo-réaliste reproduisant les caractéristiques d’une image acquise lacq par le système d’imagerie.
[0069] Le premier réseau de neurones artificiels utilisé est par exemple un réseau de neurones artificiels convolutif profond, tel que le réseau de neurones artificiels U- Net.
[0070] L’apprentissage supervisé permet d’entraîner le réseau de neurones artificiels à une tâche prédéfinie, en mettant à jour les hyperparamètres du réseau de neurones artificiels de manière à minimiser une fonction de coût correspondant à l’erreur entre la donnée de sortie fournie par le réseau de neurones artificiels et la vraie donnée de sortie, c’est-à-dire ce que le réseau de neurones artificiels devrait fournir en sortie pour remplir la tâche prédéfinie sur une certaine donnée d’entrée.
[0071] Une base de données d’entraînement comporte donc des données d’entrée, chacune associée à une vraie donnée de sortie.
[0072] La première base de données d’entraînement comporte chaque image trinaire Itri obtenue à la quatrième étape 1014, et pour chaque image trinaire Itri, l’image acquise lacq associée.
[0073] Ainsi, les données d’entrée sont les images trinaires Itri et les vraies données de sortie sont les images acquises lacq.
[0074] L’apprentissage supervisé du premier réseau de neurones artificiels consiste donc à mettre à jour les hyperparamètres de manière à minimiser une fonction de coût correspondant à l’erreur entre l’image fournie par le premier réseau de neurones artificiels à partir d’une image trinaire Iw de la première base de données d’entraînement et la vraie image lacq associée à l’image trinaire IM dans la première base de données d’entraînement.
[0075] [Fig. 5] La figure 5 montre une image pseudo-réaliste Lu fournie par le premier réseau de neurones artificiels.
[0076] La fonction de coût comporte par exemple une première composante dépendant de l’erreur quadratique moyenne entre l’image lacq associée à l’image trinaire IM dans la première base de données d’entraînement et l’image n fournie par le premier réseau de neurones artificiels, et une deuxième composante dépendant de l’erreur perceptuelle entre l’image lacq associée à l’image trinaire IM dans la première base de données d’entraînement et l’image lart fournie par le premier réseau de neurones artificiels.
[0077] L’erreur perceptuelle correspond à l’erreur quadratique moyenne entre un vecteur de caractéristiques correspondant à l’image lacq associée à l’image trinaire IM dans la première base de données d’entraînement et un vecteur de caractéristiques correspondant à l’image n fournie par le premier réseau de neurones artificiels. [0078] Chaque vecteur de caractéristiques est obtenu à l’aide d’un réseau de neurones artificiels convolutif pré-entraîné. Un vecteur de caractéristiques est une représentation intermédiaire utilisée par le réseau de neurones artificiels convolutif pré-entraîné pour réaliser sa prédiction.
[0079] On entend par « réseau de neurones artificiels pré-entraîné », un réseau de neurones artificiels ayant été préalablement entraîné sur une base de données différente.
[0080] Le réseau de neurones artificiels convolutif pré-entraîné est par exemple VGG-16 pré-entraîné sur la base de données ImageNet et le vecteur de caractéristiques correspond par exemple à la sortie du quatrième bloc convolutif et donc à l’entrée du cinquième bloc convolutif.
[0081] Le vecteur de caractéristiques correspondant à l’image lacq associée à l’image trinaire IM dans la première base de données d’entraînement est alors obtenu en fournissant l’image lacq associée à l’image trinaire IM dans la première base de données d’entraînement au réseau de neurones artificiels convolutif pré-entraîné et le vecteur de caractéristiques correspondant à l’image n fournie par le premier réseau de neurones artificiels, en fournissant l’image n fournie par le premier réseau de neurones artificiels au réseau de neurones artificiels convolutif pré-entraîné.
[0082] La fonction de coût LT se calcule par exemple de la manière suivante :
Figure imgf000018_0001
Avec L2, l’erreur quadratique moyenne entre l’image lacq associée à l’image trinaire Iw dans la première base de données d’entraînement et l’image Lu fournie par le premier réseau de neurones artificiels, LP, l’erreur perceptuelle entre l’image lacq associée à l’image trinaire Iw dans la première base de données d’entraînement et l’image lart fournie par le premier réseau de neurones artificiels et a un coefficient compris entre O et 1.
[0083] a vaut par exemple 0,5.
[0084] Une sixième étape 1016 du procédé 101 de génération selon l’invention consiste à obtenir au moins un modèle paramétrique artificiel à l’aide d’un logiciel de calculs d’éléments finis, puis à convertir le modèle paramétrique artificiel en une image tridimensionnelle artificielle à l’aide du logiciel de conversion d’images.
[0085] Le logiciel de calculs d’éléments finis est par exemple Multifil, WiseTex, TexGen ou encore DFMA.
[0086] Douze images tridimensionnelles artificielles sont par exemple obtenues.
[0087] Une septième étape 1017 du procédé 101 de génération selon l’invention consiste à obtenir une pluralité d’images trinaires artificielles ltri_gen à partir de chaque image tridimensionnelle artificielle obtenue à la sixième étape 1016, chaque image trinaire artificielle ltri_gen étant une section de l’image tridimensionnelle artificielle selon un plan de section 3031 perpendiculaire à un axe de renfort X, Y.
[0088] Une huitième étape 1018 du procédé 101 de génération selon l’invention consiste à utiliser le premier réseau de neurones artificiels sur chaque image trinaire artificielle ltri_gen obtenue à la septième étape 1017 pour obtenir une image pseudo réaliste Lrt. [0089] La figure 5 montre un exemple d’image pseudo-réaliste Lu obtenue par le premier réseau de neurones artificiels à partir d’une image trinaire artificielle ltri_gen.
[0090] La base de données d’images pseudo-réalistes comporte alors chaque image pseudo-réaliste n obtenue et le modèle paramétrique artificielle associée à l’image tridimensionnelle artificielle correspondante.
[0091] Le modèle paramétrique artificiel comporte les coordonnées du barycentre 3021 et de l’ensemble de points de la circonférence 3022 de chaque section 3020 de toron présent dans une image trinaire artificielle ltri_gen obtenue à partir de l’image tridimensionnelle artificielle correspondante.
[0092] Sur la figure 5, le barycentre 3021 et un ensemble de points de la circonférence 3022 de chaque section 3020 de toron sont représentés par des points sur l’image trinaire artificielle ltri_gen.
[0093] Un deuxième aspect de l’invention concerne un procédé de reconstitution de l’architecture du renfort 300 d’un matériau composite selon un axe de renfort X, Y du matériau composite.
[0094] Dans la suite de la description, le procédé selon le deuxième aspect de l’invention sera appliqué à l’axe de renfort X, c’est-à-dire que l’architecture du renfort 300 du matériau composite sera déterminée selon l’axe de renfort X.
[0095] [Fig. 6] La figure 6 est un schéma synoptique illustrant l’enchaînement des étapes du procédé 100 de reconstitution selon l’invention.
[0096] Le procédé 100 de reconstitution selon l’invention peut comporter une première étape 101 de génération d’une deuxième base de données d’entraînement. [0097] Selon un premier mode de réalisation, la deuxième base de données d’entraînement est générée par le procédé 101 de génération selon le premier aspect de l’invention, c’est-à-dire que la première étape 101 comporte les étapes du procédé 101 de génération selon le premier aspect de l’invention.
[0098] La deuxième base de données d’entraînement générée comporte alors une pluralité d’images pseudo-réalistes Lu de matériaux composites d’entraînement reproduisant les caractéristiques d’images cq de matériaux composites correspondant chacune à une section d’une image tridimensionnelle l3D_acq acquise par le système d’imagerie selon un plan de section 3031 perpendiculaire à un axe de renfort X, Y du matériau composite d’entraînement, et chaque image pseudo-réaliste Un est associée au barycentre 3021 et à un ensemble de points de la circonférence 3022 de chaque section 3020 de toron 302 présente dans l’image pseudo-réaliste Un, obtenus via le logiciel de calculs d’éléments finis.
[0099] Selon un deuxième mode de réalisation, la deuxième base de données d’entraînement comporte une pluralité d’images de matériaux composites d’entraînement correspondant chacune à une section d’une image tridimensionnelle l3D_acq acquise par le système d’imagerie selon un plan de section 3031 perpendiculaire à un axe de renfort X, Y du matériau composite d’entraînement, et chaque image est associée au barycentre 3021 et à un ensemble de points de la circonférence 3022 de chaque section 3020 de toron 302 présente dans l’image acquise lacq obtenus par identification manuelle.
[00100] Le ou les matériaux composites d’entraînement peuvent être identiques ou différents du matériau composite dont on veut reconstituer l’architecture du renfort 300.
[00101] Une deuxième étape 102 du procédé 100 de reconstitution selon l’invention consiste à acquérir une image tridimensionnelle l3D_acqdu matériau composite dont on veut reconstituer l’architecture du renfort 300 à l’aide du système d’imagerie et à obtenir une pluralité d’images acquises lacq correspondant chacune à une section de l’image tridimensionnelle l3D_acq selon un plan de section 3031 perpendiculaire à l’axe de renfort X.
[00102] Une troisième étape 103 du procédé 100 de reconstitution selon l’invention consiste à entraîner de manière supervisée un deuxième réseau de neurones artificiels sur la deuxième base de données d’entraînement pour obtenir un deuxième réseau de neurones artificiels entraîné capable de fournir à partir d’une image acquise lacq, c’est-à-dire une image correspondant à une section d’une image tridimensionnelle l3D_acq acquise par le système d’imagerie selon un plan de section 3031 perpendiculaire à un axe de renfort X, Y du matériau composite, le barycentre 3021 et l’ensemble de points de la circonférence 3022 de chaque section 3020 de toron 302 présent dans l’image acquise lacq.
[00103] Le deuxième réseau de neurones artificiels utilisé est par exemple un réseau de neurones artificiels convolutif profond, tel que le réseau de neurones artificiels Fast R-CNN, Faster R-CNN ou Mask R-CNN.
[00104] L’entraînement supervisé du deuxième réseau de neurones artificiels consiste donc à mettre à jour les hyperparamètres de manière à minimiser l’erreur entre le barycentre 3021 et l’ensemble de points de la circonférence 3022 de chaque section 3020 de toron 302 fournie par le deuxième réseau de neurones artificiels à partir d’une image de la deuxième base de données d’entraînement et le barycentre 3021 et l’ensemble de points de la circonférence 3022 de chaque section 3020 de toron 302 associée à l’image dans la deuxième base de données d’entraînement.
[00105] Une quatrième étape 104 du procédé 100 de reconstitution selon l’invention consiste à utiliser le deuxième réseau de neurones artificiels entraîné à la troisième étape 103 sur chaque image acquise lacq obtenue à la deuxième étape 102 pour obtenir le barycentre 3021 et l’ensemble de points de la circonférence 3022 de chaque section 3020 de toron 302 présent dans l’image acquise lacq.
[00106] [Fig. 7] La figure 7 illustre le résultat de la quatrième étape du procédé de reconstitution selon l’invention sur une image acquise lacq obtenue à la deuxième étape 102.
[00107] Sur la figure 7, le barycentre 3021 et 10 points de la circonférence 3022 de chaque section 3020 de toron 302 compris dans l’image acquise lacq ont été représentés par des points noirs.
[00108] Un troisième aspect de l’invention concerne un procédé de reconstitution automatique de l’architecture complète du renfort du matériau composite. [00109] Le procédé selon le troisième aspect de l’invention comporte les étapes du procédé 100 selon le deuxième aspect de l’invention pour chaque axe de renfort X, Y du renfort 300 du matériau composite. [00110] Une fois que le barycentre 3021 et l’ensemble de points de la circonférence
3022 de chaque section 3020 de toron 302 sont obtenus pour une pluralité d’images acquises lacq et pour chaque axe de renfort X, Y du matériau composite, il est possible de générer une géométrie du tissage en reliant les points 3022 des sections 3020 consécutives appartenant à un même toron 302. [00111] Ensuite, cette géométrie peut être utilisée pour construire un maillage d’éléments finis en utilisant un logiciel comme par exemple GMSH ou MeshLab.
[00112] [Fig. 8] La figure 8 montre un maillage d’éléments finis obtenu à partir de la reconstitution de l’architecture du renfort d’un matériau composite obtenue grâce au procédé de reconstitution selon l’invention.
[00113] Le procédé 101 de génération selon le premier aspect de l’invention et le procédé 100 de reconstitution selon le deuxième aspect de l’invention peuvent être mis en œuvre par un calculateur.

Claims

REVENDICATIONS
[Revendication 1] Procédé (101) de génération d’une base de données d’images pseudo-réalistes (Un) de matériaux composites à partir d’une image tridimensionnelle (l3D_acq) de matériau composite acquise par un système d’imagerie, une image pseudo réaliste étant une image générée numériquement reproduisant les caractéristiques d’images acquises (lacq) par le système d’imagerie, un matériau composite comportant une pluralité de torons (302) agencés selon une pluralité d’axes de renfort (X, Y), le procédé (101) comportant les étapes suivantes :
- Pour chaque image acquise (lacq) d’une pluralité d’images acquises correspondant chacune à une section de l’image tridimensionnelle (l3D_acq) selon un plan de section (3031) perpendiculaire à un axe de renfort (X, Y) parmi la pluralité d’axes de renfort (X, Y) du matériau composite de l’image tridimensionnelle (l3D_acq), identification du barycentre (3021) de chaque section (3020) de toron présent dans l’image acquise (lacq, 1011) ;
- Obtention d’un modèle paramétrique comprenant, pour chaque section (3020) de toron présent dans une image acquise (lacq), les coordonnées dans l’image acquise (lacq) du barycentre (3021) identifié et d’un ensemble de points de la circonférence (3022) d’une section simplifiée (3020’) de toron ayant le barycentre (3021) identifié pour barycentre (3021) et une circonférence (3022) elliptique (1012) ;
- Conversion du modèle paramétrique obtenu en une image tridimensionnelle simplifiée à l’aide d’un logiciel de conversion d’images (1013) ;
- Pour chaque image acquise (lacq), obtention d’une image trinaire (Itri) correspondant à une section de l’image tridimensionnelle simplifiée selon le plan de section (3031) associé à l’image acquise (lacq) et présentant un premier niveau de gris pour les pixels compris dans un toron (302) agencé selon l’axe de renfort (X) perpendiculaire au plan de section (3031), un deuxième niveau de gris pour les pixels compris dans un toron (302) agencé selon un axe de renfort (Y) différent de l’axe de renfort (X) perpendiculaire au plan de section (3031), et un troisième niveau de gris pour les pixels non compris dans un toron (302, 1014) ;
- Constitution d’une première base de données d’entraînement comportant chaque image trinaire (IM) et l’image acquise (lacq) correspondante et apprentissage supervisé d’un premier réseau de neurones artificiels sur la première base de données d’entraînement pour obtenir un premier réseau de neurones artificiels entraîné capable de fournir à partir d’une image trinaire (IM), une image pseudo-réaliste (Un) reproduisant les caractéristiques d’une image (lacq) acquise par le système d’imagerie (1015) ;
- Obtention d’au moins un modèle paramétrique artificiel à l’aide d’un logiciel de calculs d’éléments finis et conversion du modèle paramétrique artificiel en une image tridimensionnelle artificielle à l’aide du logiciel de conversion d’images (1016) ;
- Obtention d’une pluralité d’images trinaires artificielles (ltri_gen) correspondant chacune à une section de l’image tridimensionnelle artificielle selon un plan de section (3031) perpendiculaire à un axe de renfort (X, Y, 1017) ;
- Constitution de la base de données d’images pseudo-réalistes comportant une pluralité d’images pseudo-réalistes (Un) obtenue en utilisant le premier réseau de neurones artificiels sur la pluralité d’images trinaires artificielle (Itrugen), et le modèle paramétrique artificiel associée à l’image tridimensionnelle artificielle correspondante (1018).
[Revendication 2] Procédé (101) selon la revendication 1, caractérisé en ce que le système d’imagerie est un système d’imagerie par tomodensitométrie.
[Revendication s] Procédé (101) selon l’une quelconque des revendications précédentes, caractérisé en ce que le premier réseau de neurones artificiels est un réseau de neurones artificiels convolutif profond.
[Revendication 4] Procédé (101) selon l’une quelconque des revendications précédentes, caractérisé en ce que l’apprentissage supervisé du premier réseau de neurones artificiels est réalisé par minimisation d’une fonction de coût pour chaque image trinaire (Itn) de la première base de données d’entraînement, la fonction de coût comportant une première composante dépendant de l’erreur quadratique moyenne entre l’image acquise (lacq) associée à l’image trinaire (IM) dans la première base de données d’entraînement et l’image (Un) fournie par le premier réseau de neurones artificiels à partir de l’image trinaire (IM) et une deuxième composante dépendant de l’erreur perceptuelle entre l’image acquise (lacq) associée à l’image trinaire (Itn) dans la première base de données d’entraînement et l’image (Un) fournie par le premier réseau de neurones artificiels à partir de l’image trinaire (Itn).
[Revendication s] Procédé (101) selon la revendication 4, caractérisé en ce que l’erreur perceptuelle est calculée à partir d’un vecteur de caractéristiques correspondant à l’image acquise (lacq) associée à l’image trinaire (Itn) dans la première base de données d’entraînement et d’un vecteur de caractéristiques correspondant à l’image (Un) fournie par le premier réseau de neurones artificiels à partir de l’image trinaire (Itn), chaque vecteur de caractéristiques étant obtenu à l’aide d’un réseau de neurones artificiels convolutif pré-entraîné.
[Revendication 6] Procédé (101 ) selon la revendication 4 ou 5, caractérisé en ce que la fonction de coût est égale à :
Figure imgf000025_0001
Avec L2, l’erreur quadratique moyenne entre l’image acquise (lacq) associée à l’image trinaire (Itn) dans la première base de données d’entraînement et l’image (Un) fournie par le premier réseau de neurones artificiels à partir de l’image trinaire (Itn), LP, l’erreur perceptuelle entre l’image acquise (lacq) associée à l’image trinaire (Itn) dans la première base de données d’entraînement et l’image (Un) fournie par le premier réseau de neurones artificiels à partir de l’image trinaire (Itn) et a un coefficient compris entre O et 1.
[Revendication 7] Procédé de reconstitution automatique de l’architecture du renfort (300) d’un matériau composite, comportant une étape d’apprentissage supervisé d’un algorithme sur la base de données d’images pseudo-réalistes (Un) générée par le procédé (101) de génération selon l’une quelconque des revendications précédentes. [Revendication 8] Calculateur configuré pour mettre en œuvre les étapes du procédé (101) de génération selon l’une quelconque des revendications 1 à 6 et/ou du procédé de reconstitution selon la revendication 7. [Revendication 9] Produit-programme d’ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, conduisent celui-ci à mettre en œuvre les étapes du procédé (101) de génération selon l’une quelconque des revendications 1 à 6 et/ou du procédé de reconstitution selon la revendication 7. [Revendication 10] Support d’enregistrement lisible par ordinateur comprenant des instructions qui, lorsqu’elles sont exécutées par un ordinateur, conduisent celui-ci à mettre en œuvre les étapes du procédé (101) de génération selon l’une quelconque des revendications 1 à 6 et/ou du procédé de reconstitution selon la revendication 7.
PCT/FR2022/050680 2021-04-21 2022-04-11 Procédé de génération d'une base de données d'images pseudo-réalistes de matériaux composites WO2022223901A1 (fr)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FR2104126A FR3122272B1 (fr) 2021-04-21 2021-04-21 Procédé de génération d’une base de données d’images pseudo-réalistes de matériaux composites
FR2104127A FR3122273B1 (fr) 2021-04-21 2021-04-21 Procédé de génération automatique d’une image artificielle du renfort d’un matériau composite
FRFR2104127 2021-04-21
FRFR2104126 2021-04-21

Publications (1)

Publication Number Publication Date
WO2022223901A1 true WO2022223901A1 (fr) 2022-10-27

Family

ID=81648528

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2022/050680 WO2022223901A1 (fr) 2021-04-21 2022-04-11 Procédé de génération d'une base de données d'images pseudo-réalistes de matériaux composites

Country Status (1)

Country Link
WO (1) WO2022223901A1 (fr)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015024580A1 (fr) * 2013-08-19 2015-02-26 Universidad De Burgos Procédé mis en œuvre par ordinateur pour obtenir les orientations de fibres à l'intérieur de matières composites à l'aide d'un balayage de tomographie assistée par ordinateur

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015024580A1 (fr) * 2013-08-19 2015-02-26 Universidad De Burgos Procédé mis en œuvre par ordinateur pour obtenir les orientations de fibres à l'intérieur de matières composites à l'aide d'un balayage de tomographie assistée par ordinateur

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ALI MUHAMMAD A ET AL: "Deep learning based semantic segmentation of CT images for creating digital material twins of fibrous reinforcements", COMPOSITES PART A, ELSEVIER, AMSTERDAM, NL, vol. 139, 28 September 2020 (2020-09-28), XP086315457, ISSN: 1359-835X, [retrieved on 20200928], DOI: 10.1016/J.COMPOSITESA.2020.106131 *
MENDOZA ARTURO ET AL: "Descriptive modeling of textiles using FE simulations and deep learning", COMPOSITES SCIENCE AND TECHNOLOGY, ELSEVIER, AMSTERDAM, NL, vol. 213, 24 June 2021 (2021-06-24), XP086729130, ISSN: 0266-3538, [retrieved on 20210624], DOI: 10.1016/J.COMPSCITECH.2021.108897 *
STIG FREDRIK ET AL: "Spatial modelling of 3D-woven textiles", COMPOSITE STRUCTURES, vol. 94, no. 5, April 2012 (2012-04-01), pages 1495 - 1502, XP028909035, ISSN: 0263-8223, DOI: 10.1016/J.COMPSTRUCT.2011.12.003 *

Similar Documents

Publication Publication Date Title
EP0840252A1 (fr) Procédé de traitement d'image numérique pour l'extraction automatique d'objets en forme de rubans
CN111127538B (zh) 一种基于卷积循环编码-解码结构的多视影像三维重建方法
Wan et al. Multi-generational analysis and visualization of the vascular tree in 3D micro-CT images
EP0945830B1 (fr) Procédé de traitement d'images incluant des étapes de segmentation d'une image multidimensionnelle et appareil d'imagerie médicale utilisant ce procédé
EP2171687B1 (fr) Procédé et dispositif de traitement d'image, notamment pour le traitement d'images médicales
CN110070517B (zh) 基于退化成像机理和生成对抗机制的模糊图像合成方法
Wan et al. FluoRender: joint freehand segmentation and visualization for many-channel fluorescence data analysis
Lu et al. Semi-automated reconstruction of neural processes from large numbers of fluorescence images
CN113744275B (zh) 一种基于特征变换的三维cbct牙齿图像的分割方法
CN115578406B (zh) 基于上下文融合机制的cbct颌骨区域分割方法及系统
FR3050826A1 (fr) Procede de controle non-destructif par apprentissage
EP0323770B1 (fr) Procédé et dispositif permettant de reconstituer la forme et la position d'objets dans l'espace
WO2022223901A1 (fr) Procédé de génération d'une base de données d'images pseudo-réalistes de matériaux composites
WO2022223902A1 (fr) Procédé de reconstitution automatique de l'architecture du renfort d'un matériau composite
FR3122272A1 (fr) Procédé de génération d’une base de données d’images pseudo-réalistes de matériaux composites
CN112734638A (zh) 一种遥感影像超分辨重建方法、装置及存储介质
CA3224162A1 (fr) Procede automatique de segmentation d'un thrombus et d'une lesion dans une image tridimensionnelle cerebrale
EP4073751B1 (fr) Procédé de reconstitution automatique de l'architecture du renfort d'un matériau composite
EP3080594B1 (fr) Mesure non intrusive de la densité volumique d'une phase dans une piece d'un moteur d'aéronef
EP2965238A1 (fr) Procede de gestion de donnees relatives a des vehicules automobiles en vue de la generation graphique ulterieure de schemas electriques de systemes electriques
FR3122273A1 (fr) Procédé de génération automatique d’une image artificielle du renfort d’un matériau composite
EP4128152B1 (fr) Procédé et système de squelettisation des torons d'une pièce en matériau composite dans une image 3d
FR3095286A1 (fr) Procédé de traitement d’image d’un document d’identité.
EP3411851A1 (fr) Procédé de contrôle non-destructif par redressement
FR3116928A1 (fr) Procédé de recherche automatique d’au moins un motif textile dans un renfort de matériau composite

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22723158

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22723158

Country of ref document: EP

Kind code of ref document: A1