WO2023247127A1 - Methode de validation des predictions d'un modele supervise d'analyse quantitative multivariee de donnees spectrales - Google Patents

Methode de validation des predictions d'un modele supervise d'analyse quantitative multivariee de donnees spectrales Download PDF

Info

Publication number
WO2023247127A1
WO2023247127A1 PCT/EP2023/063875 EP2023063875W WO2023247127A1 WO 2023247127 A1 WO2023247127 A1 WO 2023247127A1 EP 2023063875 W EP2023063875 W EP 2023063875W WO 2023247127 A1 WO2023247127 A1 WO 2023247127A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
model
species
predictions
learning
Prior art date
Application number
PCT/EP2023/063875
Other languages
English (en)
Inventor
Riccardo FINOTELLO
Jean-Baptiste Sirven
Mohamed TAMAAZOUSTI
Original Assignee
Commissariat A L'energie Atomique Et Aux Energies Alternatives
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat A L'energie Atomique Et Aux Energies Alternatives filed Critical Commissariat A L'energie Atomique Et Aux Energies Alternatives
Publication of WO2023247127A1 publication Critical patent/WO2023247127A1/fr

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/71Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light thermally excited
    • G01N21/718Laser microanalysis, i.e. with formation of sample plasma
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/12Circuits of general importance; Signal processing
    • G01N2201/129Using chemometrical methods
    • G01N2201/1293Using chemometrical methods resolving multicomponent spectra

Definitions

  • the invention relates to the field of quantitative analysis, for example the determination of the concentration of chemical species contained in a sample, and supervised qualitative analysis, for example the classification of samples, from spectral data , that is to say data which presents a plurality of intensity values in different wavelength channels or spectral bands.
  • the data can be both multi- or hyperspectral data, where the number of spectral bands varies from a few dozen to hundreds, and data from emission or absorption spectra of a chemical species, containing thousands of channels of wavelength.
  • the invention relates to a new multivariate analysis method for the quantitative analysis of chemical species contained in a sample from spectral data, acquired by a spectroscopy technique.
  • An objective of the invention concerns the determination of a confidence measure of the predictions of the model used for quantification, using a multi-output algorithm. More precisely, in the context of the invention, the model gives both the main prediction, for example the value of the concentration of a species from the spectrum, and secondary outputs on tasks related to this prediction, d 'where the need for a multi-output system. These secondary predictions are then used to measure confidence in the primary prediction.
  • the invention aims to simultaneously predict directly verifiable quantities (i.e. i.e., present in the experimental data both during learning and both in inference) in the experimental data and which thus make it possible to ensure the reliability of the predicted concentration.
  • a possible application of the invention concerns the determination of the concentration of chemical elements and an indicator of reliability of predictions from spectral data, for example acquired by means of a measurement technique.
  • laser-induced plasma atomic emission spectroscopy or “Laser-Induced Breakdown Spectroscopy” (LIBS) in English.
  • LIBS Laser-Induced Breakdown Spectroscopy
  • the invention is not limited to this particular technique, it can be applied to any type of spectroscopy technique which produces multi- or hyperspectral data or spectral data of emission or absorption of chemical species.
  • LIBS technology makes it possible to carry out a material analysis by focusing a laser beam on the surface of a sample.
  • the plasma emission resulting from this focusing is collected by a spectrometer.
  • the data acquired by this method are spectral data which correspond, for each focus point on the surface, to an emission spectrum comprising atomic and molecular lines characteristic of the elementary chemical composition of the sample. The intensity of these lines increases non-trivially with the concentration of chemical elements present in the sample.
  • the calibration is carried out using several standards, that is to say samples whose species concentrations are previously known, to obtain a model which makes it possible to link the spectral signatures to the concentration of the species. This model can then be used to predict the unknown concentration of a species from a spectrum.
  • the model there are methods for defining a measure of uncertainty around the predictions made by the model (e.g., confidence intervals).
  • the calibration is characterized by relative uncertainties which increase as the concentration of species in the standards decreases, up to the detection limit. In fact, a level of 100% relative uncertainty is sometimes used as the definition of the detection limit.
  • the limitations of the LIBS technique are typical of any spectroscopy technique: validation of the reliability of predictions is always problematic and relative uncertainties close to the detection limit are by definition important.
  • the invention aims to overcome these limits by proposing: • A multivariate and multi-output quantification model to obtain both predictions of species concentrations and values that can be used to determine their confidence. To this end, the invention introduces a technique for validating the predictions of quantitative models and for establishing a confidence measure of the predictions or for identifying the presence of anomalies (i.e. predictions which do not have a good level of confidence).
  • the invention aims to solve problems linked to the determination of the concentration of species from spectral data which can be produced by LIBS spectroscopy or by other spectroscopy methods (for example, multi- or hyperspectral imaging). .
  • this type of data is characterized by specific spectra of the species present in a sample.
  • the quantitative analysis of spectral signatures (for example, using the intensity of emission or absorption lines of chemical elements) finally makes it possible to determine the concentration of species.
  • several problems can arise.
  • the trained model provides in all cases a prediction based on a measurement, without verifying that the data used for learning are actually representative of the real data. There is therefore a need for a tool to verify the reliability of predictions when conditions of use of the model vary slightly compared to the learning conditions or on the contrary in order to ensure that the conditions of use of the model have not changed.
  • This information can then be used to obtain a calibration function (for example, a straight line) which links the concentration of the species considered to the signal intensity for each of the standards, for which the concentration of the species is known .
  • a calibration function for example, a straight line
  • this procedure defines a relationship between concentration and spectral intensity.
  • the calibration function can then be used to obtain predictions of the concentration of a species in an unknown sample by inverting this relationship, for example by means of interpolation as described in reference [2],
  • the invention deals with the validation of predictions, rather than that of the model.
  • the invention relates to a technique for associating a confidence measure of predictions using information available at any time, even in unknown data, and thus comparing it directly to a ground truth value. In the invention, this is achieved by the introduction of multi-output models, and in particular by the introduction of deep learning architectures, capable of efficiently processing the information contained in the data.
  • the invention relates to a method for validating predictions from a multi-output model. That is to say, the secondary outputs are measurable experimentally to allow the relevance of the main output, assumed to be unknown during inference, to be assessed.
  • the proposed invention includes an additional step compared to state-of-the-art methods. Multi-output algorithms are used to predict secondary outputs that are verifiable in the experimental data, so that a degree of confidence in the predictions can be provided. This is not possible when only predicting the concentration (or concentrations) of the chemical species.
  • the invention proposes to use trained algorithms to predict both the concentration of a species from spectral data, but also to provide secondary outputs predicting additional quantities, such as the emission or absorption intensity.
  • additional quantities such as the emission or absorption intensity.
  • This additional data must be measurable and experimentally verifiable during inference.
  • the prediction of these values must be sufficiently complicated for the model, compared to the main prediction. That is to say, the prediction must be made on a non-trivial task (whose complexity is comparable to that of the main prediction) from the input data to avoid an imbalance during the learning process. For example, it is possible to use the intensity of spectral lines or bands integrated on neighboring wavelength channels.
  • the invention makes it possible to provide, for any concentration prediction, an indicator of reliability of the prediction which makes it possible, for example, to rule out certain measurements subject to hazards which will render the prediction provided by the model on these measurements , unreliable.
  • the subject of the invention is a method, implemented by computer, for automatically learning a multi-output prediction model configured to jointly determine, from a set of spectral data characteristic of a sample, at least one main prediction of at least one first physical quantity characterizing a given species in the sample and at least one secondary prediction of at least one second physical quantity characterizing said species, the multi-output prediction model being trained from a set of annotated spectral data.
  • the multi-output prediction model is a multi-task neural network and is implemented by means of a first common learning engine configured to extract sets of spectral data received as input, representations common to the different tasks to be solved and several learning engines specific to each task to be solved, each receiving said common representations as input and delivering as output a prediction corresponding to the task to be solved.
  • the common learning engine is a convolutional neural network and the specific neural networks are convolutional neural networks supplemented by layers of fully connected neurons.
  • said species is a chemical species
  • the main prediction is a concentration value of the chemical species
  • the secondary prediction is an intensity value of a spectral line for at least a given wavelength or at least one wavelength band of given width.
  • the invention also relates to a prediction model implemented by computer, obtained according to the automatic learning method according to the invention.
  • the invention also relates to a method, implemented by computer, for quantitative analysis of spectral data comprising the implementation of the prediction model according to the invention to determine, from a spectrum measured on a sample, at least one main prediction of at least one first physical quantity characterizing a given species in the sample and at least one secondary prediction of at least one second physical quantity characterizing said species, the method further comprising a step of calculation of a reliability indicator of the at least one main prediction from an indicator of the difference between at least one secondary prediction and a value of the second corresponding physical quantity measured on the spectrum.
  • the reliability indicator is equal to the relative error between the intensity value predicted via the implementation of the prediction model and the corresponding intensity value measured on the spectrum.
  • the reliability indicator is equal to the difference, in absolute value, between the intensity value predicted via the implementation of the prediction model and the intensity value corresponding measured on the spectrum divided by the standard deviation of this deviation.
  • the quantitative analysis method according to the invention further comprises the implementation of a classification model configured to classify the predictions of concentration of chemical species into two classes corresponding to values normals and anomalies, based on predictions of spectral line intensity values or reliability indicators.
  • the measured spectrum is acquired by means of a laser-induced plasma atomic emission spectroscopy method.
  • the invention also relates to a computer program comprising instructions for the execution of a method according to the invention, when the program is executed by a processor as well as a recording medium readable by a processor on which a program is recorded comprising instructions for executing a method according to the invention, when the program is executed by a processor.
  • FIG. 1 represents an example of spectral data characterizing a sample containing different chemical species
  • FIG. 2 represents a diagram illustrating the learning and use of a multi-output prediction model according to the invention
  • FIG. 3 represents a diagram of an example of implementation of the prediction model according to the invention by means of one or more convolutional neural networks
  • FIG. 4 represents an example table of results of learning and analysis of secondary outputs.
  • LIBS technology makes it possible to carry out material analysis by laser ablation and spectroscopy.
  • the data acquired via this technique are spectral data which correspond, for each point in an area, to an emission spectrum comprising atomic and molecular lines characteristic of the elementary chemical composition of the sample.
  • the LIBS spectral data are obtained by focusing a laser beam at a point on a surface to be analyzed.
  • the plasma emission resulting from this focusing is collected and processed by spectroscopy to obtain a spectrum of atomic lines (or molecular bands) of emission. The process is iterated for each point in the area to be analyzed.
  • Figure 1 represents, by way of illustration, an example of a spectrum of atomic lines 101 obtained for a sample having a certain chemical composition.
  • Figure 1 we have identified the spectral signatures of certain chemical elements (Ca, Al) which correspond to atomic lines in given wavelength channels.
  • An objective of the invention is to determine a prediction model capable of estimating a concentration of a chemical element from an automatic analysis of a spectrum such as that of Figure 1 and of further providing a indicator of reliability of the estimate provided.
  • Figure 2 represents, in a diagram, a method of learning and using a prediction model according to the invention.
  • the method consists, in a learning phase, of determining a prediction model 231 configured to determine, from spectra measured on given samples, a concentration of one or more chemical species on the one hand and a prediction of the intensity of one or more atomic lines (or molecular bands) in the spectrum on the other hand.
  • the method then consists, in a use phase, of using the trained model to determine these predictions on new measured spectral data.
  • the secondary outputs of the model are used to determine an indicator of prediction reliability.
  • the method uses as input spectral input data 210 in the form of several sets of spectra obtained by LIBS spectroscopy in order to characterize a given sample.
  • the spectral data 210 are labeled, that is to say, for example in the case of quantitative analysis, that we know the concentrations of the different chemical elements to be quantified in the sample.
  • the input data 210 is constituted by a set of pairs each associating a spectrum with a concentration of one or more chemical elements in a sample of a given type.
  • a sample is characterized, for example, by a type of material and a concentration of certain chemical elements in this material.
  • the input data 210 are separated into a first subset of training data 221 and a second subset of evaluation data 222.
  • the model 231 is trained from the training data 221 then it is optimized on the evaluation data 222 during an optimization cycle 232 to determine the best hyperparameters of the model 231.
  • the choice of the percentage of realizations used for learning 221 may depend on the calculation support and the type of data to maximize the learning capacity of the architectures. For example, for a dataset containing 100,000 realizations typically we can use 80% for learning, but for datasets with millions of realizations the percentage can increase, unless the calculation support does not allow it.
  • the learning data 221 is used directly for calculating the model parameters, while the evaluation data 222 is used to evaluate the predictions and optimize the model 231.
  • the prediction model 231 is a multivariate and multi-output statistical model. It receives the entire spectra as input data and it is trained to predict on the one hand a first set of primary outputs 251 corresponding to one or more concentration predictions of one or more chemical species and on the other hand leaves a second set of secondary outputs 252 corresponding to one or more predictions of intensity values of atomic lines in certain wavelength ranges.
  • the model 231 can be applied to a new set of spectral data 240.
  • the first set of predictions 251 is used to determine the concentrations of the chemical species in the sample on which the spectrum d was measured. input 240.
  • the second set of predictions 252 is processed to determine a confidence measure of the first predictions 251.
  • the confidence measure is based on the interpretation in terms of probability (for example using the probability distribution of a given estimator, presented below) or relative error of the predictions of the secondary outputs 252 of the model 231. These outputs must predict quantities, linked to the prediction of species concentration, present in the unknown real data 240, so that a comparison between real values and predicted values makes it possible to quantify the reliability of the learning and predictions .
  • the secondary outputs 252 were trained from the same representation of the input data 210, the secondary predictions 252 are linked to the species concentration predictions 251 and they share at least a subset of the model weights (implementations called “hard parameter sharing”, in English). We can then assume that a reliable result on the secondary outputs can lead to equally reliable predictions on the concentration, that is to say that the generalization capacity of the model for the main output and the secondary outputs is comparable.
  • the input data 210 used for training the model are representative of the standard samples used for defining the model: several spectra can represent the same standard. This data can be preprocessed to reduce experimental fluctuations in spectral intensity values. For example, in one embodiment of the invention, each spectrum can be normalized by the intensity of a given line or band, or preprocessed by an SNV type method (“standard normal variate” in English) or any other pretreatment method. In another embodiment, for each standard, the average spectral intensity value of the spectrum at a given wavelength can be used to determine outliers. For example, before defining the model, we can reject spectra whose intensity value at a given wavelength is outside an arbitrary interval (for example outside percentiles 5 and 95, or 1 and 99 ).
  • the interval depends on the measurement conditions and the number of realizations for each standard: if this number is high, a larger interval can be chosen (1 and 99 percentiles, for example). In another embodiment, these two types of pretreatment can be combined.
  • the real data 240 used during the model use phase must be preprocessed in the same way as the input data, but it is possible to keep the outliers in the unknown real data 240. Indeed, if the model trained has a strong generalization ability, outliers will be properly handled during the inference phase. The goal is to learn the prediction task from a reliable representation of the standard: a good model must be able to extrapolate the necessary information in case the samples have defects.
  • the evaluation of the model using evaluation data 222 can be done by directly using each spectrum as input data. We can then calculate the average of the predictions and associate a deviation with the predictions to better evaluate the performance of the algorithm (and train the algorithm on more complex cases where noise can produce significant differences between the spectra, even if coming from the same standard).
  • the primary outputs 251 are composed of the concentrations of the chemical species analyzed.
  • Outputs secondary 252 of the model contain the intensities of emission (or absorption) lines (or molecular bands) associated with the same chemical species in the case of spectral data, or by the intensity measured in a spectral band in the case of data multi- or hyperspectral.
  • the intensities of the spectral lines or bands are used for the prediction of the concentration.
  • the quantitative analysis method comprises a step of calculating a reliability indicator of the primary outputs of the model from the secondary outputs of the model.
  • the reliability indicator corresponds to a measurement of the difference between the intensity predicted at the output of the model and the real intensity directly measured on the input data 240. For example, we can calculate the Student's t value.
  • the invention thus proposes a method based on a multi-output automatic learning algorithm which allows the use of information explicitly contained in the experimental data (the intensities of the emission lines of the spectrum), therefore verifiable (by direct measurement on the spectrum), to obtain an interpretation of the concentration predictions in terms of probability.
  • the invention thus proposes a method for quantitatively characterizing the confidence of these predictions using the error on the secondary outputs.
  • these predictions must have elements in common with verifiable elements in the real data 240 to allow comparison. Rejection (or non-rejection) of the results can then be done using statistical tests.
  • the secondary predictions or the result of the statistical tests can be coupled to a classification algorithm for the determination of anomalies in the samples analyzes. That is to say, the deviation between the predicted values and the actual values of the secondary outputs can be used as input to a classification algorithm trained to recognize normal values and anomalies of manufacturing, composition or measurement.
  • a classification algorithm trained to recognize normal values and anomalies of manufacturing, composition or measurement.
  • the prediction model 231 can be, for example, a multilinear model (like the PLS2 model described in reference [13]), or a decision tree (or its variants ensemble learning such as random forests or “gradient boosting”), or a “support vector machine” type model.
  • the fundamental point of the model is the possibility to use a common representation of the input data to obtain multi-output predictions at the same time, that is, an approximation of the composition of the function f ° g, where g-.
  • IR W -> A c [R L and /: A -> IR M , N is the dimension of the spectra, L is the dimension of the common representation and M is the number of predictions output from the model, such that M > 2 , using the same set of parameters for the model definition.
  • the model first calculates a new representation of the input data (the spectra), which can then be used to generate the predictions.
  • the coefficients ⁇ J £ represent hyperparameters of the model 231.
  • model 231 is implemented using one or more neural networks.
  • An example architecture of the Model 231 is shown in Figure 3.
  • the neural networks constituting model 231 are convolutional neural networks.
  • a convolutional neural network is implemented via a set of convolutions by vectors that extend towards the wavelength channels of the spectra.
  • the input data is scanned using multiple convolution filters to obtain both primary predictions 251 and secondary predictions 252 from a multi-output model.
  • neural networks can be deep, with several hidden layers, connect convolution and activation operations, with their trainable weights.
  • the contribution of this type of algorithm is the direct use of the information contained in the spectra: by using a convolution operation, we can keep the relationships between neighboring wavelength channels and use the physical information contained in the profiles of spectral lines (or spectral bands) such as the emission or absorption intensity and the width of the profile.
  • spectral lines or spectral bands
  • a sufficient condition of the invention is the ability to form multiple output architectures, without specific restrictions on the type of neural network.
  • a multitask network is shown (as described in reference [20]).
  • the difference between a multi-task network and a multi-output network is related to the processing of data representations in the hidden layers: a multi-output network uses a common representation without subsequent transformations, but a multi-task network allows you to use a common representation and then use branches specialized in specific tasks. In this sense, a multi-task network is a multi-output network, but the reverse is not true.
  • the use of a multitask architecture makes it possible to resolve many problems linked to overfitting of training data and to limit the impact of outliers in predictions (as mentioned for example in reference [18]).
  • the algorithms used can be based on multitask deep convolutional neural networks. This gives the models the ability to directly analyze the spectra, formulating a new common representation of the data, and predict with great precision either the concentrations of the species of interest or, for example, the intensity of spectral emissions associated with the species. . These predictions can then be interpreted by probability models by studying the difference between the predicted values and the actual values.
  • the input data 310 of the model have already been described: these are spectra acquired by a spectroscopy technique, possibly preprocessed.
  • the first block of model 320 is represented by a neural network comprising one-dimensional convolutional layers.
  • the task of this first block is to learn a common representation of the spectra using the same set of weights and parameters (“hard parameter sharing” in English).
  • hard parameter sharing in English.
  • Several examples of realizing multitask neural networks are given in reference [19]. It aims to transform the input data into a representation capable of providing predictions for all tasks at the same time.
  • the outputs/tasks of the model 341 - 343, including the concentrations of the species analyzed and the values used for determining the confidence, are calculated using other specific convolutional networks 331 - 333: each network makes it possible to calculate subsequent transformations from the common representation and obtain a specific result.
  • the The model calculates the secondary outputs (the intensities of the lines present in the spectra) starting from this common representation and then processing it in specific branches. So the model does not simply "read" the intensity in the spectra, but is forced to first find a suitable representation of the input data and then process this information.
  • This type of network provides a significant improvement compared to traditional networks.
  • the convolutional neural networks 331 -333 take as input a vector of common characteristics extracted from the input data via the first neural network 320, and produce as output a prediction in the form of a scalar. For this, each convolutional neural network 331 -333 has a final layer fully connected to an output.
  • a first neural network 320 formed by 3 convolutional layers with respectively: i. 64, 40 and 16 filters, ii. kernel size: 5, 3 and 2 wavelength channels, iii. steps: 3, 2 and 1 wavelength channels,
  • the activation function after each hidden layer is for example of the “LeakyReLU” type (with a slope of 0.03).
  • the learning rate is for example set to 10 -3 .
  • Figure 4 represents a table which shows the results of the calibration of the concentration of iron (Fe) in a nickel matrix (Ni) and a zirconium matrix (Zr). 25 laser shots were recorded for each sample and each spectrum is formed by 68,000 wavelength channels.
  • the secondary outputs are the Fe emission line intensity values at 373.49 nm, 358.12 nm, 373.71 nm, 374.56 nm, 382.04 nm, 385.99 nm, 404.58 nm and 438.35 nm.
  • the training consists only of spectra of the Ni standards (results are given on an independent test set).
  • the multivariate architecture based on multitask learning, is capable of providing more precise predictions than the classic univariate method (UVA) on matrices of the same nature as those used for learning .
  • the table also shows the generalization capabilities on a matrix of Zr, of a different nature from the training samples: the neural network is capable of considerably reducing the error in the extrapolation regime.
  • the multitasking architecture makes it possible to measure the reliability of the predictions: the relative errors of the emission line intensities (and t values) in the Zr samples are indeed very high. In this case, the Zr matrix was recognized as anomalous with respect to the training distribution.
  • the invention makes it possible to quantify the confidence in the predicted concentration using probability models on the basis of a set of predictions of a multi-output model.
  • the model can predict both the concentration of species and other quantities (for example, the intensity of the emission lines of a chemical species). This makes it possible to have available both unknown quantities (e.g. species concentrations) and secondary quantities which can be directly verified in the spectra, and which are used to determine the confidence level of the quantitative analysis.
  • the invention makes it possible to reduce uncertainties by using efficient algorithms capable of directly and completely automatically processing the spectral signatures of the species contained in the entire spectra.
  • the steps of the invention can be implemented as a computer program comprising instructions for its execution.
  • the computer program may be recorded on a processor-readable recording medium.
  • the reference to a computer program which, when executed, performs any of the functions described above, is not limited to an application program executing on a single host computer. Rather, the terms computer program and software are used here in a general sense to refer to any type of computer code (e.g., application software, firmware, microcode, or any other form of computer instruction) which can be used to program one or more processors to implement aspects of the techniques described herein.
  • the IT means or resources can in particular be distributed (“Cloud computing"), possibly using peer-to-peer technologies.
  • the software code may be executed on any suitable processor (e.g., microprocessor) or processor core or set of processors, whether provided in a single computing device or distributed across multiple computing devices (e.g. example as possibly accessible in the environment of the device).
  • the executable code of each program allowing the programmable device to implement the processes according to the invention can be stored, for example, in the hard disk or in read-only memory.
  • the program(s) can be loaded into one of the storage means of the device before being executed.
  • the central unit can control and direct the execution of the instructions or portions of software code of the program(s) according to the invention, instructions which are stored in the hard disk or in the read-only memory or in the other aforementioned storage elements.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Analytical Chemistry (AREA)
  • Plasma & Fusion (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

Procédé, mis en œuvre par ordinateur, d'apprentissage automatique d'un modèle de prédiction multisorties (231) configuré pour déterminer conjointement, à partir d'un ensemble de données spectrales caractéristiques d'un échantillon, au moins une prédiction principale (251) d'au moins une première grandeur physique caractérisant une espèce donnée dans l'échantillon et au moins une prédiction secondaire (252) d'au moins une seconde grandeur physique caractérisant ladite espèce, le modèle de prédiction multisorties étant entrainé à partir d'un ensemble de données spectrales annotées (210).

Description

DESCRIPTION
Titre de l’invention : Méthode de validation des prédictions d’un modèle supervisé d’analyse quantitative multivariée de données spectrales
[0001] L’invention concerne le domaine de l’analyse quantitative, par exemple la détermination de la concentration d’espèces chimiques contenues dans un échantillon, et l’analyse qualitative supervisée, par exemple la classification des échantillons, à partir de données spectrales, c’est-à-dire de données qui présentent une pluralité de valeurs d’intensité dans différents canaux de longueurs d’onde ou bandes spectrales. Les données peuvent être à la fois des données multi- ou hyperspectrales, où le nombre de bandes spectrales varie de quelques dizaines à des centaines, et des données provenant de spectres d’émission ou absorption d’une espèce chimique, contenant des milliers de canaux de longueur d'onde.
[0002] L’invention porte sur une nouvelle méthode d’analyse multivariée pour l’analyse quantitative d’espèces chimiques contenues dans un échantillon à partir de données spectrales, acquises par une technique de spectroscopie. Un objectif de l’invention concerne la détermination d’une mesure de confiance des prédictions du modèle utilisé pour la quantification, en utilisant un algorithme multisorties. Plus précisément, dans le cadre de l’invention, le modèle donne à la fois la prédiction principale, par exemple la valeur de la concentration d’une espèce à partir du spectre, et des sorties secondaires sur des tâches connexes à cette prédiction, d’où la nécessité d’un système multisorties. Ces prédictions secondaires sont ensuite utilisées pour mesurer la confiance en la prédiction principale. En d’autres termes, contrairement à une approche de quantification classique qui ne prédit que la sortie principale, par exemple la concentration de l’espèce d’intérêt, l’invention vise à prédire simultanément des grandeurs directement vérifiables (c’est-à-dire, présentes dans les données expérimentales à la fois pendant l’apprentissage et à la fois en inférence) dans les données expérimentales et qui permettent ainsi de s’assurer de la fiabilité de la concentration prédite.
[0003] Une application possible de l’invention concerne la détermination de la concentration des éléments chimiques et un indicateur de fiabilité des prédictions à partir de données spectrales par exemple acquises au moyen d’une technique de spectroscopie d’émission atomique de plasma induit par laser, ou « Laser-Induced Breakdown Spectroscopy » (LIBS) en anglais. L’invention ne se limite pas à cette technique particulière, elle peut s’appliquer à tout type de technique de spectroscopie qui produit des données multi- ou hyperspectrales ou des données spectrales d’émission ou absorption d’espèce chimiques.
[0004] Spécifiquement, la technologie LIBS permet de réaliser une analyse de matériau en focalisant un faisceau laser sur la surface d’un échantillon. L’émission d’un plasma résultant de cette focalisation est collectée par un spectromètre. Les données acquises par cette méthode sont des données spectrales qui correspondent, pour chaque point de focalisation sur la surface, à un spectre d’émission comprenant des raies atomiques et moléculaires caractéristiques de la composition chimique élémentaire de l’échantillon. L’intensité de ces raies augmente de manière non triviale avec la concentration des éléments chimiques présents dans l’échantillon. L’étalonnage est réalisé en utilisant plusieurs étalons, c’est-à-dire des échantillons dont les concentrations des espèces sont préalablement connues, pour obtenir un modèle qui permet de lier les signatures spectrales à la concentration des espèces. Ce modèle peut ensuite être utilisé pour prédire la concentration inconnue d’une espèce à partir d’un spectre. Une fois le modèle défini, il existe des méthodes permettant de définir une mesure de l'incertitude autour des prédictions faites par le modèle (par exemple, des intervalles de confiance). Cependant, il est compliqué d'évaluer la nature des incertitudes en phase d'inférence : il peut être impossible ou très difficile de déterminer si les incertitudes sont entièrement liées à des fluctuations statistiques, ou si les étalons utilisés pour définir le modèle quantitatif sont réellement représentatifs des échantillons à mesurer. En outre, sans pondération particulière des données, l’étalonnage est caractérisé par des incertitudes relatives qui augmentent à mesure que la concentration des espèces dans les étalons diminue, jusqu’à la limite de détection. En fait, un niveau de 100% d'incertitude relative est parfois utilisé comme définition de la limite de détection. De façon générale, les limitations de la technique LIBS sont typiques de toute technique de spectroscopie : la validation de la fiabilité des prédictions est toujours problématique et les incertitudes relatives proches de la limite de détection sont par définition importantes.
[0005] L’invention vise à surmonter ces limites en proposant : • Un modèle de quantification multivarié et multisorties pour obtenir à la fois les prédictions de concentrations des espèces et des valeurs utilisables pour en déterminer la confiance. À cette fin, l’invention introduit une technique pour valider les prédictions des modèles quantitatifs et pour établir une mesure de confiance des prédictions ou pour identifier la présence d'anomalies (c’est-à-dire des prédictions qui n’ont pas un bon niveau de confiance).
• Un modèle d’analyse multivariée qui permet de réduire les incertitudes sur la détermination de la concentration des espèces pour obtenir des mesures plus fiables et précises dans le cadre de l’invention.
[0006] L’invention vise à résoudre des problèmes liés à la détermination de la concentration des espèces à partir de données spectrales qui peuvent être produites par spectroscopie LIBS ou par d’autres méthodes de spectroscopie (par exemple, imagerie multi- ou hyperspectrale). En général, ce type de données est caractérisé par des spectres spécifiques des espèces présentes dans un échantillon. L’analyse quantitative des signatures spectrales (par exemple, en utilisant l’intensité des raies d’émission ou d’absorption des éléments chimiques) permet enfin de déterminer la concentration des espèces. Dans ce contexte, plusieurs problèmes peuvent survenir.
[0007] Les méthodes conventionnelles d’étalonnage donnent une prédiction de la concentration d’une espèce dans un échantillon. Le modèle étant défini en utilisant des étalons connus, il n’y a pas moyen de vérifier que les étalons utilisés pour définir le modèle représentent les échantillons à mesurer, même si cela est forcément une hypothèse à faire pour utiliser le modèle. C’est-à-dire que l’on ne peut pas vérifier que les échantillons à mesurer sont en dehors de la distribution d’apprentissage, et, par conséquent, de vérifier la généralisation du modèle d'apprentissage. Par exemple, les conditions expérimentales d’une mesure lors de l’utilisation du modèle peuvent ne pas correspondre aux conditions expérimentales lors de l’apprentissage du modèle car différents aléas extérieurs peuvent intervenir liés à l’instrumentation, aux conditions environnementales, ou à l’échantillon lui-même.
[0008] Le modèle entrainé fournit dans tous les cas une prédiction à partir d’une mesure, sans vérifier que les données utilisées pour l’apprentissage soient effectivement représentatives des données réelles. Il existe donc un besoin pour un outil permettant de vérifier la fiabilité des prédictions lorsque les conditions d’utilisation du modèle varient légèrement par rapport aux conditions d’apprentissage ou au contraire afin de s’assurer que les conditions d’utilisation du modèle n’ont pas changé.
[0009] Actuellement, la quantification d’espèces chimiques à partir des données spectrales se fait à l’aide de différentes méthodes univariées, qui prennent en compte partiellement l’information contenue dans les spectres, ou multivariées, qui exploitent totalement ou presque totalement le contenu des spectres. Un exemple de telles méthodes est donné dans la référence [1 ], Parmi toutes les variables disponibles dans un spectre (canaux de longueur d’onde ou bandes spectrales), les méthodes univariées utilisent l’information contenue dans une variable, généralement l’intensité d’une raie d’émission (ou la somme des intensités des canaux voisins) à une longueur d’onde donnée, ou d’une bande spectrale, associée à l’espèce qu’on souhaite analyser. Cette information peut ensuite être utilisée pour obtenir une fonction (par exemple, une droite) d’étalonnage qui lie la concentration de l’espèce considérée à l’intensité du signal pour chacun des étalons, pour lesquels la concentration de l’espèce est connue. Mathématiquement, cette procédure définit une relation entre la concentration et l’intensité spectrale. La fonction d’étalonnage peut ensuite être utilisée pour obtenir des prédictions de la concentration d’une espèce dans un échantillon inconnu en inversant cette relation, par exemple au moyen d’une interpolation telle que décrit dans la référence [2],
[0010] D’autres méthodes multivariées ont aussi été étudiées, notamment en utilisant des algorithmes basés sur l’analyse en composantes principales et la régression multilinéaire (voir référence [3]). Des réseaux de neurones (décrits dans [4]) ont déjà été introduits dans le cadre de la spectroscopie LIBS, soit en utilisant l’intensité de certaines raies sélectionnées a priori (tel que proposé dans [5]), soit en couplant l’analyse en composantes principales et des réseaux de neurones pour une régression multisorties (tel que proposé dans [6]), soit à travers l’exploitation de l’information contenue dans des spectres résolus temporellement (tel que proposé dans [7]). Le résultat de l’analyse est toujours la prédiction de la concentration d’une espèce (ou plusieurs espèces dans [6]) en fonction de plusieurs variables (d’où l’expression « analyse multivariée »).
[0011] Ces dernières années, les techniques d'apprentissage profond, étant donné leurs grandes capacités d'extrapolation, sont devenues des techniques pertinentes également dans le cas de la classification d'échantillons (voir par exemple [8], [9]): ces analyses utilisent des algorithmes très performants (tels que les réseaux de neurones convolutifs) pour la prédiction de la catégorie des espèces chimiques contenues dans les échantillons. Bien que les architectures atteignent de bons résultats de classification, le niveau de confiance des prédictions ne peut être directement établi par le modèle. Comme le soulignent les auteurs des références [10], [11], les mesures classiques telles que l'erreur quadratique moyenne peuvent être très trompeuses selon le niveau de concentration : les auteurs suggèrent donc d'utiliser différentes mesures pour chaque sous-population de données, afin de mieux évaluer les performances du modèle. D'autres approches ont également été proposées afin de vérifier la robustesse d'un modèle, comme la randomisation des valeurs de référence du modèle dans [12] : les auteurs présentent une technique permettant de tester si une prédiction donnée du modèle est obtenue par hasard.
[0012] En général, les analyses connues se concentrent sur la prédiction d’une seule variable (la concentration), à partir de données d’entrée de dimensions différentes [5], [7], Il existe cependant des travaux mettant en œuvre des modèles multisorties, par exemple pour la prédiction simultanée des concentrations de plusieurs éléments chimiques par la technique PLS2 dans [13], Le premier exemple de régression multisorties en utilisant des réseaux de neurones a été présenté en [6], Ces algorithmes multi-sorties ont été utilisés pour obtenir plus d'informations en même temps (notamment les concentrations de plusieurs éléments au lieu d’un), tout en utilisant les mêmes données d'entrée.
[0013] Cependant, les techniques de l’état de l’art ne permettent pas de déterminer un indicateur de fiabilité des prédictions de concentration fournies par les différents modèles d’apprentissage proposés.
[0014] Contrairement aux solutions de l’état de l’art, l'invention traite de la validation des prédictions, plutôt que de celle du modèle. L’invention porte sur une technique permettant d'associer une mesure de confiance des prédictions en utilisant des informations disponibles à tout moment, même dans des données inconnues, et de les comparer ainsi directement à une valeur de vérité terrain. Dans l'invention, cela est réalisé par l'introduction de modèles multisorties, et en particulier par l'introduction d'architectures d'apprentissage profond, capables de traiter efficacement les informations contenues dans les données. [0015] L’invention porte sur une méthode de validation des prédictions à partir d’un modèle multisorties. C’est-à-dire, les sorties secondaires sont mesurables expérimentalement pour permettre d’évaluer la pertinence de la sortie principale, supposée inconnue lors de l’inférence.
[0016] L'invention proposée comprend une étape supplémentaire par rapport aux méthodes de l’état de l’art. Des algorithmes multisorties sont utilisés pour prédire les sorties secondaires qui sont vérifiables dans les données expérimentales, afin de pouvoir assurer un degré de confiance dans les prédictions. Cela n'est pas possible lorsqu'on ne prédit que la concentration (ou les concentrations) de l'espèce chimique.
[0017] L’invention propose d’utiliser des algorithmes entraînés pour prédire à la fois la concentration d’une espèce à partir des données spectrales, mais aussi fournir des sorties secondaires prédisant des grandeurs additionnelles, comme l’intensité d’émission ou absorption d’une ou plusieurs raies ou bandes spectrales caractéristiques de l’espèce analysée. Ces données supplémentaires doivent être mesurables et vérifiables expérimentalement pendant l’inférence. Par ailleurs, la prédiction de ces valeurs doit être suffisamment compliquée pour le modèle, par rapport à la prédiction principale. C’est-à-dire, la prédiction doit se faire sur une tâche non triviale (dont la complexité est comparable à celle de la prédiction principale) à partir des données d’entrée pour éviter un déséquilibre lors du processus d’apprentissage. Par exemple, il est possible d’utiliser l’intensité des raies ou bandes spectrales intégrées sur des canaux de longueur d’onde voisins. A l’inverse, il n’est pas recommandé d’utiliser simplement l’intensité des raies dans les spectres, qui serait une tâche triviale à résoudre (c’est une simple composante des données d’entrée). Ce type d’information permet de disposer, en phase d’inférence, d’informations additionnelles (d’où l’utilisation des algorithmes multisorties) qui peuvent être rapportées aux données réelles.
[0018] L’invention permet de fournir, pour toute prédiction de concentration, un indicateur de fiabilité de la prédiction qui permet, par exemple, d’écarter certaines mesures soumises à des aléas qui vont rendre la prédiction fournie par le modèle sur ces mesures, non fiable.
[0019] L’invention a pour objet un procédé, mis en œuvre par ordinateur, d’apprentissage automatique d’un modèle de prédiction multisorties configuré pour déterminer conjointement, à partir d’un ensemble de données spectrales caractéristiques d’un échantillon, au moins une prédiction principale d’au moins une première grandeur physique caractérisant une espèce donnée dans l’échantillon et au moins une prédiction secondaire d’au moins une seconde grandeur physique caractérisant ladite espèce, le modèle de prédiction multisorties étant entrainé à partir d’un ensemble de données spectrales annotées.
[0020] Selon un aspect particulier de l’invention, le modèle de prédiction multisorties est un réseau de neurones multitâches et est implémenté au moyen d’un premier moteur d’apprentissage commun configuré pour extraire des ensembles de données spectrales reçus en entrée, des représentations communes aux différentes tâches à résoudre et plusieurs moteurs d’apprentissage spécifiques à chaque tâche à résoudre, recevant chacun en entrée lesdites représentations communes et délivrant en sortie une prédiction correspondant à la tâche à résoudre.
[0021] Selon un aspect particulier de l’invention, le moteur d’apprentissage commun est un réseau de neurones convolutif et les réseaux de neurones spécifiques sont des réseaux de neurones convolutifs complété par des couches de neurones entièrement connectés.
[0022] Selon un aspect particulier de l’invention, ladite espèce est une espèce chimique, la prédiction principale est une valeur de concentration de l’espèce chimique et la prédiction secondaire est une valeur d’intensité d’une raie spectrale pour au moins une longueur d’onde donnée ou au moins une bande de longueurs d’onde de largeur donnée.
[0023] L’invention a aussi pour objet un modèle de prédiction mis en œuvre par ordinateur, obtenu selon le procédé d’apprentissage automatique selon l’invention.
[0024] L’invention a encore pour objet un procédé, mis en œuvre par ordinateur, d’analyse quantitative de données spectrales comprenant la mise en œuvre du modèle de prédiction selon l’invention pour déterminer, à partir d’un spectre mesuré sur un échantillon, au moins une prédiction principale d’au moins une première grandeur physique caractérisant une espèce donnée dans l’échantillon et au moins une prédiction secondaire d’au moins une seconde grandeur physique caractérisant ladite espèce, le procédé comprenant en outre une étape de calcul d’un indicateur de fiabilité de l’au moins une prédiction principale à partir d’un indicateur de l’écart entre au moins une prédiction secondaire et une valeur de la seconde grandeur physique correspondante mesurée sur le spectre.
[0025] Selon un aspect particulier de l’invention, l’indicateur de fiabilité est égal à l’erreur relative entre la valeur d’intensité prédite via la mise en œuvre du modèle de prédiction et la valeur d’intensité correspondante mesurée sur le spectre.
[0026] Selon un aspect particulier de l’invention, l’indicateur de fiabilité est égal à l’écart, en valeur absolue, entre la valeur d’intensité prédite via la mise en œuvre du modèle de prédiction et la valeur d’intensité correspondante mesurée sur le spectre divisé par l’écart type de cet écart.
[0027] Dans une variante de réalisation, le procédé d’analyse quantitative selon l’invention comprend en outre la mise en œuvre d’un modèle de classification configuré pour classifier les prédictions de concentration d’espèces chimiques en deux classes correspondant à des valeurs normales et des anomalies, à partir des prédictions de valeurs d’intensité de raies spectrales ou des indicateurs de fiabilité.
[0028] Selon un aspect particulier de l’invention, le spectre mesuré est acquis au moyen d’une méthode de spectroscopie d’émission atomique de plasma induit par laser.
[0029] L’invention a encore pour objet un programme d'ordinateur comportant des instructions pour l'exécution d’un procédé selon l’invention, lorsque le programme est exécuté par un processeur ainsi qu’un support d'enregistrement lisible par un processeur sur lequel est enregistré un programme comportant des instructions pour l'exécution d’un procédé selon l’invention, lorsque le programme est exécuté par un processeur.
[0030] D’autres caractéristiques et avantages de la présente invention apparaîtront mieux à la lecture de la description qui suit en relation aux dessins annexés suivants.
[0031] [Fig. 1] représente un exemple de données spectrales caractérisant un échantillon contenant différentes espèces chimiques,
[0032] [Fig. 2] représente un schéma illustrant l’apprentissage et l’utilisation d’un modèle de prédiction multisorties selon l’invention, [0033] [Fig. 3] représente un schéma d’un exemple d’implémentation du modèle de prédiction selon l’invention au moyen d’un ou plusieurs réseaux de neurones convolutifs,
[0034] [Fig. 4] représente un tableau d’exemple de résultats de l'apprentissage et de l'analyse des sorties secondaires.
[0035] Par la suite, la description de l’invention est faite dans le contexte d’utilisation de la technologie LIBS mais l’invention n’est pas limitée à cette technique et s’applique plus généralement à tout type de données spectrales, multi ou hyper spectrales.
[0036] La technologie LIBS permet de réaliser une analyse de matériau par ablation laser et spectroscopie. Les données acquises via cette technique sont des données spectrales qui correspondent, pour chaque point d’une zone, à un spectre d’émission comprenant des raies atomiques et moléculaires caractéristiques de la composition chimique élémentaire de l’échantillon.
[0037] Les données spectrales LIBS sont obtenues en focalisant un faisceau laser en un point d’une surface à analyser. L’émission d’un plasma résultant de cette focalisation est collectée et traitée par spectroscopie pour obtenir un spectre de raies atomiques (ou bandes moléculaires) d’émission. Le processus est itéré pour chaque point de la zone à analyser.
[0038] La figure 1 représente, à titre illustratif, un exemple de spectre de raies atomiques 101 obtenu pour un échantillon ayant une certaine composition chimique. Sur la figure 1 , on a identifié les signatures spectrales de certains éléments chimiques (Ca, Al) qui correspondent à des raies atomiques dans des canaux de longueur d’onde donnés.
[0039] Un objectif de l’invention est de déterminer un modèle de prédiction apte à estimer une concentration d’un élément chimique à partir d’une analyse automatique d’un spectre tel que celui de la figure 1 et à fournir en outre un indicateur de fiabilité de l’estimation fournie.
[0040] La figure 2 représente, sur un schéma, une méthode d’apprentissage et d’utilisation d’un modèle de prédiction selon l’invention. [0041] La méthode consiste, dans une phase d’apprentissage, à déterminer un modèle 231 de prédiction configuré pour déterminer, à partir de spectres mesurés sur des échantillons donnés, une concentration d’une ou plusieurs espèces chimiques d’une part et une prédiction de l’intensité d’une ou plusieurs raies atomiques (ou bandes moléculaires) dans le spectre d’autre part.
[0042] La méthode consiste ensuite, dans une phase d’utilisation, à utiliser le modèle entrainé pour déterminer ces prédictions sur de nouvelles données spectrales mesurées. Les sorties secondaires du modèle sont utilisées pour déterminer un indicateur de fiabilité des prédictions.
[0043] Plus précisément, lors de la phase d’apprentissage, la méthode exploite en entrée des données d’entrée spectrales 210 sous la forme de plusieurs ensembles de spectres obtenus par spectroscopie LIBS afin de caractériser un échantillon donné. Les données spectrales 210 sont labellisées, c’est-à-dire, par exemple dans le cas de l’analyse quantitative, qu’on connait les concentrations des différents éléments chimiques à quantifier dans l’échantillon.
[0044] Autrement dit, les données d’entrée 210 sont constituées par un ensemble de couples associant chacun un spectre à une concentration d’un ou plusieurs éléments chimiques dans un échantillon d’un type donné. Un échantillon est caractérisé par exemple par un type de matériau et une concentration de certains éléments chimiques dans ce matériau.
[0045] Les données d’entrée 210 sont séparées en un premier sous ensemble de données d’apprentissage 221 et un second sous ensemble de données d’évaluation 222. Le modèle 231 est entrainé à partir des données d’apprentissage 221 puis il est optimisé sur les données d’évaluation 222 au cours d’un cycle d’optimisation 232 pour déterminer les meilleurs hyperparamètres du modèle 231 .
[0046] Le choix du pourcentage des réalisations utilisées pour l’apprentissage 221 peut dépendre du support de calcul et du type de données pour maximiser la capacité d’apprentissage des architectures. Par exemple, pour un jeu de données contenant 100000 réalisations typiquement on pourra en utiliser 80% pour l’apprentissage, mais pour des jeux de données avec des millions de réalisations le pourcentage peut augmenter, sauf si le support de calcul ne le permet pas. Les données d’apprentissage 221 sont utilisées directement pour le calcul des paramètres du modèle, alors que les données d’évaluation 222 sont utilisées pour évaluer les prédictions et optimiser le modèle 231 .
[0047] Le modèle de prédiction 231 est un modèle statistique multivarié et multisorties. Il reçoit en entrée les spectres entiers en tant que données d’entrée et il est entrainé pour prédire d’une part un premier ensemble de sorties primaires 251 correspondant à une ou plusieurs prédictions de concentration d’une ou plusieurs espèces chimiques et d’autre part un second ensemble de sorties secondaires 252 correspondant à une ou plusieurs prédictions de valeurs d’intensité de raies atomiques dans certaines plages de longueurs d’ondes.
[0048] Une fois le modèle 231 entrainé, il peut être appliqué à un nouvel ensemble de données spectrales 240. Le premier ensemble de prédictions 251 est utilisé pour déterminer les concentrations des espèces chimiques dans l’échantillon sur lequel a été mesuré le spectre d’entrée 240. Le second ensemble de prédictions 252 est traité pour déterminer une mesure de confiance des premières prédictions 251 .
[0049] La mesure de confiance est basée sur l’interprétation en termes de probabilité (par exemple en utilisant la distribution de probabilité d'un estimateur donné, présenté ci-après) ou d’erreur relative des prédictions des sorties secondaires 252 du modèle 231. Ces sorties doivent prédire des quantités, liées à la prédiction de concentration des espèces, présentes dans les données réelles inconnues 240, de sorte qu’une comparaison entre valeurs réelles et valeurs prédites permet de quantifier la fiabilité de l’apprentissage et des prédictions. Comme les sorties secondaires 252 ont été entraînées à partir de la même représentation des données d’entrée 210, les prédictions secondaires 252 sont liées aux prédictions 251 de la concentration des espèces et elles partagent au moins un sous-ensemble des poids du modèle (implémentations dite « hard parameter sharing », en anglais). On peut alors supposer qu’un résultat fiable sur les sorties secondaires peut conduire à des prédictions également fiables sur la concentration, c’est-à-dire que la capacité de généralisation du modèle pour la sortie principale et les sorties secondaires est comparable.
[0050] Les données d’entrée 210 utilisées pour l’apprentissage du modèle sont représentatives des échantillons étalons utilisés pour la définition du modèle : plusieurs spectres peuvent représenter le même étalon. Ces données peuvent être prétraitées pour réduire les fluctuations expérimentales des valeurs d’intensité spectrale. Par exemple, dans un mode de réalisation de l’invention, chaque spectre peut être normalisé par l’intensité d’une raie ou bande donnée, ou prétraité par une méthode de type SNV (« standard normal variate » en anglais) ou toute autre méthode de prétraitement. Dans un autre mode de réalisation, pour chaque étalon, on peut utiliser la valeur d’intensité spectrale moyenne du spectre à une longueur d’onde donnée pour déterminer les valeurs aberrantes. Par exemple, avant la définition du modèle, on peut rejeter les spectres dont la valeur d’intensité à une longueur d’onde donnée est au dehors d’un intervalle arbitraire (par exemple en dehors des percentiles 5 et 95, ou 1 et 99). L’intervalle dépend des conditions de mesure et du nombre de réalisations pour chaque étalon : si ce nombre est élevé, on peut choisir un intervalle plus grand (1 et 99 percentiles, par exemple). Dans un autre mode de réalisation, ces deux types de prétraitement peuvent être combinés. Les données réelles 240 utilisées pendant la phase d’utilisation du modèle doivent impérativement être prétraitées de la même façon que les données d’entrée, mais il est possible de garder les valeurs aberrantes dans les données réelles inconnues 240. En effet, si le modèle entraîné a une forte capacité de généralisation, les valeurs aberrantes seront correctement traitées pendant la phase d'inférence. Le but est d’apprendre la tâche de prédiction à partir d’une représentation fiable de l’étalon : un bon modèle doit être capable d’extrapoler l’information nécessaire au cas où les échantillons ont des défauts.
[0051] L’évaluation du modèle en utilisant des données d’évaluation 222 peut se faire en utilisant directement chaque spectre comme donnée d’entrée. On peut ensuite calculer la moyenne des prédictions et associer un écart aux prédictions pour mieux évaluer les performances de l’algorithme (et entraîner l’algorithme sur des cas plus complexes où le bruit peut produire des différences sensibles entre les spectres, même si provenant du même étalon).
[0052] Dans un mode de réalisation de l’invention, pour réduire l’impact du bruit pendant la phase d’inférence, on peut préalablement calculer le spectre moyen des données réelles 240 et l’utiliser comme donnée d’entrée, représentative de l’échantillon.
[0053] Dans un mode de réalisation de l’invention, les sorties primaires 251 sont composées par les concentrations des espèces chimiques analysées. Les sorties secondaires 252 du modèle contiennent les intensités de raies (ou bandes moléculaires) d’émission (ou d’absorption) associées aux mêmes espèces chimiques dans le cas de données spectrales, ou par l’intensité mesurée dans une bande spectrale dans le cas de données multi- ou hyperspectrales. Dans le cadre des modèles univariés, les intensités des raies ou bandes spectrales sont utilisées pour la prédiction de la concentration. Ainsi, le choix d'inclure ces deux éléments dans les sorties secondaires du modèle permet d’obtenir des prédictions secondaires correspondant à des quantités physiques connexes aux concentrations d’espèces chimiques.
[0054] Dans un mode de réalisation de l’invention, la méthode d’analyse quantitative comporte une étape de calcul d’un indicateur de fiabilité des sorties primaires du modèle à partir des sorties secondaires du modèle. Par exemple, l’indicateur de fiabilité correspond à une mesure de l’écart entre l’intensité prédite en sortie du modèle et l’intensité réelle directement mesurée sur les données d’entrée 240. Par exemple on peut calculer la valeur t de Student de l’écart entre les deux valeurs, à l’aide de la formule t = |/prédite > -éeiiel/0-, où /prédite est l’intensité moyenne 252 de l’échantillon prédite par le modèle 231 , Iréeue est l’intensité moyenne réelle mesurée sur les données d’entrée 240 et est l’écart type de la différence (c’est-à-dire, la racine carrée de la somme quadratique des écarts entre les intensités prédites et réelles). On peut enfin choisir le niveau de confiance comme c’est l’usage pour des analyses statistiques (par exemple, 95% ou 99%) pour déterminer un seuil tiimite, en fonction du nombre de réalisations pour chaque échantillon (les degrés de liberté). Si la prédiction /prédite conduit à une valeur t > tlimite, on en déduit que la prédiction de la concentration 251 est biaisée, ce qui permet de rejeter cette prédiction sur la base d’une interprétation en termes de probabilité (c'est-à-dire que nous rejetons l'hypothèse que la différence entre la prédiction et la valeur réelle est uniquement due à des fluctuations statistiques). Si la prédiction prédite conduit à une valeur t < tlimite, les éléments à disposition ne permettent pas de rejeter la prédiction 251 , donc la prédiction de la concentration, liée à la prédiction de l’intensité, peut être acceptée avec un niveau de confiance quantifiable par tiimite-
[0055] Comme alternative, on peut utiliser un simple seuil sur l'erreur relative entre la valeur vraie de l'intensité et sa valeur prédite r - |/prédite - /réene| / éeiie : les valeurs inférieures à la valeur choisie ne peuvent pas être rejetées, car leur distance à la valeur vraie est principalement due aux fluctuations statistiques. Cet estimateur est indépendant de l'écart-type de l'intensité d'émission et peut être utilisé comme un premier test statistique, directement appliqué sur les valeurs de l'intensité : si la prédiction ne passe pas ce test, alors nous pouvons la rejeter sans risque, car l'erreur est trop importante. Le test t (Student) peut alors être utilisé comme un raffinement de la procédure, car il dépend également de la variance des données.
[0056] L’invention propose ainsi une méthode basée sur un algorithme d’apprentissage automatique multisorties qui permet l’utilisation des informations explicitement contenues dans les données expérimentales (les intensités des raies d’émission du spectre), donc vérifiables (par mesure directe sur le spectre), pour obtenir une interprétation des prédictions des concentrations en termes de probabilité. L’invention propose ainsi une méthode pour caractériser de façon quantitative la confiance de ces prédictions en utilisant l’erreur sur les sorties secondaires. En particulier, ces prédictions doivent impérativement avoir des éléments communs avec des éléments vérifiables dans les données réelles 240 pour permettre la comparaison. Le rejet (ou le non-rejet) des résultats peut ensuite être fait en utilisant des tests statistiques.
[0057] Dans un mode de réalisation de l’invention, comme la caractérisation de la confiance des prédictions est quantitative, les prédictions secondaires ou le résultat des tests statistiques peuvent être couplés à un algorithme de classification pour la détermination d’anomalies dans les échantillons analysés. C’est-à-dire, l’écart entre les valeurs prédites et les valeurs réelles des sorties secondaires peut être utilisé comme donnée d’entrée d’un algorithme de classification entraîné pour reconnaître des valeurs normales et des anomalies de fabrication, de composition ou de mesure. Dans un autre mode de réalisation, on peut directement utiliser un seuil arbitraire sur les valeurs t ou les erreurs relatives calculées à partir des prédictions pour déterminer la présence d’une anomalie.
[0058] Dans un mode de réalisation de l’invention, le modèle de prédiction 231 peut être, par exemple, un modèle multilinéaire (comme le modèle PLS2 décrit dans la référence [13]), ou un arbre de décision (ou ses variantes d’apprentissage d’ensemble comme des forêts aléatoires ou « gradient boosting »), ou un modèle de type « support vector machine ». Le point fondamental du modèle est la possibilité d’utiliser une représentation commune des données d’entrée pour obtenir des prédictions multisorties en même temps, c’est-à-dire, une approximation de la composition de la fonction f ° g, où g-. IRW -> A c [RL et /: A -> IRM , N est la dimension des spectres, L est la dimension de la représentation commune et M est le nombre des prédictions en sortie du modèle, tel que M > 2, en utilisant le même ensemble de paramètres pour la définition du modèle. De cette façon, le modèle calcule d'abord une nouvelle représentation des données d'entrée (les spectres), qui peut ensuite être utilisée pour générer les prédictions.
[0059] De manière générale, pour entraîner le modèle 231 , la définition d’une fonction d’apprentissage (ou fonction de perte) £t
Figure imgf000017_0001
Pour 'a sortie i du modèle est nécessaire (y^eües et yprédites représentent les valeurs réelles et prédites de la sortie i) : cela permet de définir l’objectif de l’entraînement et de mesurer l’écart entre les valeurs prédites et les valeurs réelles (dans le cadre de l’apprentissage supervisé, les valeurs réelles sont connues pendant l’apprentissage). Il existe ainsi des fonctions de perte typiquement dédiées à l’apprentissage de la régression, contrairement à des fonctions de perte typiquement utilisées pour des tâches de classification. Dans différentes réalisations de l’invention, on peut utiliser une fonction d’erreur quadratique moyenne ou d’erreur absolue moyenne. Dans une autre réalisation de l’invention, ces fonctions peuvent être combinées dans une fonction dite « Huber loss » telle que décrite dans la référence [14], définie par :
Figure imgf000017_0002
[0061] où 8 fait partie des hyperparam êtres à optimiser lors du cycle d’optimisation 232 du modèle et 0 est la fonction de Heaviside qui prend la valeur 1 pour tous les réels strictement positifs et la valeur 0 pour les réels strictement négatifs Cette fonction permet de prendre en compte directement les problèmes liés aux valeurs aberrantes présentes dans les jeux de données.
[0062] Une fois la fonction de perte
Figure imgf000017_0003
choisie pour la sortie i du modèle, la fonction de perte globale du modèle est définie comme combinaison linéaire des fonctions de perte spécifiques à chaque sortie : nombre de leurs réelles
Figure imgf000018_0001
spécifiques à chaque sortie, est l’ensemble des
Figure imgf000018_0002
prédictions des sorties du modèle, et fl = { >£ G IR}ie{i /vj est l’ensemble des coefficients de la combinaison linéaire des fonctions de perte. Les coefficients ÛJ£ représentent des hyperparamètres du modèle 231 .
[0063] Dans un autre mode de réalisation de l’invention, le modèle 231 est implémenté au moyen d’un ou plusieurs réseaux de neurones. Un exemple d’architecture du modèle 231 est représenté à la figure 3.
[0064] Dans un mode de réalisation, les réseaux de neurones constituant le modèle 231 sont des réseaux de neurones convolutifs. Un réseau de neurones convolutifs est implémenté via un ensemble de convolutions par des vecteurs qui s’étendent en direction des canaux de longueur d’onde des spectres. Les données d’entrée sont balayées à l’aide de plusieurs filtres de convolution afin d’obtenir à la fois les prédictions principales 251 et les prédictions secondaires 252 à partir d’un modèle multisorties.
[0065] Ces réseaux de neurones peuvent être profonds, avec plusieurs couches cachées, connecter des opérations de convolution et d’activation, avec leurs poids entraînables. L’apport de ce type d’algorithmes est l’utilisation directe de l’information contenue dans les spectres : en utilisant une opération de convolution, on peut garder les relations entre canaux de longueur d’onde voisins et utiliser les informations physiques contenues dans les profils des raies spectrales (ou des bandes spectrales) telles que l’intensité d’émission ou d’absorption et la largeur du profil. De manière plus générale, d'autres types d'architectures de réseaux de neurones, tels que les réseaux de neurones entièrement connectés (basés sur des perceptrons multicouches tels que décrits dans [16]) ou de graphes tels que décrits dans [17], peuvent également être utilisés : une condition suffisante de l'invention est la capacité de former des architectures à sorties multiples, sans restrictions spécifiques sur le type de réseau de neurones. [0066] Sur l’exemple de la figure 3, on a représenté un réseau multitâches (tel que décrit dans la référence [20]). La différence entre un réseau multitâches et un réseau multisorties est liée au traitement des représentations des données dans les couches cachées : un réseau multisorties utilise une représentation commune sans transformations ultérieures, mais un réseau multitâches permet d’utiliser une représentation commune et ensuite d’utiliser des ramifications spécialisées dans des tâches spécifiques. En ce sens, un réseau multitâches est un réseau multisorties, mais l’inverse n’est pas vrai. L’utilisation d’une architecture multitâches permet de résoudre beaucoup de problèmes liés au surapprentissage des données d’apprentissage et de limiter l’impact des valeurs aberrantes dans les prédictions (tel qu’évoqué par exemple dans la référence [18]).
[0067] Les algorithmes utilisés peuvent être basés sur des réseaux de neurones convolutifs profonds multitâches. Cela donne aux modèles la capacité d’analyser directement les spectres, en formulant une nouvelle représentation commune des données, et de prédire avec une grande précision soit les concentrations des espèces d’intérêt soit, par exemple l’intensité des émissions spectrales associées aux espèces. Ces prédictions peuvent ensuite être interprétées par des modèles de probabilité en étudiant l’écart entre les valeurs prédites et les valeurs réelles.
[0068] Les données d’entrée 310 du modèle ont déjà été décrites : il s’agit de spectres acquis par une technique de spectroscopie, éventuellement prétraités. Le premier bloc du modèle 320 est représenté par un réseau de neurones comprenant des couches convolutives à une dimension. Ce premier bloc a pour tâche d’apprendre une représentation commune des spectres en utilisant le même ensemble de poids et paramètres (« hard parameter sharing » en anglais). Plusieurs exemples de réalisation de réseaux de neurones multitâches sont donnés dans la référence [19], Il vise à transformer les données d’entrée en une représentation capable de fournir des prédictions pour toutes les tâches en même temps.
[0069] Les sorties/tâches du modèle 341 - 343, comprenant les concentrations des espèces analysées et les valeurs utilisées pour la détermination de la confiance, sont calculées en utilisant d’autres réseaux convolutifs spécifiques 331 - 333 : chaque réseau permet de calculer des transformations ultérieures à partir de la représentation commune et d’obtenir un résultat spécifique. Par exemple, le modèle calcule les sorties secondaires (les intensités des raies présentes dans les spectres) en partant de cette représentation commune et en la traitant ensuite dans des branches spécifiques. Ainsi, le modèle ne "lit" pas simplement l'intensité dans les spectres, mais il est obligé de trouver d'abord une représentation appropriée des données d'entrée, puis de traiter cette information. Ce type de réseaux apporte une amélioration non négligeable par rapport à des réseaux traditionnels.
[0070] Les réseaux de neurones convolutifs 331 -333 prennent en entrée un vecteur de caractéristiques communes extrait des données d’entrée via le premier réseau de neurones 320, et produisent en sortie une prédiction sous forme d’un scalaire. Pour cela, chaque réseau de neurones convolutif 331 -333 comporte une dernière couche totalement connectée à une sortie.
[0071] Un exemple d’architecture possible du modèle multitâches de la figure 3 est défini par :
- un premier réseau de neurones 320 formé par 3 couches convolutives avec respectivement : i. 64, 40 et 16 filtres, ii. taille du noyau : 5, 3 et 2 canaux de longueur d’onde, iii. pas : 3, 2 et 1 canaux de longueur d’onde,
- des réseaux de neurones pour résoudre des tâches spécifiques 331 - 333 ayant les mêmes hyperparam êtres que le premier réseau de neurones 320 et complétés par deux couches entièrement connectées de 16 et 1 neurones respectivement (chaque réseau 331 - 333 prédit un nombre réel).
[0072] La fonction d’activation après chaque couche cachée est par exemple de type « LeakyReLU » (avec une pente de 0.03). Le taux d’apprentissage est par exemple fixé à 10-3.
[0073] La figure 4 représente un tableau qui montre les résultats de l’étalonnage de la concentration en fer (Fe) dans une matrice de nickel (Ni) et une matrice de zirconium (Zr). 25 tirs laser ont été enregistrés pour chaque échantillon et chaque spectre est formé par 68000 canaux de longueur d’onde. Les sorties secondaires sont les valeurs de l’intensité des raies d’émission de Fe à 373.49 nm, 358.12 nm, 373.71 nm, 374.56 nm, 382.04 nm, 385.99 nm, 404.58 nm et 438.35 nm. L’apprentissage consiste uniquement en des spectres des étalons de Ni (les résultats sont donnés sur un ensemble de test indépendant). Comme indiqué dans le tableau, l’architecture multivariée (MVA), basée sur l’apprentissage multitâche, est capable de fournir des prédictions plus précises que la méthode classique univariée (UVA) sur des matrices de même nature de celles utilisées pour l’apprentissage. L’architecture multitâche est aussi capable de donner une mesure de la fiabilité des prédictions sur les matrices de Ni en utilisant une mesure de confiance sur les intensités prédites pour les raies d’émission (dans ce cas rlimite = ta v = 2.485, où le niveau de confiance est a = 0.99 et les degrés de liberté sont v = 25). Le tableau montre également les capacités de généralisation sur une matrice de Zr, de nature différente des échantillons d’apprentissage : le réseau de neurones est capable de réduire considérablement l’erreur dans le régime d’extrapolation. Cependant, l’architecture multitâche permet de mesurer la fiabilité des prédictions : les erreurs relatives des intensités des raies d’émission (et les valeurs t) dans les échantillons de Zr sont en effet très élevées. Dans ce cas, la matrice de Zr a été reconnue comme anormale par rapport à la distribution d’apprentissage.
[0074] L’invention permet de quantifier la confiance en la concentration prédite en utilisant des modèles de probabilité sur la base d’un ensemble de prédictions d’un modèle multisorties. Le modèle peut prédire à la fois la concentration des espèces et d’autres quantités (par exemple, l’intensité des raies d’émission d’une espèce chimique). Cela permet d’avoir à disposition à la fois des quantités inconnues (par exemple, les concentrations des espèces) et des quantités secondaires qui peuvent être directement vérifiées dans les spectres, et que l’on utilise pour déterminer le niveau de confiance de l’analyse quantitative.
[0075] L’invention permet de réduire les incertitudes en utilisant des algorithmes performants et capables de traiter directement et de façon totalement automatique les signatures spectrales des espèces contenues dans les spectres entiers.
[0076] Les étapes de l’invention peuvent être mises en œuvre en tant que programme d’ordinateur comportant des instructions pour son exécution. Le programme d’ordinateur peut être enregistré sur un support d’enregistrement lisible par un processeur. [0077] La référence à un programme d'ordinateur qui, lorsqu'il est exécuté, effectue l'une quelconque des fonctions décrites précédemment, ne se limite pas à un programme d'application s'exécutant sur un ordinateur hôte unique. Au contraire, les termes programme d'ordinateur et logiciel sont utilisés ici dans un sens général pour faire référence à tout type de code informatique (par exemple, un logiciel d'application, un micro logiciel, un microcode, ou toute autre forme d'instruction d'ordinateur) qui peut être utilisé pour programmer un ou plusieurs processeurs pour mettre en oeuvre des aspects des techniques décrites ici. Les moyens ou ressources informatiques peuvent notamment être distribués ("Cloud computing")., éventuellement selon des technologies de pair-à-pair. Le code logiciel peut être exécuté sur n'importe quel processeur approprié (par exemple, un microprocesseur) ou cœur de processeur ou un ensemble de processeurs, qu'ils soient prévus dans un dispositif de calcul unique ou répartis entre plusieurs dispositifs de calcul (par exemple tels qu’éventuellement accessibles dans l’environnement du dispositif). Le code exécutable de chaque programme permettant au dispositif programmable de mettre en œuvre les processus selon l'invention, peut être stocké, par exemple, dans le disque dur ou en mémoire morte. De manière générale, le ou les programmes pourront être chargés dans un des moyens de stockage du dispositif avant d'être exécutés. L'unité centrale peut commander et diriger l'exécution des instructions ou portions de code logiciel du ou des programmes selon l'invention, instructions qui sont stockées dans le disque dur ou dans la mémoire morte ou bien dans les autres éléments de stockage précités.
Références
[0078] [1] V. Costa et al., “Calibration Strategies Applied to Laser-Induced Breakdown Spectroscopy: A Critical Review of Advances and Challenges,” J. Braz. Chem. Soc., 2021 , doi: 10.21577/0103-5053.20200175.
[0079] [2] V. Motto-Ros, S. Moncayo, F. Trichard, and F. Pelascini, “Investigation of signal extraction in the frame of laser induced breakdown spectroscopy imaging,” Spectrochim. Acta Part B At. Spectrosc., vol. 155, pp. 127-133, 2019, doi: 10.1016/j.sab.2O19.04.004. [0080] [3] P. Yaroshchyk, D. L. Death, and S. J. Spencer, “Comparison of principal components regression, partial least squares regression, multi-block partial least squares regression, and serial partial least squares regression algorithms for the analysis of Fe in iron ore using LIBS,” J Anal Spectrom, vol. 27, no. 1 , pp. 92-98, 2012, doi: 10.1039/C1 JA10164A.
[0081] [4] I. Goodfellow, Y. Bengio, and A. Courville, Deep Learning. MIT Press, 2016.
[0082] [5] J. El Haddad et al., “Artificial neural network for on-site quantitative analysis of soils using laser induced breakdown spectroscopy,” Spectrochim. Acta Part B At. Spectrosc., vol. 79-80, pp. 51-57, 2013, doi: 10.1016/j.sab.2012.11.007.
[0083] [6] L. Narlagiri and V. R. Soma, “Simultaneous quantification of Au and Ag composition from Au-Ag bi-metallic LIBS spectra combined with shallow neural network model for multi-output regression,” Appl. Phys. B, vol. 127, no. 9, p. 135, 2021 , doi: 10.1007/s00340-021 -07681 -y.
[0084] [7] C. Lu, B. Wang, X. Jiang, J. Zhang, K. Niu, and Y. Yuan, “Detection of K in soil using time-resolved laser-induced breakdown spectroscopy based on convolutional neural networks,” Plasma Sci. Technol., vol. 21 , no. 3, p. 34014, 2019, doi: 10.1088/2058-6272/aaef6e.
[0085] [8] T. Chen, S. Kornblith, M. Norouzi, and G. Hinton, “A simple framework for contrastive learning of visual representations,” in International conference on machine learning, 2020, pp. 1597-1607.
[0086] [9] T. Chen et al., “Deep learning with laser-induced breakdown spectroscopy (LIBS) for the classification of rocks based on elemental imaging,” Appl. Geochem., vol. 136, p. 105135, 2022, doi: 10.1016/j.apgeochem.2021.105135.
[0087] [10] L.-N. Li, X.-F. Liu, W.-M. Xu, J.-Y. Wang, and R. Shu, “A laser-induced breakdown spectroscopy multi-component quantitative analytical method based on a deep convolutional neural network,” Spectrochim. Acta Part B At. Spectrosc., vol. 169, p. 105850, Jul. 2020, doi: 10.1016/j.sab.2020.105850. [0088] [11 ] L.-N. Li, X.-F. Liu, F. Yang, W.-M. Xu, J.-Y. Wang, and R. Shu, “A review of artificial neural network based chemometrics applied in laser-induced breakdown spectroscopy analysis,” Spectrochim. Acta Part B At. Spectrosc., vol. 180, p. 106183, Jun. 2021 , doi: 10.1016/j.sab.2021.106183.
[0089] [12] J. El Haddad, L. Canioni, and B. Bousquet, “Good practices in LIBS analysis: Review and advices,” Spectrochim. Acta Part B At. Spectrosc., vol. 101 , pp. 171-182, Nov. 2014, doi: 10.1016/j.sab.2014.08.039.
[0090] [13] R. B. Anderson, J. F. Bell, R. C. Wiens, R. V. Morris, and S. M. Clegg, “Clustering and training set selection methods for improving the accuracy of quantitative laser induced breakdown spectroscopy,” Spectrochim. Acta Part B At. Spectrosc., vol. 70, pp. 24-32, 2012, doi: 10.1016/j.sab.2O12.04.004.
[0091] [14] P. J. Huber, “Robust Estimation of a Location Parameter,” Ann. Math. Stat., vol. 35, no. 1 , pp. 73-101 , 1964, doi: 10.1214/aoms/1177703732.
[0092] [16] F. Rosenblatt, The perceptron, a perceiving and recognizing automaton Project Para. Cornell Aeronautical Laboratory, 1957.
[0093] [17] F. Scarselli, M. Gori, Ah Chung Tsoi, M. Hagenbuchner, and G. Monfardini, “The Graph Neural Network Model,” IEEE Trans. Neural Netw., vol. 20, no. 1 , pp. 61-80, 2009, doi: 10.1109/TNN.2008.2005605.
[0094] [18] J. Baxter, “A Model of Inductive Bias Learning,” J. Artif. Intell. Res., vol. 12, pp. 149-198, 2000, doi: 10.1613/jair.731 .
[0095] [19] M. Crawshaw, “Multi-Task Learning with Deep Neural Networks: A Survey,” 2020, [Online], Available: https://arxiv.org/abs/2009.09796
[0096] [20] R. Caruana, “Multitask Learning: A Knowledge-Based Source of Inductive Bias,” in Proceedings of the Tenth International Conference on Machine Learning, 1993, pp. 41-48.
[0097] [21 ] B. Xu, N. Wang, T. Chen, and M. Li, “Empirical Evaluation of Rectified Activations in Convolutional Network,” 2015, [Online], Available: http://arxiv.Org/abs/1505.00853

Claims

REVENDICATIONS Procédé, mis en œuvre par ordinateur, d’apprentissage automatique d’un modèle de prédiction multisorties (231 ) configuré pour déterminer conjointement, à partir d’un ensemble de données spectrales caractéristiques d’un échantillon, au moins une prédiction principale (251 ) d’au moins une première grandeur physique caractérisant une espèce donnée dans l’échantillon et au moins une prédiction secondaire (252) d’au moins une seconde grandeur physique caractérisant ladite espèce, le modèle de prédiction multisorties étant entrainé à partir d’un ensemble de données spectrales annotées (210). Procédé d’apprentissage automatique selon la revendication 1 dans lequel le modèle de prédiction multisorties est un réseau de neurones multitâches et est implémenté au moyen d’un premier moteur d’apprentissage commun (320) configuré pour extraire des ensembles de données spectrales reçus en entrée, des représentations communes aux différentes tâches à résoudre et plusieurs moteurs d’apprentissage spécifiques (331 ,332,333) à chaque tâche à résoudre, recevant chacun en entrée lesdites représentations communes et délivrant en sortie une prédiction (341 ,342,343) correspondant à la tâche à résoudre. Procédé d’apprentissage automatique selon la revendication 2 dans lequel le moteur d’apprentissage commun (320) est un réseau de neurones convolutif et les réseaux de neurones spécifiques (331 ,332,333) sont des réseaux de neurones convolutifs complété par des couches de neurones entièrement connectés. Procédé d’apprentissage automatique selon l’une quelconque des revendications précédentes dans lequel ladite espèce est une espèce chimique, la prédiction principale est une valeur de concentration de l’espèce chimique et la prédiction secondaire est une valeur d’intensité d’une raie spectrale pour au moins une longueur d’onde donnée ou au moins une bande de longueurs d’onde de largeur donnée. Procédé, mis en œuvre par ordinateur, d’analyse quantitative de données spectrales comprenant la mise en œuvre d’un modèle de prédiction (231 ) entrainé au moyen du procédé d’apprentissage automatique selon l’une quelconque des revendications précédentes pour déterminer, à partir d’un spectre (240) mesuré sur un échantillon, au moins une prédiction principale (251 ) d’au moins une première grandeur physique caractérisant une espèce donnée dans l’échantillon et au moins une prédiction secondaire (252) d’au moins une seconde grandeur physique caractérisant ladite espèce, le procédé comprenant en outre une étape de calcul d’un indicateur de fiabilité de l’au moins une prédiction principale à partir d’un indicateur de l’écart entre au moins une prédiction secondaire et une valeur de la seconde grandeur physique correspondante mesurée sur le spectre. Procédé d’analyse quantitative selon la revendication 5 dans lequel l’indicateur de fiabilité est égal à l’erreur relative entre la valeur d’intensité prédite via la mise en œuvre du modèle de prédiction et la valeur d’intensité correspondante mesurée sur le spectre. Procédé d’analyse quantitative selon la revendication 5 dans lequel l’indicateur de fiabilité est égal à l’écart, en valeur absolue, entre la valeur d’intensité prédite via la mise en œuvre du modèle de prédiction et la valeur d’intensité correspondante mesurée sur le spectre divisé par l’écart type de cet écart. Procédé d’analyse quantitative selon l’une quelconque des revendications 5 à
7 comprenant en outre la mise en œuvre d’un modèle de classification configuré pour classifier les prédictions de concentration d’espèces chimiques en deux classes correspondant à des valeurs normales et des anomalies, à partir des prédictions de valeurs d’intensité de raies spectrales ou des indicateurs de fiabilité. Procédé d’analyse quantitative selon l’une quelconque des revendications 5 à
8 dans lequel le spectre mesuré est acquis au moyen d’une méthode de spectroscopie d’émission atomique de plasma induit par laser. Programme d'ordinateur comportant des instructions pour l'exécution d’un procédé selon l’une quelconque des revendications précédentes, lorsque le programme est exécuté par un processeur. Support d'enregistrement lisible par un processeur sur lequel est enregistré un programme comportant des instructions pour l'exécution d’un procédé selon l’une quelconque des revendications 1 à 9, lorsque le programme est exécuté par un processeur.
PCT/EP2023/063875 2022-06-21 2023-05-24 Methode de validation des predictions d'un modele supervise d'analyse quantitative multivariee de donnees spectrales WO2023247127A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2206060A FR3136856A1 (fr) 2022-06-21 2022-06-21 Méthode de validation des prédictions d’un modèle supervisé d’analyse quantitative multivariée de données spectrales
FRFR2206060 2022-06-21

Publications (1)

Publication Number Publication Date
WO2023247127A1 true WO2023247127A1 (fr) 2023-12-28

Family

ID=85122664

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/063875 WO2023247127A1 (fr) 2022-06-21 2023-05-24 Methode de validation des predictions d'un modele supervise d'analyse quantitative multivariee de donnees spectrales

Country Status (2)

Country Link
FR (1) FR3136856A1 (fr)
WO (1) WO2023247127A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117929356A (zh) * 2024-03-21 2024-04-26 沈阳尖科智能测控技术合伙企业(有限合伙) 一种基于高斯过程回归的libs定量分析方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210311001A1 (en) * 2018-12-20 2021-10-07 Canon Kabushiki Kaisha Information processing apparatus, control method of information processing apparatus, and computer-readable storage medium therefor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210311001A1 (en) * 2018-12-20 2021-10-07 Canon Kabushiki Kaisha Information processing apparatus, control method of information processing apparatus, and computer-readable storage medium therefor

Non-Patent Citations (24)

* Cited by examiner, † Cited by third party
Title
B. XUN. WANGT. CHENM. LI, EMPIRICAL EVALUATION OF RECTIFIED ACTIVATIONS IN CONVOLUTIONAL NETWORK, 2015, Retrieved from the Internet <URL:http://arxiv.org/abs/1505.00853>
C. LUB. WANGX. JIANGJ. ZHANGK. NIUY. YUAN: "Détection of K in soil using time-resolved laser-induced breakdown spectroscopy based on convolutional neural networks", PLASMA SCI. TECHNOL., vol. 21, no. 3, 2019, pages 34014
F. ROSENBLATT: "The perceptron, a perceiving and recognizing automaton Project Para", CORNELL AERONAUTICAL LABORATORY, 1957
F. SCARSELLIM. GORIAH CHUNG TSOIM. HAGENBUCHNERG. MONFARDINI: "The Graph Neural Network Model", IEEE TRANS. NEURAL NETW., vol. 20, no. 1, 2009, pages 61 - 80
GUO SHUXIA ET AL: "Chemometric analysis in Raman spectroscopy from experimental design to machine learning-based modeling", NATURE PROTOCOLS, NATURE PUBLISHING GROUP, GB, vol. 16, no. 12, 5 November 2021 (2021-11-05), pages 5426 - 5459, XP037634419, ISSN: 1754-2189, [retrieved on 20211105], DOI: 10.1038/S41596-021-00620-3 *
I. GOODFELLOWY. BENGIOA. COURVILLE: "Deep Learning", 2016, MIT PRESS
J. BAXTER: "A Model of Inductive Bias Learning", J. ARTIF. INTELL. RES., vol. 12, 2000, pages 149 - 198
J. EL HADDAD ET AL.: "Artificial neural network for on-site quantitative analysis of soils using laser induced breakdown spectroscopy", SPECTROCHIM. ACTA PART B AT. SPECTROSC., vol. 79, no. 80, 2013, pages 51 - 57, XP055919703, DOI: 10.1016/j.sab.2012.11.007
J. EL HADDADL. CANIONIB. BOUSQUET: "Good practices in LIBS analysis: Review and advices", SPECTROCHIM. ACTA PART B AT. SPECTROSC., vol. 101, November 2014 (2014-11-01), pages 171 - 182
L. NARLAGIRIV. R. SOMA: "Simultaneous quantification of Au and Ag composition from Au-Ag bi-metallic LIBS spectra combined with shallow neural network model for multi-output régression", APPL. PHYS. B, vol. 127, no. 9, 2021, pages 135
L.-N. LIX.-F. LIUF. YANGW.-M. XUJ.-Y. WANGR. SHU: "A review of artificial neural network based chemometrics applied in laser-induced breakdown spectroscopy analysis", SPECTROCHIM. ACTA PART B AT. SPECTROSC., vol. 180, June 2021 (2021-06-01), pages 106183
L.-N. LIX.-F. LIUW.-M. XUJ.-Y. WANGR. SHU: "A laser-induced breakdown spectroscopy multi-component quantitative analytical method based on a deep convolutional neural network", SPECTROCHIM. ACTA PART B AT. SPECTROSC., vol. 169, July 2020 (2020-07-01), pages 105850
LI DA-WEI ET AL: "DEEP picker is a deep neural network for accurate deconvolution of complex two-dimensional NMR spectra", vol. 12, no. 1, 1 September 2021 (2021-09-01), XP093039376, Retrieved from the Internet <URL:https://www.nature.com/articles/s41467-021-25496-5> DOI: 10.1038/s41467-021-25496-5 *
M. CRAWSHAW, MULTI-TASK LEARNING WITH DEEP NEURAL NETWORKS: A SURVEY, 2020, Retrieved from the Internet <URL:https://arxiv.org/abs/2009.09796>
NARLAGIRI LINGAMURTHY ET AL: "Simultaneous quantification of Au and Ag composition from Au-Ag bi-metallic LIBS spectra combined with shallow neural network model for multi-output regression", APPLIED PHYSICS B, SPRINGER BERLIN HEIDELBERG, BERLIN/HEIDELBERG, vol. 127, no. 9, 26 August 2021 (2021-08-26), XP037558579, ISSN: 0946-2171, [retrieved on 20210826], DOI: 10.1007/S00340-021-07681-Y *
P. J. HUBER: "Robust Estimation of a Location Parameter", ANN. MATH. STAT., vol. 35, no. 1, 1964, pages 73 - 101
P. YAROSHCHYKD. L. DEATHS. J. SPENCER: "Comparison of principal components regression, partial least squares régression, multi-block partial least squares régression, and serial partial least squares régression algorithms for the analysis of Fe in iron ore using LIBS", J ANAL SPECTROM, vol. 27, no. 1, 2012, pages 92 - 98
R. B. ANDERSONJ. F. BELLR. C. WIENSR. V. MORRISS. M. CLEGG: "Clustering and training set sélection methods for improving the accuracy of quantitative laser induced breakdown spectroscopy", SPECTROCHIM. ACTA PART B AT. SPECTROSC., vol. 70, 2012, pages 24 - 32, XP028490481, DOI: 10.1016/j.sab.2012.04.004
R. CARUANA: "Multitask Learning: A Knowledge-Based Source of Inductive Bias", PROCEEDINGS OF THE TENTH INTERNATIONAL CONFÉRENCE ON MACHINE LEARNING, 1993, pages 41 - 48
T. CHEN ET AL.: "Deep learning with laser-induced breakdown spectroscopy (LIBS) for the classification of rocks based on elemental imaging", APPL. GEOCHEM., vol. 136, 2022, pages 105135
T. CHENS. KORNBLITHM. NOROUZIG. HINTON: "A simple framework for contrastive learning of visual représentations", INTERNATIONAL CONFÉRENCE ON MACHINE LEARNING, 2020, pages 1597 - 1607
V. COSTA ET AL.: "Calibration Strategies Applied to Laser-Induced Breakdown Spectroscopy: A Critical Review of Advances and Challenges", J. BRAZ. CHEM. SOC., 2021
V. MOTTO-ROSS. MONCAYOF. TRICHARDF. PELASCINI: "Investigation of signal extraction in the frame of laser induced breakdown spectroscopy imaging", SPECTROCHIM. ACTA PART B AT. SPECTROSC., vol. 155, 2019, pages 127 - 133, XP055928675, DOI: 10.1016/j.sab.2019.04.004
ZAREEF MUHAMMAD ET AL: "An Overview on the Applications of Typical Non-linear Algorithms Coupled With NIR Spectroscopy in Food Analysis", FOOD ENGINEERING REVIEWS, SPRINGER, US, vol. 12, no. 2, 10 February 2020 (2020-02-10), pages 173 - 190, XP037113964, ISSN: 1866-7910, [retrieved on 20200210], DOI: 10.1007/S12393-020-09210-7 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117929356A (zh) * 2024-03-21 2024-04-26 沈阳尖科智能测控技术合伙企业(有限合伙) 一种基于高斯过程回归的libs定量分析方法

Also Published As

Publication number Publication date
FR3136856A1 (fr) 2023-12-22

Similar Documents

Publication Publication Date Title
CN109493287B (zh) 一种基于深度学习的定量光谱数据分析处理方法
Andersen et al. Variable selection in regression—a tutorial
US9310316B2 (en) Selecting parameters for defect detection methods
JP6091493B2 (ja) 試料に存在する成分を決定するための分光装置と分光法
JP6863625B2 (ja) スペクトルの高速分類を利用したリアルタイムスペクトル解析
FR2939924A1 (fr) Identification de defaillances dans un moteur d&#39;aeronef
WO2023247127A1 (fr) Methode de validation des predictions d&#39;un modele supervise d&#39;analyse quantitative multivariee de donnees spectrales
EP3846046A1 (fr) Procede et systeme de traitement de donnees pour la preparation d&#39;un jeu de donnees
EP1845479B1 (fr) L&#39;analyse comparative d&#39;un échantillon par rapport à une base de données
Hu et al. Uses of selection strategies in both spectral and sample spaces for classifying hard and soft blueberry using near infrared data
Tian et al. Detection of soluble solid content in apples based on hyperspectral technology combined with deep learning algorithm
EP1007962B1 (fr) Appareil et methode de classification utilisant une combinaison de methodes statistiques et de reseaux neuronaux
EP3846091A1 (fr) Procede et systeme de conception d&#39;un modele de prediction
Ambre et al. A Raman spectroscopy based chemometric approach to predict the derived cetane number of hydrocarbon jet fuels and their mixtures
Daniel et al. Feature discovery in NIR spectroscopy based Rocha pear classification
Wang et al. A multi-kernel channel attention combined with convolutional neural network to identify spectral information for tracing the origins of rice samples
EP3846047A1 (fr) Procédé et système d&#39;identification de variables pertinentes
EP3087444B1 (fr) Procédé d&#39;estimation quantitative du colmatage des plaques d&#39;un générateur de vapeur
Ge et al. Temperature interpretation method for temperature indicating paint based on spectrogram
WO2019211367A1 (fr) Procede de generation automatique de reseaux de neurones artificiels et procede d&#39;evaluation d&#39;un risque associe
FR2978577A1 (fr) Dispositif et procede de diagnostic d&#39;un processus industriel evolutif
FR3136855A1 (fr) Méthode de génération de données spectrales synthétiques
US12007324B2 (en) Systems and methods for pH sensing in fluids
Lu et al. Research on the chemical oxygen demand spectral inversion model in water based on IPLS-GAN-SVM hybrid algorithm
WO2020002573A1 (fr) Procede de modelisation pour le controle des resultats fournis par un reseau de neurones artificiels et autres procedes associes

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23730364

Country of ref document: EP

Kind code of ref document: A1