EP3206564A1 - Méthode d'analyse de l'activité cérébrale d'un sujet - Google Patents

Méthode d'analyse de l'activité cérébrale d'un sujet

Info

Publication number
EP3206564A1
EP3206564A1 EP15778693.0A EP15778693A EP3206564A1 EP 3206564 A1 EP3206564 A1 EP 3206564A1 EP 15778693 A EP15778693 A EP 15778693A EP 3206564 A1 EP3206564 A1 EP 3206564A1
Authority
EP
European Patent Office
Prior art keywords
data
stimulus
task
brain
functional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP15778693.0A
Other languages
German (de)
English (en)
Inventor
Denis Ducreux
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Assistance Publique Hopitaux de Paris APHP
Original Assignee
Assistance Publique Hopitaux de Paris APHP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Assistance Publique Hopitaux de Paris APHP filed Critical Assistance Publique Hopitaux de Paris APHP
Publication of EP3206564A1 publication Critical patent/EP3206564A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/164Lie detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • G06T2207/10092Diffusion tensor magnetic resonance imaging [DTI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the invention relates to analyzing the field of brain activity of subjects, and to the implementation of methods and methods for determining the activity thereof in response to stimuli or when performing tasks. specific.
  • neuroscience have made major advances in the analysis of cognitive processes, thanks on the one hand to the knowledge acquired in neuro-anatomy, but also thanks to advances in neuroinformatics (neural networks, artificial intelligence. ..) and neuroimaging (including advances in functional Magnetic Resonance Imaging).
  • Seghier et al. disclose a new method for analyzing the brain activity of a subject when performing a task or in response to a stimulus comprising the subject. analysis of gray matter data obtained by functional MRI.
  • US 2004/092809 discloses a computer-assisted method for diagnosing a condition of a subject in which this condition is associated with activation in one or more regions of interest, the method comprising:
  • having the subject perform a task or have a perception capable of selectively activating one or more regions of interest associated with the condition; measure the activity of the region or regions of interest only when the task is performed or the subject has perception;
  • the Applicant proposes to use the properties of the algebra of fuzzy logic to analyze such brain activities.
  • fuzzy logic makes it possible to measure similarities between a state and reference states.
  • such a comparison makes it possible to obtain only one or the other of the values of the pair ⁇ true, false ⁇ .
  • fuzzy logic there are degrees in the satisfaction of a condition, which are represented by percentages of similarities.
  • Fuzzy logic is thus used in many areas such as automation (ABS brakes, process control), robotics (pattern recognition), traffic management (red lights), air traffic control (traffic management).
  • automation ABS brakes, process control
  • robotics pattern recognition
  • traffic management red lights
  • air traffic control traffic management
  • the environment metaleorology, climatology, seismology, life cycle analysis
  • medicine diagnostic assistance
  • insurance risk selection and prevention
  • Fuzzy logic is used to compare complex elements with reference elements, and to determine percentages of similarity between the input element and the elements of the reference base, and to draw conclusions about the nature of the element. input.
  • Percentages can thus be calculated to determine the probability for the input element to actually represent the state E1 (these percentages depend in particular on the percentage of similarity with each of the reference elements representative of the state E1).
  • fuzzy logic algorithms for comparing complex input data with reference data, and for calculating similarities with reference events.
  • artificial intelligence algorithms based on fuzzy logic are used to detect plagiarisms, especially within universities.
  • the Applicant therefore proposes to use these fuzzy logic algorithms in the analysis of the cerebral activity of a subject, measured during the performance of a task or in response to a stimulus.
  • said stimulus is an absence of stimulus (resting state).
  • the invention relates to a method for analyzing the brain activity of a subject during the execution of a task or in response to a stimulus comprising the steps of
  • said comparison being performed by a Fuzzy Logic algorithm, said method for determining a degree of similarity of said normalized data (d2) with data present in the normalized database,
  • said method for determining the brain activity of said subject in performing said task or in response to said stimulus.
  • the technical effect obtained by the method thus described is the ability to analyze complex data and to be able to draw a conclusion on the similarity of these data with reference data.
  • This conclusion is drawn from the percentage of similarity between the data (d2) and the data present in the database and representative of a given task or stimulus, a percentage calculated by the Fuzzy Logic algorithm implemented in the process.
  • the similarity with the representative data of a given task or stimulus it may be concluded that the patient's activity is "normal" in the performance of this task or the response to this stimulus, or differences, who thus possibly reflect a psychiatric or neurological deficit. If the task or initial stimulus is not known, the percentage of similarity can be used to characterize this task.
  • the determination of brain activity should be understood as the determination of the activated areas in the brain when performing the task or the application of the stimulus, but can also incorporate the temporal variation of activity of the brain areas during performing the task or applying the stimulus. It is known that the activated zones that can be determined, when performing the task or the application of the stimulus, are areas of gray matter.
  • the database contains a number of data. Each piece of data (d3) present in the database is specific to a given task or stimulus. However, the database may contain multiple data (d3) for a given task or stimulus. This is even better because it will improve the accuracy of the input data analysis and the conclusion that can be drawn.
  • Said brain activity reflects the brain response of said subject to one or more external stimuli.
  • These include performing a comparative analysis of the idle state at rest in healthy subjects and in coma patients, subjecting the subjects to various stimuli (listening to music, feeling touched on various parts of the body). body, stimulation by speech ).
  • the reference data of the database are those obtained on healthy subjects, for the same stimuli.
  • said brain activity will reflect the response given by said subject to specific tasks related to psychiatric disorders (such as depression, schizophrenia, autism ).
  • Specific tasks may be tasks related to olfaction and / or memorization for depression, mental math tasks for autism, or mental imagery representations for schizophrenia.
  • the comparison is made with data obtained on healthy subjects performing the same tasks.
  • the percentage of similarity observed for a given task could make it possible to classify the depth of the disorders, and / or to give a prognosis of therapeutic efficacy during treatment with drugs (return to "normal" data).
  • said brain activity reflects the response given by the patient in a clinical and functional evaluation of a neurological deficit or disorder (such as stroke, tumor, multiple sclerosis). or any degenerative pathology, .
  • a neurological deficit or disorder such as stroke, tumor, multiple sclerosis. or any degenerative pathology, .
  • Tasks performed include tasks related to motor skills, language, or memory.
  • the percentage of similarity is calculated on the basis of comparison with data from healthy patients who performed the same tasks. It should provide a prognostic index of functional recovery in the short and in these patients, as well as a prognostic index of therapeutic efficacy.
  • the goal is to detect whether the subject is telling the truth or a lie by answering different questions.
  • the data is compared to the data generated by reference persons, who is known to have told the truth or lied by answering questions.
  • Brain activity is, indeed, different when a subject tells the truth or lies. The data studied will therefore be different depending on the veracity of the subject's answers.
  • the percentage of similarity with the data observed for people telling the truth or lying people will define a probability of lying or veracity for the subject studied, depending on the questions asked.
  • the measured brain activity reflects a qualitative reaction of subjects after application of stimuli.
  • This qualitative reaction can be understood as a reaction I like / do not like.
  • the baseline data with which the input data are compared are data obtained in subjects with positive or negative reactions when exposed to pleasant or unpleasant stimuli. Indeed, the brain activity is different in case of positive or negative sensation.
  • the implementation of this embodiment has applications in the field of neuromarketing, to better understand the reactions of subjects during the presentation of new products, or the evocation of product development. Resting state
  • the measured brain activity is that of the subject in the absence of explicit task requested from the patient, or application of external stimulus.
  • the data (d1) collected during the execution of the task or the application of the stimulus include data from MRI, PET Scanner, ultrasound, or electroencephalography (EEG), optical imaging.
  • the data (d1) therefore correspond to the signals collected during the execution of the task or the application of the stimulus.
  • This normalization is performed by methods known in the art to suppress inter-subject variability (including brain size).
  • the normalized data can then easily be compared with the reference data, which has also undergone the same normalization, by the fuzzy logic algorithms, to obtain the similarities between the standardized "test" data and the reference data.
  • the data (d1) are signals that represent activation levels of different areas of the brain during the acquisition time of these signals (particularly the time of completion of the task or application of the stimulus).
  • EEG electroencephalography
  • the data acquisition method (d1) is the MRI.
  • said data (d1) collected during the execution of the task or the application of the stimulus are data obtained by functional MRI and thus representing the activity of the gray substance during the performance of the task or the application of the stimulus.
  • Functional MRI (fMRI) activation is a routine technique for exploring brain function. The principle is based on the calculation, in real time, of the oxygen expenditure linked to the activity of the cerebral cortex, in response to the realization of a cognitive task (language, motor skills, tactile or visual stimulation, memory ... ) or a stimulus. It consists of recording minimal local hemodynamic variations (changes in blood flow properties) when these areas are stimulated.
  • said data (d1) further comprises MRI data for representing the white matter fibers of said subject's brain.
  • diffusion MRI which makes it possible to calculate in each point of the image the distribution of the diffusion directions of the water molecules. Since this diffusion is constrained by the surrounding tissues, this imaging modality makes it possible indirectly to obtain the position, the orientation and the anisotropy of the fibrous structures, in particular the bundles of white matter of the brain. This allows to see the water flowing along the fibers.
  • diffusion MRI is currently the only technique that allows non-invasive observation of non-invasive cerebral connectivity, the use of other techniques to achieve the same result, if developed in future, would be just as appropriate.
  • morphological data is also preferably acquired by MRI.
  • Morphological MRI a reference examination in neuroradiology, allows precise anatomical analysis in all three dimensions, including the placement of functional images.
  • any other method of morphological imaging can also be used in the context of the data acquisition process (d1). Those are imageries that take a picture of the body but without studying their functioning as functional imaging.
  • the signal in MRI is weak and must be accumulated by repeated stimulations. This is done during sequences defined by some parameters according to the disturbance chosen. The duration of a sequence is variable and currently lasts between 0.5 and 15 min.
  • Stimulations are usually repeated with a period of 1.5 s, that is, data is retrieved every 1, 5 s.
  • the brain When performing a given task, the brain will exhibit an activity, which is materialized by the sequential and / or concomitant activation of various gray matter areas.
  • the Applicant therefore proposes to also evaluate the white matter beams to determine if the zones detected as activated are linked to each other. Indeed, it can be considered that an independently activated zone (not linked to the other zones activated during the execution of the task) is in fact not related to said task.
  • an atlas of white matter fiber networks which can also be standardized on the same basis as the atlas of the NMI.
  • Such a standardized atlas based on data present in the IM or on the Talairach atlas is described by the Johns Hopkins Medical Institute's Laboratory of Brain Anatomical MRI. http://cmrm.medJhmi.edu/cmrm/atlas/human_data/file/AtlasExplan
  • the functional data activation of the gray matter zones
  • functional MRI consists of recording minimal local hemodynamic (variation in blood flow properties) variations when these areas are stimulated.
  • the localization of the activated brain zones is based on the BOLD effect (Blood Oxygen Level Dependent), related to the magnetization of hemoglobin contained in red blood cells.
  • the sequence of tasks and their repetition mode constitute the activation paradigm. It comprises at least one reference task, and another task whose only difference corresponds to the activity that one wishes to study.
  • Event Paradigm The activities or stimuli are unique or presented in short repetitions, with a sequence that can be pseudo-random (which avoids the phenomenon of anticipation), and with possible measurement of the performance of the response (delay and accuracy of the answer).
  • the local hemodynamic response is evaluated during the different activities.
  • the temporal response to each stimulus is recorded and averaged over several events.
  • resting state that is to say in the absence of stimulus or in the no task assigned to the subject.
  • regional interactions that occur when the subject does not perform an explicit task are evaluated.
  • the comparison of the data with the data contained in a database makes it possible to determine a posteriori the brain functions performed or implemented by the subject during the acquisition of the data.
  • Pretreatment images are smoothed to reduce noise and artifacts (motion, orientation, and spatial distortion) are corrected Standardization: it is necessary to compare different or different patient examinations at different times.
  • the images are recalibrated either between two examinations, or compared to a reference atlas (NIM, Talairach), to make them superimposable, in the same spatial reference.
  • NAM reference atlas
  • the data acquisition period (interval between two acquisition times) of MRI is generally of the order of 1, 5 s.
  • the brain responses are rather of the order of a hundred milliseconds.
  • the purpose of the MRI data processing method described below is the generation of standardized data (d2) that can be used in a brain activity analysis method described above.
  • This method also makes it possible to generate real maps of the brain activity during the execution of the task or the application of the stimulus, identifying not only the activated brain zones, but making it possible to determine the relations between them by visualization of the fibers. white matter connecting the different brain areas.
  • these cards will be called “GPS” maps, since they provide both the areas of functional activation of the brain, but also the “roads” (white substance bundles) connecting these zones.
  • the method is based on the following sequences:
  • interpolation of data between two acquisition times for example, changing from a range of 1.5s to ten 150ms intervals to better reflect physiological brain response times: the data is interpolated by applying the General Linear Model (or generalized linear model)
  • the task-related brain activity is indeed represented by a sequence of activations of brain areas connected to each other. Overlaying functional atlases and structural atlases and examining whether there are fibers linking the activated zones makes it possible to define whether these zones are linked and to deduce this sequence related to the task or the stimulus. On the other hand, if we do not identify a white substance beam connecting an activated zone and the other zones, we can suppose that this "orphan" zone is not involved in the task or the response to the stimulus. . This makes it possible to reduce false positives.
  • the next step is to assign, for each area of gray matter, a global correlation value with the paradigm.
  • Rohmer et al Detection of cerebral Activity by fMRI (EPI) using a Growth Algorithm of Regions, Seventeenth GRETSI Conference, Vannes, 13-17 September 1999
  • "as MRI scanners allow quickly acquire a set of images (a brain volume in less than 10 seconds)
  • the solution to this small signal variation is to increase the temporal resolution of the sequence.
  • Each voxel is then associated not only with two values characterizing the state of rest and the state of activation, but a temporal signal. It is thus a question of being able to characterize the temporal evolution of each voxel while the subject carries out a task following a precise paradigm.
  • the bulk of the work associated with fMRI then involves analyzing the temporal sequences associated with voxels to determine the state of activity of a region of the brain.
  • this step of calculating the average activity of a zone considered can be performed on all the gray matter areas mapped in the brain, but that it is favorable (especially for optimization issues). computation means) to perform this work only on the zones identified as having voxels activated in the previous step.
  • the reduction in the number of zones to be analyzed makes it possible to reduce the need for random access memory.
  • the initial data included the set of correlation factors of each voxel with the paradigm (ie of the order of 10 7 voxels after acquisition and normalization on the MNI atlas), while the data obtained after averaging represent the correlation factors of each pre-mapped activation area in the atlas with the paradigm (eg 1 16 areas only, depicted in Figure 1) -
  • the data processing is carried out as described above.
  • the data obtained makes it possible to manufacture maps by using graphic representation software of the market.
  • the resulting maps are four-dimensional maps (spatial and temporal) covering the activity blocks of the paradigm and allowing to see the activated brain circuits and the variations and sequences of activation during each block of activity of the paradigm.
  • the anatomical data allows you to see the shape of the brain and you can represent the various zones that activate over time during the execution of the task (with color codes to reflect the level of activity), as well as as the paths (white substance fibers) connecting these areas.
  • the invention thus relates to a method for generating standardized data that can be used for the implementation of a method for analyzing brain activity, as described above, in which said data (d1) to be standardized include, for example: each time block (t1) for acquiring said data (d1) during the execution of the task or application of the stimulus, the protocol for performing said task or for applying said stimulus representing a paradigm:
  • iv. Optionally increase the temporal resolution between each acquisition time block (t1), by dividing in equal parts (interpolated time blocks t2) the time between two acquisition time blocks (t1) and interpolating the statistically significant signal variations at the of each voxel acquired for functional data using the generalized linear model v.
  • search voxel by voxel, activated functional brain zones, and bundles of white substance fibers uniting each of these areas activated brain
  • Definition of the task performed or the stimulus applied Normalization of the anatomical data can be done by co-registration on the T1 atlas of the IMU, using the FLIRT software described above.
  • Functional data normalization can be performed based on a standardized functional atlas representing the cortical areas and basal ganglia of the brain, particularly the brain areas described in Figure 1.
  • There is a functional atlas in the IM which is in the same frame as the atlas T1.
  • Standardization of structural data for white matter fibers can be performed on the basis of any existing atlas, including the Johns Hopkins Medical Institute atlas described above.
  • these structural data can be normalized on the basis of a standardized atlas in the same frame as the atlas T1 of the IM, and presenting the 58 white-substance fibers described in Figure 2.
  • said functional brain zone zones studied in step vi are only the zones that were previously selected after voxel search by voxel has identified that they are activated.
  • This step vi is performed by geometric averaging of the values of the correlation coefficients of each of the voxels of the cerebral zone for each time block t1 or t2.
  • This step of averaging by activation zone thus has the technical effect of greatly reducing the size necessary to store the data.
  • the initial data included the set of correlation factors of each voxel with the paradigm, while the data obtained after averaging represent the correlation factors of each pre-mapped activation zone in the atlas with the paradigm (for example, only 16 areas, as depicted in Figure 1
  • a time-dimension reduction step of said card is further carried out by averaging the results for each of the blocks of the paradigm (activation values of each of the activated zones) corresponding to the steps of action or stimulus within the paradigm.
  • This temporal reduction step thus uses the fact that, in a block paradigm, the same task is repeated several times or the same stimulus is applied several times.
  • the realization of this step makes it possible to obtain a unique map of the cerebral activity of the patient considered during the execution of the task or in response to the stimulus.
  • the non-implementation of this step allows to keep a number of cards equal to the number of blocks of the paradigm.
  • the technical effect of this step is to decrease the memory needed to store and analyze the data.
  • Another step of time reduction can also be achieved by reducing the temporal resolution within the card. It is recalled that the temporal resolution has generally been increased due to the low temporal resolution during the acquisition of the primary brain data (passage of a resolution of 1, 5 s
  • This other time reduction step corresponds in fact to the inverse operation, that is to say to average a predetermined number of time blocks t1 or t2, in order to reduce the number thereof.
  • the goal is always to reduce the computational power and memory required for storage and manipulation and analysis of data.
  • Standardized data representing the white matter fibers of the subject's brain eg 58 white substance bundles using the data in Figure 2).
  • Standardized data representing the brain activity (correlation coefficient) of each functional area (gray matter) when performing the task or application of the stimulus (for example on the 1 16 gray matter areas of Figure 1).
  • This database will preferably be constructed so that it will present three entries:
  • weighting coefficient An entry corresponding to a weighting coefficient.
  • the principle of the weighting coefficient is as follows: the "GPS" maps generated above are representations of the brain activity of a subject during the performance of a task or the reception of a stimulus.
  • each of the cards present in the base will be weighted by a weighting coefficient, calculated by comparing the set of data of each card with each other, and by determining their similarity threshold, in particular by an algorithm based on fuzzy logic.
  • the database is an interactive database, which evolves each time a new card is recorded there.
  • the database becomes more and more relevant as new entries are added.
  • the new card is compared to all the cards that are already present in the database by the method described above. We can then calculate a weighting coefficient for this new map, and recalculate the weighting coefficients of the other maps.
  • the new card is compared to all the cards present in the card. base, where to one or more subsets of said base (in particular, when one looks for whether a person is telling the truth or lies, one compares to cards associated with "truth” / "lie” tasks).
  • This reference map is notably created by averaging the different maps, weighted by the weighting coefficients.
  • the two inputs are compared (gray and white substance) by fuzzy logic software. We can deduce a percentage of overall similarity.
  • Each entry 1 and 2 will have the same weighting coefficient (we can not define which is the most "fair”) in the single entry (reference card).
  • the reference card is then recalculated, in which the weights of the cards 2 and 3 will be greater than the weight of the card 1.
  • this reference card finds a certain utility when one is in possession of a card, without knowing the task or the associated stimulus.
  • the database contains the "GPS" maps obtained from cerebral functional data of the gray matter, obtained by functional activation MRI, structural data of white matter fibers. , obtained by Diffusion Tensor MRI, normalized on the basis of anatomical data obtained in T1-weighted morphological MRI.
  • the principle of construction of the database in which weighting coefficients are given to the various data integrated in the database, calculated by comparing the set of data with each other (for the same task), and in determining their similarity threshold, in particular by an algorithm based on fuzzy logic, is applicable for any type of data such as generated by any other type of measurement (in particular PET scanner, ultrasound, electroencephalography (EEG), or optical imaging), after standardization.
  • any other type of measurement in particular PET scanner, ultrasound, electroencephalography (EEG), or optical imaging
  • the database will preferably be constructed so that it will present three entries:
  • This database is used for comparison on the basis of the fuzzy logic algorithm as described above.
  • Figure 1 List of 1 16 gray elements used in a standardized atlas
  • Figure 2 List of 58 white substance bundles for use in a standardized atlas
  • Figure 3 algorithm for obtaining standardized data and comparison with a database.
  • FL Fuzzy Logic (fuzzy logic); SB: white matter: SG: gray matter; Fx: Beams; Fa: fraction of anisotropy; Nb: number; Lg: Length; diff stat sign: significant statistical difference
  • the atlas initiates the extraction algorithm by providing the starting zones of the extraction (seeds) for each of the 58 beams considered, and comparing iteratively the results of the extraction obtained (parameters analyzed: Fraction of Anisotropy, beam length, number of fibers) with the known values of the initial beam in the atlas. Iterations stop when the statistical differences between these values are no longer significant, and / or when there is an overlap of beams.
  • Example 3 Analysis of Structural and Functional Connections: Establishment of "GPS Maps" for the studied brain spot A first analysis is performed by time block of 150 ms on all the blocks of the paradigm of functional acquisition.
  • the algorithm searches voxel by voxel for activated functional brain areas, and searches for the bundles of fibers uniting each of these activated brain areas.
  • the cartography is established according to a Boolean model (activated, not activated) by cortical region, by beam of white substance, and by temporal block.
  • a statistical ranking with weighted geometric averaging of the results obtained within each time block is then performed by comparing the results obtained in each block of the paradigm with those of the other blocks of the paradigm so as to normalize the "GPS" cartography thus created.
  • a temporal dimension reduction of this map is performed by averaging the results of the time blocks by a factor of 9.
  • Each map established for a specific task is inserted into an entry in the database, with an initial weighting factor set to 1.
  • the database has 3 entries with different dimensions:
  • the weighting coefficient of the newly inserted card is recalculated using a fuzzy logic algorithm to calculate the percentage of similarity. between the new task to be inserted into the database and the data already present.
  • the analysis of the weighting coefficient is performed by comparing the X [1 16] xY [58] xZ [40] values of each card with each other and determining their similarity threshold.
  • This database becomes more and more relevant as it is enriched with new entries.
  • the generated map is compared to the entries in the database using the same Fuzzy Logic algorithm that was used to calculate the weighting coefficients when creating and enriching the database. the database.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Neurology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Neurosurgery (AREA)
  • Psychology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Child & Adolescent Psychology (AREA)
  • Optics & Photonics (AREA)
  • Social Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

L'invention se rapporte à une méthode d'analyse de l'activité cérébrale d'un patient réalisant une tâche donnée ou en réponse à un stimulus externe, par comparaison de données normalisées avec des données présentes dans une base de données, par des algorithmes de logique floue.

Description

MÉTHODE D'ANALYSE DE L'ACTIVITÉ CÉRÉBRALE D'UN SUJET
L'invention se rapporte à l'analyse du champ d'activité cérébrale de sujets, et à la mise en œuvre de méthodes et procédés permettant de déterminer l'activité de ceux-ci en réponse à des stimuli ou lors de la réalisation de tâches spécifiques.
L'analyse du fonctionnement cérébral est un des grands enjeux du 21 eme siècle. En comprenant comment fonctionne le cerveau « sain », on peut envisager de développer de nouvelles thérapies permettant d'améliorer les capacités fonctionnelles de patients présentant des déficits neurologiques ou des désordres psychiatriques et/ou de déterminer l'efficacité de traitements pour ces patients. Par ailleurs, de telles techniques pourraient permettre de détecter une activité cérébrale chez des patients incapables d'interagir avec l'environnement (comme des patients en coma) et de prédire d'éventuelles séquelles ou une capacité d'évolution.
Ainsi, depuis 30 ans les neurosciences ont fait des avancées majeures dans l'analyse des processus cognitifs, grâce d'une part aux connaissances acquises en neuro-anatomie, mais également grâce aux progrès effectués en neuro-informatique (réseaux neuronaux, intelligence artificielle...) et en neuro- imagerie (notamment les progrès en Imagerie par Résonnance Magnétique fonctionnelle).
Néanmoins, même si l'on peut désormais étudier les différences de zones cérébrales fonctionnelles lors de tâches effectuées, par exemple, entre des sujets sains et des patients atteints de pathologies neurologiques ou psychiatriques, il est difficile de pouvoir catégoriser avec précision les réseaux neuronaux activés lors de différentes taches tant ces réseaux peuvent être variables d'un sujet à l'autre.
Les études réalisées actuellement sont validées à l'échelle de groupes de sujets, et ne tiennent pas compte des différences individuelles pourtant caractérisant l'unicité de l'individu, et ne prennent pas non plus en compte la variabilité temporelle des zones cérébrales activées.
Seghier et al (Neuroimage, 2007, 36, 3, pp 594-605) divulguent un nouveau procédé d'analyse de l'activité cérébrale d'un sujet lors de la réalisation d'une tâche ou en réponse à un stimulus comprenant l'analyse de données de matière grise obtenues par IRM fonctionnelle. US 2004/092809 décrit un procédé assisté par ordinateur pour le diagnostic d'une condition d'un sujet dans laquelle cette condition est associée avec une activation dans une ou plusieurs régions d'intérêt, le procédé comprenant:
avoir le sujet réaliser une tâche ou avoir une perception, apte à activer sélectivement une ou plusieurs régions d'intérêt associée à la condition; mesurer l'activité de la ou des régions d'intérêt que lorsque la tâche est effectuée ou que le sujet a la perception;
diagnostiquer la condition associée à une ou plusieurs régions d'intérêt sur la base de l'activité en réponse au comportement ou de la perception;
exécuter une intervention (appliquer un agent pharmacologique ou effectuer une méthode thérapeutique);
répéter ce processus une ou plusieurs fois, y compris la répétition du comportement, la mesure de l'activité et le diagnostic à un moment ultérieur;
observer les changements entre les mesures, associés à l'intervention.
Il est donc nécessaire de bénéficier d'un procédé qui puisse fournir une bonne analyse de l'activité cérébrale d'un sujet en réponse à un stimulus, ou lors de la réalisation d'une tâche donnée, et qui tienne compte de la variabilité qui existe entre les différentes personnes.
La Déposante propose d'utiliser les propriétés de l'algèbre de la logique floue pour analyser de telles activités cérébrales.
À l'inverse de l'algèbre booléen, la logique floue permet de mesurer des similitudes entre un état et des états de référence. Dans l'algèbre booléen classique, une telle comparaison ne permet d'obtenir que l'une ou l'autre des valeurs de la paire {vrai,faux}. En logique floue, il existe des degrés dans la satisfaction d'une condition, qui se représentent par des pourcentages de similitudes.
La logique floue est ainsi utilisée dans de nombreux domaines tels que l'automatisme (freins ABS, conduite de processus), la robotique (reconnaissance de formes), la gestion de la circulation routière (feux rouges), le contrôle aérien (gestion du trafic aérien), l'environnement (météorologie, climatologie, sismologie, analyse du cycle de vie), la médecine (aide au diagnostic), l'assurance (sélection et prévention des risques).
La logique floue permet de comparer des éléments complexes à des éléments de référence, et de déterminer des pourcentages de similitude entre l'élément d'entrée et les éléments de la base de référence, et de tirer des conclusions sur la nature de l'élément d'entrée.
Par exemple, si l'élément d'entrée présente
80 % de similitude avec l'élément de référence X1 correspondant à l'état E1 ,
- 75% de similitude avec l'élément de référence X1 correspondant à l'état
E1 et
50 % de similitude avec l'élément de référence X3 correspondant à l'état E2,
on pourra alors en conclure que l'élément d'entrée correspond très probablement à une représentation de l'état E1. Des pourcentages peuvent ainsi être calculés pour déterminer la probabilité pour l'élément d'entrée de représenter effectivement l'état E1 (ces pourcentages dépendent notamment du pourcentage de similitude avec chacun des éléments de référence représentatifs de l'état E1 ).
Ainsi que vu plus haut, il existe un grand nombre d'algorithmes de logique floue permettant de comparer des données d'entrée complexes avec des données de référence, et de calculer des similitudes avec des événements de référence. En particulier, on utilise de tels algorithmes d'intelligence artificielle basés sur la logique floue pour détecter des plagiats, notamment au sein des universités.
De nouveaux algorithmes peuvent aussi être aisément développés pour répondre à des problématiques particulières, les règles sous-tendant la logique floue ayant été formalisées par Lotfi Zadeh dès 1965.
La Demanderesse propose donc d'utiliser ces algorithmes de logique floue dans l'analyse de l'activité cérébrale d'un sujet, mesurée lors de la réalisation d'une tâche ou en réponse à un stimulus. Dans un mode de réalisation particulier, ledit stimulus est une absence de stimulus (resting state).
Le principe du procédé objet de la présente demande est de :
Normaliser les données acquises lors de la réalisation de la tâche ou en réponse au stimulus Comparer ces données normalisées avec des données présentes dans une base de données, en utilisant le principe de la logique floue (détermination de similitudes entre les données d'entrée et les données de la base)
- En fonction de ces similitudes, déterminer automatiquement les variations individuelles, et identifier, chez le sujet, la discordance ou la concordance entre l'activation cérébrale pour une tâche effectuée par le sujet et l'activation cérébrale telle que mesurée chez d'autres sujets et représentée par les données présentes dans la base.
Ainsi, l'invention se rapporte à un procédé d'analyse de l'activité cérébrale d'un sujet lors de la réalisation d'une tâche ou en réponse à un stimulus comprenant les étapes de
a. Normalisation de données (d1 ) recueillies lors de l'établissement de ladite tâche ou application dudit stimulus afin d'obtenir des données normalisées (d2)
b. Comparaison desdites données normalisées (d2) avec des données (d3) présentes dans une base de données normalisées lesdites données (d3) de ladite base de données étant chacune spécifiques d'une tâche d'un stimulus donné,
ladite comparaison étant effectuée par un algorithme de Logique Floue, ledit procédé permettant de déterminer un degré de similitude desdites données normalisées (d2) avec des données présentes dans la base de données normalisées,
ledit procédé permettant de déterminer l'activité cérébrale dudit sujet lors de la réalisation de ladite tâche ou en réponse audit stimulus.
L'effet technique obtenu par le procédé ainsi décrit est la capacité de pouvoir analyser des données complexes et de pouvoir tirer une conclusion sur la similarité de ces données avec des données de référence. Cette conclusion est tirée à partir du pourcentage de similitude entre les données (d2) et les données présentes dans la bases et représentatives d'une tâche ou d'un stimulus donné, pourcentage calculé par l'algorithme de Logique Floue mis en œuvre dans le procédé. Selon la similarité avec les données représentatives d'une tâche ou d'un stimulus donnés, on pourra conclure à la « normalité » de l'activité du patient dans la réalisation de cette tâche ou la réponse à ce stimulus, ou à des différences, qui reflètent donc éventuellement un déficit psychiatrique ou neurologique. Si l'on ne connaît pas la tâche ou le stimulus initial, le pourcentage de similitude pourra permettre de caractériser cette tâche.
La détermination de l'activité cérébrale doit être entendue comme étant la détermination des zones activées dans le cerveau lors de la réalisation de la tâche ou l'application du stimulus, mais peut également intégrer la variation temporelle d'activité des zones du cerveau au cours de la réalisation de la tâche ou l'application du stimulus. Il est connu que les zones activées qui peuvent être déterminées, lors de la réalisation de la tâche ou l'application du stimulus, sont des zones de substance grise.
La base de données contient un certain nombre de données. Chaque donnée (d3) présente dans la base de données est spécifique d'une tâche ou d'un stimulus donné. Toutefois, la base de données peut contenir plusieurs données (d3) pour une tâche ou un stimulus donné. Ceci est même préférable, car cela permettra d'améliorer la précision de l'analyse des données d'entrée et la conclusion qui pourra être tirée.
Le procédé est utilisable dans de nombreux domaines d'application :
Analyse comparative de l'état de veille au repos chez des sujets sains et chez des patients qui ne peuvent communiquer avec l'environnement (comme des patients en coma)
Ladite l'activité cérébrale reflète la réponse cérébrale dudit sujet à un ou plusieurs stimuli externes. Il s'agit notamment d'effectuer une analyse comparative de l'état de veille au repos chez des sujets sains et chez des patients en coma, en soumettant lesdits sujets à des stimuli variés (écoute de musique, sensation de touché sur diverses parties du corps, stimulation par la parole...).
Les données de référence de la base de données sont celles obtenues sur des sujets sains, pour les mêmes stimuli.
En fonction de la réponse du patient aux stimuli et de la comparaison avec les données obtenues pour les patients seins, il peut être possible de déterminer la capacité du patient à répondre à certains stimuli, ce qui peut permettre de caractériser la profondeur du coma (profond, vigile, modéré), ou pourrait servir à établir un indice pronostic de récupération. Ainsi, dans ce cas, si l'on observe une activité cérébrale dudit sujet similaire aux activités cérébrales observées pour des sujets sains, ceci sera plutôt un marqueur favorable d'évolution ou permettra de déterminer un certain état de conscience chez le sujet étudié.
Analyse comparative des troubles psychiatriques
Dans ce mode d'application, ladite activité cérébrale reflétera la réponse donnée par ledit sujet à des tâches spécifiques liées à des troubles psychiatriques (tels que dépression, schizophrénie, autisme...).
Les tâches spécifiques peuvent être des tâches liées à l'olfaction et/ou la mémorisation pour la dépression, des tâches liées au calcul mental pour l'autisme, ou des demandes de représentation d'imagerie mentale pour la schizophrénie.
La comparaison est effectuée avec des données obtenues sur des sujets sains réalisant les mêmes tâches.
Le pourcentage de similarité observé pour une tâche donnée pourrait permettre de classifier la profondeur des troubles, et/ou de donner un pronostic d'efficacité thérapeutique lors de traitement avec des médicaments (retour vers des données « normales »).
Il convient de noter que, dans ce cas, on s'attend à ce que l'activité cérébrale dudit sujet présente des variations importantes avec les activités cérébrales observées pour des sujets sains, et que le procédé permet donc de d'identifier des variations caractéristiques du trouble psychiatrique considéré. Ceci permet alors de poser des diagnostics ou de vérifier l'efficacité de traitements. Analyse comparative des troubles neurologiques
Dans ce mode de réalisation, ladite activité cérébrale reflète la réponse donnée par le patient lors d'une évaluation clinique et fonctionnelle d'un déficit ou d'un trouble neurologique (tel qu'un accident vasculaire cérébral, une tumeur, une sclérose en plaque ou toute pathologie dégénérative,...).
Les tâches effectuées sont notamment des tâches relatives à la motricité, au langage, ou à la mémoire.
Le pourcentage de similarité est calculé sur la base de la comparaison avec des données de patients sains, ayant effectués les mêmes tâches. Il devrait permettre de donner un indice pronostic de récupération fonctionnelle à court et à moyen terme chez ces patients, ainsi qu'un indice pronostic d'efficacité thérapeutique.
Il convient de noter que, dans ce cas, on s'attend à ce que l'activité cérébrale dudit sujet présente des variations importantes avec les activités cérébrales observées pour des sujets sains, et que le procédé permet donc de d'identifier des variations caractéristiques du trouble psychiatrique considéré. Ceci permet alors de poser des diagnostics ou de vérifier l'efficacité de traitements.
Détection de mensonge
Dans ce mode de réalisation, l'objectif est de détecter si le sujet dit la vérité ou un mensonge en répondant à différentes questions.
Dans ce cas, les données sont comparées aux données générées par des personnes de référence, dont on sait s'ils ont dit la vérité ou mentit en répondant à des questions.
L'activité cérébrale est, en effet, différente lorsqu'un sujet dit la vérité ou ment. Les données étudiées seront donc différentes selon la véracité des réponses du sujet.
Le pourcentage de similarité avec les données observées pour les personnes disant la vérité ou les personnes mentant permettra de définir une probabilité que de mensonge ou de véracité pour le sujet étudié, selon les questions posées.
Neuromarketing
Dans ce mode de réalisation, l'activité cérébrale mesurée reflète une réaction qualitative de sujets après application de stimuli. Cette réaction qualitative peut notamment s'entendre comme une réaction j'aime / je n'aime pas.
Les données de la base, avec lesquelles sont comparées les données d'entrée sont des données obtenues chez des sujets présentant des réactions positives ou négatives lors de l'exposition à des stimuli agréables ou désagréables. En effet, l'activité cérébrale est différente en cas de sensation positive ou négative.
La mise en œuvre de ce mode de réalisation présente des applications dans le domaine du neuromarketing, pour mieux comprendre les réactions de sujets lors de la présentation de nouveaux produits, ou l'évocation de développement de produits. Resting state
Dans ce mode de réalisation, l'activité cérébrale mesurée est celle du sujet en l'absence de tâche explicite demandée au patient, ou d'application de stimulus externe.
Il existe donc un grand nombre d'application du procédé décrit ci-dessus.
Les données (d1 ) recueillies lors de la réalisation de la tâche ou de l'application du stimulus sont notamment des données d'IRM, de PET Scanner, d'échographie, ou d'électroencéphalographie (EEG), imagerie optique.
Les données (d1 ) correspondent donc aux signaux recueillis lors de la réalisation de la tâche ou l'application du stimulus. Toutefois, il n'est a priori pas possible d'utiliser ces données brutes, qui sont très dépendantes du sujet étudié. Il est donc nécessaire de normaliser ces données. Cette normalisation est effectuée par des méthodes connues dans l'art afin de supprimer la variabilité inter-sujet (notamment la taille du cerveau). Les données normalisées peuvent alors être aisément comparées aux données de référence, elles aussi ayant subi la même normalisation, par les algorithmes de logique floue, pour obtenir les similitudes entre les données normalisées « test » et les données de référence.
Il convient de bien comprendre que les données (d1 ) sont des signaux qui représentent des niveaux d'activation de différentes zones du cerveau pendant le temps d'acquisition de ces signaux (en particulier le temps de réalisation de la tâche ou d'application du stimulus).
Ainsi, l'électro-encéphalographie (EEG) mesure l'activité électrique du cerveau par des électrodes placées sur le cuir chevelu.
Toutefois, il est préféré lorsque la méthode d'acquisition des données (d1 ) est l'IRM.
En particulier, lesdites données (d1 ) recueillies lors de la réalisation de la tâche ou de l'application du stimulus sont des données obtenues par IRM fonctionnelle et représentant donc l'activité de la substance grise lors de la réalisation de la tâche ou l'application du stimulus. L'IRM fonctionnelle (IRMf) d'activation est une technique routinière d'exploration des fonctions cérébrales. Le principe repose sur le calcul, en temps réel, de la dépense d'oxygène liée à l'activité du cortex cérébral, en réponse à la réalisation d'une tâche cognitive (langage, motricité, stimulation tactile ou visuelle, mémoire...) ou d'un stimulus. Elle consiste à enregistrer des variations hémodynamiques (variation des propriétés du flux sanguin) cérébrales locales minimes, lorsque ces zones sont stimulées.
Dans ce mode de réalisation, il est également préféré que lesdites données (d1 ) comprennent en outre des données d'IRM permettant de représentant les fibres de substance blanche du cerveau dudit sujet.
Ces données sont obtenues par IRM de diffusion, qui permet de calculer en chaque point de l'image la distribution des directions de diffusion des molécules d'eau. Cette diffusion étant contrainte par les tissus environnants, cette modalité d'imagerie permet d'obtenir indirectement la position, l'orientation et l'anisotropie des structures fibreuses, notamment les faisceaux de matière blanche du cerveau. Cela permet de voir l'eau qui s'écoule le long des fibres. Même si l'IRM de diffusion est à ce jour la seule technique qui permet d'observer la connectivité cérébrale in vivo de manière non invasive, l'utilisation d'autres techniques permettant d'obtenir le même résultat, si elles sont développées dans le futur, serait tout aussi appropriée.
Dans ce mode de réalisation, on acquiert également, de façon préférée, des données morphologiques par IRM.
L'IRM morphologique, examen de référence en neuroradiologie, permet une analyse anatomique précise dans les trois dimensions, et notamment de placer des images fonctionnelles.
Toutefois, toute autre méthode d'imagerie morphologique (notamment radiographie, scanner, échographie) est également utilisable dans le cadre du procédé d'acquisition des données (d1 ). Ceux sont des imageries qui prennent une photo de l'organisme mais sans étudier leur fonctionnement comme l'imagerie fonctionnelle.
Il est rappelé que le signal en IRM est faible et doit être accumulé par des stimulations répétées. Ceci se fait au cours de séquences définies par certains paramètres en fonction de la perturbation choisie. La durée d'une séquence est variable et dure actuellement entre 0,5 et 15 min.
Les stimulations sont généralement répétées avec une période de 1 ,5 s, c'est-à-dire que l'on récupère des données toutes les 1 ,5 s.
On décrit ci-dessous un procédé permettant de normaliser des données d'IRM obtenues pour la mise en œuvre du procédé d'analyse de l'activité cérébrale décrit ci-dessus. Toutefois, il est important de rappeler certaines règles et définitions qui permettront de mieux comprendre le procédé décrit ci-dessous.
Lors de la réalisation d'une tâche donnée, le cerveau va présenter une activité, qui se matérialise par l'activation séquentielle et/ou concomitante de diverses zones de substance grise.
Toutefois, il est possible que certaines autres zones non impliquées dans la réalisation de la tâche soient également repérées (par IRM fonctionnelle) comme étant activées lors de la réalisation de cette tâche.
La Demanderesse propose donc d'évaluer également les faisceaux de matière blanche pour déterminer si les zones détectées comme activées sont liées les unes aux autres. En effet, on peut considérer qu'une zone activée de façon indépendante (non liée aux autres zones activées lors de la réalisation de la tâche) n'est en fait pas liée à ladite tâche.
Il existe déjà des atlas cérébraux de référence, disponibles notamment au Montréal Neurological Institute (MNI) qui permettent, par co-registration, de normaliser des données d'IRM anatomique et d'IRM fonctionnelle, et de superposer les deux images normalisées ainsi obtenues. On peut ainsi utiliser des logiciels disponibles dans l'art, comme le logiciel FLIRT (FMRIB's Linear Image Registration Tool - linear inter- and intra-modal registration) développé par les membres du groupe d'analyse FMRIB (Functional Magnetic Résonance Imaging of the Brain), Oxford University, Grande-Bretagne.
Par ailleurs, on peut également construire un atlas des réseaux de fibres de substance blanche, que l'on peut normaliser également sur la même base que l'atlas du MNI. Un tel atlas normalisé sur la base de données présentes au MNI ou sur l'atlas de Talairach est décrit par le « Laboratory of brain anatomical MRI » du Johns Hopkins Médical Institute. http://cmrm.medJhmi.edu/cmrm/atlas/human_data/file/AtlasExplan
Ainsi, l'utilisation de techniques connues permettra de superposer, de façon normalisée, les données anatomiques, fonctionnelles (substance grise) et structurelles (substance blanche).
Il existe deux manières de conduire une acquisition de données par IRM (ou toute autre méthode) à partir d'un sujet réalisant une tâche ou soumis à un stimulus.
Ainsi que vu plus haut, les données fonctionnelles (activation des zones de substance grise) sont générées par IRM fonctionnelle. Il est rappelé que l'IRM fonctionnelle consiste à enregistrer des variations hémodynamiques (variation des propriétés du flux sanguin) cérébrales locales minimes, lorsque ces zones sont stimulées. La localisation des zones cérébrales activées est basée sur l'effet BOLD (Blood Oxygen Level Dépendant), lié à l'aimantation de l'hémoglobine contenue dans les globules rouges du sang.
Afin de répondre aux contraintes de résolution temporelle et de sensibilité T2* (temps de relaxation T2* des noyaux d'hydrogène de l'eau), les séquences d'IRM fonctionnelle sont en général de type écho planar ultra-rapide (EG-EPI), avec des matrices de petite taille (et donc une résolution spatiale faible). Le contraste BOLD obtenu est très faible (variation du signal de quelques pourcents seulement), il est donc nécessaire de répéter les acquisitions dans le temps, lors de tâches d'activation différentes, pour réaliser une étude comparative statistique de corrélation entre variations du signal mesuré dans chaque voxel et variations des tâches. Les différences d'activation seront ainsi en rapport avec la différence entre les deux tâches.
La séquence des tâches et leur mode de répétition constituent le paradigme d'activation. Il comporte au moins une tâche de référence, et une autre tâche dont la seule différence correspond à l'activité que l'on désire étudier.
Le terme de paradigme est employé pour exprimer la façon dont le protocole expérimental a été conçu et pensé dans ses grandes lignes.
On définit ainsi deux types de paradigmes, qui seront choisis, en fonction du stimulus ou de la tâche.
Paradigme en bloc : les activités sont organisées en bloc de quelques dizaines de secondes qui alternent à intervalles réguliers. Au sein d'un même bloc, les réponses hémodynamiques vont se chevaucher et s'accumuler avant de former un plateau.
Paradigme événementiel : les activités ou stimuli sont uniques ou présentés en courtes répétitions, avec un enchaînement qui peut être pseudo- aléatoire (ce qui évite le phénomène d'anticipation), et avec mesure possible de la performance de la réponse (délai et exactitude de la réponse...). On évalue ainsi la réponse hémodynamique locale lors des différentes activités. La réponse temporelle à chaque stimulus est enregistrée et moyennée sur plusieurs événements.
On peut aussi également travailler (mettre en œuvre les procédés décrits dans la demande) en utilisant des données acquises lorsque le sujet est « au repos » (resting state), c'est-à-dire en l'absence de stimulus ou en l'absence de tâche assignée au sujet. Dans ce mode de réalisation, on évalue les interactions régionales qui se produisent quand le sujet n'effectue pas de tâche explicite. Dans ce mode de réalisation, la comparaison des données avec les données contenues dans une base de données (voir plus loin) permet de déterminer a posteriori les fonctions cérébrales réalisées ou mises en œuvre par le sujet pendant l'acquisition des données. Une telle approche a notamment été décrite par Shimony et al (Acad Radiol. 2009 May;16(5):578-83).
Pour les activités motrices, on peut prendre comme activité de référence le repos, et comme activité un mouvement répété des doigts. Pour les activités cognitives (langage, interprétation, mémoire...), les protocoles sont plus complexes et la conception de tâches pertinentes peut s'avérer plus délicate, bien que ces protocoles soient maintenant utilisés en routine dans l'art.
On peut également enregistrer simultanément au cours de l'examen des informations sur les réponses du patient (fréquence des mouvements, délai de réponse à un stimulus, réponse correcte ou erronée...) qui seront intégrées au modèle d'analyse statistique.
La technique d'analyse des données d'IRM fonctionnelle est connue. Elle est notamment décrite par Hoa (http://www.imaios.com/fr/e-Cours/e-MRI/irm- fonctionnelle-cerebrale, reprenant L'Irm Pas Pas (Edition Noir & Blanc)).
Prétraitement : les images sont lissées pour diminuer le bruit et les artéfacts (mouvements, orientation et distorsion spatiale) sont corrigés Normalisation : elle est nécessaire pour comparer des examens de patients différents ou réalisés à différents moments. Les images sont recalées soit entre deux examens, soit par rapport à un atlas de référence (NIM, Talairach), pour les rendre superposables, dans un même repère spatial.
Analyse statistique : elle est fondée sur une modélisation mathématique de la réponse hémodynamique attendue, qui dépend du paradigme employé. Le type de modèle le plus couramment utilisé est le modèle linéaire généralisé (GLM). Ce modèle va servir à détecter voxel par voxel ceux dont la variation de signal dans le temps est liée à la séquence des différentes tâches d'activation. Les pixels considérés comme statistiquement significatifs peuvent ensuite être représentés en superposition sur une imagerie morphologique haute résolution afin d'être mieux localisés.
Enfin, il convient de rappeler que la période d'acquisition de données (intervalle entre deux moments d'acquisition) d'IRM est généralement de l'ordre de 1 ,5 s. Or, les réponses cérébrales sont plutôt de l'ordre de la centaine de milliseconde.
L'objectif de la méthode de traitement des données d'IRM décrite ci- dessous est la génération de données normalisées (d2) qui puissent être utilisées dans une méthode d'analyse de l'activité cérébrale décrite ci-dessus.
Cette méthode permet également de générer de véritables cartes de l'activité cérébrale lors de la réalisation de la tâche ou l'application du stimulus, identifiant non seulement les zones cérébrales activées, mais permettant de déterminer les relations entre celles-ci par visualisation des fibres de substance blanche reliant les différentes zones cérébrales. Par extension, on qualifiera ces cartes de cartes « GPS », car fournissant à la fois les zones d'activation fonctionnelle du cerveau, mais également les « routes » (faisceaux de substance blanche) reliant ces zones.
La méthode est basée sur les séquences suivantes :
Normalisation des données d'IRM (anatomique, fonctionnelle et structurelle) pour que ces données soient toutes dans le même repère normalisé
Traitement des données d'IRM fonctionnelles normalisées Interpolation des données pour améliorer la résolution temporelle
De façon optionnelle mais préférée, interpolation des données entre deux temps d'acquisition (par exemple, passage d'un intervalle de 1 ,5s à dix intervalles de 150ms pour mieux refléter les temps physiologiques de réponse cérébrale) : les données sont interpolées en appliquant le Modèle Linéaire Général (ou modèle linéaire généralisé)
Identification des zones cérébrales de substance grise activés et construction d'une cartographie utilisant la connectivité des faisceaux de substance blanche Pour chaque bloc temporel (chaque bloc temporel d'acquisition, ou chaque bloc temporel généré lors de l'amplification de l'étape optionnelle précisée ci- dessus si elle est mise en œuvre), on analyse voxel par voxel, pour identifier les zones cérébrales fonctionnelles activées, puis on regarde s'il existe des faisceaux de fibres de substance blanche qui relient ces aires cérébrales activées. La carte des faisceaux de fibre de substance blanche a été réalisée avant ou après la réalisation de ladite tache cognitive ou l'application du stimulus, puisque l'analyse durant l'application du stimulus permet généralement de ne détecter que les zones de substance grise activées.
L'activité cérébrale liée à une tâche est en effet représenté par une séquence d'activations de zones cérébrales connectées entre elles. Le fait de superposer les atlas fonctionnels et les atlas structurels et de regarder s'il existe des fibres liant les zones activées permet de définir si ces zones sont liées et d'en déduire cette séquence liée à la tâche ou au stimulus. Par ailleurs, si l'on n'identifie pas de faisceau de substance blanche reliant une zone activée et les autres zones, on peut supposer que cette zone « orpheline » n'est pas impliquée dans la réalisation de la tâche ou la réponse au stimulus. Ceci permet donc de diminuer les faux positifs.
Calcul d'une valeur globale de corrélation avec le paradigme pour chacune des zones activées
L'étape suivante consiste à attribuer, pour chaque zone de substance grise, une valeur globale de corrélation avec le paradigme. Pour ce faire, on peut effectuer une moyenne géométrique des coefficients de corrélation de chacun des voxels de la zone considérée pour obtenir une valeur globale pour la zone considérée. Ce calcul est fait pour chaque bloc temporel Ainsi qu'indiqué par Rohmer et al (Détection de l'Activité Cérébrale par IRMf (EPI) utilisant un Algorithme de Croissance de Régions ; Dix-septième colloque GRETSI, Vannes, 13-17 septembre 1999), « comme les scanners IRM permettent d'acquérir rapidement un ensemble d'images (un volume cérébral en moins de 10 secondes), la solution à cette faible variation de signal consiste à augmenter la résolution temporelle de la séquence. On associe alors à chaque voxel, non pas seulement deux valeurs caractérisant l'état de repos et l'état d'activation, mais un signal temporel. Il s'agit donc de pouvoir caractériser l'évolution temporelle de chaque voxel pendant que le sujet effectue une tâche en suivant un paradigme bien précis. La majeure partie du travail lié à l'IRMf consiste alors à analyser les séquences temporelles associées aux voxels pour déterminer l'état d'activité d'une région du cerveau.
[Bandettini et al (Processing Stratégies for Time-Course Data Sets in Functional MRI of the Human Brain, Magn. Reson. Med., 1993, vol. 30, p.161 -173.) ont présenté] une méthode qui considère que le signal temporel associé à un voxel doit être fortement corrélé au signal du paradigme pour représenter une zone d'activité. Pour obtenir une cartographie d'activation cérébrale on calcule donc le coefficient de corrélation linéaire entre paradigme et signal temporel pour chaque voxel. Plus le coefficient de corrélation est élevé plus la zone est active. »
II convient de noter que cette étape de calcul de l'activité moyenne d'une zone considérée peut être effectuée sur l'ensemble des zones de substance grise cartographiées dans le cerveau, mais qu'il est favorable (notamment pour des questions d'optimisation des moyens de calcul) de n'effectuer ce travail que sur les zones identifiées comme présentant des voxels activés à l'étape précédente. La diminution du nombre de zones à analyser permet de réduire le besoin de mémoire vive.
À l'issue de cette étape, on obtient, pour chaque bloc temporel, un coefficient unique de corrélation de ladite zone avec le paradigme, dont la valeur représente notamment l'intensité d'activation de la zone.
Cette étape de moyennage par zone d'activation permet ainsi de réduire grandement la taille nécessaire pour stocker les données. De fait, les données initiales comprenaient l'ensemble des facteurs de corrélation de chaque voxel avec le paradigme (soit de l'ordre de 107 voxels après acquisition et normalisation sur l'atlas du MNI), tandis que les données obtenues après moyennage représentent les facteurs de corrélation de chaque zone d'activation pré-cartographiée dans l'atlas avec le paradigme (par exemple 1 16 zones seulement, décrites sur la Figure 1 )-
Réduction de la complexité en regroupant les données correspondant aux mêmes actions du paradigme
On peut ensuite encore réduire la taille des données en effectuant une réduction de dimension temporelle, qui correspond à un moyennage des données ainsi calculées et qui correspondent à la même stimulation, ou au même état de réalisation de la tâche au sein du paradigme.
A titre d'illustration, dans le cas d'un paradigme en bloc, on répète trois fois la séquence Repos (30 secondes) / Stimulus (30 secondes).
On effectue les traitements des données tels que décrits plus haut.
On obtient alors trois jeux de données représentant l'activité cérébrale de chaque zone cérébrale (une carte pour chacun des trois blocs du paradigme).
On peut alors moyenner les trois jeux de données en un seule qui représente la séquence d'activité « stimulus » du paradigme.
On peut également effectuer une telle réduction de la complexité sur les paradigmes événementiels en identifiant bien les événements. II convient de noter que les données obtenues, permettent de fabriquer des cartes en utilisant des logiciels de représentation graphique du marché. Ces cartes ainsi obtenues sont des cartes en quatre dimensions (spatiale et temporelle) couvrant les blocs d'activité du paradigme et permettant de voir les circuits cérébraux activés et les variations et séquences d'activation au cours de chaque bloc d'activité du paradigme. Les données anatomiques permettent de voir la forme du cerveau et l'on peut représenter les diverses zones qui s'activent au cours du temps lors de la réalisation de la tâche (avec des codes couleur permettant de refléter le niveau d'activité), ainsi que les chemins (fibres de substance blanche) reliant ces zones.
II s'agit ainsi de cartes spatio-temporelles, de l'activité cérébrale d'un sujet, présentant les zones activées, ainsi que les réseaux de neurones fonctionnels, lors de la réalisation d'une tâche donnée ou en réponse à un stimulus. Comme indiqué plus haut, on pourra qualifier ces cartes de cartes « GPS ».
Il convient aussi de noter que ces cartes ayant été réalisées sur des données normalisées peuvent donc aisément être comparées les unes aux autres des logiciels d'intelligence artificiels basés sur la logique floue, ainsi que décrit plus haut.
Il est clair que les procédés ci-dessus sont préférentiellement mis en œuvre par ordinateur.
L'invention se rapporte ainsi à un procédé de génération de données normalisées utilisables pour la mise en œuvre d'un procédé d'analyse d'activité cérébrale, tel que décrit plus haut, dans lequel lesdites données (d1 ) à normaliser comprennent, pour chaque bloc temporel (t1 ) d'acquisition desdites données (d1 ) lors de la réalisation de la tâche ou de l'application du stimulus, le protocole de réalisation de ladite tâche ou de l'application dudit stimulus représentant un paradigme :
a. Des données fonctionnelles cérébrales de la substance grise obtenues lors de la réalisation de ladite tache cognitive ou après application du stimulus
b. Des données structurelles des fibres de substance blanche reliant les zones de substance grise obtenues lors de la réalisation de ladite tache cognitive ou après application du stimulus
c. Des données anatomiques du cerveau dudit sujet,
ledit procédé comprenant les étapes de
i. Normalisation desdites données anatomiques, afin de représenter le cerveau du sujet dans un repère normalisé
ii. Normalisation desdites données fonctionnelles sur la base d'un atlas fonctionnel normalisé représentant les aires corticales et les noyaux gris centraux du cerveau, ledit atlas fonctionnel étant dans le même repère normalisé que l'atlas du (i)
iii. Normalisation desdites données structurelles des fibres de substance blanche sur la base dudit atlas anatomique de (ii)
iv. Optionnellement augmentation de la résolution temporelle entre chaque bloc temporel d'acquisition (t1 ), en divisant en parts égales (blocs temporels interpolés t2) le temps entre deux blocs temporels d'acquisition (t1 ) et interpolant les variations de signal statistiquement significatives au niveau de chaque voxel acquis pour les données fonctionnelles en utilisant le modèle linéaire généralisé v. Pour chaque bloc temporel t1 ou, en cas de mise en œuvre de l'étape iv, pour chaque bloc temporel t2, recherche, voxel par voxel, des zones cérébrales fonctionnelles activées, et des faisceaux de fibres de substance blanche unissant chacune de ces aires cérébrales activées
vi. Pour chacune des zones cérébrales fonctionnelles étudiées, moyenner les coefficients de corrélation de chacun des voxels de ladite zone avec le paradigme, afin d'obtenir un coefficient unique de corrélation de ladite zone avec le paradigme
Lesdites données normalisées (d2) obtenues à l'issue de l'étape vi étant ainsi constituées de :
Pour chaque bloc temporel t1 (ou pour chaque bloc temporel t2 en cas de mise en œuvre de l'étape iv)
Données normalisées représentant les fibres de substance blanche du cerveau du sujet
- Données normalisées représentant le coefficient de corrélation de chaque zone fonctionnelle (substance grise) avec le paradigme (réalisation de la tâche ou application du stimulus)
Définition de la tâche effectuée ou du stimulus appliqué La normalisation des données anatomiques peut notamment être effectuée par co-registration sur l'atlas T1 du MNI, en utilisant le logiciel FLIRT décrit plus haut.
La normalisation des données fonctionnelles peut être effectuée sur la base d'un atlas fonctionnel normalisé représentant les aires corticales et les noyaux gris centraux du cerveau, en particulier les 1 16 zones cérébrales décrites dans la Figure 1 . On peut écrire cet atlas fonctionnel étant dans le même repère normalisé que l'atlas T1 du MNI. Il existe, au MNI un atlas fonctionnel qui est dans le même repère que l'atlas T1.
La normalisation des données structurelles des fibres de substance blanche peut être effectuée sur la base de tout atlas existant, notamment l'atlas du John Hopkins Médical Institute décrit plus haut. Alternativement, on peut normaliser ces données structurelles sur la base d'un atlas normalisé dans le même repère que l'atlas T1 du MNI, et présentant les 58 fibres de substance blanche décrites sur la Figure 2. Dans un mode de réalisation particulier, lesdites zones zones cérébrales fonctionnelles étudiées à l'étape vi (pour lesquelles on effectue une moyenne des coefficients de corrélation de chaque voxel présent dans chaque zone) sont uniquement les zones que l'on a préalablement sélectionnées après qu'une recherche voxel par voxel a identifié qu'elles sont activées.
Cette étape vi est réalisée par moyennage géométrique des valeurs des coefficients de corrélation de chacun des voxels de la zone cérébrale pour chaque bloc temporel t1 ou t2.
On peut toutefois pondérer, pour chaque voxel, la valeur de coefficient de corrélation utilisée dans cette moyenne géométrique, notamment en regardant, pour la zone cérébrale considérée les maximum, minimum, valeur moyenne et déviation standard des coefficients de corrélation et ne pas tenir compte des voxels ayant une valeur inférieure à un seuil déterminé à partir de ces informations (on peut, en tant qu'illustration, ne pas tenir compte des valeurs de voxels de coefficient de corrélation inférieur la moyenne - 2 fois la déviation standard).
On peut
calculer ces maximum, minimum, valeur moyenne et déviation standard des coefficients de corrélation pour chaque bloc temporel dans chaque bloc de paradigme, et effectuer cette pondération sur ces valeurs au sein de chaque bloc de paradigme, ou alors
« aligner » les différents blocs du paradigme (on a une répétition des tâches ou des stimuli, donc on peut aligner ces blocs) et effectuer la pondération décrite ci-dessus à partir des maximum, minimum, valeur moyenne et déviation standard des coefficients de corrélation pour l'ensemble des blocs temporels t1 ou t2 placées au même endroit dans chacun des blocs du paradigme.
Cette étape de moyennage par zone d'activation a ainsi pour effet technique de réduire grandement la taille nécessaire pour stocker les données. De fait, les données initiales comprenaient l'ensemble des facteurs de corrélation de chaque voxel avec le paradigme, tandis que les données obtenues après moyennage représentent les facteurs de corrélation de chaque zone d'activation pré-cartographiée dans l'atlas avec le paradigme (par exemple 1 16 zones seulement, décrites sur la Figure 1 Dans un mode de réalisation particulier, on effectue de plus une étape de réduction de dimension temporelle de ladite carte en moyennant les résultats pour chacun des blocs du paradigme (valeurs d'activation de chacune des zones activées) correspondant aux étapes d'action ou de stimulus au sein du paradigme.
Cette étape de réduction temporelle utilise ainsi le fait que, dans un paradigme en bloc, on répète plusieurs fois la même tâche ou applique plusieurs fois le même stimulus. La réalisation de cette étape permet d'obtenir une carte unique de l'activité cérébrale du patient considéré lors de la réalisation de la tâche ou en réponse au stimulus. La non-mise en œuvre de cette étape permet de conserver un nombre de cartes égal au nombre de blocs du paradigme.
L'effet technique de cette étape est de diminuer la mémoire nécessaire pour stocker et analyser les données.
On peut aussi réaliser une autre étape de réduction temporelle en réduisant la résolution temporelle au sein de la carte. Il est rappelé que l'on a, généralement, augmenté la résolution temporelle du fait de la basse résolution temporelle lors de l'acquisition des données cérébrales primaires (passage d'une résolution de 1 ,5 s
(i.e. un écart de 1 .5 secondes entre chaque acquisition de données) à une résolution de 150 ms) par une interpolation.
Cette autre étape de réduction temporelle correspond en fait à l'opération inverse, c'est-à-dire à effectuer une moyenne d'un nombre prédéterminé de blocs temporels t1 ou t2, afin d'en diminuer le nombre.
L'objectif est toujours de réduire la puissance de calcul et de mémoire nécessaire pour le stockage et la manipulation et l'analyse des données.
En conclusion, la mise en œuvre du procédé dans son ensemble permet d'obtenir des données normalisées constituées de
Données normalisées représentant les fibres de substance blanche du cerveau du sujet (par exemple les 58 faisceaux de substance blanche si l'on utilise les données de la Figure 2).
Données normalisées représentant l'activité cérébrale (coefficient de corrélation) de chaque zone fonctionnelle (substance grise) lors de la réalisation de la tâche ou application du stimulus (par exemple sur les 1 16 zones de substance grise de la Figure 1 ).
- Définition de la tâche effectuée ou du stimulus appliqué Dans le cas de l'application en l'absence de stimulus ou de tâche assignée, cette dernière donnée normalisée le mentionne, c'est-à-dire précise que le patient est dans un état au repos (resting state). Ainsi, cet état de resting state est considéré au même titre que lorsqu'un stimulus est appliqué ou qu'une tâche est assignée.
Ces données normalisées peuvent être enregistrées dans une base de données. Cette base de données sera préférentiellement construite de telle sorte qu'elle présentera trois entrées :
- Une entrée correspondant à la tâche ou au stimulus appliqué
Une entrée correspondant à la carte (données anatomiques, fonctionnelles, structurelles et temporelles)
Une entrée correspondant à un coefficient de pondération. Le principe du coefficient de pondération est le suivant : les cartes « GPS » générées ci-dessus sont des représentations de l'activité cérébrale d'un sujet au cours de la réalisation d'une tâche ou de la réception d'un stimulus.
Toutefois, et ainsi que vu plus haut, étant donné la complexité et la variabilité entre deux sujets des connexions cérébrales, les cartes « GPS » de deux sujets différents présenteront des différences.
Toutefois, plus le nombre de cartes présentes dans la base est important pour une tâche ou un stimulus donné, plus on peut déterminer la séquence d'activation la plus probable ou représentative de ladite tâche ou stimulus.
En conséquence, chacune des cartes présentes dans la base va être pondérée par un coefficient de pondération, calculé en comparant l'ensemble des données de chaque carte les unes avec les autres, et en déterminant leur seuil de similarité, notamment par un algorithme basé sur la logique floue.
Ainsi, la base de données est une base interactive, qui évolue à chaque fois qu'une nouvelle carte y est enregistrée. Plus la base de données comporte d'entrées différentes pour une même tâche, plus le coefficient de pondération de la nouvelle entrée sera précis. La base de données devient donc de plus en plus pertinente à mesure qu'elle s'enrichit de nouvelles entrées.
Lorsque l'on connaît la tâche ou le stimulus associé à cette nouvelle carte, on compare ladite nouvelle carte à l'ensemble des cartes qui sont déjà présentes dans la base de données par le procédé décrit ci-dessus. On peut alors calculer un coefficient de pondération pour cette nouvelle carte, et recalculer les coefficients de pondération des autres cartes.
Lorsque l'on introduit une carte sans que l'on connaisse la tâche ou le stimulus associé (en particulier dans les cas de détection de véracité de réponse ou de neuromarketing), on compare ladite nouvelle carte à l'ensemble des cartes présentes dans la base, où à un ou plusieurs sous-ensembles de ladite base (en particulier, lorsque l'on recherche si une personne dit la vérité ou ment, on compare aux cartes associées aux tâches « vérité » / « mensonge »).
Le pourcentage de similarité obtenu après ces comparaisons permet de conclure quant à la probabilité que la personne ait effectué ou non une tâche donnée.
Pour chaque tâche ou stimulus donnée, on peut aussi créer une carte « référence », à partir de l'ensemble des cartes de la base de données se rapportant à cette tâche ou ce stimulus.
Cette carte référence est notamment créée en effectuant une moyenne des cartes différentes cartes, pondérée par les coefficients de pondération.
À titre d'illustration, on entre une première carte pour une tâche donnée avec un coefficient de pondération, qui est de 1.
Après analyse de l'activité d'un autre sujet ayant réalisé la même tâche, on entre la nouvelle carte dans la base.
Le deux entrées sont comparée (substance grise et blanche) par un logiciel de logique floue. On peut déduire un pourcentage de similitude globale.
1 / 1 = 100 %
2 / 1 = 80 %
Chaque entrée 1 et 2 aura le même coefficient de pondération (on ne peut pas définir lequel est le plus « juste ») dans l'entrée unique (carte référence).
Puis one entre des données générées sur un troisième sujet, et on calcule le pourcentage de similitude par le logiciel de logique floue.
3 / 1 : 70 %
3 / 2 = 90 %
On recalcule alors la carte référence, dans laquelle les poids des cartes 2 et 3 seront supérieurs au poids de la carte 1. Lorsque cette carte référence est créée pour chacune des tâches ou stimulus, elle trouve alors une utilité certaine lorsque l'on est en possession d'une carte, sans que l'on connaisse la tâche ou le stimulus associé. On peut alors comparer la nouvelle carte avec l'ensemble des cartes référence pour identifier la ou les cartes référence les plus similaires à cette nouvelle carte et faire une seconde comparaison avec les cartes correspondant à cette ou ces cartes références. C'est en particulier le cas lorsque l'on évalue les cartes obtenues pour des patients en resting state. Dans le mode de réalisation décrit ci-dessus, on considère que la base de données contient les cartes « GPS » obtenues à partir de données fonctionnelles cérébrales de la substance grise, obtenues par IRM fonctionnelle d'activation, données structurelles des fibres de substance blanche, obtenues par IRM de Tenseur de Diffusion, normalisées sur la base de données anatomiques obtenues en IRM morphologique volumique pondérée en T1.
Toutefois, le principe de construction de la base de données, dans lequel on donne des coefficients de pondération aux diverses données intégrées dans la base, calculé en comparant l'ensemble des données les unes avec les autres (pour la même tâche), et en déterminant leur seuil de similarité, notamment par un algorithme basé sur la logique floue, est applicable pour tout type de données telles que générées par tout autre type de mesure (notamment PET Scanner, échographie, électroencéphalographie (EEG), ou imagerie optique), après normalisation.
La base de données sera préférentiellement construite de telle sorte qu'elle présentera trois entrées :
Une entrée correspondant à la tâche ou au stimulus appliqué Une entrée correspondant aux données normalisées
Une entrée correspondant à un coefficient de pondération.
Cette base de données sert à la comparaison sur la base de l'algorithme de logique floue, telle que décrite plus haut.
Même s'il n'est pas obligatoire d'assigner un coefficient de pondération aux données présentes dans la base, c'est tout de même préférable, afin d'augmenter la qualité de la comparaison. Mais on peut toutefois envisager des bases de données à deux entrées seulement :
Une entrée correspondant à la tâche ou au stimulus appliqué Une entrée correspondant aux données normalisées
Les exemples ci-dessous décrivent un mode de réalisation particulier de mise en œuvre de l'invention, sur la base d'une analyse IRM d'une tâche réalisée avec un paradigme de blocs.
Toutefois, l'homme du métier pourra adapter les étapes décrites ci-après dans le cas d'un paradigme événementiel, d'un sujet en resting state, ou avec un autre mode d'acquisition de données.
Description des Figures
Figure 1 : liste des 1 16 éléments de substance grise utilisables dans un atlas normalisé
Figure 2 : liste de 58 faisceaux de substance blanche utilisables dans un atlas normalisé
Figure 3 : algorithme d'obtention de données normalisées et de comparaison avec une base de données. FL : Fuzzy Logic (logique floue) ; SB : substance blanche : SG : substance grise ; Fx : Faisceaux ; Fa : fraction d'anisotropie ; Nb : nombre ; Lg : Longueur ; diff stat sign : différence statistique significative
Exemples
Exemple 1 - Acquisitions des données
1 .1 . Acquisitions de données fonctionnelles cérébrales de la substance grise (cortex, noyaux gris centraux) lors de la réalisation d'une tâche cognitive (paradigme de bloc) en IRM fonctionnelle d'activation chez des sujets sains : résolution spatiale : 2mm3 ; résolution temporelle : 1 ,5 s
1 .2. Acquisition des données structurelles des fibres de substance blanche reliant les zones de substance grise en IRM de Tenseur de Diffusion (technique
DT1 ou HARDI) ; résolution spatiale : 2mm3
1 .3. Acquisition des données anatomiques en IRM morphologique volumique pondérée en T1 ; résolution spatiale : 2mm3
1 .4. Paradigme utilisé : 3 blocs d'activation dans le paradigme avec 360 entrées (acquisitions) par bloc Exemple 2- Analyse des données acquises
2.1. Co-registration et normalisation des données anatomiques sur l'atlas T1 du MNI (résolution spatiale : 1 mm3) Après correction des artéfacts de mouvements et des déformations spatiales dues aux méthodes d'acquisition IRM utilisées (echo planar). co-registration et normalisation des données fonctionnelles et structurelles sur les données anatomiques du sujet déjà co-registrées sur l'Atlas du MNI ; résolution spatiale de toutes les données : 1 mm3 2.2. Données fonctionnelles (Substance Grise) : Après nouvelle co- registration et normalisation spatiale des données acquises sur un atlas anatomique spécifique à 1 16 entrées (aires corticales et noyaux gris centraux, Figure 1 ), analyse en pseudo temps réel (résolution temporelle de l'acquisition interpolée avec un algorithme, permettant de passer d'une résolution de 1 ,5 s à 150 ms) des variations de signal statistiquement significatives au niveau de chaque voxel acquis en IRMf d'activation lors de la tâche effectuée selon un paradigme en bloc ou événementiel, en utilisant le Modèle Linéaire Général statistique, et en normalisant les résultats dans un repère à résolution temporelle fixe (150 ms). 2.3. Données structurales (Substance Blanche) : les données acquises en
Tenseur de Diffusion déjà co-registrées sur l'atlas anatomique utilisé en 2.1 et 2.2 sont à nouveau co-registrées et normalisées sur un Atlas des libres de substance blanche spécifique comportant 58 faisceaux (détails en Figure 2). L'extraction des faisceaux du sujet étudié est réalisée de manière automatique en utilisant une méthode de tractographie globale mi-déterministe, mi-probabiliste.
L'extraction s'effectue comme suit : l'atlas initie l'algorithme d'extraction en fournissant les zones de départ de l'extraction (graines) pour chacun des 58 faisceaux considérés, et en comparant itérativement les résultats de l'extraction obtenue (paramètres analysés : Fraction d'Anisotropie, longueur du faisceau, nombre de fibres) avec les valeurs connues du faisceau initial dans l'atlas. Les itérations s'arrêtent lorsque les différences statistiques entre ces valeurs ne sont plus significatives, et/ou lorsqu'il y a chevauchement de faisceaux.
Exemple 3 - Analyse des connexions structurelles et fonctionnelles : établissement des « Cartes GPS » pour la tache cérébrale étudiée Une première analyse est effectuée par bloc temporel de 150 ms sur l'ensemble des blocs du paradigme de l'acquisition fonctionnelle.
Pour chaque bloc temporel, l'algorithme recherche voxel par voxel les zones cérébrales fonctionnelles activées, et recherche les faisceaux de fibres unissant chacune de ces aires cérébrales activées. La cartographie est établie suivant un modèle booléen (activé, non activé) par région corticale, par faisceau de substance blanche, et par bloc temporel. Le paramètre permettant l'individualisation des aires activées est fixé suivant un seuil statistique de r=0.3. Un classement statistique avec moyennage géométrique pondéré des résultats obtenus au sein de chaque bloc temporel est ensuite effectué en comparant les résultats obtenus dans chaque bloc du paradigme avec ceux des autres blocs du paradigme de manière à normaliser la cartographie « GPS » ainsi créée.
Une réduction de dimension temporelle de cette carte est effectuée par moyennage des résultats des blocs temporels d'un facteur 9.
En particulier
Dimensions et entrées de la carte :
SG = Substance Grise
SB = Substance Blanche
r : coefficient de corrélation avec le paradigme
1ére analyse
X[nb zones SG] x Y[nb faisceaux SB] x Z[(nb Paradigmes Activés*nb bloc temporels au sein du paradigme)]
Pour un paradigme de 3 blocs de paradigmes activés, et 360 blocs temporels de 150 ms au sein du paradigme : X[1 16]xY[58]xZ[3*360]
Chaque entrée en X[i], Y[j], Z[k*l] est conservée si leur r>0.3 (seuil de significativité), et non conservée (mise à valeur = 0) sinon.
2éme analyse
Découpage de X[1 16]xY[58]xZ[3*360] en X[1 16]xY[58]xZ[3,360] (sur Z 3 zones temporelles de 360 entrées). Cette étape correspond en fait à reconnaître que, dans un paradigme de 3 blocs de paradigme activés d'une durée T, sont présents trois blocs identiques et passer d'un état reflétant cette durée T à trois états reflétant de durée chacun T/3, correspondant chacun à l'un des blocs de paradigmes activés.
Comparaison, classement et moyennage entre
- X[i], YO], Z[k,l]
- X[i], Y[j], Z[k,l+1 ] et
- X[i], YO], Z[k.l+2], avec 0 < I < 2
Création d'une carte X[i]. Y[j], Z[m] avec m=k=moyenne des résultats entre Z[k,l], Z[k.l+1] et Z[k,l+2]
3. Réduction des dimensions de la carte
Transformation de la carte X[1 16]xY[58]xZ[3*360] en carte X[1 16]xY[58]xZ[360] (moyennage entre chaque bloc du paradigme)
puis en X[1 16]xY[58]xZ[40] (réduction d'un facteur temporel 9)
Par moyennage de i=0 à 8 des X[1 16]xY[58]xZ[i]
4. Normalisation booléenne de la carte
On conserve les valeurs si r moyen >0.3, et on ne les conserve pas dans le cas contraire
Exemple 4 - Enregistrement des données dans une base de données
Chaque carte établie pour une tâche spécifique est insérée dans une entrée de la base de données, avec un coefficient de pondération initial établi à 1 .
La base de données comporte 3 entrées à dimensions différentes :
- n Cartes d'une tache cognitive donnée
n coefficients de pondération, et
m nombres de taches cognitives différentes.
À chaque nouvelle entrée dans la base, s'il existe déjà une ou plusieurs carte de taches similaires insérée dans la base, le coefficient de pondération de la nouvelle carte insérée est recalculé en utilisant un algorithme de logique floue permettant de calculer le pourcentage de similarité entre la nouvelle tâche à insérer dans la base et les données déjà présentes.
L'analyse du coefficient de pondération s'effectue en comparant les X[1 16]xY[58]xZ[40] valeurs de chaque carte les unes avec les autres et en déterminant leur seuil de similarité. Ainsi plus la base de données comporte d'entrées différentes pour une mérite tache, plus le coefficient de pondération de la nouvelle entrée sera précis.
Cette base de données devient de plus en plus pertinente à mesure qu'elle s'enrichit de nouvelles entrées.
Exemple 5 - Utilisation de la base de données de référence :
Pour chaque tâche fonctionnelle effectuée par un sujet (ou patient), la carte générée est comparée aux entrées de la base en utilisant le même algorithme de Logique Floue que celui utilisé pour le calcul des coefficients de pondération lors de la création et l'enrichissement de la base de données.
Il est possible de comparer une tâche spécifique avec les tâches similaires déjà présentes dans la base de données (ex : motricité de la main gauche) ; on aura alors pour résultat de cette comparaison un pourcentage de similarité sur la tâche spécifique étudiée.
Il est possible de comparer une tâche spécifique avec des tâches différentes déjà présentes dans la base de données (ex : motricité de la main gauche versus la main droite ; motricité de la bouche versus fluence verbale catégorielle...). On aura alors un pourcentage de similarité qui prendra en compte les aires communes aux deux tâches différentes et un pourcentage de discordance qui prendra en compte les aires cérébrales non communes aux deux tâches différentes.

Claims

REVENDICATIONS
Procédé de génération de données normalisées utilisables pour la mise en œuvre d'un procédé selon l'une des revendications 1 à 4, dans lequel lesdites données comprennent, pour chaque bloc temporel (t1 ) d'acquisition des données lors de la réalisation de la tâche ou de l'application du stimulus, le protocole de réalisation de ladite tâche ou de l'application dudit stimulus représentant un paradigme :
a. Des données fonctionnelles cérébrales de la substance grise obtenues lors de la réalisation de ladite tache cognitive ou après application du stimulus
b. Des données structurelles des fibres de substance blanche reliant les zones de substance grise, obtenues lors de la réalisation de ladite tache cognitive ou après application du stimulus
c. Des données anatomiques du cerveau dudit sujet,
ledit procédé comprenant les étapes de
i. Normalisation desdites données anatomiques, afin de représenter le cerveau du sujet dans un repère normalisé
ii. Normalisation desdites données fonctionnelles sur la base d'un atlas fonctionnel normalisé représentant les aires corticales et les noyaux gris centraux du cerveau, ledit atlas fonctionnel étant dans le même repère normalisé que l'atlas du (i)
iii. Normalisation desdites données structurelles des fibres de substance blanche sur la base dudit atlas anatomique de (ii)
iv. Pour chaque bloc temporel (t1 ), recherche, voxel par voxel, des zones cérébrales fonctionnelles activées, et des faisceaux de fibres de substance blanche unissant chacune de ces aires cérébrales activées v. Pour chacune des zones cérébrales fonctionnelles étudiées, moyennage des coefficients de corrélation de chacun des voxels de ladite zone avec le paradigme, afin d'obtenir un coefficient unique de corrélation de ladite zone avec le paradigme
lesdites données normalisées obtenues à l'issue de l'étape v étant ainsi constituées de :
Pour chaque bloc temporel (t1 ) Données normalisées représentant les fibres de substance blanche du cerveau du sujet
Données normalisées représentant le coefficient de corrélation de chaque zone fonctionnelle (substance grise) avec le paradigme (réalisation de la tâche ou application du stimulus)
Définition de la tâche effectuée ou du stimulus appliqué.
Procédé selon la revendication 2, comprenant en outre une étape d'augmentation de la résolution temporelle entre chaque bloc temporel d'acquisition (t1 ), en divisant en parts égales (blocs temporels interpolés (t2)) le temps entre deux blocs temporels d'acquisition (t1 ) et interpolant les variations de signal statistiquement significatives au niveau de chaque voxel acquis pour les données fonctionnelles en utilisant un Modèle Linéaire Généralisé, ladite étape étant effectuée entre l'étape (iii) de normalisation des données structurelle et l'étape (iv) de recherche, voxel par voxel, des zones cérébrales fonctionnelles activées, et des faisceaux de fibres de substance blanche unissant chacune de ces aires cérébrales activées,
ladite étape (iv) étant alors effectuée pour chaque bloc temporel interpolé (t2), lesdites données normalisées obtenues à l'issue de l'étape v étant ainsi constituées de :
Pour chaque bloc temporel (t2)
d. Données normalisées représentant les fibres de substance blanche du cerveau du sujet
e. Données normalisées représentant le coefficient de corrélation de chaque zone fonctionnelle (substance grise) avec le paradigme (réalisation de la tâche ou application du stimulus)
f. Définition de la tâche effectuée ou du stimulus appliqué.
Procédé selon la revendication 1 ou 2, caractérisé en ce que lesdites zones cérébrales fonctionnelles étudiées à l'étape v sont uniquement les zones pour lesquelles une recherche voxel par voxel a identifié qu'elles sont activées.
Procédé selon l'une des revendications 1 à 3, comprenant en outre une étape de moyennage des résultats des blocs temporels correspondant au paradigme, ladite étape permettant d'obtenir des données normalisées constituées de Données normalisées représentant les fibres de substance blanche du cerveau du sujet
Données normalisées représentant le coefficient de corrélation de chaque zone fonctionnelle (substance grise) avec le paradigme (réalisation de la tâche ou application du stimulus)
Définition de la tâche effectuée ou du stimulus appliqué
Procédé selon l'une des revendications 1 à 4, comprenant en outre un enregistrement desdites données au sein d'une base de données.
Procédé selon la revendication 5, caractérisé en ce que l'on assigne, lors de l'enregistrement desdites données au sein de la base, un coefficient de pondération auxdites données, calculé en utilisant un algorithme de Logique Floue, en comparant lesdites données à enregistrer à celles déjà contenues dans la base, pour ladite tâche ou ledit stimulus.
Procédé d'analyse de l'activité cérébrale d'un sujet lors de la réalisation d'une tâche ou en réponse à un stimulus comprenant les étapes de
Normalisation de données (d1 ) recueillies lors de l'établissement de ladite tâche ou application dudit stimulus afin d'obtenir des données normalisées (d2), par mise en œuvre du procédé selon l'une des revendications 1 à 6,
Comparaison desdites données normalisées (d2) avec des données (d3) présentes dans une base de données normalisées lesdites données (d3) de ladite base de données étant chacune spécifiques d'une tâche d'un stimulus donné,
ladite comparaison étant effectuée par un algorithme de Logique Floue, ledit procédé permettant de déterminer un degré de similitude desdites données normalisées (d2) avec des données présentes dans la base de données normalisées,
ledit procédé permettant de déterminer l'activité cérébrale dudit sujet lors de la réalisation de ladite tâche ou en réponse audit stimulus.
Procédé selon la revendication 7, caractérisé en ce que lesdites données (d1 ) recueillies lors de la réalisation de la tâche ou de l'application du stimulus sont des données d'IRM, de PET Scanner, d'échographie, ou d'électroencéphalographie (EEG).
9. Utilisation du procédé selon l'une des revendications 7 ou 8, dans une analyse comparative de l'état de veille au repos chez des sujets sains et chez des sujets qui ne peuvent communiquer avec l'environnement.
10. Utilisation du procédé selon l'une des revendications 7 ou 8, dans une analyse de troubles psychiatriques chez un sujet.
1 1 . Utilisation du procédé selon l'une des revendications 7 ou 8, dans une évaluation clinique et fonctionnelle d'un déficit ou un trouble neurologique chez un sujet. 12. Utilisation du procédé selon l'une des revendications 7 ou 8, pour détecter si un sujet dit la vérité ou un mensonge en répondant à différentes questions.
13. Utilisation du procédé selon l'une des revendications 7 ou 8, dans des études de neuromarketing, pour mieux comprendre les réactions de sujets lors de la présentation de nouveaux produits, ou l'évocation de développement de produits.
14. Utilisation du procédé selon l'une des revendications 7 ou 8, caractérisé en ce que ledit stimulus est une absence de stimulus et que le patient est au repos (état de resting state).
EP15778693.0A 2014-10-14 2015-10-13 Méthode d'analyse de l'activité cérébrale d'un sujet Withdrawn EP3206564A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1459862A FR3026932A1 (fr) 2014-10-14 2014-10-14 Methode d’analyse de l’activite cerebrale d’un sujet
PCT/EP2015/073685 WO2016059055A1 (fr) 2014-10-14 2015-10-13 Méthode d'analyse de l'activité cérébrale d'un sujet

Publications (1)

Publication Number Publication Date
EP3206564A1 true EP3206564A1 (fr) 2017-08-23

Family

ID=52737169

Family Applications (1)

Application Number Title Priority Date Filing Date
EP15778693.0A Withdrawn EP3206564A1 (fr) 2014-10-14 2015-10-13 Méthode d'analyse de l'activité cérébrale d'un sujet

Country Status (7)

Country Link
US (1) US20170238879A1 (fr)
EP (1) EP3206564A1 (fr)
AU (1) AU2015332793A1 (fr)
CA (1) CA2964432A1 (fr)
FR (1) FR3026932A1 (fr)
IL (1) IL251747A0 (fr)
WO (1) WO2016059055A1 (fr)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10588561B1 (en) * 2017-08-24 2020-03-17 University Of South Florida Noninvasive system and method for mapping epileptic networks and surgical planning
US11857306B1 (en) * 2018-06-15 2024-01-02 Unm Rainforest Innovations Concurrent MRSI and fMRI
DE102019202666B4 (de) * 2019-02-27 2021-04-29 CereGate GmbH Neuronales Kommunikationssystem
EP3935581A4 (fr) 2019-03-04 2022-11-30 Iocurrents, Inc. Compression et communication de données à l'aide d'un apprentissage automatique
JP7200774B2 (ja) * 2019-03-18 2023-01-10 株式会社リコー 情報表示方法、情報表示装置、情報表示システム、プログラム及び記録媒体
US11526808B2 (en) * 2019-05-29 2022-12-13 The Board Of Trustees Of The Leland Stanford Junior University Machine learning based generation of ontology for structural and functional mapping
CN112057088B (zh) * 2020-08-18 2024-01-05 天津大学 基于探照灯的涉及视听模态情感语音处理的脑区定位方法
CN114376549B (zh) * 2022-01-10 2024-03-22 杭州师范大学 一种脑出血微创手术的认知功能评估及预测系统
CN115054250B (zh) * 2022-06-10 2024-06-21 北京航空航天大学 镜像溢出运动检测分析方法和系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040092809A1 (en) * 2002-07-26 2004-05-13 Neurion Inc. Methods for measurement and analysis of brain activity

Also Published As

Publication number Publication date
CA2964432A1 (fr) 2016-04-21
WO2016059055A1 (fr) 2016-04-21
FR3026932A1 (fr) 2016-04-15
US20170238879A1 (en) 2017-08-24
AU2015332793A1 (en) 2017-05-11
IL251747A0 (en) 2017-06-29

Similar Documents

Publication Publication Date Title
EP3206564A1 (fr) Méthode d&#39;analyse de l&#39;activité cérébrale d&#39;un sujet
West et al. BOLD hemodynamic response function changes significantly with healthy aging
Ethofer et al. Processing social aspects of human gaze: a combined fMRI-DTI study
Chee et al. Age-related changes in object processing and contextual binding revealed using fMR adaptation
Habeck et al. Relation of cognitive reserve and task performance to expression of regional covariance networks in an event-related fMRI study of nonverbal memory☆
WO2020075737A1 (fr) Procédé d&#39;ajustement de valeur de corrélation de connectivité fonctionnelle cérébrale, système d&#39;ajustement de valeur de corrélation de connectivité fonctionnelle cérébrale, procédé d&#39;harmonisation de classificateur d&#39;activité cérébrale, système d&#39;harmonisation de classificateur d&#39;activité cérébrale et système de biomarqueur d&#39;activité cérébrale
Jiang et al. A quantitative link between face discrimination deficits and neuronal selectivity for faces in autism
JP2021037397A (ja) 脳活動分類器のハーモナイズシステム、及び脳活動分類器プログラム
Cociu et al. Multimodal functional and structural brain connectivity analysis in autism: a preliminary integrated approach with EEG, fMRI, and DTI
Wager et al. Principles of fMRI
Frässle et al. Whole-brain estimates of directed connectivity for human connectomics
M. Mostafa Functional neuroimaging applications in marketing: Some methodological and statistical considerations
Polzehl et al. Magnetic resonance brain imaging
Neudorf et al. Brain structural connectivity predicts brain functional complexity: diffusion tensor imaging derived centrality accounts for variance in fractal properties of functional magnetic resonance imaging signal
Cohen et al. Brain networks are decoupled from external stimuli during internal cognition
Barillot et al. Imaging biomarkers in multiple sclerosis: from image analysis to population imaging
Gong et al. Dual temporal and spatial sparse representation for inferring group-wise brain networks from resting-state fMRI dataset
Young et al. Synchrony between sensory and cognitive networks is associated with subclinical variation in autistic traits
Menagadevi et al. Resting‐State fMRI: Large Data Analysis in Neuroimaging
Zhang et al. SpiDa-MRI, behavioral and (f) MRI data of adults with fear of spiders
Peterson et al. Evidence for a Compensatory Relationship between Left-and Right-Lateralized Brain Networks
Bonna et al. Brain network reconfiguration during prediction error processing
Aljobouri Brain activity detection in single-and multi-subject PET data by Bayesian analysis
Vallée Arterial spin labeling performance in resting-state functional MRI: the effect of scan duration
Huber Interdependence of theoretical concepts and neuroimaging data

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20170425

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20190501