JP7263324B2 - Method and program for generating 3D brain map - Google Patents
Method and program for generating 3D brain map Download PDFInfo
- Publication number
- JP7263324B2 JP7263324B2 JP2020514533A JP2020514533A JP7263324B2 JP 7263324 B2 JP7263324 B2 JP 7263324B2 JP 2020514533 A JP2020514533 A JP 2020514533A JP 2020514533 A JP2020514533 A JP 2020514533A JP 7263324 B2 JP7263324 B2 JP 7263324B2
- Authority
- JP
- Japan
- Prior art keywords
- brain
- subject
- image
- generating
- mri image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/0035—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/0036—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room including treatment, e.g., using an implantable medical device, ablating, ventilating
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
- A61B5/0042—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1079—Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/743—Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N1/00—Electrotherapy; Circuits therefor
- A61N1/18—Applying electric currents by contact electrodes
- A61N1/32—Applying electric currents by contact electrodes alternating or intermittent currents
- A61N1/36—Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
- A61N1/36014—External stimulators, e.g. with patch electrodes
- A61N1/36025—External stimulators, e.g. with patch electrodes for treating a mental or cerebral condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N1/00—Electrotherapy; Circuits therefor
- A61N1/18—Applying electric currents by contact electrodes
- A61N1/32—Applying electric currents by contact electrodes alternating or intermittent currents
- A61N1/36—Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
- A61N1/36014—External stimulators, e.g. with patch electrodes
- A61N1/3603—Control systems
- A61N1/36031—Control systems using physiological parameters for adjustment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N1/00—Electrotherapy; Circuits therefor
- A61N1/40—Applying electric fields by inductive or capacitive coupling ; Applying radio-frequency signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N2/00—Magnetotherapy
- A61N2/004—Magnetotherapy specially adapted for a specific therapy
- A61N2/006—Magnetotherapy specially adapted for a specific therapy for magnetic stimulation of nerve tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N2/00—Magnetotherapy
- A61N2/02—Magnetotherapy using magnetic fields produced by coils, including single turn loops or electromagnets
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R33/00—Arrangements or instruments for measuring magnetic variables
- G01R33/20—Arrangements or instruments for measuring magnetic variables involving magnetic resonance
- G01R33/44—Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
- G01R33/48—NMR imaging systems
- G01R33/54—Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
- G01R33/56—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
- G01R33/5608—Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/695—Preprocessing, e.g. image segmentation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
- A61B2576/02—Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
- A61B2576/026—Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/25—Bioelectric electrodes therefor
- A61B5/279—Bioelectric electrodes therefor specially adapted for particular uses
- A61B5/291—Bioelectric electrodes therefor specially adapted for particular uses for electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6813—Specially adapted to be attached to a specific body part
- A61B5/6814—Head
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N1/00—Electrotherapy; Circuits therefor
- A61N1/02—Details
- A61N1/08—Arrangements or circuits for monitoring, protecting, controlling or indicating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R33/00—Arrangements or instruments for measuring magnetic variables
- G01R33/20—Arrangements or instruments for measuring magnetic variables involving magnetic resonance
- G01R33/44—Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
- G01R33/48—NMR imaging systems
- G01R33/54—Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
- G01R33/56—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
- G01R33/563—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution of moving material, e.g. flow contrast angiography
- G01R33/56341—Diffusion imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Description
本発明は3次元脳地図の生成方法及びプログラムに関する。 The present invention relates to a method and program for generating a three-dimensional brain map.
MRIシステムとは、特定強さの磁場で発生するRF(Radio Frequency)信号に対するMR(Magnetic Resonance)信号の強さを明暗対比で表現して対象体の断層部位に対するイメージを獲得する機器をいう。例えば、対象体を強力な磁場中に横たえた後、特定の原子核(例えば、水素原子核など)のみを共鳴させるRF信号を対象体に瞬間的に照射した後に中断すれば、前記特定の原子核からMR信号が放出されるが、MRIシステムは、このMR信号を受信してMRイメージを獲得できる。MR信号は、対象体から放射されるRF信号を意味する。MR信号の大きさは、対象体に含まれている所定の原子(例えば、水素など)の濃度、弛緩時間T1、弛緩時間T2及び血流などの流れにより決定できる。 An MRI system is a device that obtains an image of a tomographic region of a target body by expressing the intensity of MR (Magnetic Resonance) signals with respect to RF (Radio Frequency) signals generated in a magnetic field of a specific strength by light and dark contrast. For example, if the object is placed in a strong magnetic field and momentarily irradiated with an RF signal that resonates only a specific nucleus (for example, a hydrogen nucleus) and then interrupted, MR can be obtained from the specific nucleus. A signal is emitted and an MRI system can receive this MR signal to acquire an MR image. An MR signal means an RF signal emitted from an object. The magnitude of the MR signal can be determined by the concentration of a given atom (eg, hydrogen) contained in the object, relaxation time T1, relaxation time T2, and flow such as blood flow.
MRIシステムは、他のイメージング装置とは異なる特徴を含む。イメージの獲得が検知ハードウェア(detecting hardware)の方向に依存するCTのようなイメージング装置などとは異なり、MRIシステムは、任意の地点に指向された2Dイメージ又は3Dボリュームイメージを獲得することができる。また、MRIシステムは、CT、エックス線、PET及びSPECTとは異なり、対象体及び検査員に放射線を露出させず、高い軟部組織(soft tissue)コントラストを有するイメージの獲得が可能であり、異常な組織の明確な描写が重要な神経(neurological)イメージ、血管内部(intravascular)イメージ、筋骨格(musculoskeletal)イメージ及び腫瘍(oncologic)イメージなどを獲得できる。 MRI systems include features that distinguish them from other imaging devices. Unlike imaging devices such as CT, where image acquisition depends on the orientation of the detecting hardware, MRI systems can acquire 2D or 3D volumetric images directed at any point. . In addition, unlike CT, X-ray, PET, and SPECT, the MRI system does not expose the subject and the examiner to radiation, and is capable of acquiring images with high soft tissue contrast and detecting abnormal tissue. It is possible to acquire neurological images, intravascular images, musculoskeletal images, and oncological images, for which clear delineation of is important.
TMS(Transcranial Magnetic Stimulation、経頭蓋的磁気刺激法)は神経系に対する非侵襲的な治療方法であって、薬物治療や侵襲治療を行うことなく、神経系疾患を治療できるという長所がある。TMSは、磁場の変化を用いて対象体に電気的刺激を与えることができる。 Transcranial Magnetic Stimulation (TMS) is a non-invasive therapeutic method for the nervous system, and has the advantage of treating nervous system diseases without drugs or invasive treatments. TMS can use changes in magnetic fields to provide electrical stimulation to a subject.
一般に、TMSは臨床的又は経験的に知られている刺激地点に電気的刺激を与えるか、使用者が少しずつ刺激位置を移動させながら刺激位置を決定する方式で施術を行ってきた。従って、施術に用いられるコイルの種類や個人間の身体構造の違いを反映し難い上に、施術による効果を直接的に確認し難いという問題があった。 In general, TMS has been performed by giving electrical stimulation to a clinically or empirically known stimulation point, or by allowing a user to move the stimulation point little by little to determine the stimulation point. Therefore, there is a problem that it is difficult to reflect the type of coil used for the treatment and the difference in body structure between individuals, and it is difficult to directly confirm the effect of the treatment.
また、対象体の脳活動による電気活動を測定できる脳波検査(Electroencephalogram、EEG)及び電気刺激による脳疾患の治療方法が広く利用されている。しかし、TMSと同様に、EEGと電気刺激も人によって異なる頭の形状を反映したガイド方法の開発が求められている。 In addition, an electroencephalogram (EEG), which can measure electrical activity due to brain activity of a subject, and a method of treating brain diseases by electrical stimulation are widely used. However, as with TMS, EEG and electrical stimulation are also required to develop a guide method that reflects the shape of the head, which varies from person to person.
本発明は、上記事情に鑑みてなされたものであって、その目的は、3次元脳地図の生成方法及びプログラムを提供することにある。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a method and program for generating a three-dimensional brain map.
本発明が解決しようとする課題は、以上で言及した課題に制限されず、言及していない他の課題は、以下の記載から通常の技術者が明確に理解できるであろう。 The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those of ordinary skill in the art from the following description.
上述した課題を解決するための本発明の一側面による3次元脳地図の生成方法は、対象体の脳MRI画像を獲得する段階と、前記脳MRI画像を複数の領域にセグメンテーションする段階と、セグメンテーションされた前記脳MRI画像を用いて前記複数の領域を含む前記対象体の3次元脳画像を生成する段階と、前記3次元脳画像に含まれている複数の領域のそれぞれの性質に基づいて、前記対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる前記対象体の3次元脳地図を生成する段階とを含み、前記セグメンテーションする段階は、複数の加工された脳MRI画像を用いて学習されたモデルに前記対象体の脳MRI画像を入力してセグメンテーションされた前記対象体の脳MRI画像を獲得する段階を含む。 According to one aspect of the present invention, there is provided a method for generating a 3D brain map for solving the above-described problems. generating a three-dimensional brain image of the subject including the plurality of regions using the obtained brain MRI image; and based on properties of each of the plurality of regions included in the three-dimensional brain image, and generating a 3D brain map of the subject that can simulate a transmission process of electrical stimulation to the brain of the subject, wherein the segmentation is learned using a plurality of processed brain MRI images. obtaining a segmented brain MRI image of the subject by inputting the brain MRI image of the subject into the model.
また、前記加工された脳MRI画像は、前記加工された脳MRI画像に含まれている複数の領域のそれぞれがラベリングされた画像であり、前記学習されたモデルは、脳MRI画像の入力を受けて、セグメンテーションされた脳MRI画像を出力するモデルであってもよい。 Further, the processed brain MRI image is an image in which each of a plurality of regions included in the processed brain MRI image is labeled, and the learned model receives an input of the brain MRI image. It may be a model that outputs a segmented brain MRI image.
更に、前記対象体の3次元脳地図を生成する段階は、前記対象体の3次元脳画像を用いて前記対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる複数の格子(mesh)で構成された3次元立体画像を生成する段階を含んでもよい。 Further, the step of generating the 3D brain map of the target comprises a plurality of meshes capable of simulating the transmission process of electrical stimulation to the brain of the target using the 3D brain image of the target. generating a rendered three-dimensional stereoscopic image.
また、前記対象体の3次元脳地図を生成する段階は、前記対象体の脳に対する電気的刺激による電流の流れをシミュレーションするための前記複数の領域それぞれの物理的特性を獲得する段階を含み、前記物理的特性は、前記複数の領域のそれぞれの等方性(isotropic)電気伝導率及び異方性(anisotropic)電気伝導率のうちの少なくとも1つを含んでもよい。 Also, generating the 3D brain map of the object includes acquiring physical characteristics of each of the plurality of regions for simulating current flow due to electrical stimulation to the brain of the object, The physical properties may include at least one of isotropic electrical conductivity and anisotropic electrical conductivity of each of the plurality of regions.
更に、前記物理的特性を獲得する段階は、前記対象体の脳MRI画像から前記対象体の脳に対する伝導テンソル画像を獲得する段階と、前記伝導テンソル画像を用いて前記複数の領域のそれぞれの異方性電気伝導率を獲得する段階とを含んでもよい。 Further, the step of obtaining the physical characteristics includes obtaining a conduction tensor image of the subject's brain from the subject's brain MRI image; and obtaining an anisotropic electrical conductivity.
また、前記対象体の脳MRI画像は拡散テンソル画像を含み、前記物理的特性を獲得する段階は、前記対象体の拡散テンソル画像を用いて前記複数の領域のそれぞれの異方性電気伝導率を獲得する段階を含んでもよい。 Also, the brain MRI image of the subject includes a diffusion tensor image, and the step of acquiring the physical properties includes determining the anisotropic electrical conductivity of each of the plurality of regions using the diffusion tensor image of the subject. It may include the step of obtaining.
更に、前記3次元脳地図の生成方法は、前記3次元脳地図を用いて、前記対象体の頭の一地点に特定の電気的刺激が与えられるとき、前記特定の電気的刺激が前記対象体の脳から伝播される状態をシミュレーションする段階を更に含んでもよい。 Further, the method for generating a three-dimensional brain map is characterized in that when a specific electrical stimulus is applied to one point on the head of the subject using the three-dimensional brain map, the specific electrical stimulus is applied to the subject. may further include simulating states propagated from the brain of the .
また、前記3次元脳地図の生成方法は、前記対象体の脳で電気的刺激を与える刺激目標地点を獲得する段階と、前記3次元脳地図を用いて、前記刺激目標地点に電気的刺激を与えるために前記対象体の頭に電気的刺激を与える位置を獲得する段階とを更に含んでもよい。 Also, the method for generating the 3D brain map includes the steps of: obtaining a stimulation target point to which electrical stimulation is applied in the brain of the subject; and applying electrical stimulation to the stimulation target point using the 3D brain map. obtaining a location for applying electrical stimulation to the subject's head to apply.
更に、前記電気的刺激を与える位置を獲得する段階は、前記3次元脳地図を用いて、前記対象体の頭皮から前記刺激目標地点まで電気的刺激が伝達されるための推薦経路を獲得する段階と、前記推薦経路から前記対象体の頭に電気的刺激を与える位置を獲得する段階とを含んでもよい。 Further, the step of obtaining the position to apply the electrical stimulation includes obtaining a recommended route for the electrical stimulation to be transmitted from the subject's scalp to the stimulation target point using the 3D brain map. and obtaining a position for applying electrical stimulation to the head of the target from the recommended path.
上述した課題を解決するための本発明の一側面によるコンピュータプログラムは、ハードウェアであるコンピュータで読み取り可能な記録媒体に格納され、3次元脳地図の生成方法を前記コンピュータで実行するためのプログラムである。 A computer program according to one aspect of the present invention for solving the above-described problems is a program stored in a computer-readable recording medium, which is hardware, and for executing a method for generating a three-dimensional brain map by the computer. be.
本発明のその他の具体的な事項は、詳細な説明及び図面に含まれている。 Other specifics of the invention are contained in the detailed description and drawings.
開示された実施例によれば、事前に学習されたモデルを活用して脳MRI画像のセグメンテーションを行うことによって、自動的かつ短時間に脳MRI画像のセグメンテーションを行えるという効果を奏する。 According to the disclosed embodiment, segmentation of a brain MRI image is performed using a model learned in advance, thereby achieving an effect of automatically segmenting a brain MRI image in a short period of time.
そのため、医療現場で誰でも短時間に対象体の3次元脳画像を獲得でき、更に対象体の脳に対する電気的刺激の効果を視覚的に確認できるシミュレーション結果を提供できるという効果が得られる。 As a result, anyone in the medical field can acquire a three-dimensional brain image of the subject in a short period of time, and furthermore, it is possible to provide simulation results that allow visual confirmation of the effect of electrical stimulation on the subject's brain.
また、経頭蓋的磁気刺激法の施術用コイルの種類による磁気ベクトルポテンシャル情報を共に活用することによって、刺激目標地点に最適な刺激を与えられる刺激地点を算出及び提供して、施術の効果を向上できるという効果がある。 In addition, by utilizing magnetic vector potential information according to the type of coil used for transcranial magnetic stimulation, it is possible to calculate and provide stimulation points that can give optimal stimulation to the stimulation target points, thereby improving the effect of the treatment. It has the effect of being able to
更に、頭モデリング及びMRIモデリングを用いて電気刺激パッドの位置をガイドすることによって、人によって異なる頭及び脳の構造を考慮した電気刺激パッドの位置をガイドできるという効果が得られる。 Further, by using head modeling and MRI modeling to guide the position of the electrical stimulation pad, it is possible to guide the position of the electrical stimulation pad in consideration of the structures of the head and brain that differ from person to person.
本発明の効果は、以上で言及した効果に制限されず、言及していない他の効果は、以下の記載から通常の技術者が明確に理解できるであろう。 The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description.
本発明の利点及び特徴、そしてそれらを達成する方法は、添付の図面と共に詳細に後述されている実施例を参照すれば明確になる。しかし、本発明は、以下で開示される実施例に制限されるものではなく、互いに異なる多様な形態で実現することができる。但し、本実施例は本発明の開示を完全なものにし、本発明が属する技術分野における通常の技術者に本発明の範疇を完全に理解させるために提供されるものであり、本発明は請求の範囲の範疇により定義されるに過ぎない。 Advantages and features of the present invention, as well as the manner in which they are achieved, will become apparent with reference to the embodiments described in detail below in conjunction with the accompanying drawings. The present invention may, however, be embodied in various different forms and should not be construed as limited to the embodiments set forth below. However, the Examples are provided so that this disclosure of the present invention will be complete and will fully comprehend the scope of the present invention by those of ordinary skill in the art to which the present invention pertains. defined only by the scope of the
本明細書で用いられる用語は、実施例を説明するためのものであり、本発明を制限しようとするものではない。本明細書において、単数形は特に言及しない限り複数形も含む。明細書で用いられる「含む(comprises)」及び/又は「含んでいる(comprising)」は、言及された構成要素以外に1つ以上の他の構成要素の存在又は追加を排除しない。明細書全体に亘って同一の図面符号は同一の構成要素を示し、「及び/又は」は言及された構成要素のそれぞれ及び1つ以上の全ての組み合わせを含む。たとえ、「第1」、「第2」などが多様な構成要素を記述するために用いられていても、これらの構成要素はこれらの用語により制限されないのは当然である。これらの用語は、1つの構成要素を他の構成要素と区別するために用いられるに過ぎない。従って、以下で言及する第1構成要素は、本発明の技術的思想内で第2構成要素でもあり得るのは当然である。 The terminology used herein is for the purpose of describing examples and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements besides the stated elements. Like reference numbers refer to like elements throughout the specification, and "and/or" includes each and every combination of one or more of the referenced elements. Of course, even though "first," "second," etc. are used to describe various components, these components are not limited by these terms. These terms are only used to distinguish one component from another. Therefore, it is natural that the first component referred to below can also be the second component within the technical concept of the present invention.
他の定義がなければ、本明細書で用いられる全ての用語(技術及び科学的用語を含む)は、本発明が属する技術分野における通常の技術者が共通して理解できる意味として用いられる。また、一般に用いられる辞典に定義されている用語は、明白に特に定義されていない限り、理想的に又は過度に解釈されない。 Unless otherwise defined, all terms (including technical and scientific terms) used herein have the meaning commonly understood by one of ordinary skill in the art to which this invention belongs. Also, terms defined in commonly used dictionaries should not be ideally or unduly interpreted unless explicitly defined otherwise.
明細書で用いられる「部」又は「モジュール」という用語はソフトウェア、FPGA、又はASICのようなハードウェアの構成要素を意味し、「部」又は「モジュール」は特定の役割を果たす。しかし、「部」又は「モジュール」との語は、ソフトウェア又はハードウェアに限定されることを意味しない。「部」又は「モジュール」は、アドレッシングできる記憶媒体に存在するように構成されてもよく、1つ又はそれ以上のプロセッサとして実現するように構成されてもよい。従って、一例として「部」又は「モジュール」はソフトウェアの構成要素、オブジェクト指向ソフトウェアの構成要素、クラスの構成要素及びタスクの構成要素のような構成要素と、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ及び変数を含む。構成要素と「部」又は「モジュール」内で提供される機能は、より少数の構成要素及び「部」又は「モジュール」で結合されるか、追加の構成要素と「部」又は「モジュール」などに更に分離できる。 As used herein, the term "unit" or "module" refers to a hardware component such as software, FPGA, or ASIC, where the "unit" or "module" performs a specific role. However, the terms "unit" or "module" are not meant to be limited to software or hardware. A "portion" or "module" may be configured to reside on an addressable storage medium and may be configured to be implemented as one or more processors. Thus, by way of example, a "part" or "module" refers to components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, procedures, subroutines, Includes segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Functionality provided within components and "sections" or "modules" may be combined with fewer components and "sections" or "modules", or may be combined with additional components and "sections" or "modules", etc. can be further separated into
本明細書において「対象体(object)」は、人又は動物、或いは人又は動物の一部を含み得る。例えば、対象体には、肝臓、心臓、子宮、脳、乳房、腹部などの臓器、又は血管を含めることができる。また、「対象体」にはファントム(phantom)を含めることもできる。ファントムとは、生物の密度と実効原子番号に非常に似ている体積を有する物質を意味するものであって、身体と類似する性質を有する球体(sphere)のファントムを含めることができる。 As used herein, an "object" may include a person or animal, or a part of a person or animal. For example, the subject can include organs such as the liver, heart, uterus, brain, breast, abdomen, or blood vessels. A "object" can also include a phantom. By phantom is meant a material having a volume that closely resembles the density and effective atomic number of an organism, and can include sphere phantoms with properties similar to the body.
また、本明細書において「使用者」は医療専門家であって、医師、看護師、臨床検査技師、医療画像専門家などであり、医療装置を修理する技術者であり得るが、これに限定されない。 Also, as used herein, a "user" is a medical professional such as a doctor, a nurse, a clinical laboratory technician, a medical imaging specialist, and can be, but is not limited to, a technician who repairs medical equipment. not.
更に、本明細書において「核磁気共鳴画像(MR image:Magnetic Resonance image)」とは、核磁気共鳴の原理を用いて獲得した対象体に対する画像を意味する。 Further, the term "magnetic resonance image (MR image)" as used herein means an image of an object acquired using the principle of nuclear magnetic resonance.
以下、添付の図面を参照して本発明の実施例を詳細に説明する。 Embodiments of the present invention will now be described in detail with reference to the accompanying drawings.
図1は、一実施例によって3次元脳地図を生成する方法を示すフローチャートである。 FIG. 1 is a flowchart illustrating a method for generating a 3D brain map according to one embodiment.
図1に示す方法は、コンピュータによって実行される段階を時系列的に示す図である。本明細書においてコンピュータは、少なくとも1つのプロセッサを含むコンピュータ装置の総称としての意味として用いられる。 The method illustrated in FIG. 1 is a diagram illustrating steps performed by a computer in chronological order. Computer is used herein as a generic term for computer devices that include at least one processor.
段階S110で、コンピュータは、対象体の脳MRI画像を獲得する。 At step S110, the computer acquires a brain MRI image of the subject.
一実施例において、コンピュータは、MRI画像獲得装置と接続されているワークステーションであって、MRI画像獲得装置から直接対象体の脳MRI画像を獲得できる。 In one embodiment, the computer is a workstation connected to the MRI image acquisition device and capable of acquiring brain MRI images of the subject directly from the MRI image acquisition device.
また、コンピュータは、外部サーバ又は他のコンピュータから対象体の脳MRI画像を獲得することもできる。 The computer can also acquire brain MRI images of the subject from an external server or other computer.
開示された実施例において、対象体の脳MRI画像は、対象体の脳を含む頭部分を撮影したMRI画像を意味する。即ち、対象体の脳MRI画像は、対象体の脳だけでなく、対象体の頭蓋骨及び頭皮を含むMRI画像を意味する。 In the disclosed embodiment, a brain MRI image of a subject means an MRI image of the head including the brain of the subject. That is, the brain MRI image of the subject means an MRI image including not only the brain of the subject but also the skull and scalp of the subject.
段階S120で、コンピュータは、段階S110で得られた脳MRI画像を複数の領域にセグメンテーション(区画化)する。 At step S120, the computer segments the brain MRI image obtained at step S110 into multiple regions.
一実施例において、コンピュータは、段階S110で得られた脳MRI画像を部位別にセグメンテーションする。例えば、コンピュータは、段階S110で得られた脳MRI画像を白質、灰白質、脳脊髓液、頭蓋骨及び頭皮にセグメンテーションできるが、脳MRI画像をセグメンテーションできる種類はこれに制限されない。 In one embodiment, the computer segments the brain MRI image obtained in step S110 by region. For example, the computer can segment the brain MRI image obtained in step S110 into white matter, gray matter, cerebrospinal fluid, skull and scalp, but the types of segmentation of the brain MRI image are not limited thereto.
一実施例において、コンピュータは、複数の加工された脳MRI画像を用いて学習されたモデルに、対象体の脳MRI画像を入力してセグメンテーションされた対象体の脳MRI画像を獲得する。 In one embodiment, the computer obtains segmented brain MRI images of the subject by inputting the subject's brain MRI images into a model trained using a plurality of processed brain MRI images.
一実施例において、加工された脳MRI画像は、脳MRI画像に含まれている複数の領域のそれぞれがラベリングされた画像である。また、学習されたモデルは、脳MRI画像の入力を受けて、セグメンテーションされた脳MRI画像を出力するモデルである。 In one example, the processed brain MRI image is an image in which each of the plurality of regions included in the brain MRI image is labeled. Also, the learned model is a model that receives an input of a brain MRI image and outputs a segmented brain MRI image.
一実施例において、学習されたモデルは、機械学習(Machine Learning)を用いて学習されたモデルを意味し、特にディープラーニング(Deep Learning)を用いて学習されたモデルを意味し得る。 In one embodiment, a trained model means a model trained using machine learning, and in particular, a model trained using deep learning.
一実施例において、学習されたモデルは、1つ以上のバッチ正規化(Batch Normalization)レイヤ、活性化(Activation)レイヤ及びコンボリューション(Convolution)レイヤを含むモデルであってもよいが、これに制限されない。 In one embodiment, the learned model may be a model including one or more Batch Normalization layer, Activation layer and Convolution layer, but is not limited to this. not.
一実施例において、学習されたモデルは、MRI画像の低レベル特性から高レベル特性を抽出する複数のブロックで構成された水平パイプラインと、水平パイプラインから抽出された特性を集めてセグメンテーションを行う垂直パイプラインを含んで相対的に画質が落ちるMRIのセグメンテーションを行えるように構成することもできる。 In one embodiment, the trained model comprises a horizontal pipeline composed of multiple blocks that extract high-level features from the low-level features of the MRI image, and aggregates the extracted features from the horizontal pipeline to perform the segmentation. It can also be configured to include a vertical pipeline to allow relatively poor quality MRI segmentation.
図3を参照すれば、脳MRI画像300(a)に対するセグメンテーションを行った結果300(b)が示されている。 Referring to FIG. 3, a segmentation result 300(b) of a brain MRI image 300(a) is shown.
一実施例において、コンピュータは、セグメンテーション結果に対する後処理を行う。 In one embodiment, the computer performs post-processing on the segmentation results.
一実施例において、コンピュータは、連結構成要素に基づくノイズの除去(Connected Component-based Noise Rejection)を行う。連結構成要素に基づくノイズの除去方法は、畳み込みニューラルネットワーク(Convolution Neural Network、CNN)を用いて行われたセグメンテーションの結果を向上させるのに用いられる。 In one embodiment, the computer performs Connected Component-based Noise Rejection. Connected component-based denoising methods are used to improve the results of segmentation performed using a Convolution Neural Network (CNN).
図4を参照すれば、連結構成要素に基づくノイズの除去方法の一例が示されている。 Referring to FIG. 4, an example of a noise removal method based on connected components is shown.
コンピュータは、セグメンテーション画像400で最も大きな塊(chunk)である連結構成要素を除外した残りの構成要素402を除去することによって、向上したセグメンテーション画像410を獲得する。
The computer obtains an enhanced
一実施例において、コンピュータは、ホールリジェクション(Hole Rejection)を行う。ホールリジェクションは、畳み込みニューラルネットワークに基づくセグメンテーションのエラーのうちの1つであるホールを除去するのに用いられる。 In one embodiment, the computer performs Hole Rejection. Hole rejection is used to remove holes, which are one of the errors in segmentation based on convolutional neural networks.
図5を参照すれば、ホールリジェクションを用いた後処理方式の一例が示されている。 Referring to FIG. 5, an example post-processing scheme using hole rejection is shown.
コンピュータは、セグメンテーション画像500に含まれているホール502の少なくとも一部を除去し、向上したセグメンテーション画像510を獲得する。
The computer removes at least a portion of the
段階S130で、コンピュータは、段階S120でセグメンテーションされた対象体の脳MRI画像を用いて、セグメンテーションされた複数の領域を含む対象体の3次元脳画像を生成する。 At step S130, the computer generates a three-dimensional brain image of the subject including the segmented regions using the brain MRI image of the subject segmented at step S120.
図6を参照すれば、対象体の脳MRI画像から生成された3次元脳画像600が示されている。
Referring to FIG. 6, a three-
また、セグメンテーションされた対象体の2次元脳MRI画像からセグメンテーションされた対象体の3次元脳画像610を生成した結果の一例が図6に示されている。
FIG. 6 shows an example of the result of generating a
段階S140で、コンピュータは、段階S130で生成された3次元脳画像に含まれている複数の領域それぞれの性質に基づいて、対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる対象体の3次元脳地図を生成する。 In step S140, the computer performs 3-dimensional imaging of the object, which can simulate the transmission process of electrical stimulation to the brain of the object, based on the properties of each of the plurality of regions included in the 3D brain image generated in step S130. Generate a dimensional brain map.
対象体の3次元脳地図を生成し、生成された脳地図を用いてシミュレーションを行う具体的な方法は、図2を用いて後述する。 A specific method of generating a three-dimensional brain map of an object and performing a simulation using the generated brain map will be described later with reference to FIG.
図2は、一実施例によって対象体の3次元脳地図を生成し、シミュレーションを行う方法を示すフローチャートである。 FIG. 2 is a flow chart illustrating a method of generating a 3D brain map of a target and performing a simulation according to one embodiment.
図2に示す方法は、図1に示した方法の一実施例に該当する。従って、図2と関連して省略された内容であっても図1と関連して説明された内容は図2に示す方法にも適用される。 The method shown in FIG. 2 corresponds to one embodiment of the method shown in FIG. Therefore, the content described in connection with FIG. 1 also applies to the method shown in FIG. 2, even if the content is omitted in connection with FIG.
段階S210で、コンピュータは、対象体の3次元脳画像を用いて対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる複数の格子(mesh)で構成された3次元立体画像を生成する。 In step S210, the computer generates a 3D stereoscopic image composed of a plurality of meshes capable of simulating the transmission process of electrical stimulation to the brain of the target using the 3D brain image of the target.
一実施例において、コンピュータは、三角形又は四角形を含む複数の表面格子(Surface Mesh)で構成された3次元立体画像を生成する。 In one embodiment, a computer generates a three-dimensional stereoscopic image made up of a plurality of surface meshes containing triangles or squares.
一実施例において、コンピュータは、四面体又は六面体を含む複数の空間格子(Volumetric Mesh)で構成された3次元立体画像を生成する。 In one embodiment, a computer generates a three-dimensional stereoscopic image composed of a plurality of volumetric meshes containing tetrahedrons or hexahedrons.
3次元立体画像を構成する格子の種類は、シミュレーションの用途に応じて異なるように設定できる。 The type of lattice that forms the 3D stereoscopic image can be set differently depending on the application of the simulation.
段階S220で、コンピュータは、対象体の脳に対する電気的刺激による電流の流れをシミュレーションするための前記複数の領域それぞれの物理的特性を獲得する。 In step S220, the computer acquires physical properties of each of the plurality of regions for simulating current flow due to electrical stimulation to the brain of the subject.
一実施例において、段階S220で得られる物理的特性は、セグメンテーションされた複数の領域それぞれの等方性(isotropic)電気伝導率及び異方性(anisotropic)電気伝導率のうちの少なくとも1つを含む。 In one embodiment, the physical properties obtained in step S220 include at least one of isotropic electrical conductivity and anisotropic electrical conductivity of each of the plurality of segmented regions. .
一実施例において、等方性電気伝導率は、セグメンテーションされた各領域に対して実験によって知られている電気伝導率を割り当てることによって獲得できる。 In one embodiment, the isotropic electrical conductivity can be obtained by assigning an experimentally known electrical conductivity to each segmented region.
例えば、脳の各領域に対して知られている電気伝導率は、下記の表1の通りである。 For example, the electrical conductivity known for each region of the brain is shown in Table 1 below.
異方性電気伝導率は、脳白質にある白質繊維の異方性を実現したものである。 Anisotropic electrical conductivity is a realization of the anisotropy of the white matter fibers in the white matter of the brain.
一実施例において、異方性電気伝導率は、対象体の脳に対する伝導テンソル画像から獲得される。 In one embodiment, the anisotropic electrical conductivity is obtained from a conduction tensor image for the subject's brain.
例えば、コンピュータは、対象体の脳MRI画像から対象体の脳に対する伝導テンソル画像を獲得し、獲得した伝導テンソル画像を用いてセグメンテーションされた複数の領域それぞれの異方性電気伝導率を獲得する。 For example, the computer acquires a conduction tensor image of the subject's brain from a brain MRI image of the subject, and acquires the anisotropic electrical conductivity of each of the segmented regions using the acquired conduction tensor image.
他の実施例において、対象体の脳MRI画像は拡散テンソル画像を含み、コンピュータは、対象体の拡散テンソル画像を用いてセグメンテーションされた複数の領域それぞれの異方性電気伝導率を獲得する。 In another embodiment, the brain MRI image of the subject includes a diffusion tensor image, and the computer obtains the anisotropic electrical conductivity of each of the regions segmented using the diffusion tensor image of the subject.
図7を参照すれば、拡散テンソル画像700の一例が示されている。
Referring to FIG. 7, an example
拡散テンソル画像の固有ベクトルは、伝導テンソルの固有ベクトルと一致すると知られているため、コンピュータは、拡散テンソル画像に含まれている神経繊維の方向によって異方性電気伝導率を獲得できる。例えば、神経繊維の方向は高い電気伝導率を有し、神経繊維と垂直な方向は低い電気伝導率を有する。 Since the eigenvectors of the diffusion tensor image are known to match the eigenvectors of the conduction tensor, the computer can obtain the anisotropic electrical conductivity depending on the orientation of the nerve fibers contained in the diffusion tensor image. For example, the direction of the nerve fibers has high electrical conductivity and the direction perpendicular to the nerve fibers has low electrical conductivity.
段階S230で、コンピュータは、3次元脳地図を用いて、対象体の頭の一地点に特定の電気的刺激が与えられたときに、特定の電気的刺激が対象体の脳から伝播される状態をシミュレーションする。 In step S230, the computer uses the 3D brain map to determine a state in which a specific electrical stimulus is propagated from the brain of the subject when a specific electrical stimulus is applied to one point on the head of the subject. to simulate.
一実施例において、コンピュータは、段階S210で得られた格子画像と、段階S220で得られた物理的特性を用いて電気的刺激が対象体の脳から伝播される状態をシミュレーションする。 In one embodiment, the computer uses the grid image obtained in step S210 and the physical properties obtained in step S220 to simulate the state in which electrical stimulation propagates from the subject's brain.
図8を参照すれば、シミュレーション結果の一例が示されている。 Referring to FIG. 8, an example of simulation results is shown.
対象体の頭に与えられ得る電気的刺激は磁場、電場及び電流のうちの少なくとも1つを含むことができ、対象体の頭に磁場が加えられる場合、対象体の脳には磁場によって誘導された電流を伝播できる。 The electrical stimulation that can be applied to the subject's head can include at least one of a magnetic field, an electric field, and an electric current, and when the magnetic field is applied to the subject's head, the subject's brain is induced by the magnetic field. current can be propagated.
一実施例において、コンピュータは、対象体の脳で電気的刺激を与える刺激目標地点を獲得する。コンピュータは、対象体の3次元脳地図を用いて、刺激目標地点に電気的刺激を与えるために、対象体の頭に電気的刺激を与える位置を獲得する。 In one embodiment, the computer acquires stimulation target points for electrical stimulation in the subject's brain. The computer uses the subject's three-dimensional brain map to acquire locations for applying electrical stimulation to the subject's head in order to apply electrical stimulation to stimulation target points.
例えば、コンピュータは、対象体の3次元脳地図を用いて、対象体の頭皮から刺激目標地点まで電気的刺激が伝達されるための推薦経路を獲得し、推薦経路から対象体の頭に電気的刺激を与える位置を獲得できる。 For example, the computer acquires a recommended route for the electrical stimulation to be transmitted from the scalp of the subject to the stimulation target point using the 3D brain map of the subject, and conducts the electrical stimulation from the recommended path to the head of the subject. Acquire a stimulating position.
コンピュータが対象体の脳に電気的刺激を与えるための位置及び方向を算出及び提供する方法については、以下で後述する。 A method of calculating and providing the position and direction for the computer to apply electrical stimulation to the brain of the subject will be described below.
図9は、一実施例によるTMS(Transcranial Magnetic Stimulation、経頭蓋的磁気刺激法)刺激ナビゲーション方法を示すフローチャートである。 FIG. 9 is a flowchart illustrating a Transcranial Magnetic Stimulation (TMS) stimulation navigation method according to one embodiment.
図9に示したTMS刺激ナビゲーション方法は、コンピュータによって実行される段階を時系列的に示す図である。 The TMS stimulus navigation method shown in FIG. 9 is a timeline of computer-implemented steps.
図10を参照すれば、TMS施術方法の一例が示されている。 Referring to FIG. 10, an example of a TMS treatment method is shown.
TMSは、施術用コイル1000を対象体10の頭の一側面に隣接させ、コイル1000で発生する磁場によって対象体10の脳に誘導される電場を利用し、脳の特定部分を刺激する治療方法である。
TMS is a treatment method in which a
施術用コイル1000の形状によってコイル1000の周辺で発生する磁場の強さと形状が異なるので、対象体10の頭及び脳の形状によって電気的信号が伝播される様子も異なるはずである。
Since the strength and shape of the magnetic field generated around the
従って、開示された実施例によれば、コイル1000の種類による刺激地点を算出して提供し、対象体10の頭及び脳の形状によるシミュレーション結果を提供する。
Therefore, according to the disclosed embodiment, stimulation points are calculated and provided according to the type of the
段階S910で、コンピュータは、対象体の脳で電気的刺激を与える刺激目標地点を獲得する。 In step S910, the computer acquires a stimulation target point for applying electrical stimulation to the brain of the subject.
刺激目標地点は、治療しようとする疾患によって臨床的又は理論的根拠に基づいて選択される。一実施例において、刺激目標地点は、開示された実施例によって生成された対象体の3次元脳画像又は3次元脳地図を用いて指示される。 The stimulation target point is selected clinically or rationally depending on the disease to be treated. In one embodiment, stimulation target points are indicated using a 3D brain image or 3D brain map of the subject generated by the disclosed embodiments.
段階S920で、コンピュータは、TMS施術用コイルの磁気ベクトルポテンシャル(Magnetic Vector Potential)の空間的分布に関する情報を獲得する。 At step S920, the computer acquires information about the spatial distribution of the Magnetic Vector Potential of the TMS treatment coil.
一実施例において、空間的分布に関する情報は、施術用コイルの形状による磁気双極子(Magnetic Dipole)を用いて磁気ベクトルポテンシャルを可視化した情報を含む。 In one embodiment, the information about the spatial distribution includes information obtained by visualizing the magnetic vector potential using a magnetic dipole due to the shape of the treatment coil.
図12を参照すれば、施術用コイル(1200及び1250)の種類による磁気ベクトルポテンシャルを可視化した情報(1210及び1260)が示されている。 Referring to FIG. 12, information (1210 and 1260) that visualizes the magnetic vector potential according to the types of treatment coils (1200 and 1250) is shown.
段階S930で、コンピュータは、段階S920で獲得した空間的分布から、段階S910で獲得した刺激目標地点に対する最適刺激条件を獲得するための1つ以上のパラメータを獲得する。 At step S930, the computer obtains one or more parameters for obtaining optimal stimulation conditions for the stimulation target points obtained at step S910 from the spatial distribution obtained at step S920.
一実施例において、刺激目標地点に対する最適刺激条件は、施術用コイルによって刺激目標地点に印加される磁場の強さが最大となるようにする条件を意味する。 In one embodiment, the optimum stimulation condition for the stimulation target point means a condition that maximizes the strength of the magnetic field applied to the stimulation target point by the treatment coil.
図11を参照すれば、対象体の脳に印加される磁場と電場の関係が示されている。 Referring to FIG. 11, the relationship between the magnetic field and the electric field applied to the brain of the subject is shown.
図11のシミュレーション画像1100(a)を参照すれば、対象体の脳に印加される磁場の大きさ、勾配(電位)の大きさ及び磁場によって誘導される電場の大きさを視覚化したイメージがそれぞれ示されている。対象体の脳に印加される電場の大きさは、対象体の脳に印加される磁場と勾配を足して算出できる。 Referring to the simulation image 1100(a) of FIG. 11, the image visualizes the magnitude of the magnetic field applied to the brain of the subject, the magnitude of the gradient (potential), and the magnitude of the electric field induced by the magnetic field. each shown. The magnitude of the electric field applied to the subject's brain can be calculated by adding the magnetic field applied to the subject's brain and the gradient.
図11のグラフ1100(b)を参照すれば、対象体の脳に印加される磁場と、磁場によって誘導される電場間の相関関係が示されている。 Referring to graph 1100(b) of FIG. 11, the correlation between the magnetic field applied to the subject's brain and the electric field induced by the magnetic field is shown.
グラフ1100(b)によれば、対象体の脳に強い磁場が印加されるほど、対象体の脳に強い電場が誘導されることが分かる。 According to the graph 1100(b), it can be seen that as a stronger magnetic field is applied to the brain of the subject, a stronger electric field is induced in the brain of the subject.
従って、刺激目標地点に対する最適刺激条件は、施術用コイルによって刺激目標地点に印加される磁場の強さが最大となるようにするものであることが分かる。 Therefore, it can be seen that the optimum stimulation condition for the stimulation target point is to maximize the strength of the magnetic field applied to the stimulation target point by the treatment coil.
一実施例において、コンピュータが獲得するパラメータは、コイルによって誘導される磁気ベクトルポテンシャルの空間的分布で最も高い磁気ベクトルポテンシャル値を有する最適点(Optimal Point)を含む。 In one embodiment, the parameters obtained by the computer include the Optimal Point with the highest magnetic vector potential value in the spatial distribution of the magnetic vector potential induced by the coil.
また、コンピュータが獲得するパラメータは、最適点を開始点とする法線ベクトル(Normal Vector)のうち最適点での勾配(Gradient)との積が最小となる法線ベクトルである最適ベクトル(Optimal Vector)を含む。 In addition, the parameters acquired by the computer are the Optimal Vector, which is the normal vector that minimizes the product of the gradient at the optimum point among the normal vectors starting from the optimum point. )including.
図12を参照すれば、磁気ベクトルポテンシャル(1210及び1250)それぞれの最適点(1212及び1262)及び最適ベクトル(1214及び1264)が示されている。 Referring to FIG. 12, the optimum points (1212 and 1262) and optimum vectors (1214 and 1264) for the magnetic vector potentials (1210 and 1250) respectively are shown.
最適点(x、y、z)と最適ベクトルvは、下記の式1及び式2によって算出される。
The optimum point (x, y, z) and the optimum vector v are calculated by
前記数1において、fは磁気ベクトルポテンシャルマップを意味し、数1によって磁気ベクトルポテンシャルマップfで最も大きな値を有する位置である(x、y、z)が最適点として算出される。
In
前記数2において、
は最適点を定義する際に用いられたfを最適点である
で微分した値であり、v(x、y、z)は(x、y、z)方向への法線ベクトルを意味する。
In
is the optimal point f used in defining the optimal point
, and v(x, y, z) means a normal vector in the (x, y, z) direction.
段階S940で、コンピュータは、段階S930で得られたパラメータを用いて、段階S910で得られた刺激目標地点に対する最適刺激条件を満たすコイルの位置及び方向を算出する。 At step S940, the computer uses the parameters obtained at step S930 to calculate the position and orientation of the coil that satisfies the optimum stimulation condition for the stimulation target point obtained at step S910.
一実施例において、コイルの位置及び方向を算出する段階は、刺激目標地点が最適点から最適ベクトル方向に最も近接するようにするコイルの位置及び方向を算出する段階を含む。 In one embodiment, calculating the position and orientation of the coil includes calculating the position and orientation of the coil that causes the stimulation target point to be closest to the optimum vector direction from the optimum point.
図13を参照すれば、コイルの位置及び方向を算出する方法の一例が示されている。 Referring to FIG. 13, an example method for calculating the position and orientation of the coil is shown.
対象体10及び対象体10の刺激目標地点(S、12)が獲得されると、コンピュータは、刺激目標地点12から最も近い頭皮上の一地点14を決定する。
Once the subject 10 and the stimulation target point (S, 12) of the subject 10 are obtained, the computer determines a
このとき、刺激目標地点12及び刺激目標地点12から最も近い頭皮上の一地点14間の距離をDとし、地点14を開始点とし、刺激目標地点12を終点とするベクトルをKとする。また、コイル1310の厚さを2Pとする。
At this time, let D be the distance between the
コンピュータは、ベクトルK1320とコイル1310の最適ベクトル1312を整列する下記の式3のような行列を生成及び適用する。
The computer generates and applies a matrix such as Equation 3 below that aligns
これにより、コイルの位置は、下記の数4のように算出される。 Accordingly, the position of the coil is calculated as shown in Equation 4 below.
段階S950で、コンピュータは、施術用コイルを段階S940で算出された位置に段階S950で算出された方向に位置させたときに、施術用コイルの磁場から誘導される電気的刺激が対象体の脳から伝播される状態をシミュレーションする。 In step S950, the computer causes the electrical stimulation induced by the magnetic field of the treatment coil to be applied to the brain of the subject when the treatment coil is positioned in the position calculated in step S940 and in the direction calculated in step S950. Simulate the state propagated from .
一実施例において、コンピュータは、図1及び図2に示した方法によって生成された3次元脳地図を用いてシミュレーションを行う。 In one embodiment, a computer performs a simulation using a 3D brain map generated by the method shown in FIGS.
例えば、コンピュータは、対象体の脳MRI画像を獲得し、獲得した脳MRI画像に含まれている複数の領域のそれぞれの性質に基づいて、対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる対象体の3次元脳地図を生成できる。 For example, the computer can acquire a brain MRI image of the subject and simulate the transmission process of electrical stimulation to the brain of the subject based on the properties of each of a plurality of regions included in the acquired brain MRI image. A 3D brain map of the subject can be generated.
コンピュータは、生成された3次元脳地図を用いて、コイルによる電気的刺激が対象体の脳から伝播される状態をシミュレーションする。 The computer uses the generated three-dimensional brain map to simulate the state in which electrical stimulation by the coil is propagated from the subject's brain.
また、3次元脳地図は、対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる複数の格子で構成された3次元立体画像を含むことができる。 Also, the 3D brain map may include a 3D stereoscopic image composed of a plurality of grids capable of simulating the transmission process of electrical stimulation to the brain of the subject.
一実施例において、コンピュータは、施術用コイルの磁場から誘導される電気的刺激が対象体の脳から伝播される状態を、3次元立体画像を用いて視覚化する。 In one embodiment, the computer visualizes, using a three-dimensional stereoscopic image, how electrical stimulation induced by the magnetic field of the treatment coil propagates from the subject's brain.
図14を参照すれば、施術用コイルの磁場から誘導される電気的刺激が対象体の脳から伝播される状態を視覚化した例示が示されている。 Referring to FIG. 14, there is shown an example of visualizing a state in which electrical stimulation induced by the magnetic field of the treatment coil is propagated from the subject's brain.
開示された実施例において、コンピュータは、TMS施術用コイルが備えられたロボットアーム装置と接続される。ロボットアーム装置は、コンピュータが指定した位置にTMS施術用コイルを移動させることができる機械装置を含む。 In the disclosed embodiment, the computer is connected to a robotic arm device equipped with TMS treatment coils. The robotic arm device includes a mechanical device that can move the TMS treatment coil to a computer-specified position.
ロボットアーム装置は、開示された実施例によってコンピュータが指定した位置にTMS施術用コイルを移動させることによって、コンピュータの演算結果によって自動的に患者にTMSコイルを用いた施術を行える。 By moving the TMS treatment coil to a position specified by the computer according to the disclosed embodiment, the robot arm device can automatically treat the patient using the TMS coil according to the calculation result of the computer.
図15は、一実施例によるパッドガイド方法を示すフローチャートである。 FIG. 15 is a flowchart illustrating a pad guiding method according to one embodiment.
開示された実施例において、パッドは脳刺激パッドを含む。例えば、脳刺激パッドは、電気刺激パッド及び超音波刺激パッドを含むことができるが、これに制限されない。また、パッドは、EEGパッドを含む。但し、開示された実施例によるパッドの種類は、上述した例示に制限されない。 In the disclosed embodiment, the pads include brain stimulation pads. For example, brain stimulation pads can include, but are not limited to, electrical stimulation pads and ultrasonic stimulation pads. The pads also include EEG pads. However, the types of pads according to the disclosed embodiments are not limited to the examples given above.
段階S1510で、コンピュータは、深度カメラを用いて対象体の頭を含む3次元スキャンモデルを獲得する。 At step S1510, the computer acquires a 3D scan model including the head of the object using a depth camera.
深度カメラ(depth camera)は、三角測量方式の3次元レーザスキャナ、構造光線パターンを用いた深度カメラ、赤外線の反射時間差を用いたTOF(Time Of Flight)方式を利用した深度カメラなどを含むことができるが、その種類はこれに制限されない。 The depth camera may include a triangulation type 3D laser scanner, a depth camera using a structured ray pattern, a depth camera using a TOF (Time Of Flight) method using a reflection time difference of infrared rays, and the like. possible, but the type is not limited to this.
深度カメラは、画像に距離情報を反映して3次元スキャンモデルを獲得するのに用いられる。 Depth cameras are used to reflect depth information in images to obtain a 3D scan model.
一実施例において、対象体、即ち患者は、背もたれのない丸椅子に着席し、使用者、即ち医師は、三角台など仮固定装置を用いて深度カメラを患者の顔の高さから患者の顔がよく見えるように位置させる。 In one embodiment, the subject, i.e., the patient, is seated in a round chair with no backrest, and the user, i.e., the doctor, uses a temporary fixation device such as a triangular table to view the depth camera from the height of the patient's face to the patient's face. Position it so that you can see it clearly.
医師は、深度カメラを用いたスキャンを開始し、患者をゆっくり一回まわすことによって患者の頭を含む3次元スキャンモデルを獲得する。 The doctor initiates a scan with a depth camera and slowly rotates the patient once to obtain a three-dimensional scan model containing the patient's head.
一実施例において、深度カメラを自動回転可能な固定モジュールに配置して、深度カメラが中央に位置する患者の周辺を回転することによって3次元スキャンモデルを獲得できる。 In one embodiment, the depth camera can be placed in an auto-rotatable stationary module to acquire a 3D scan model by rotating around the patient in which the depth camera is centrally located.
反面、開示された実施例によれば、別途の高価な装置がなくても3次元スキャンが可能なように、携帯可能なコンピュータ装置(例えば、スマートフォン、タブレットPCなど)に深度カメラモジュールを接続し、三角台など手軽に入手できる仮固定装置を用いて深度カメラモジュールが接続されているコンピュータ装置を固定し、患者をスツールなどに着席させた後に回転させることによって3次元スキャンモデルを獲得できる。 On the other hand, according to the disclosed embodiments, a depth camera module can be connected to a portable computing device (e.g., smart phone, tablet PC, etc.) so that 3D scanning can be performed without a separate expensive device. A 3D scan model can be acquired by fixing a computer device to which a depth camera module is connected using a readily available temporary fixation device such as a triangular table, and then seating the patient on a stool or the like and then rotating it.
図20を参照すれば、携帯可能なコンピュータ装置2000とそれに接続されている深度カメラモジュール2010が示されている。
Referring to FIG. 20, there is shown a
また、図18を参照すれば、深度カメラを用いて獲得した3次元スキャンモデル1800の一例が示されている。
Also referring to FIG. 18, an example of a
一実施例において、コンピュータは、深度カメラを用いて収集された距離画像を用いて対象体の頭を含む3次元モデルを生成し、互いに異なる開始点で撮影された画像を互いに位置合わせした後合体して、対象体の3次元モデルを再構成する。例えば、コンピュータは、深度カメラを用いて収集された距離画像で点群(point cloud)形態の3次元データを収集してモデルを再構成する。しかし、3次元モデルを生成する方法は制限されない。 In one embodiment, the computer generates a three-dimensional model containing the subject's head using the range images collected using the depth camera, and aligns the images taken at different starting points with each other and then merges them. to reconstruct a three-dimensional model of the object. For example, a computer collects 3D data in the form of a point cloud from range images collected using a depth camera to reconstruct a model. However, the method of generating the three-dimensional model is not limited.
段階S1520で、コンピュータは、対象体の3次元脳MRIモデルを獲得する。 At step S1520, the computer acquires a 3D brain MRI model of the subject.
一実施例において、対象体の3次元脳MRIモデルを獲得する段階は、対象体の脳MRI画像を獲得する段階と、対象体の脳MRI画像に含まれている複数の領域のそれぞれの性質に基づいて、対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる対象体の3次元脳地図を生成する段階とを含む。 In one embodiment, acquiring a three-dimensional brain MRI model of the subject includes acquiring a brain MRI image of the subject and the properties of each of the plurality of regions included in the subject's brain MRI image. and generating a 3D brain map of the subject, which can simulate the transmission process of electrical stimulation to the brain of the subject.
また、対象体の3次元脳地図を生成する段階は、対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる複数の格子(mesh)で構成された3次元立体画像を生成する段階を含む。 Also, generating the 3D brain map of the target includes generating a 3D stereoscopic image composed of a plurality of meshes capable of simulating a transmission process of electrical stimulation to the brain of the target.
段階S1520でコンピュータが対象体の3次元脳MRIモデルを獲得する方法は、図1ないし図8と関連して説明した3次元脳地図の生成方法を用いることができる。 The method for obtaining the 3D brain MRI model of the object by the computer in step S1520 can use the 3D brain map generation method described with reference to FIGS.
段階S1530で、コンピュータは、対象体の頭を含む3次元スキャンモデルと対象体の脳MRIモデルに対する整合を行う。 At step S1530, the computer aligns the 3D scan model including the subject's head with the subject's brain MRI model.
図17を参照すれば、イメージを整合する方法の一実施例が示されている。図17に示したイメージ1700を参照すれば、対象体の脳MRI写真と、対象体の脳の構造をモデリングしたイメージが重なっている。
Referring to FIG. 17, one embodiment of a method for aligning images is shown. Referring to the
イメージ1700で、下側の3つのイメージは、脳MRI写真と脳の構造をモデリングしたイメージが整合されていない例に該当する。また、イメージ1700で、上側の3つのイメージは、脳MRI写真と脳の構造をモデリングしたイメージが整合された例に該当する。
In the
コンピュータは、脳MRIモデルを用いてパッドが付される位置によってパッドの電気又は超音波刺激により対象体の脳で発生する変化を計算する。また、コンピュータは、対象体の頭を含む3次元スキャンモデルを用いてパッドを実際に付すべき位置を計算する。 The computer uses a brain MRI model to calculate the changes that occur in the subject's brain due to electrical or ultrasonic stimulation of the pads depending on where the pads are applied. The computer also uses a three-dimensional scan model including the subject's head to calculate where the pads should actually be applied.
従って、コンピュータは、対象体の頭を含む3次元スキャンモデルと対象体の脳MRIモデルに対する整合を行うことによって、対象体の頭にパッドを付すべき位置を計算し、それにより対象体の脳で発生する変化を計算できる。同様に、コンピュータは整合された結果を用いて、対象体の脳に特定の変化を起こすために、対象体の頭にパッドを付すべき位置を計算し、その結果を提供できる。 Accordingly, the computer calculates the positions at which the subject's head should be padded by performing a match to the subject's brain MRI model with a three-dimensional scan model that includes the subject's head, thereby calculating the positions in the subject's brain. You can calculate the changes that occur. Similarly, the computer can use the aligned results to calculate and provide the results of the positions at which the subject's head should be padded to cause a particular change in the subject's brain.
一実施例において、コンピュータが整合を行う段階は、スキャンモデルと脳MRIモデルの顔特性(facial feature)を計算する段階及びスキャンモデルと脳MRIモデルの顔特性を用いてスキャンモデルと脳MRIモデルの整合を行う段階を含む。 In one embodiment, the step of computer matching includes calculating facial features of the scan model and the brain MRI model; including matching.
対象体の頭を含むスキャンモデルと対象体の脳MRIモデルはその様式が異なるので、整合し難い。従って、コンピュータは、対象体の顔特性を用いて両モデルを整合させることができる。 Since the scan model including the subject's head and the subject's brain MRI model are in different modalities, it is difficult to match them. Therefore, the computer can match both models using the subject's facial characteristics.
一実施例において、対象体の頭を含むスキャンモデルの顔特性を計算する段階は、対象体の頭を含む色画像及び深度画像を獲得する段階と、対象体の頭を含む色画像を用いて対象体の顔特性を計算する段階と、対象体の頭を含む深度画像を用いて対象体の顔特性の3次元位置を計算する段階とを含む。 In one embodiment, calculating facial features of a scan model including the subject's head includes acquiring a color image and a depth image including the subject's head, and using the color image including the subject's head. The method includes calculating facial features of the object, and calculating three-dimensional locations of the facial features of the object using a depth image including the head of the object.
図18を参照すれば、対象体の頭を含むスキャンモデル1800及び対象体の脳MRIモデル1810を整合し、整合されたモデル1820を生成する一例が示されている。
Referring to FIG. 18, an example of matching a
段階S1540で、コンピュータは、深度カメラを用いて対象体の頭を撮影した画像を獲得する。 In step S1540, the computer obtains an image of the head of the object using the depth camera.
例えば、医師は、仮固定された深度カメラを直接手に持って患者の頭を映しながら動かすことができる。 For example, a doctor can directly hold a temporarily fixed depth camera and move it while viewing the patient's head.
段階S1550で、コンピュータは、段階S1540で撮影された画像の一位置と整合されたモデル上の一位置をマッチさせる。 At step S1550, the computer matches a location on the model that was aligned with a location on the image taken at step S1540.
例えば、コンピュータが深度カメラを用いて対象体の頭の一地点を撮影している場合、コンピュータは、撮影されている一地点が整合されたモデル上でどの部分に該当するかに対する計算を行う。 For example, if the computer is using a depth camera to image a point on the subject's head, the computer performs a calculation as to where the imaged point falls on the aligned model.
一実施例において、コンピュータは、撮影された画像と整合されたモデルをマッチして対象体の頭に付するパッドの位置をガイドする画像を表示する。 In one embodiment, the computer displays an image that matches the captured image with the aligned model to guide the location of a pad on the subject's head.
図19を参照すれば、深度カメラモジュールが接続されているコンピュータ装置1900が対象体の頭1910を撮影し、コンピュータ装置1900は、撮影された対象体の頭1910にパッド1930を付するための位置1920をガイドする画像を表示する。
Referring to FIG. 19, a
一実施例において、コンピュータ装置1900は、整合されたモデル上でパッド1930を付する位置を決定し、撮影された画像において決定された位置に対応する位置1920を表示する。
In one embodiment, the
また、コンピュータ装置1900は、撮影された画像でパッド1930を認識し、認識されたパッド1930の移動方向をガイドする。
Also, the
更に、コンピュータ装置1900は、認識されたパッド1930が決定された位置1920に付されたか否かを判断する。
Further,
一実施例において、パッド1930には少なくとも1つのマーカが付されるか又は表示される。例えば、パッド1930には特定の図形、色及び2次元コードのうちの少なくとも1つが付されるか又は表示され、コンピュータ装置1900は、パッド1930に付着又は表示されたマーカを用いてパッド1930を認識し、パッド1930の動きをトラッキングする。
In one embodiment,
例えば、医師が患者の頭をコンピュータ装置1900又はコンピュータ装置1900と接続されている深度カメラを用いて位置を変更しながら撮影する場合、コンピュータ装置1900に表示される患者の頭の位置も変更され、同様に、コンピュータ装置1900が認識するパッド1930の位置も変更される。この場合、コンピュータ装置1900は、コンピュータ装置1900が移動する場合にもパッド1930をトラッキングして、医師が患者の頭の正確な位置にパッド1930を付することができるようにガイドする。
For example, when the doctor photographs the patient's head while changing the position using the
一実施例において、コンピュータ装置1900は、撮影された画像でパッド1930を認識し、認識されたパッドの移動方向をガイドする。例えば、コンピュータ装置1900は、パッド1930が決定された位置1920に付され得るように、パッド1930の移動方向を表示する。
In one embodiment, the
また、コンピュータ装置1900は、認識されたパッド1930が決定された位置1920に付されたか否かを判断する。例えば、コンピュータ装置1900は、パッド1930が最終的に認識された位置が決定された位置1920に対応するか否かを判断し、決定された位置1920とパッド1930が付された位置が異なる場合、パッド1930の位置を変更することを要請する通知を提供できる。
一実施例において、コンピュータ装置1900は、撮影された画像で対象体の頭に付されたパッド1930を認識し、認識されたパッド1930の位置を判断する。コンピュータ装置1900は、判断されたパッド1930の位置に対応する、整合されたモデル上の位置を獲得する。
In one embodiment, the
例えば、EEG脳波検査を行う場合、使用者の頭の形状及び構造と関係なく、一貫した位置にEEGパッドを付するか、任意の位置にEEGパッドを付する。この場合、EEGパッドが獲得した脳波が対象体の脳のどの位置から受信された脳波であるかが具体的に分かり難い。 For example, when performing EEG electroencephalography, the EEG pads are placed in a consistent position or in any position regardless of the shape and structure of the user's head. In this case, it is difficult to know from which part of the subject's brain the brain waves acquired by the EEG pad are received.
従って、開示された実施例によれば、コンピュータ装置1900は、1つ以上のEEGパッドを付した対象体の頭を撮影し、撮影された画像で認識された1つ以上のEEGパッドの位置を獲得する。
Thus, according to the disclosed embodiments, the
コンピュータ装置1900は、得られたEEGパッドの位置に対応する対象体の整合されたモデル上の位置を獲得して、対象体の頭に付されたEEGパッドで獲得した脳波が対象体の脳のどの部分から受信されたかを具体的に判断できる。例えば、コンピュータ装置1900は、開示された実施例を活用して各EEGパッドで受信した脳波の信号源を分析できる。
The
図16は、一実施例によって電気刺激結果をシミュレーションする結果を示す図である。 FIG. 16 is a diagram showing results of simulating electrical stimulation results according to one embodiment.
図16を参照すれば、対象体の頭1600の3次元モデル及び3次元モデル上の一位置にパッド1610を付した実施例が示されている。
Referring to FIG. 16, there is shown an embodiment of a 3D model of a subject's
コンピュータは、対象体の頭1600の3次元モデルの一位置にパッド1610が付された場合、パッド1610による電気刺激が対象体の脳1650から伝達される結果をシミュレーションする。
When the
一実施例において、コンピュータは、対象体の脳1650に対する3次元脳地図を獲得し、3次元脳地図を用いて対象体の頭に付されるパッド1610の位置を決定する。
In one embodiment, the computer obtains a 3D brain map for the subject's
一実施例において、パッド1610の位置を決定する段階は、パッド1610を用いる目的を獲得する段階と、対象体の頭1600にパッド1610が付される位置によって前記対象体の脳1650に電気的刺激が伝達される過程をシミュレーションする段階と、獲得した目的とシミュレーション結果を用いてパッド1610の位置を決定する段階とを含む。
In one embodiment, determining the position of the
例えば、コンピュータは、対象体の脳1650に特定の刺激を与えようとする場合、シミュレーション結果を用いて対象体の脳1650に特定の刺激を与えられるパッド1610の位置を決定できる。
For example, when the computer intends to apply a specific stimulation to the
コンピュータは、図16に示した実施例によって決定されたパッド1610の位置を、深度カメラを用いて撮影された対象体の頭の一地点とマッチさせ、マッチした位置にパッドをガイドする画像を表示できる。
The computer matches the position of the
本発明の実施例と関連して説明された方法又はアルゴリズムの段階は、ハードウェアで直接実現するか、ハードウェアにより実行されるソフトウェアモジュールで実現するか、又はこれらの組み合わせにより実現できる。ソフトウェアモジュールは、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ(Flash Memory)、ハードディスク、脱着型ディスク、CD-ROM、又は本発明が属する技術分野において周知されている任意の形態のコンピュータ読み取り可能な記録媒体に常に存在し得る。 The method or algorithm steps described in connection with the embodiments of the present invention may be implemented directly in hardware, implemented in software modules executed by hardware, or a combination thereof. The software module includes RAM (Random Access Memory), ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), Flash Memory, hard disk, removable disk, CD-ROM, Or it may reside on any form of computer readable recording medium that is well known in the art to which this invention pertains.
以上、添付の図面を参照して本発明の実施例を説明したが、本発明が属する技術分野における通常の技術者は、本発明がその技術的思想や必須な特徴を変更することなく、他の具体的な形態で実施できるということが理解できるであろう。従って、以上で述べた実施例は全ての面で例示的なものであり、制限的ではないものとして理解すべきである。 Although the embodiments of the present invention have been described above with reference to the accompanying drawings, those skilled in the art to which the present invention pertains will appreciate that the present invention may be modified in other ways without changing its technical idea or essential features. It will be understood that it can be implemented in the specific form of Accordingly, the above-described embodiments are to be considered in all respects as illustrative and not restrictive.
Claims (10)
前記脳MRI画像を複数の領域にセグメンテーションする段階と、
セグメンテーションされた前記脳MRI画像を用いて前記複数の領域を含む前記対象体の3次元脳画像を生成する段階と、
前記3次元脳画像に含まれている複数の領域のそれぞれの性質に基づいて、前記対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる前記対象体の3次元脳地図を生成する段階と、
を含み、
前記セグメンテーションする段階は、
複数の加工された脳MRI画像を用いた機械学習により得られた学習済みモデルに前記対象体の脳MRI画像を入力してセグメンテーションされた前記対象体の脳MRI画像を獲得する段階を含み、
前記学習済みモデルは、前記複数の加工された脳MRI画像を用いてディープラーニングに基づいた学習を行うことによって、前記脳MRI画像が入力されたときに脳の構造に基づいた脳領域別にセグメンテーションされた脳MRI画像を出力するように構築された学習モデルであり、
前記対象体の3次元脳地図を生成する段階は、前記対象体の脳MRI画像を前記学習済みモデルに入力して獲得したセグメンテーションされた前記対象体の脳MRI画像を用いて、前記脳の構造に基づいた脳領域別にセグメンテーションされた前記対象体の3次元脳地図画像を出力することを含み、
前記セグメンテーションする段階は、
前記学習済みモデルに前記対象体の脳MRI画像を入力して獲得したセグメンテーションされた前記対象体の脳MRI画像に含まれるホールを除去する段階を含む、
3次元脳地図の生成方法。 obtaining a brain MRI image of a subject;
segmenting the brain MRI image into a plurality of regions;
generating a three-dimensional brain image of the subject including the plurality of regions using the segmented brain MRI image;
generating a 3D brain map of the subject that can simulate a transmission process of electrical stimulation to the brain of the subject based on the properties of each of a plurality of regions included in the 3D brain image;
including
The segmenting step includes:
acquiring a segmented brain MRI image of the subject by inputting the brain MRI image of the subject into a trained model obtained by machine learning using a plurality of processed brain MRI images;
The trained model is segmented by brain region based on the structure of the brain when the brain MRI image is input by performing learning based on deep learning using the plurality of processed brain MRI images. A learning model constructed to output brain MRI images,
The step of generating a 3D brain map of the object includes: using a segmented brain MRI image of the object obtained by inputting the brain MRI image of the object into the trained model; outputting a 3D brain map image of the subject segmented by brain regions based on
The segmenting step includes:
removing holes included in the segmented brain MRI image of the subject obtained by inputting the brain MRI image of the subject into the trained model;
A method for generating a three-dimensional brain map.
前記学習済みモデルは、
脳MRI画像の入力を受けて、セグメンテーションされた脳MRI画像を出力するモデルであることを特徴とする請求項1に記載の3次元脳地図の生成方法。 The processed brain MRI image is an image in which each of a plurality of regions included in the processed brain MRI image is labeled;
The trained model is
2. The method of generating a three-dimensional brain map according to claim 1, wherein the model is a model that receives an input of a brain MRI image and outputs a segmented brain MRI image.
前記対象体の3次元脳画像を用いて前記対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる複数の格子(mesh)で構成された3次元立体画像を生成する段階を含むことを特徴とする請求項1に記載の3次元脳地図の生成方法。 The step of generating a 3D brain map of the subject includes:
generating a 3D stereoscopic image composed of a plurality of meshes capable of simulating a transmission process of electrical stimulation to the brain of the target using the 3D brain image of the target. 3. The method of generating a three-dimensional brain map according to claim 1.
前記対象体の脳に対する電気的刺激による電流の流れをシミュレーションするための前記複数の領域それぞれの物理的特性を獲得する段階を含み、
前記物理的特性は、前記複数の領域のそれぞれの等方性(isotropic)電気伝導率及び異方性(anisotropic)電気伝導率のうちの少なくとも1つを含むことを特徴とする請求項1に記載の3次元脳地図の生成方法。 The step of generating a 3D brain map of the subject includes:
acquiring physical characteristics of each of the plurality of regions for simulating current flow due to electrical stimulation to the subject's brain;
2. The method of claim 1, wherein the physical properties include at least one of isotropic electrical conductivity and anisotropic electrical conductivity of each of the plurality of regions. 3D brain map generation method.
前記対象体の脳MRI画像から前記対象体の脳に対する伝導テンソル画像を獲得する段階と、
前記伝導テンソル画像を用いて前記複数の領域のそれぞれの異方性電気伝導率を獲得する段階と、
を含むことを特徴とする請求項4に記載の3次元脳地図の生成方法。 Obtaining the physical property comprises:
obtaining a conduction tensor image of the subject's brain from the subject's brain MRI image;
obtaining the anisotropic electrical conductivity of each of the plurality of regions using the conduction tensor image;
5. The method of generating a three-dimensional brain map according to claim 4, comprising:
前記物理的特性を獲得する段階は、
前記対象体の拡散テンソル画像を用いて前記複数の領域のそれぞれの異方性電気伝導率を獲得する段階と、
を含むことを特徴とする請求項4に記載の3次元脳地図の生成方法。 the brain MRI image of the subject comprises a diffusion tensor image;
Obtaining the physical property comprises:
obtaining the anisotropic electrical conductivity of each of the plurality of regions using a diffusion tensor image of the object;
5. The method of generating a three-dimensional brain map according to claim 4, comprising:
前記3次元脳地図を用いて、前記刺激目標地点に電気的刺激を与えるために前記対象体の頭に電気的刺激を与える位置を獲得する段階と、
を更に含むことを特徴とする請求項1に記載の3次元脳地図の生成方法。 obtaining a stimulation target point for applying electrical stimulation to the brain of the subject;
using the 3D brain map to obtain a position for applying electrical stimulation to the subject's head in order to apply electrical stimulation to the stimulation target point;
The method of claim 1, further comprising:
前記3次元脳地図を用いて、前記対象体の頭皮から前記刺激目標地点まで電気的刺激が伝達されるための推薦経路を獲得する段階と、
前記推薦経路から前記対象体の頭に電気的刺激を与える位置を獲得する段階と、
を含むことを特徴とする請求項8に記載の3次元脳地図の生成方法。 Acquiring the location for applying the electrical stimulation comprises:
obtaining a recommended route for electrical stimulation to be delivered from the subject's scalp to the stimulation target point using the 3D brain map;
obtaining a position for applying electrical stimulation to the head of the target from the recommended path;
9. The method of generating a three-dimensional brain map according to claim 8, comprising:
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2017-0115779 | 2017-09-11 | ||
KR1020170115779A KR101995900B1 (en) | 2017-09-11 | 2017-09-11 | Method and program for generating a 3-dimensional brain map |
PCT/KR2018/010170 WO2019050226A1 (en) | 2017-09-11 | 2018-08-31 | Method and program for generating three-dimensional brain map |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020533102A JP2020533102A (en) | 2020-11-19 |
JP7263324B2 true JP7263324B2 (en) | 2023-04-24 |
Family
ID=65635034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020514533A Active JP7263324B2 (en) | 2017-09-11 | 2018-08-31 | Method and program for generating 3D brain map |
Country Status (4)
Country | Link |
---|---|
US (1) | US11744465B2 (en) |
JP (1) | JP7263324B2 (en) |
KR (1) | KR101995900B1 (en) |
WO (1) | WO2019050226A1 (en) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101995900B1 (en) | 2017-09-11 | 2019-07-04 | 뉴로핏 주식회사 | Method and program for generating a 3-dimensional brain map |
KR102204371B1 (en) * | 2019-03-25 | 2021-01-19 | 세종대학교산학협력단 | Learning method for generating multiphase collateral image and multiphase collateral imaging method using machine learning |
US11620789B2 (en) * | 2019-05-03 | 2023-04-04 | Novocure Gmbh | Methods, systems, and apparatuses for managing transducer array placement |
WO2021216874A1 (en) * | 2020-04-22 | 2021-10-28 | The General Hospital Corporation | Systems and methods for integrated electric field simulation and neuronavigation for transcranial magnetic stimulation |
KR102403686B1 (en) * | 2020-05-15 | 2022-05-31 | 뉴로핏 주식회사 | Apparatus and method for providing posion of brain stimulation |
US11087877B1 (en) * | 2020-07-02 | 2021-08-10 | Omniscient Neurotechnology Pty Limited | Identifying anomalous brain data |
KR102385708B1 (en) * | 2020-07-20 | 2022-04-13 | 경희대학교 산학협력단 | Conductivity image reconstruction apparatus and method based on deep learning for diagnosis of alzheimer's diseases |
CN111729200B (en) * | 2020-07-27 | 2022-06-17 | 浙江大学 | Transcranial magnetic stimulation automatic navigation system and method based on depth camera and magnetic resonance |
CN112435212A (en) * | 2020-10-15 | 2021-03-02 | 杭州脉流科技有限公司 | Brain focus region volume obtaining method and device based on deep learning, computer equipment and storage medium |
KR102478278B1 (en) * | 2020-10-20 | 2022-12-16 | 서울대학교산학협력단 | Apparatus and method for brain mapping based on functional activity of brain |
CN112819950A (en) * | 2021-02-07 | 2021-05-18 | 清华-伯克利深圳学院筹备办公室 | Preparation method, device and equipment of brain tissue section die and storage medium |
KR102338087B1 (en) * | 2021-07-06 | 2021-12-14 | 뉴로핏 주식회사 | Method, server and computer program for determining optimal stimulus position combination using pre-set guide system |
WO2023282403A1 (en) * | 2021-07-06 | 2023-01-12 | 뉴로핏 주식회사 | Method for determining optimum stimulation position combination by using pre-set guide system, and electric stimulation simulation method, server, and computer program for determining optimum stimulation position combination |
KR102373757B1 (en) * | 2021-07-06 | 2022-03-15 | 뉴로핏 주식회사 | Method, server and computer program for executing electric stimulus simulation for determining optimal stimulus position combination |
KR102373760B1 (en) * | 2021-07-07 | 2022-03-15 | 뉴로핏 주식회사 | System and method for executing brain stimulus simulation according to pre-set guide system using external server based on anonymized data |
KR102373761B1 (en) * | 2021-07-07 | 2022-03-15 | 뉴로핏 주식회사 | Method, server and computer program for executing stimulus simulation using brain model of brain lesion patient |
KR102373767B1 (en) * | 2021-07-07 | 2022-03-14 | 뉴로핏 주식회사 | Method, server and computer program for making treatment strategy of brain lesion patient based on big data |
KR20230078217A (en) | 2021-11-26 | 2023-06-02 | 연세대학교 산학협력단 | Method and apparatus for reconstructing brain electrical conductivity map from magnetic resonance imaging |
KR20230088281A (en) | 2021-12-10 | 2023-06-19 | 연세대학교 산학협력단 | Analysis apparatus for generating excitation time map and subject evaluating method based on excitation time map |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070043268A1 (en) | 2005-06-16 | 2007-02-22 | Russell Michael J | Guided Electrical Transcranial Stimulation (GETS) Technique |
JP2013506478A (en) | 2009-09-30 | 2013-02-28 | インペリアル イノベ−ションズ リミテッド | Medical image processing method and apparatus |
US20200214570A1 (en) | 2017-09-11 | 2020-07-09 | NEUROPHET Inc. | Method and program for generating three-dimensional brain map |
JP6935630B2 (en) | 2017-09-11 | 2021-09-15 | ニューロフェット インコーポレイテッドNeurophet Inc. | TMS stimulation navigation method and program |
JP6935633B2 (en) | 2017-08-25 | 2021-09-15 | ニューロフェット インコーポレイテッドNeurophet Inc. | Patch guide method and program |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7346382B2 (en) * | 2004-07-07 | 2008-03-18 | The Cleveland Clinic Foundation | Brain stimulation models, systems, devices, and methods |
JP4972751B2 (en) * | 2006-11-27 | 2012-07-11 | 株式会社日立製作所 | Nerve fiber bundle measuring system and image processing system |
KR100920135B1 (en) * | 2008-04-01 | 2009-10-08 | 한국과학기술원 | A method for obtaining a data of 3 dimensional image data and device using thereof |
US9805473B2 (en) | 2008-09-19 | 2017-10-31 | Siemens Healthcare Gmbh | Method and system for segmentation of brain structures in 3D magnetic resonance images |
WO2010151229A1 (en) | 2009-06-23 | 2010-12-29 | Agency For Science, Technology And Research | A method and system for segmenting a brain image |
JP6242787B2 (en) * | 2011-06-03 | 2017-12-06 | ネクスティム オーワイジェイ | A system that combines anatomic connectivity patterns with guided brain stimulation |
KR101185727B1 (en) | 2011-09-14 | 2012-09-25 | 주식회사 인피니트헬스케어 | A segmentatin method of medical image and apparatus thereof |
CA2899359C (en) * | 2013-03-15 | 2017-01-17 | Synaptive Medical (Barbados) Inc. | Planning, navigation and simulation systems and methods for minimally invasive therapy |
AU2014231344B2 (en) * | 2013-03-15 | 2018-10-04 | Synaptive Medical Inc. | Systems and methods for navigation and simulation of minimally invasive therapy |
CN104123416A (en) * | 2014-07-21 | 2014-10-29 | 中国医学科学院生物医学工程研究所 | Finite element simulation model for simulating real human brain electrical characteristic distribution |
WO2016090239A1 (en) * | 2014-12-05 | 2016-06-09 | Rush University Medical Center | Electrode placement and treatment system and method of use thereof |
KR101612394B1 (en) | 2015-03-25 | 2016-04-14 | 서울대학교산학협력단 | Apparatus, system and method for controlling stimulator |
US20170021339A1 (en) | 2015-07-02 | 2017-01-26 | The University Of Notre Dame Du Lac | Methods of making and using layered cobalt nano-catalysts |
US10188851B2 (en) * | 2015-10-28 | 2019-01-29 | Novocure Limited | TTField treatment with optimization of electrode positions on the head based on MRI-based conductivity measurements |
US10169871B2 (en) * | 2016-01-21 | 2019-01-01 | Elekta, Inc. | Systems and methods for segmentation of intra-patient medical images |
KR101718130B1 (en) | 2016-02-12 | 2017-03-20 | 서울대학교산학협력단 | Method of dividing and system for brain region using magnetic resonance imaging |
US9965863B2 (en) * | 2016-08-26 | 2018-05-08 | Elekta, Inc. | System and methods for image segmentation using convolutional neural network |
-
2017
- 2017-09-11 KR KR1020170115779A patent/KR101995900B1/en active IP Right Grant
-
2018
- 2018-08-31 JP JP2020514533A patent/JP7263324B2/en active Active
- 2018-08-31 WO PCT/KR2018/010170 patent/WO2019050226A1/en active Application Filing
-
2020
- 2020-03-10 US US16/814,852 patent/US11744465B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070043268A1 (en) | 2005-06-16 | 2007-02-22 | Russell Michael J | Guided Electrical Transcranial Stimulation (GETS) Technique |
JP2013506478A (en) | 2009-09-30 | 2013-02-28 | インペリアル イノベ−ションズ リミテッド | Medical image processing method and apparatus |
JP6935633B2 (en) | 2017-08-25 | 2021-09-15 | ニューロフェット インコーポレイテッドNeurophet Inc. | Patch guide method and program |
US20200214570A1 (en) | 2017-09-11 | 2020-07-09 | NEUROPHET Inc. | Method and program for generating three-dimensional brain map |
JP6935630B2 (en) | 2017-09-11 | 2021-09-15 | ニューロフェット インコーポレイテッドNeurophet Inc. | TMS stimulation navigation method and program |
Non-Patent Citations (2)
Title |
---|
AMIRREZA MAHBOD,Structural Brain MRI Segmentation Using Machine Learning Technique,DEGREE PROJECT IN MEDICAL ENGINEERING SECOND CYCLE,30 CREDITS,KTH ROYAL INSTITUTE OF TECHNOLOGY SCHOOL OF TECHNOLOGY AND HEALTH,2016年,第1-37頁 |
BREBISSON et al.,Deep Neural Networks for Anatomical Brain Segmentation, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR) Workshop,2015年,p.20-28 |
Also Published As
Publication number | Publication date |
---|---|
WO2019050226A1 (en) | 2019-03-14 |
KR20190028901A (en) | 2019-03-20 |
KR101995900B1 (en) | 2019-07-04 |
US11744465B2 (en) | 2023-09-05 |
US20200214570A1 (en) | 2020-07-09 |
JP2020533102A (en) | 2020-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7263324B2 (en) | Method and program for generating 3D brain map | |
JP7271000B2 (en) | Patch guide method and program | |
JP6935630B2 (en) | TMS stimulation navigation method and program | |
JP7383679B2 (en) | TTFIELD treatment with optimized electrode position on the head based on MRI conductivity measurements | |
JP7405818B2 (en) | Treat the patient with a TT field with optimized electrode positions using a deformable template | |
CN110337312B (en) | Selection and placement of optimal deep brain stimulation electrodes based on stimulation field modeling | |
CN106572839A (en) | Method and device for functional imaging of the brain | |
KR20140100648A (en) | Method, apparatus and system for generating model representing deformation of shape and location of organ in respiration cycle | |
Farcito et al. | Accurate anatomical head segmentations: a data set for biomedical simulations | |
CN109982741B (en) | Time-synchronized deep brain stimulation optimization | |
NL2016800B1 (en) | Method of positioning an interventional device. | |
US20210267547A1 (en) | Patch guide method and program | |
US20240144593A1 (en) | Systems and methods for generating head models | |
US20240069139A1 (en) | Systems and methods for magnetic resonance imaging | |
WO2024092279A2 (en) | Systems and methods for generating head models | |
CN115311191A (en) | Generating reformatted views of three-dimensional anatomical scans using deep learning estimated scan scheme masks | |
CN116091517A (en) | Medical image processing method, medical image processing device, storage medium and computer program product | |
Rodriguez-Rivera | Multimodal Imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200413 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210430 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220106 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220106 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220127 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220216 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220222 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20220513 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20220517 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220712 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221228 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20230131 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20230228 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20230228 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230324 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230412 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7263324 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |