JP7263324B2 - Method and program for generating 3D brain map - Google Patents

Method and program for generating 3D brain map Download PDF

Info

Publication number
JP7263324B2
JP7263324B2 JP2020514533A JP2020514533A JP7263324B2 JP 7263324 B2 JP7263324 B2 JP 7263324B2 JP 2020514533 A JP2020514533 A JP 2020514533A JP 2020514533 A JP2020514533 A JP 2020514533A JP 7263324 B2 JP7263324 B2 JP 7263324B2
Authority
JP
Japan
Prior art keywords
brain
subject
image
generating
mri image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020514533A
Other languages
Japanese (ja)
Other versions
JP2020533102A (en
Inventor
ヒョン キム,ドン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neurophet Inc
Original Assignee
Neurophet Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neurophet Inc filed Critical Neurophet Inc
Publication of JP2020533102A publication Critical patent/JP2020533102A/en
Application granted granted Critical
Publication of JP7263324B2 publication Critical patent/JP7263324B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0036Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room including treatment, e.g., using an implantable medical device, ablating, ventilating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/36014External stimulators, e.g. with patch electrodes
    • A61N1/36025External stimulators, e.g. with patch electrodes for treating a mental or cerebral condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/36014External stimulators, e.g. with patch electrodes
    • A61N1/3603Control systems
    • A61N1/36031Control systems using physiological parameters for adjustment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/40Applying electric fields by inductive or capacitive coupling ; Applying radio-frequency signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N2/00Magnetotherapy
    • A61N2/004Magnetotherapy specially adapted for a specific therapy
    • A61N2/006Magnetotherapy specially adapted for a specific therapy for magnetic stimulation of nerve tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N2/00Magnetotherapy
    • A61N2/02Magnetotherapy using magnetic fields produced by coils, including single turn loops or electromagnets
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • A61B2576/026Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/25Bioelectric electrodes therefor
    • A61B5/279Bioelectric electrodes therefor specially adapted for particular uses
    • A61B5/291Bioelectric electrodes therefor specially adapted for particular uses for electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/02Details
    • A61N1/08Arrangements or circuits for monitoring, protecting, controlling or indicating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/563Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution of moving material, e.g. flow contrast angiography
    • G01R33/56341Diffusion imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Description

本発明は3次元脳地図の生成方法及びプログラムに関する。 The present invention relates to a method and program for generating a three-dimensional brain map.

MRIシステムとは、特定強さの磁場で発生するRF(Radio Frequency)信号に対するMR(Magnetic Resonance)信号の強さを明暗対比で表現して対象体の断層部位に対するイメージを獲得する機器をいう。例えば、対象体を強力な磁場中に横たえた後、特定の原子核(例えば、水素原子核など)のみを共鳴させるRF信号を対象体に瞬間的に照射した後に中断すれば、前記特定の原子核からMR信号が放出されるが、MRIシステムは、このMR信号を受信してMRイメージを獲得できる。MR信号は、対象体から放射されるRF信号を意味する。MR信号の大きさは、対象体に含まれている所定の原子(例えば、水素など)の濃度、弛緩時間T1、弛緩時間T2及び血流などの流れにより決定できる。 An MRI system is a device that obtains an image of a tomographic region of a target body by expressing the intensity of MR (Magnetic Resonance) signals with respect to RF (Radio Frequency) signals generated in a magnetic field of a specific strength by light and dark contrast. For example, if the object is placed in a strong magnetic field and momentarily irradiated with an RF signal that resonates only a specific nucleus (for example, a hydrogen nucleus) and then interrupted, MR can be obtained from the specific nucleus. A signal is emitted and an MRI system can receive this MR signal to acquire an MR image. An MR signal means an RF signal emitted from an object. The magnitude of the MR signal can be determined by the concentration of a given atom (eg, hydrogen) contained in the object, relaxation time T1, relaxation time T2, and flow such as blood flow.

MRIシステムは、他のイメージング装置とは異なる特徴を含む。イメージの獲得が検知ハードウェア(detecting hardware)の方向に依存するCTのようなイメージング装置などとは異なり、MRIシステムは、任意の地点に指向された2Dイメージ又は3Dボリュームイメージを獲得することができる。また、MRIシステムは、CT、エックス線、PET及びSPECTとは異なり、対象体及び検査員に放射線を露出させず、高い軟部組織(soft tissue)コントラストを有するイメージの獲得が可能であり、異常な組織の明確な描写が重要な神経(neurological)イメージ、血管内部(intravascular)イメージ、筋骨格(musculoskeletal)イメージ及び腫瘍(oncologic)イメージなどを獲得できる。 MRI systems include features that distinguish them from other imaging devices. Unlike imaging devices such as CT, where image acquisition depends on the orientation of the detecting hardware, MRI systems can acquire 2D or 3D volumetric images directed at any point. . In addition, unlike CT, X-ray, PET, and SPECT, the MRI system does not expose the subject and the examiner to radiation, and is capable of acquiring images with high soft tissue contrast and detecting abnormal tissue. It is possible to acquire neurological images, intravascular images, musculoskeletal images, and oncological images, for which clear delineation of is important.

TMS(Transcranial Magnetic Stimulation、経頭蓋的磁気刺激法)は神経系に対する非侵襲的な治療方法であって、薬物治療や侵襲治療を行うことなく、神経系疾患を治療できるという長所がある。TMSは、磁場の変化を用いて対象体に電気的刺激を与えることができる。 Transcranial Magnetic Stimulation (TMS) is a non-invasive therapeutic method for the nervous system, and has the advantage of treating nervous system diseases without drugs or invasive treatments. TMS can use changes in magnetic fields to provide electrical stimulation to a subject.

一般に、TMSは臨床的又は経験的に知られている刺激地点に電気的刺激を与えるか、使用者が少しずつ刺激位置を移動させながら刺激位置を決定する方式で施術を行ってきた。従って、施術に用いられるコイルの種類や個人間の身体構造の違いを反映し難い上に、施術による効果を直接的に確認し難いという問題があった。 In general, TMS has been performed by giving electrical stimulation to a clinically or empirically known stimulation point, or by allowing a user to move the stimulation point little by little to determine the stimulation point. Therefore, there is a problem that it is difficult to reflect the type of coil used for the treatment and the difference in body structure between individuals, and it is difficult to directly confirm the effect of the treatment.

また、対象体の脳活動による電気活動を測定できる脳波検査(Electroencephalogram、EEG)及び電気刺激による脳疾患の治療方法が広く利用されている。しかし、TMSと同様に、EEGと電気刺激も人によって異なる頭の形状を反映したガイド方法の開発が求められている。 In addition, an electroencephalogram (EEG), which can measure electrical activity due to brain activity of a subject, and a method of treating brain diseases by electrical stimulation are widely used. However, as with TMS, EEG and electrical stimulation are also required to develop a guide method that reflects the shape of the head, which varies from person to person.

本発明は、上記事情に鑑みてなされたものであって、その目的は、3次元脳地図の生成方法及びプログラムを提供することにある。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a method and program for generating a three-dimensional brain map.

本発明が解決しようとする課題は、以上で言及した課題に制限されず、言及していない他の課題は、以下の記載から通常の技術者が明確に理解できるであろう。 The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

上述した課題を解決するための本発明の一側面による3次元脳地図の生成方法は、対象体の脳MRI画像を獲得する段階と、前記脳MRI画像を複数の領域にセグメンテーションする段階と、セグメンテーションされた前記脳MRI画像を用いて前記複数の領域を含む前記対象体の3次元脳画像を生成する段階と、前記3次元脳画像に含まれている複数の領域のそれぞれの性質に基づいて、前記対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる前記対象体の3次元脳地図を生成する段階とを含み、前記セグメンテーションする段階は、複数の加工された脳MRI画像を用いて学習されたモデルに前記対象体の脳MRI画像を入力してセグメンテーションされた前記対象体の脳MRI画像を獲得する段階を含む。 According to one aspect of the present invention, there is provided a method for generating a 3D brain map for solving the above-described problems. generating a three-dimensional brain image of the subject including the plurality of regions using the obtained brain MRI image; and based on properties of each of the plurality of regions included in the three-dimensional brain image, and generating a 3D brain map of the subject that can simulate a transmission process of electrical stimulation to the brain of the subject, wherein the segmentation is learned using a plurality of processed brain MRI images. obtaining a segmented brain MRI image of the subject by inputting the brain MRI image of the subject into the model.

また、前記加工された脳MRI画像は、前記加工された脳MRI画像に含まれている複数の領域のそれぞれがラベリングされた画像であり、前記学習されたモデルは、脳MRI画像の入力を受けて、セグメンテーションされた脳MRI画像を出力するモデルであってもよい。 Further, the processed brain MRI image is an image in which each of a plurality of regions included in the processed brain MRI image is labeled, and the learned model receives an input of the brain MRI image. It may be a model that outputs a segmented brain MRI image.

更に、前記対象体の3次元脳地図を生成する段階は、前記対象体の3次元脳画像を用いて前記対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる複数の格子(mesh)で構成された3次元立体画像を生成する段階を含んでもよい。 Further, the step of generating the 3D brain map of the target comprises a plurality of meshes capable of simulating the transmission process of electrical stimulation to the brain of the target using the 3D brain image of the target. generating a rendered three-dimensional stereoscopic image.

また、前記対象体の3次元脳地図を生成する段階は、前記対象体の脳に対する電気的刺激による電流の流れをシミュレーションするための前記複数の領域それぞれの物理的特性を獲得する段階を含み、前記物理的特性は、前記複数の領域のそれぞれの等方性(isotropic)電気伝導率及び異方性(anisotropic)電気伝導率のうちの少なくとも1つを含んでもよい。 Also, generating the 3D brain map of the object includes acquiring physical characteristics of each of the plurality of regions for simulating current flow due to electrical stimulation to the brain of the object, The physical properties may include at least one of isotropic electrical conductivity and anisotropic electrical conductivity of each of the plurality of regions.

更に、前記物理的特性を獲得する段階は、前記対象体の脳MRI画像から前記対象体の脳に対する伝導テンソル画像を獲得する段階と、前記伝導テンソル画像を用いて前記複数の領域のそれぞれの異方性電気伝導率を獲得する段階とを含んでもよい。 Further, the step of obtaining the physical characteristics includes obtaining a conduction tensor image of the subject's brain from the subject's brain MRI image; and obtaining an anisotropic electrical conductivity.

また、前記対象体の脳MRI画像は拡散テンソル画像を含み、前記物理的特性を獲得する段階は、前記対象体の拡散テンソル画像を用いて前記複数の領域のそれぞれの異方性電気伝導率を獲得する段階を含んでもよい。 Also, the brain MRI image of the subject includes a diffusion tensor image, and the step of acquiring the physical properties includes determining the anisotropic electrical conductivity of each of the plurality of regions using the diffusion tensor image of the subject. It may include the step of obtaining.

更に、前記3次元脳地図の生成方法は、前記3次元脳地図を用いて、前記対象体の頭の一地点に特定の電気的刺激が与えられるとき、前記特定の電気的刺激が前記対象体の脳から伝播される状態をシミュレーションする段階を更に含んでもよい。 Further, the method for generating a three-dimensional brain map is characterized in that when a specific electrical stimulus is applied to one point on the head of the subject using the three-dimensional brain map, the specific electrical stimulus is applied to the subject. may further include simulating states propagated from the brain of the .

また、前記3次元脳地図の生成方法は、前記対象体の脳で電気的刺激を与える刺激目標地点を獲得する段階と、前記3次元脳地図を用いて、前記刺激目標地点に電気的刺激を与えるために前記対象体の頭に電気的刺激を与える位置を獲得する段階とを更に含んでもよい。 Also, the method for generating the 3D brain map includes the steps of: obtaining a stimulation target point to which electrical stimulation is applied in the brain of the subject; and applying electrical stimulation to the stimulation target point using the 3D brain map. obtaining a location for applying electrical stimulation to the subject's head to apply.

更に、前記電気的刺激を与える位置を獲得する段階は、前記3次元脳地図を用いて、前記対象体の頭皮から前記刺激目標地点まで電気的刺激が伝達されるための推薦経路を獲得する段階と、前記推薦経路から前記対象体の頭に電気的刺激を与える位置を獲得する段階とを含んでもよい。 Further, the step of obtaining the position to apply the electrical stimulation includes obtaining a recommended route for the electrical stimulation to be transmitted from the subject's scalp to the stimulation target point using the 3D brain map. and obtaining a position for applying electrical stimulation to the head of the target from the recommended path.

上述した課題を解決するための本発明の一側面によるコンピュータプログラムは、ハードウェアであるコンピュータで読み取り可能な記録媒体に格納され、3次元脳地図の生成方法を前記コンピュータで実行するためのプログラムである。 A computer program according to one aspect of the present invention for solving the above-described problems is a program stored in a computer-readable recording medium, which is hardware, and for executing a method for generating a three-dimensional brain map by the computer. be.

本発明のその他の具体的な事項は、詳細な説明及び図面に含まれている。 Other specifics of the invention are contained in the detailed description and drawings.

開示された実施例によれば、事前に学習されたモデルを活用して脳MRI画像のセグメンテーションを行うことによって、自動的かつ短時間に脳MRI画像のセグメンテーションを行えるという効果を奏する。 According to the disclosed embodiment, segmentation of a brain MRI image is performed using a model learned in advance, thereby achieving an effect of automatically segmenting a brain MRI image in a short period of time.

そのため、医療現場で誰でも短時間に対象体の3次元脳画像を獲得でき、更に対象体の脳に対する電気的刺激の効果を視覚的に確認できるシミュレーション結果を提供できるという効果が得られる。 As a result, anyone in the medical field can acquire a three-dimensional brain image of the subject in a short period of time, and furthermore, it is possible to provide simulation results that allow visual confirmation of the effect of electrical stimulation on the subject's brain.

また、経頭蓋的磁気刺激法の施術用コイルの種類による磁気ベクトルポテンシャル情報を共に活用することによって、刺激目標地点に最適な刺激を与えられる刺激地点を算出及び提供して、施術の効果を向上できるという効果がある。 In addition, by utilizing magnetic vector potential information according to the type of coil used for transcranial magnetic stimulation, it is possible to calculate and provide stimulation points that can give optimal stimulation to the stimulation target points, thereby improving the effect of the treatment. It has the effect of being able to

更に、頭モデリング及びMRIモデリングを用いて電気刺激パッドの位置をガイドすることによって、人によって異なる頭及び脳の構造を考慮した電気刺激パッドの位置をガイドできるという効果が得られる。 Further, by using head modeling and MRI modeling to guide the position of the electrical stimulation pad, it is possible to guide the position of the electrical stimulation pad in consideration of the structures of the head and brain that differ from person to person.

本発明の効果は、以上で言及した効果に制限されず、言及していない他の効果は、以下の記載から通常の技術者が明確に理解できるであろう。 The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

一実施例によって3次元脳地図を生成する方法を示すフローチャートである。1 is a flowchart illustrating a method of generating a 3D brain map according to one embodiment; 一実施例によって対象体の3次元脳地図を生成し、シミュレーションを行う方法を示すフローチャートである。4 is a flowchart illustrating a method of generating a 3D brain map of a target object and performing a simulation according to one embodiment; 脳MRI画像に対するセグメンテーションを行った結果を示す図である。FIG. 10 is a diagram showing the results of segmentation of brain MRI images; 連結構成要素に基づくノイズの除去方法の一例を示す図である。FIG. 2 illustrates an example of a noise removal method based on connected components; ホールリジェクションを用いた後処理方式の一例を示す図である。FIG. 10 is a diagram illustrating an example of a post-processing scheme using hole rejection; 対象体の脳MRI画像から生成された3次元脳画像の一例を示す図である。FIG. 2 is a diagram showing an example of a three-dimensional brain image generated from a brain MRI image of a subject; 拡散テンソル画像の一例を示す図である。It is a figure which shows an example of a diffusion tensor image. シミュレーション結果の一例を示す図である。It is a figure which shows an example of a simulation result. 一実施例によるTMS刺激ナビゲーション方法を示すフローチャートである。FIG. 4 is a flowchart illustrating a TMS stimulus navigation method according to one embodiment; FIG. TMS施術方法の一例を示す図である。It is a figure which shows an example of the TMS treatment method. 対象体の脳に印加される磁場と電場の関係を示す図である。FIG. 4 is a diagram showing the relationship between a magnetic field and an electric field applied to the brain of a subject; 施術用コイルの種類による磁気ベクトルポテンシャルを可視化した情報を示す図である。FIG. 5 is a diagram showing information visualizing magnetic vector potentials according to types of treatment coils. コイルの位置及び方向を算出する方法の一例を示す図である。It is a figure which shows an example of the method of calculating the position and direction of a coil. 施術用コイルの磁場から誘導される電気的刺激が対象体の脳から伝播される状態を視覚化した例示を示す図である。FIG. 4 is a diagram showing an example of visualizing a state in which an electrical stimulation induced from a magnetic field of a treatment coil is propagated from the brain of a subject; 一実施例によるパッドガイド方法を示すフローチャートである。4 is a flowchart illustrating a pad guiding method according to one embodiment; 一実施例によって電気刺激結果をシミュレーションする結果を示す図である。FIG. 10 is a diagram showing results of simulating electrical stimulation results according to one embodiment; イメージを整合する方法の一実施例を示す図である。FIG. 3 illustrates one embodiment of a method for aligning images; 深度カメラを用いて獲得した3次元スキャンモデルの一例を示す図である。FIG. 2 shows an example of a 3D scan model acquired using a depth camera; 深度カメラモジュールが接続されているコンピュータ装置が対象体の頭を撮影し、撮影された対象体の頭にパッドを付するための位置をガイドする一例を示す図である。FIG. 5 is a diagram showing an example of guiding a position for attaching a pad to the photographed head of a subject photographed by a computer device to which a depth camera module is connected; 携帯可能なコンピュータ装置とそれに接続されている深度カメラモジュールを示す図である。Fig. 2 shows a portable computing device and a depth camera module connected thereto;

本発明の利点及び特徴、そしてそれらを達成する方法は、添付の図面と共に詳細に後述されている実施例を参照すれば明確になる。しかし、本発明は、以下で開示される実施例に制限されるものではなく、互いに異なる多様な形態で実現することができる。但し、本実施例は本発明の開示を完全なものにし、本発明が属する技術分野における通常の技術者に本発明の範疇を完全に理解させるために提供されるものであり、本発明は請求の範囲の範疇により定義されるに過ぎない。 Advantages and features of the present invention, as well as the manner in which they are achieved, will become apparent with reference to the embodiments described in detail below in conjunction with the accompanying drawings. The present invention may, however, be embodied in various different forms and should not be construed as limited to the embodiments set forth below. However, the Examples are provided so that this disclosure of the present invention will be complete and will fully comprehend the scope of the present invention by those of ordinary skill in the art to which the present invention pertains. defined only by the scope of the

本明細書で用いられる用語は、実施例を説明するためのものであり、本発明を制限しようとするものではない。本明細書において、単数形は特に言及しない限り複数形も含む。明細書で用いられる「含む(comprises)」及び/又は「含んでいる(comprising)」は、言及された構成要素以外に1つ以上の他の構成要素の存在又は追加を排除しない。明細書全体に亘って同一の図面符号は同一の構成要素を示し、「及び/又は」は言及された構成要素のそれぞれ及び1つ以上の全ての組み合わせを含む。たとえ、「第1」、「第2」などが多様な構成要素を記述するために用いられていても、これらの構成要素はこれらの用語により制限されないのは当然である。これらの用語は、1つの構成要素を他の構成要素と区別するために用いられるに過ぎない。従って、以下で言及する第1構成要素は、本発明の技術的思想内で第2構成要素でもあり得るのは当然である。 The terminology used herein is for the purpose of describing examples and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements besides the stated elements. Like reference numbers refer to like elements throughout the specification, and "and/or" includes each and every combination of one or more of the referenced elements. Of course, even though "first," "second," etc. are used to describe various components, these components are not limited by these terms. These terms are only used to distinguish one component from another. Therefore, it is natural that the first component referred to below can also be the second component within the technical concept of the present invention.

他の定義がなければ、本明細書で用いられる全ての用語(技術及び科学的用語を含む)は、本発明が属する技術分野における通常の技術者が共通して理解できる意味として用いられる。また、一般に用いられる辞典に定義されている用語は、明白に特に定義されていない限り、理想的に又は過度に解釈されない。 Unless otherwise defined, all terms (including technical and scientific terms) used herein have the meaning commonly understood by one of ordinary skill in the art to which this invention belongs. Also, terms defined in commonly used dictionaries should not be ideally or unduly interpreted unless explicitly defined otherwise.

明細書で用いられる「部」又は「モジュール」という用語はソフトウェア、FPGA、又はASICのようなハードウェアの構成要素を意味し、「部」又は「モジュール」は特定の役割を果たす。しかし、「部」又は「モジュール」との語は、ソフトウェア又はハードウェアに限定されることを意味しない。「部」又は「モジュール」は、アドレッシングできる記憶媒体に存在するように構成されてもよく、1つ又はそれ以上のプロセッサとして実現するように構成されてもよい。従って、一例として「部」又は「モジュール」はソフトウェアの構成要素、オブジェクト指向ソフトウェアの構成要素、クラスの構成要素及びタスクの構成要素のような構成要素と、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ及び変数を含む。構成要素と「部」又は「モジュール」内で提供される機能は、より少数の構成要素及び「部」又は「モジュール」で結合されるか、追加の構成要素と「部」又は「モジュール」などに更に分離できる。 As used herein, the term "unit" or "module" refers to a hardware component such as software, FPGA, or ASIC, where the "unit" or "module" performs a specific role. However, the terms "unit" or "module" are not meant to be limited to software or hardware. A "portion" or "module" may be configured to reside on an addressable storage medium and may be configured to be implemented as one or more processors. Thus, by way of example, a "part" or "module" refers to components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, procedures, subroutines, Includes segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Functionality provided within components and "sections" or "modules" may be combined with fewer components and "sections" or "modules", or may be combined with additional components and "sections" or "modules", etc. can be further separated into

本明細書において「対象体(object)」は、人又は動物、或いは人又は動物の一部を含み得る。例えば、対象体には、肝臓、心臓、子宮、脳、乳房、腹部などの臓器、又は血管を含めることができる。また、「対象体」にはファントム(phantom)を含めることもできる。ファントムとは、生物の密度と実効原子番号に非常に似ている体積を有する物質を意味するものであって、身体と類似する性質を有する球体(sphere)のファントムを含めることができる。 As used herein, an "object" may include a person or animal, or a part of a person or animal. For example, the subject can include organs such as the liver, heart, uterus, brain, breast, abdomen, or blood vessels. A "object" can also include a phantom. By phantom is meant a material having a volume that closely resembles the density and effective atomic number of an organism, and can include sphere phantoms with properties similar to the body.

また、本明細書において「使用者」は医療専門家であって、医師、看護師、臨床検査技師、医療画像専門家などであり、医療装置を修理する技術者であり得るが、これに限定されない。 Also, as used herein, a "user" is a medical professional such as a doctor, a nurse, a clinical laboratory technician, a medical imaging specialist, and can be, but is not limited to, a technician who repairs medical equipment. not.

更に、本明細書において「核磁気共鳴画像(MR image:Magnetic Resonance image)」とは、核磁気共鳴の原理を用いて獲得した対象体に対する画像を意味する。 Further, the term "magnetic resonance image (MR image)" as used herein means an image of an object acquired using the principle of nuclear magnetic resonance.

以下、添付の図面を参照して本発明の実施例を詳細に説明する。 Embodiments of the present invention will now be described in detail with reference to the accompanying drawings.

図1は、一実施例によって3次元脳地図を生成する方法を示すフローチャートである。 FIG. 1 is a flowchart illustrating a method for generating a 3D brain map according to one embodiment.

図1に示す方法は、コンピュータによって実行される段階を時系列的に示す図である。本明細書においてコンピュータは、少なくとも1つのプロセッサを含むコンピュータ装置の総称としての意味として用いられる。 The method illustrated in FIG. 1 is a diagram illustrating steps performed by a computer in chronological order. Computer is used herein as a generic term for computer devices that include at least one processor.

段階S110で、コンピュータは、対象体の脳MRI画像を獲得する。 At step S110, the computer acquires a brain MRI image of the subject.

一実施例において、コンピュータは、MRI画像獲得装置と接続されているワークステーションであって、MRI画像獲得装置から直接対象体の脳MRI画像を獲得できる。 In one embodiment, the computer is a workstation connected to the MRI image acquisition device and capable of acquiring brain MRI images of the subject directly from the MRI image acquisition device.

また、コンピュータは、外部サーバ又は他のコンピュータから対象体の脳MRI画像を獲得することもできる。 The computer can also acquire brain MRI images of the subject from an external server or other computer.

開示された実施例において、対象体の脳MRI画像は、対象体の脳を含む頭部分を撮影したMRI画像を意味する。即ち、対象体の脳MRI画像は、対象体の脳だけでなく、対象体の頭蓋骨及び頭皮を含むMRI画像を意味する。 In the disclosed embodiment, a brain MRI image of a subject means an MRI image of the head including the brain of the subject. That is, the brain MRI image of the subject means an MRI image including not only the brain of the subject but also the skull and scalp of the subject.

段階S120で、コンピュータは、段階S110で得られた脳MRI画像を複数の領域にセグメンテーション(区画化)する。 At step S120, the computer segments the brain MRI image obtained at step S110 into multiple regions.

一実施例において、コンピュータは、段階S110で得られた脳MRI画像を部位別にセグメンテーションする。例えば、コンピュータは、段階S110で得られた脳MRI画像を白質、灰白質、脳脊髓液、頭蓋骨及び頭皮にセグメンテーションできるが、脳MRI画像をセグメンテーションできる種類はこれに制限されない。 In one embodiment, the computer segments the brain MRI image obtained in step S110 by region. For example, the computer can segment the brain MRI image obtained in step S110 into white matter, gray matter, cerebrospinal fluid, skull and scalp, but the types of segmentation of the brain MRI image are not limited thereto.

一実施例において、コンピュータは、複数の加工された脳MRI画像を用いて学習されたモデルに、対象体の脳MRI画像を入力してセグメンテーションされた対象体の脳MRI画像を獲得する。 In one embodiment, the computer obtains segmented brain MRI images of the subject by inputting the subject's brain MRI images into a model trained using a plurality of processed brain MRI images.

一実施例において、加工された脳MRI画像は、脳MRI画像に含まれている複数の領域のそれぞれがラベリングされた画像である。また、学習されたモデルは、脳MRI画像の入力を受けて、セグメンテーションされた脳MRI画像を出力するモデルである。 In one example, the processed brain MRI image is an image in which each of the plurality of regions included in the brain MRI image is labeled. Also, the learned model is a model that receives an input of a brain MRI image and outputs a segmented brain MRI image.

一実施例において、学習されたモデルは、機械学習(Machine Learning)を用いて学習されたモデルを意味し、特にディープラーニング(Deep Learning)を用いて学習されたモデルを意味し得る。 In one embodiment, a trained model means a model trained using machine learning, and in particular, a model trained using deep learning.

一実施例において、学習されたモデルは、1つ以上のバッチ正規化(Batch Normalization)レイヤ、活性化(Activation)レイヤ及びコンボリューション(Convolution)レイヤを含むモデルであってもよいが、これに制限されない。 In one embodiment, the learned model may be a model including one or more Batch Normalization layer, Activation layer and Convolution layer, but is not limited to this. not.

一実施例において、学習されたモデルは、MRI画像の低レベル特性から高レベル特性を抽出する複数のブロックで構成された水平パイプラインと、水平パイプラインから抽出された特性を集めてセグメンテーションを行う垂直パイプラインを含んで相対的に画質が落ちるMRIのセグメンテーションを行えるように構成することもできる。 In one embodiment, the trained model comprises a horizontal pipeline composed of multiple blocks that extract high-level features from the low-level features of the MRI image, and aggregates the extracted features from the horizontal pipeline to perform the segmentation. It can also be configured to include a vertical pipeline to allow relatively poor quality MRI segmentation.

図3を参照すれば、脳MRI画像300(a)に対するセグメンテーションを行った結果300(b)が示されている。 Referring to FIG. 3, a segmentation result 300(b) of a brain MRI image 300(a) is shown.

一実施例において、コンピュータは、セグメンテーション結果に対する後処理を行う。 In one embodiment, the computer performs post-processing on the segmentation results.

一実施例において、コンピュータは、連結構成要素に基づくノイズの除去(Connected Component-based Noise Rejection)を行う。連結構成要素に基づくノイズの除去方法は、畳み込みニューラルネットワーク(Convolution Neural Network、CNN)を用いて行われたセグメンテーションの結果を向上させるのに用いられる。 In one embodiment, the computer performs Connected Component-based Noise Rejection. Connected component-based denoising methods are used to improve the results of segmentation performed using a Convolution Neural Network (CNN).

図4を参照すれば、連結構成要素に基づくノイズの除去方法の一例が示されている。 Referring to FIG. 4, an example of a noise removal method based on connected components is shown.

コンピュータは、セグメンテーション画像400で最も大きな塊(chunk)である連結構成要素を除外した残りの構成要素402を除去することによって、向上したセグメンテーション画像410を獲得する。 The computer obtains an enhanced segmentation image 410 by removing the remaining components 402 excluding the connected component, which is the largest chunk in the segmentation image 400 .

一実施例において、コンピュータは、ホールリジェクション(Hole Rejection)を行う。ホールリジェクションは、畳み込みニューラルネットワークに基づくセグメンテーションのエラーのうちの1つであるホールを除去するのに用いられる。 In one embodiment, the computer performs Hole Rejection. Hole rejection is used to remove holes, which are one of the errors in segmentation based on convolutional neural networks.

図5を参照すれば、ホールリジェクションを用いた後処理方式の一例が示されている。 Referring to FIG. 5, an example post-processing scheme using hole rejection is shown.

コンピュータは、セグメンテーション画像500に含まれているホール502の少なくとも一部を除去し、向上したセグメンテーション画像510を獲得する。 The computer removes at least a portion of the holes 502 contained in segmentation image 500 to obtain enhanced segmentation image 510 .

段階S130で、コンピュータは、段階S120でセグメンテーションされた対象体の脳MRI画像を用いて、セグメンテーションされた複数の領域を含む対象体の3次元脳画像を生成する。 At step S130, the computer generates a three-dimensional brain image of the subject including the segmented regions using the brain MRI image of the subject segmented at step S120.

図6を参照すれば、対象体の脳MRI画像から生成された3次元脳画像600が示されている。 Referring to FIG. 6, a three-dimensional brain image 600 generated from brain MRI images of a subject is shown.

また、セグメンテーションされた対象体の2次元脳MRI画像からセグメンテーションされた対象体の3次元脳画像610を生成した結果の一例が図6に示されている。 FIG. 6 shows an example of the result of generating a 3D brain image 610 of the segmented object from the 2D brain MRI image of the segmented object.

段階S140で、コンピュータは、段階S130で生成された3次元脳画像に含まれている複数の領域それぞれの性質に基づいて、対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる対象体の3次元脳地図を生成する。 In step S140, the computer performs 3-dimensional imaging of the object, which can simulate the transmission process of electrical stimulation to the brain of the object, based on the properties of each of the plurality of regions included in the 3D brain image generated in step S130. Generate a dimensional brain map.

対象体の3次元脳地図を生成し、生成された脳地図を用いてシミュレーションを行う具体的な方法は、図2を用いて後述する。 A specific method of generating a three-dimensional brain map of an object and performing a simulation using the generated brain map will be described later with reference to FIG.

図2は、一実施例によって対象体の3次元脳地図を生成し、シミュレーションを行う方法を示すフローチャートである。 FIG. 2 is a flow chart illustrating a method of generating a 3D brain map of a target and performing a simulation according to one embodiment.

図2に示す方法は、図1に示した方法の一実施例に該当する。従って、図2と関連して省略された内容であっても図1と関連して説明された内容は図2に示す方法にも適用される。 The method shown in FIG. 2 corresponds to one embodiment of the method shown in FIG. Therefore, the content described in connection with FIG. 1 also applies to the method shown in FIG. 2, even if the content is omitted in connection with FIG.

段階S210で、コンピュータは、対象体の3次元脳画像を用いて対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる複数の格子(mesh)で構成された3次元立体画像を生成する。 In step S210, the computer generates a 3D stereoscopic image composed of a plurality of meshes capable of simulating the transmission process of electrical stimulation to the brain of the target using the 3D brain image of the target.

一実施例において、コンピュータは、三角形又は四角形を含む複数の表面格子(Surface Mesh)で構成された3次元立体画像を生成する。 In one embodiment, a computer generates a three-dimensional stereoscopic image made up of a plurality of surface meshes containing triangles or squares.

一実施例において、コンピュータは、四面体又は六面体を含む複数の空間格子(Volumetric Mesh)で構成された3次元立体画像を生成する。 In one embodiment, a computer generates a three-dimensional stereoscopic image composed of a plurality of volumetric meshes containing tetrahedrons or hexahedrons.

3次元立体画像を構成する格子の種類は、シミュレーションの用途に応じて異なるように設定できる。 The type of lattice that forms the 3D stereoscopic image can be set differently depending on the application of the simulation.

段階S220で、コンピュータは、対象体の脳に対する電気的刺激による電流の流れをシミュレーションするための前記複数の領域それぞれの物理的特性を獲得する。 In step S220, the computer acquires physical properties of each of the plurality of regions for simulating current flow due to electrical stimulation to the brain of the subject.

一実施例において、段階S220で得られる物理的特性は、セグメンテーションされた複数の領域それぞれの等方性(isotropic)電気伝導率及び異方性(anisotropic)電気伝導率のうちの少なくとも1つを含む。 In one embodiment, the physical properties obtained in step S220 include at least one of isotropic electrical conductivity and anisotropic electrical conductivity of each of the plurality of segmented regions. .

一実施例において、等方性電気伝導率は、セグメンテーションされた各領域に対して実験によって知られている電気伝導率を割り当てることによって獲得できる。 In one embodiment, the isotropic electrical conductivity can be obtained by assigning an experimentally known electrical conductivity to each segmented region.

例えば、脳の各領域に対して知られている電気伝導率は、下記の表1の通りである。 For example, the electrical conductivity known for each region of the brain is shown in Table 1 below.

Figure 0007263324000001
Figure 0007263324000001

異方性電気伝導率は、脳白質にある白質繊維の異方性を実現したものである。 Anisotropic electrical conductivity is a realization of the anisotropy of the white matter fibers in the white matter of the brain.

一実施例において、異方性電気伝導率は、対象体の脳に対する伝導テンソル画像から獲得される。 In one embodiment, the anisotropic electrical conductivity is obtained from a conduction tensor image for the subject's brain.

例えば、コンピュータは、対象体の脳MRI画像から対象体の脳に対する伝導テンソル画像を獲得し、獲得した伝導テンソル画像を用いてセグメンテーションされた複数の領域それぞれの異方性電気伝導率を獲得する。 For example, the computer acquires a conduction tensor image of the subject's brain from a brain MRI image of the subject, and acquires the anisotropic electrical conductivity of each of the segmented regions using the acquired conduction tensor image.

他の実施例において、対象体の脳MRI画像は拡散テンソル画像を含み、コンピュータは、対象体の拡散テンソル画像を用いてセグメンテーションされた複数の領域それぞれの異方性電気伝導率を獲得する。 In another embodiment, the brain MRI image of the subject includes a diffusion tensor image, and the computer obtains the anisotropic electrical conductivity of each of the regions segmented using the diffusion tensor image of the subject.

図7を参照すれば、拡散テンソル画像700の一例が示されている。 Referring to FIG. 7, an example diffusion tensor image 700 is shown.

拡散テンソル画像の固有ベクトルは、伝導テンソルの固有ベクトルと一致すると知られているため、コンピュータは、拡散テンソル画像に含まれている神経繊維の方向によって異方性電気伝導率を獲得できる。例えば、神経繊維の方向は高い電気伝導率を有し、神経繊維と垂直な方向は低い電気伝導率を有する。 Since the eigenvectors of the diffusion tensor image are known to match the eigenvectors of the conduction tensor, the computer can obtain the anisotropic electrical conductivity depending on the orientation of the nerve fibers contained in the diffusion tensor image. For example, the direction of the nerve fibers has high electrical conductivity and the direction perpendicular to the nerve fibers has low electrical conductivity.

段階S230で、コンピュータは、3次元脳地図を用いて、対象体の頭の一地点に特定の電気的刺激が与えられたときに、特定の電気的刺激が対象体の脳から伝播される状態をシミュレーションする。 In step S230, the computer uses the 3D brain map to determine a state in which a specific electrical stimulus is propagated from the brain of the subject when a specific electrical stimulus is applied to one point on the head of the subject. to simulate.

一実施例において、コンピュータは、段階S210で得られた格子画像と、段階S220で得られた物理的特性を用いて電気的刺激が対象体の脳から伝播される状態をシミュレーションする。 In one embodiment, the computer uses the grid image obtained in step S210 and the physical properties obtained in step S220 to simulate the state in which electrical stimulation propagates from the subject's brain.

図8を参照すれば、シミュレーション結果の一例が示されている。 Referring to FIG. 8, an example of simulation results is shown.

対象体の頭に与えられ得る電気的刺激は磁場、電場及び電流のうちの少なくとも1つを含むことができ、対象体の頭に磁場が加えられる場合、対象体の脳には磁場によって誘導された電流を伝播できる。 The electrical stimulation that can be applied to the subject's head can include at least one of a magnetic field, an electric field, and an electric current, and when the magnetic field is applied to the subject's head, the subject's brain is induced by the magnetic field. current can be propagated.

一実施例において、コンピュータは、対象体の脳で電気的刺激を与える刺激目標地点を獲得する。コンピュータは、対象体の3次元脳地図を用いて、刺激目標地点に電気的刺激を与えるために、対象体の頭に電気的刺激を与える位置を獲得する。 In one embodiment, the computer acquires stimulation target points for electrical stimulation in the subject's brain. The computer uses the subject's three-dimensional brain map to acquire locations for applying electrical stimulation to the subject's head in order to apply electrical stimulation to stimulation target points.

例えば、コンピュータは、対象体の3次元脳地図を用いて、対象体の頭皮から刺激目標地点まで電気的刺激が伝達されるための推薦経路を獲得し、推薦経路から対象体の頭に電気的刺激を与える位置を獲得できる。 For example, the computer acquires a recommended route for the electrical stimulation to be transmitted from the scalp of the subject to the stimulation target point using the 3D brain map of the subject, and conducts the electrical stimulation from the recommended path to the head of the subject. Acquire a stimulating position.

コンピュータが対象体の脳に電気的刺激を与えるための位置及び方向を算出及び提供する方法については、以下で後述する。 A method of calculating and providing the position and direction for the computer to apply electrical stimulation to the brain of the subject will be described below.

図9は、一実施例によるTMS(Transcranial Magnetic Stimulation、経頭蓋的磁気刺激法)刺激ナビゲーション方法を示すフローチャートである。 FIG. 9 is a flowchart illustrating a Transcranial Magnetic Stimulation (TMS) stimulation navigation method according to one embodiment.

図9に示したTMS刺激ナビゲーション方法は、コンピュータによって実行される段階を時系列的に示す図である。 The TMS stimulus navigation method shown in FIG. 9 is a timeline of computer-implemented steps.

図10を参照すれば、TMS施術方法の一例が示されている。 Referring to FIG. 10, an example of a TMS treatment method is shown.

TMSは、施術用コイル1000を対象体10の頭の一側面に隣接させ、コイル1000で発生する磁場によって対象体10の脳に誘導される電場を利用し、脳の特定部分を刺激する治療方法である。 TMS is a treatment method in which a treatment coil 1000 is placed adjacent to one side of the head of the subject 10, and an electric field induced in the brain of the subject 10 by a magnetic field generated by the coil 1000 is used to stimulate a specific part of the brain. is.

施術用コイル1000の形状によってコイル1000の周辺で発生する磁場の強さと形状が異なるので、対象体10の頭及び脳の形状によって電気的信号が伝播される様子も異なるはずである。 Since the strength and shape of the magnetic field generated around the coil 1000 are different depending on the shape of the treatment coil 1000, the manner in which the electric signal is propagated should also be different depending on the shape of the head and brain of the subject 10. FIG.

従って、開示された実施例によれば、コイル1000の種類による刺激地点を算出して提供し、対象体10の頭及び脳の形状によるシミュレーション結果を提供する。 Therefore, according to the disclosed embodiment, stimulation points are calculated and provided according to the type of the coil 1000, and simulation results are provided according to the shape of the head and brain of the subject 10. FIG.

段階S910で、コンピュータは、対象体の脳で電気的刺激を与える刺激目標地点を獲得する。 In step S910, the computer acquires a stimulation target point for applying electrical stimulation to the brain of the subject.

刺激目標地点は、治療しようとする疾患によって臨床的又は理論的根拠に基づいて選択される。一実施例において、刺激目標地点は、開示された実施例によって生成された対象体の3次元脳画像又は3次元脳地図を用いて指示される。 The stimulation target point is selected clinically or rationally depending on the disease to be treated. In one embodiment, stimulation target points are indicated using a 3D brain image or 3D brain map of the subject generated by the disclosed embodiments.

段階S920で、コンピュータは、TMS施術用コイルの磁気ベクトルポテンシャル(Magnetic Vector Potential)の空間的分布に関する情報を獲得する。 At step S920, the computer acquires information about the spatial distribution of the Magnetic Vector Potential of the TMS treatment coil.

一実施例において、空間的分布に関する情報は、施術用コイルの形状による磁気双極子(Magnetic Dipole)を用いて磁気ベクトルポテンシャルを可視化した情報を含む。 In one embodiment, the information about the spatial distribution includes information obtained by visualizing the magnetic vector potential using a magnetic dipole due to the shape of the treatment coil.

図12を参照すれば、施術用コイル(1200及び1250)の種類による磁気ベクトルポテンシャルを可視化した情報(1210及び1260)が示されている。 Referring to FIG. 12, information (1210 and 1260) that visualizes the magnetic vector potential according to the types of treatment coils (1200 and 1250) is shown.

段階S930で、コンピュータは、段階S920で獲得した空間的分布から、段階S910で獲得した刺激目標地点に対する最適刺激条件を獲得するための1つ以上のパラメータを獲得する。 At step S930, the computer obtains one or more parameters for obtaining optimal stimulation conditions for the stimulation target points obtained at step S910 from the spatial distribution obtained at step S920.

一実施例において、刺激目標地点に対する最適刺激条件は、施術用コイルによって刺激目標地点に印加される磁場の強さが最大となるようにする条件を意味する。 In one embodiment, the optimum stimulation condition for the stimulation target point means a condition that maximizes the strength of the magnetic field applied to the stimulation target point by the treatment coil.

図11を参照すれば、対象体の脳に印加される磁場と電場の関係が示されている。 Referring to FIG. 11, the relationship between the magnetic field and the electric field applied to the brain of the subject is shown.

図11のシミュレーション画像1100(a)を参照すれば、対象体の脳に印加される磁場の大きさ、勾配(電位)の大きさ及び磁場によって誘導される電場の大きさを視覚化したイメージがそれぞれ示されている。対象体の脳に印加される電場の大きさは、対象体の脳に印加される磁場と勾配を足して算出できる。 Referring to the simulation image 1100(a) of FIG. 11, the image visualizes the magnitude of the magnetic field applied to the brain of the subject, the magnitude of the gradient (potential), and the magnitude of the electric field induced by the magnetic field. each shown. The magnitude of the electric field applied to the subject's brain can be calculated by adding the magnetic field applied to the subject's brain and the gradient.

図11のグラフ1100(b)を参照すれば、対象体の脳に印加される磁場と、磁場によって誘導される電場間の相関関係が示されている。 Referring to graph 1100(b) of FIG. 11, the correlation between the magnetic field applied to the subject's brain and the electric field induced by the magnetic field is shown.

グラフ1100(b)によれば、対象体の脳に強い磁場が印加されるほど、対象体の脳に強い電場が誘導されることが分かる。 According to the graph 1100(b), it can be seen that as a stronger magnetic field is applied to the brain of the subject, a stronger electric field is induced in the brain of the subject.

従って、刺激目標地点に対する最適刺激条件は、施術用コイルによって刺激目標地点に印加される磁場の強さが最大となるようにするものであることが分かる。 Therefore, it can be seen that the optimum stimulation condition for the stimulation target point is to maximize the strength of the magnetic field applied to the stimulation target point by the treatment coil.

一実施例において、コンピュータが獲得するパラメータは、コイルによって誘導される磁気ベクトルポテンシャルの空間的分布で最も高い磁気ベクトルポテンシャル値を有する最適点(Optimal Point)を含む。 In one embodiment, the parameters obtained by the computer include the Optimal Point with the highest magnetic vector potential value in the spatial distribution of the magnetic vector potential induced by the coil.

また、コンピュータが獲得するパラメータは、最適点を開始点とする法線ベクトル(Normal Vector)のうち最適点での勾配(Gradient)との積が最小となる法線ベクトルである最適ベクトル(Optimal Vector)を含む。 In addition, the parameters acquired by the computer are the Optimal Vector, which is the normal vector that minimizes the product of the gradient at the optimum point among the normal vectors starting from the optimum point. )including.

図12を参照すれば、磁気ベクトルポテンシャル(1210及び1250)それぞれの最適点(1212及び1262)及び最適ベクトル(1214及び1264)が示されている。 Referring to FIG. 12, the optimum points (1212 and 1262) and optimum vectors (1214 and 1264) for the magnetic vector potentials (1210 and 1250) respectively are shown.

最適点(x、y、z)と最適ベクトルvは、下記の式1及び式2によって算出される。 The optimum point (x, y, z) and the optimum vector v are calculated by Equations 1 and 2 below.

Figure 0007263324000002
Figure 0007263324000002

前記数1において、fは磁気ベクトルポテンシャルマップを意味し、数1によって磁気ベクトルポテンシャルマップfで最も大きな値を有する位置である(x、y、z)が最適点として算出される。 In Equation 1, f means the magnetic vector potential map, and by Equation 1, the position (x, y, z) having the largest value in the magnetic vector potential map f is calculated as the optimum point.

Figure 0007263324000003
Figure 0007263324000003

前記数2において、

Figure 0007263324000004
は最適点を定義する際に用いられたfを最適点である
Figure 0007263324000005
で微分した値であり、v(x、y、z)は(x、y、z)方向への法線ベクトルを意味する。 In Equation 2,
Figure 0007263324000004
is the optimal point f used in defining the optimal point
Figure 0007263324000005
, and v(x, y, z) means a normal vector in the (x, y, z) direction.

段階S940で、コンピュータは、段階S930で得られたパラメータを用いて、段階S910で得られた刺激目標地点に対する最適刺激条件を満たすコイルの位置及び方向を算出する。 At step S940, the computer uses the parameters obtained at step S930 to calculate the position and orientation of the coil that satisfies the optimum stimulation condition for the stimulation target point obtained at step S910.

一実施例において、コイルの位置及び方向を算出する段階は、刺激目標地点が最適点から最適ベクトル方向に最も近接するようにするコイルの位置及び方向を算出する段階を含む。 In one embodiment, calculating the position and orientation of the coil includes calculating the position and orientation of the coil that causes the stimulation target point to be closest to the optimum vector direction from the optimum point.

図13を参照すれば、コイルの位置及び方向を算出する方法の一例が示されている。 Referring to FIG. 13, an example method for calculating the position and orientation of the coil is shown.

対象体10及び対象体10の刺激目標地点(S、12)が獲得されると、コンピュータは、刺激目標地点12から最も近い頭皮上の一地点14を決定する。 Once the subject 10 and the stimulation target point (S, 12) of the subject 10 are obtained, the computer determines a point 14 on the scalp that is closest to the stimulation target point 12 .

このとき、刺激目標地点12及び刺激目標地点12から最も近い頭皮上の一地点14間の距離をDとし、地点14を開始点とし、刺激目標地点12を終点とするベクトルをKとする。また、コイル1310の厚さを2Pとする。 At this time, let D be the distance between the stimulation target point 12 and a point 14 on the scalp closest to the stimulation target point 12, and let K be a vector with the point 14 as the starting point and the stimulation target point 12 as the end point. Also, the thickness of the coil 1310 is assumed to be 2P.

コンピュータは、ベクトルK1320とコイル1310の最適ベクトル1312を整列する下記の式3のような行列を生成及び適用する。 The computer generates and applies a matrix such as Equation 3 below that aligns vector K 1320 with the optimum vector 1312 of coil 1310 .

Figure 0007263324000006
Figure 0007263324000006

これにより、コイルの位置は、下記の数4のように算出される。 Accordingly, the position of the coil is calculated as shown in Equation 4 below.

Figure 0007263324000007
Figure 0007263324000007

段階S950で、コンピュータは、施術用コイルを段階S940で算出された位置に段階S950で算出された方向に位置させたときに、施術用コイルの磁場から誘導される電気的刺激が対象体の脳から伝播される状態をシミュレーションする。 In step S950, the computer causes the electrical stimulation induced by the magnetic field of the treatment coil to be applied to the brain of the subject when the treatment coil is positioned in the position calculated in step S940 and in the direction calculated in step S950. Simulate the state propagated from .

一実施例において、コンピュータは、図1及び図2に示した方法によって生成された3次元脳地図を用いてシミュレーションを行う。 In one embodiment, a computer performs a simulation using a 3D brain map generated by the method shown in FIGS.

例えば、コンピュータは、対象体の脳MRI画像を獲得し、獲得した脳MRI画像に含まれている複数の領域のそれぞれの性質に基づいて、対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる対象体の3次元脳地図を生成できる。 For example, the computer can acquire a brain MRI image of the subject and simulate the transmission process of electrical stimulation to the brain of the subject based on the properties of each of a plurality of regions included in the acquired brain MRI image. A 3D brain map of the subject can be generated.

コンピュータは、生成された3次元脳地図を用いて、コイルによる電気的刺激が対象体の脳から伝播される状態をシミュレーションする。 The computer uses the generated three-dimensional brain map to simulate the state in which electrical stimulation by the coil is propagated from the subject's brain.

また、3次元脳地図は、対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる複数の格子で構成された3次元立体画像を含むことができる。 Also, the 3D brain map may include a 3D stereoscopic image composed of a plurality of grids capable of simulating the transmission process of electrical stimulation to the brain of the subject.

一実施例において、コンピュータは、施術用コイルの磁場から誘導される電気的刺激が対象体の脳から伝播される状態を、3次元立体画像を用いて視覚化する。 In one embodiment, the computer visualizes, using a three-dimensional stereoscopic image, how electrical stimulation induced by the magnetic field of the treatment coil propagates from the subject's brain.

図14を参照すれば、施術用コイルの磁場から誘導される電気的刺激が対象体の脳から伝播される状態を視覚化した例示が示されている。 Referring to FIG. 14, there is shown an example of visualizing a state in which electrical stimulation induced by the magnetic field of the treatment coil is propagated from the subject's brain.

開示された実施例において、コンピュータは、TMS施術用コイルが備えられたロボットアーム装置と接続される。ロボットアーム装置は、コンピュータが指定した位置にTMS施術用コイルを移動させることができる機械装置を含む。 In the disclosed embodiment, the computer is connected to a robotic arm device equipped with TMS treatment coils. The robotic arm device includes a mechanical device that can move the TMS treatment coil to a computer-specified position.

ロボットアーム装置は、開示された実施例によってコンピュータが指定した位置にTMS施術用コイルを移動させることによって、コンピュータの演算結果によって自動的に患者にTMSコイルを用いた施術を行える。 By moving the TMS treatment coil to a position specified by the computer according to the disclosed embodiment, the robot arm device can automatically treat the patient using the TMS coil according to the calculation result of the computer.

図15は、一実施例によるパッドガイド方法を示すフローチャートである。 FIG. 15 is a flowchart illustrating a pad guiding method according to one embodiment.

開示された実施例において、パッドは脳刺激パッドを含む。例えば、脳刺激パッドは、電気刺激パッド及び超音波刺激パッドを含むことができるが、これに制限されない。また、パッドは、EEGパッドを含む。但し、開示された実施例によるパッドの種類は、上述した例示に制限されない。 In the disclosed embodiment, the pads include brain stimulation pads. For example, brain stimulation pads can include, but are not limited to, electrical stimulation pads and ultrasonic stimulation pads. The pads also include EEG pads. However, the types of pads according to the disclosed embodiments are not limited to the examples given above.

段階S1510で、コンピュータは、深度カメラを用いて対象体の頭を含む3次元スキャンモデルを獲得する。 At step S1510, the computer acquires a 3D scan model including the head of the object using a depth camera.

深度カメラ(depth camera)は、三角測量方式の3次元レーザスキャナ、構造光線パターンを用いた深度カメラ、赤外線の反射時間差を用いたTOF(Time Of Flight)方式を利用した深度カメラなどを含むことができるが、その種類はこれに制限されない。 The depth camera may include a triangulation type 3D laser scanner, a depth camera using a structured ray pattern, a depth camera using a TOF (Time Of Flight) method using a reflection time difference of infrared rays, and the like. possible, but the type is not limited to this.

深度カメラは、画像に距離情報を反映して3次元スキャンモデルを獲得するのに用いられる。 Depth cameras are used to reflect depth information in images to obtain a 3D scan model.

一実施例において、対象体、即ち患者は、背もたれのない丸椅子に着席し、使用者、即ち医師は、三角台など仮固定装置を用いて深度カメラを患者の顔の高さから患者の顔がよく見えるように位置させる。 In one embodiment, the subject, i.e., the patient, is seated in a round chair with no backrest, and the user, i.e., the doctor, uses a temporary fixation device such as a triangular table to view the depth camera from the height of the patient's face to the patient's face. Position it so that you can see it clearly.

医師は、深度カメラを用いたスキャンを開始し、患者をゆっくり一回まわすことによって患者の頭を含む3次元スキャンモデルを獲得する。 The doctor initiates a scan with a depth camera and slowly rotates the patient once to obtain a three-dimensional scan model containing the patient's head.

一実施例において、深度カメラを自動回転可能な固定モジュールに配置して、深度カメラが中央に位置する患者の周辺を回転することによって3次元スキャンモデルを獲得できる。 In one embodiment, the depth camera can be placed in an auto-rotatable stationary module to acquire a 3D scan model by rotating around the patient in which the depth camera is centrally located.

反面、開示された実施例によれば、別途の高価な装置がなくても3次元スキャンが可能なように、携帯可能なコンピュータ装置(例えば、スマートフォン、タブレットPCなど)に深度カメラモジュールを接続し、三角台など手軽に入手できる仮固定装置を用いて深度カメラモジュールが接続されているコンピュータ装置を固定し、患者をスツールなどに着席させた後に回転させることによって3次元スキャンモデルを獲得できる。 On the other hand, according to the disclosed embodiments, a depth camera module can be connected to a portable computing device (e.g., smart phone, tablet PC, etc.) so that 3D scanning can be performed without a separate expensive device. A 3D scan model can be acquired by fixing a computer device to which a depth camera module is connected using a readily available temporary fixation device such as a triangular table, and then seating the patient on a stool or the like and then rotating it.

図20を参照すれば、携帯可能なコンピュータ装置2000とそれに接続されている深度カメラモジュール2010が示されている。 Referring to FIG. 20, there is shown a portable computing device 2000 and a depth camera module 2010 connected thereto.

また、図18を参照すれば、深度カメラを用いて獲得した3次元スキャンモデル1800の一例が示されている。 Also referring to FIG. 18, an example of a 3D scan model 1800 acquired using a depth camera is shown.

一実施例において、コンピュータは、深度カメラを用いて収集された距離画像を用いて対象体の頭を含む3次元モデルを生成し、互いに異なる開始点で撮影された画像を互いに位置合わせした後合体して、対象体の3次元モデルを再構成する。例えば、コンピュータは、深度カメラを用いて収集された距離画像で点群(point cloud)形態の3次元データを収集してモデルを再構成する。しかし、3次元モデルを生成する方法は制限されない。 In one embodiment, the computer generates a three-dimensional model containing the subject's head using the range images collected using the depth camera, and aligns the images taken at different starting points with each other and then merges them. to reconstruct a three-dimensional model of the object. For example, a computer collects 3D data in the form of a point cloud from range images collected using a depth camera to reconstruct a model. However, the method of generating the three-dimensional model is not limited.

段階S1520で、コンピュータは、対象体の3次元脳MRIモデルを獲得する。 At step S1520, the computer acquires a 3D brain MRI model of the subject.

一実施例において、対象体の3次元脳MRIモデルを獲得する段階は、対象体の脳MRI画像を獲得する段階と、対象体の脳MRI画像に含まれている複数の領域のそれぞれの性質に基づいて、対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる対象体の3次元脳地図を生成する段階とを含む。 In one embodiment, acquiring a three-dimensional brain MRI model of the subject includes acquiring a brain MRI image of the subject and the properties of each of the plurality of regions included in the subject's brain MRI image. and generating a 3D brain map of the subject, which can simulate the transmission process of electrical stimulation to the brain of the subject.

また、対象体の3次元脳地図を生成する段階は、対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる複数の格子(mesh)で構成された3次元立体画像を生成する段階を含む。 Also, generating the 3D brain map of the target includes generating a 3D stereoscopic image composed of a plurality of meshes capable of simulating a transmission process of electrical stimulation to the brain of the target.

段階S1520でコンピュータが対象体の3次元脳MRIモデルを獲得する方法は、図1ないし図8と関連して説明した3次元脳地図の生成方法を用いることができる。 The method for obtaining the 3D brain MRI model of the object by the computer in step S1520 can use the 3D brain map generation method described with reference to FIGS.

段階S1530で、コンピュータは、対象体の頭を含む3次元スキャンモデルと対象体の脳MRIモデルに対する整合を行う。 At step S1530, the computer aligns the 3D scan model including the subject's head with the subject's brain MRI model.

図17を参照すれば、イメージを整合する方法の一実施例が示されている。図17に示したイメージ1700を参照すれば、対象体の脳MRI写真と、対象体の脳の構造をモデリングしたイメージが重なっている。 Referring to FIG. 17, one embodiment of a method for aligning images is shown. Referring to the image 1700 shown in FIG. 17, the brain MRI image of the subject and the modeled image of the brain structure of the subject are superimposed.

イメージ1700で、下側の3つのイメージは、脳MRI写真と脳の構造をモデリングしたイメージが整合されていない例に該当する。また、イメージ1700で、上側の3つのイメージは、脳MRI写真と脳の構造をモデリングしたイメージが整合された例に該当する。 In the image 1700, the lower three images correspond to an example in which the brain MRI photograph and the modeled image of the brain structure are not matched. Also, in the image 1700, the upper three images correspond to an example in which brain MRI photographs and brain structure modeling images are matched.

コンピュータは、脳MRIモデルを用いてパッドが付される位置によってパッドの電気又は超音波刺激により対象体の脳で発生する変化を計算する。また、コンピュータは、対象体の頭を含む3次元スキャンモデルを用いてパッドを実際に付すべき位置を計算する。 The computer uses a brain MRI model to calculate the changes that occur in the subject's brain due to electrical or ultrasonic stimulation of the pads depending on where the pads are applied. The computer also uses a three-dimensional scan model including the subject's head to calculate where the pads should actually be applied.

従って、コンピュータは、対象体の頭を含む3次元スキャンモデルと対象体の脳MRIモデルに対する整合を行うことによって、対象体の頭にパッドを付すべき位置を計算し、それにより対象体の脳で発生する変化を計算できる。同様に、コンピュータは整合された結果を用いて、対象体の脳に特定の変化を起こすために、対象体の頭にパッドを付すべき位置を計算し、その結果を提供できる。 Accordingly, the computer calculates the positions at which the subject's head should be padded by performing a match to the subject's brain MRI model with a three-dimensional scan model that includes the subject's head, thereby calculating the positions in the subject's brain. You can calculate the changes that occur. Similarly, the computer can use the aligned results to calculate and provide the results of the positions at which the subject's head should be padded to cause a particular change in the subject's brain.

一実施例において、コンピュータが整合を行う段階は、スキャンモデルと脳MRIモデルの顔特性(facial feature)を計算する段階及びスキャンモデルと脳MRIモデルの顔特性を用いてスキャンモデルと脳MRIモデルの整合を行う段階を含む。 In one embodiment, the step of computer matching includes calculating facial features of the scan model and the brain MRI model; including matching.

対象体の頭を含むスキャンモデルと対象体の脳MRIモデルはその様式が異なるので、整合し難い。従って、コンピュータは、対象体の顔特性を用いて両モデルを整合させることができる。 Since the scan model including the subject's head and the subject's brain MRI model are in different modalities, it is difficult to match them. Therefore, the computer can match both models using the subject's facial characteristics.

一実施例において、対象体の頭を含むスキャンモデルの顔特性を計算する段階は、対象体の頭を含む色画像及び深度画像を獲得する段階と、対象体の頭を含む色画像を用いて対象体の顔特性を計算する段階と、対象体の頭を含む深度画像を用いて対象体の顔特性の3次元位置を計算する段階とを含む。 In one embodiment, calculating facial features of a scan model including the subject's head includes acquiring a color image and a depth image including the subject's head, and using the color image including the subject's head. The method includes calculating facial features of the object, and calculating three-dimensional locations of the facial features of the object using a depth image including the head of the object.

図18を参照すれば、対象体の頭を含むスキャンモデル1800及び対象体の脳MRIモデル1810を整合し、整合されたモデル1820を生成する一例が示されている。 Referring to FIG. 18, an example of matching a scan model 1800 including a subject's head and a subject's brain MRI model 1810 to produce a matched model 1820 is shown.

段階S1540で、コンピュータは、深度カメラを用いて対象体の頭を撮影した画像を獲得する。 In step S1540, the computer obtains an image of the head of the object using the depth camera.

例えば、医師は、仮固定された深度カメラを直接手に持って患者の頭を映しながら動かすことができる。 For example, a doctor can directly hold a temporarily fixed depth camera and move it while viewing the patient's head.

段階S1550で、コンピュータは、段階S1540で撮影された画像の一位置と整合されたモデル上の一位置をマッチさせる。 At step S1550, the computer matches a location on the model that was aligned with a location on the image taken at step S1540.

例えば、コンピュータが深度カメラを用いて対象体の頭の一地点を撮影している場合、コンピュータは、撮影されている一地点が整合されたモデル上でどの部分に該当するかに対する計算を行う。 For example, if the computer is using a depth camera to image a point on the subject's head, the computer performs a calculation as to where the imaged point falls on the aligned model.

一実施例において、コンピュータは、撮影された画像と整合されたモデルをマッチして対象体の頭に付するパッドの位置をガイドする画像を表示する。 In one embodiment, the computer displays an image that matches the captured image with the aligned model to guide the location of a pad on the subject's head.

図19を参照すれば、深度カメラモジュールが接続されているコンピュータ装置1900が対象体の頭1910を撮影し、コンピュータ装置1900は、撮影された対象体の頭1910にパッド1930を付するための位置1920をガイドする画像を表示する。 Referring to FIG. 19, a computer device 1900 to which a depth camera module is connected captures a head 1910 of a subject, and the computer device 1900 is positioned to attach a pad 1930 to the head 1910 of the captured subject. An image that guides 1920 is displayed.

一実施例において、コンピュータ装置1900は、整合されたモデル上でパッド1930を付する位置を決定し、撮影された画像において決定された位置に対応する位置1920を表示する。 In one embodiment, the computing device 1900 determines the positions to apply the pads 1930 on the aligned model and displays the positions 1920 corresponding to the determined positions in the captured image.

また、コンピュータ装置1900は、撮影された画像でパッド1930を認識し、認識されたパッド1930の移動方向をガイドする。 Also, the computer device 1900 recognizes the pad 1930 in the captured image and guides the movement direction of the recognized pad 1930 .

更に、コンピュータ装置1900は、認識されたパッド1930が決定された位置1920に付されたか否かを判断する。 Further, computing device 1900 determines whether recognized pad 1930 has been applied to determined location 1920 .

一実施例において、パッド1930には少なくとも1つのマーカが付されるか又は表示される。例えば、パッド1930には特定の図形、色及び2次元コードのうちの少なくとも1つが付されるか又は表示され、コンピュータ装置1900は、パッド1930に付着又は表示されたマーカを用いてパッド1930を認識し、パッド1930の動きをトラッキングする。 In one embodiment, pad 1930 is marked or otherwise marked with at least one marker. For example, at least one of a specific figure, color, and two-dimensional code is attached or displayed on the pad 1930, and the computer device 1900 recognizes the pad 1930 using a marker attached or displayed on the pad 1930. and track the movement of pad 1930 .

例えば、医師が患者の頭をコンピュータ装置1900又はコンピュータ装置1900と接続されている深度カメラを用いて位置を変更しながら撮影する場合、コンピュータ装置1900に表示される患者の頭の位置も変更され、同様に、コンピュータ装置1900が認識するパッド1930の位置も変更される。この場合、コンピュータ装置1900は、コンピュータ装置1900が移動する場合にもパッド1930をトラッキングして、医師が患者の頭の正確な位置にパッド1930を付することができるようにガイドする。 For example, when the doctor photographs the patient's head while changing the position using the computer device 1900 or a depth camera connected to the computer device 1900, the position of the patient's head displayed on the computer device 1900 is also changed, Similarly, the position of pad 1930 recognized by computing device 1900 is also changed. In this case, the computing device 1900 tracks the pad 1930 even when the computing device 1900 moves, and guides the physician to apply the pad 1930 to the correct location on the patient's head.

一実施例において、コンピュータ装置1900は、撮影された画像でパッド1930を認識し、認識されたパッドの移動方向をガイドする。例えば、コンピュータ装置1900は、パッド1930が決定された位置1920に付され得るように、パッド1930の移動方向を表示する。 In one embodiment, the computing device 1900 recognizes the pad 1930 in the captured image and guides the movement direction of the recognized pad. For example, computing device 1900 displays the direction of movement of pad 1930 so that pad 1930 can be applied to determined position 1920 .

また、コンピュータ装置1900は、認識されたパッド1930が決定された位置1920に付されたか否かを判断する。例えば、コンピュータ装置1900は、パッド1930が最終的に認識された位置が決定された位置1920に対応するか否かを判断し、決定された位置1920とパッド1930が付された位置が異なる場合、パッド1930の位置を変更することを要請する通知を提供できる。 Computing device 1900 also determines whether recognized pad 1930 has been applied to determined location 1920 . For example, the computing device 1900 determines whether the final recognized position of the pad 1930 corresponds to the determined position 1920, and if the determined position 1920 and the position of the pad 1930 are different, A notification can be provided requesting that the pad 1930 be repositioned.

一実施例において、コンピュータ装置1900は、撮影された画像で対象体の頭に付されたパッド1930を認識し、認識されたパッド1930の位置を判断する。コンピュータ装置1900は、判断されたパッド1930の位置に対応する、整合されたモデル上の位置を獲得する。 In one embodiment, the computing device 1900 recognizes the pad 1930 attached to the head of the subject in the captured image and determines the position of the recognized pad 1930 . Computing device 1900 obtains the position on the matched model corresponding to the determined pad 1930 position.

例えば、EEG脳波検査を行う場合、使用者の頭の形状及び構造と関係なく、一貫した位置にEEGパッドを付するか、任意の位置にEEGパッドを付する。この場合、EEGパッドが獲得した脳波が対象体の脳のどの位置から受信された脳波であるかが具体的に分かり難い。 For example, when performing EEG electroencephalography, the EEG pads are placed in a consistent position or in any position regardless of the shape and structure of the user's head. In this case, it is difficult to know from which part of the subject's brain the brain waves acquired by the EEG pad are received.

従って、開示された実施例によれば、コンピュータ装置1900は、1つ以上のEEGパッドを付した対象体の頭を撮影し、撮影された画像で認識された1つ以上のEEGパッドの位置を獲得する。 Thus, according to the disclosed embodiments, the computing device 1900 can image a subject's head with one or more EEG pads attached to it, and determine the locations of the one or more EEG pads recognized in the captured image. Earn.

コンピュータ装置1900は、得られたEEGパッドの位置に対応する対象体の整合されたモデル上の位置を獲得して、対象体の頭に付されたEEGパッドで獲得した脳波が対象体の脳のどの部分から受信されたかを具体的に判断できる。例えば、コンピュータ装置1900は、開示された実施例を活用して各EEGパッドで受信した脳波の信号源を分析できる。 The computing device 1900 obtains the positions on the matched model of the subject corresponding to the obtained positions of the EEG pads, and the electroencephalograms obtained with the EEG pads attached to the subject's head are obtained from the subject's brain. It is possible to specifically determine from which part the message was received. For example, computing device 1900 can utilize the disclosed embodiments to analyze the source of brain waves received at each EEG pad.

図16は、一実施例によって電気刺激結果をシミュレーションする結果を示す図である。 FIG. 16 is a diagram showing results of simulating electrical stimulation results according to one embodiment.

図16を参照すれば、対象体の頭1600の3次元モデル及び3次元モデル上の一位置にパッド1610を付した実施例が示されている。 Referring to FIG. 16, there is shown an embodiment of a 3D model of a subject's head 1600 and a pad 1610 at a position on the 3D model.

コンピュータは、対象体の頭1600の3次元モデルの一位置にパッド1610が付された場合、パッド1610による電気刺激が対象体の脳1650から伝達される結果をシミュレーションする。 When the pad 1610 is attached to one position of the three-dimensional model of the subject's head 1600, the computer simulates the result of electrical stimulation transmitted from the subject's brain 1650 by the pad 1610. FIG.

一実施例において、コンピュータは、対象体の脳1650に対する3次元脳地図を獲得し、3次元脳地図を用いて対象体の頭に付されるパッド1610の位置を決定する。 In one embodiment, the computer obtains a 3D brain map for the subject's brain 1650 and uses the 3D brain map to determine the location of the pad 1610 applied to the subject's head.

一実施例において、パッド1610の位置を決定する段階は、パッド1610を用いる目的を獲得する段階と、対象体の頭1600にパッド1610が付される位置によって前記対象体の脳1650に電気的刺激が伝達される過程をシミュレーションする段階と、獲得した目的とシミュレーション結果を用いてパッド1610の位置を決定する段階とを含む。 In one embodiment, determining the position of the pad 1610 includes obtaining a purpose for using the pad 1610 and electrically stimulating the brain 1650 of the subject according to the location where the pad 1610 is applied to the head 1600 of the subject. and determining the position of the pad 1610 using the obtained objective and the simulation result.

例えば、コンピュータは、対象体の脳1650に特定の刺激を与えようとする場合、シミュレーション結果を用いて対象体の脳1650に特定の刺激を与えられるパッド1610の位置を決定できる。 For example, when the computer intends to apply a specific stimulation to the brain 1650 of the subject, the computer can use the simulation results to determine the position of the pad 1610 where the specific stimulation is applied to the brain 1650 of the subject.

コンピュータは、図16に示した実施例によって決定されたパッド1610の位置を、深度カメラを用いて撮影された対象体の頭の一地点とマッチさせ、マッチした位置にパッドをガイドする画像を表示できる。 The computer matches the position of the pad 1610 determined by the embodiment shown in FIG. 16 to a point on the subject's head captured using the depth camera and displays an image guiding the pad to the matched position. can.

本発明の実施例と関連して説明された方法又はアルゴリズムの段階は、ハードウェアで直接実現するか、ハードウェアにより実行されるソフトウェアモジュールで実現するか、又はこれらの組み合わせにより実現できる。ソフトウェアモジュールは、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ(Flash Memory)、ハードディスク、脱着型ディスク、CD-ROM、又は本発明が属する技術分野において周知されている任意の形態のコンピュータ読み取り可能な記録媒体に常に存在し得る。 The method or algorithm steps described in connection with the embodiments of the present invention may be implemented directly in hardware, implemented in software modules executed by hardware, or a combination thereof. The software module includes RAM (Random Access Memory), ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), Flash Memory, hard disk, removable disk, CD-ROM, Or it may reside on any form of computer readable recording medium that is well known in the art to which this invention pertains.

以上、添付の図面を参照して本発明の実施例を説明したが、本発明が属する技術分野における通常の技術者は、本発明がその技術的思想や必須な特徴を変更することなく、他の具体的な形態で実施できるということが理解できるであろう。従って、以上で述べた実施例は全ての面で例示的なものであり、制限的ではないものとして理解すべきである。 Although the embodiments of the present invention have been described above with reference to the accompanying drawings, those skilled in the art to which the present invention pertains will appreciate that the present invention may be modified in other ways without changing its technical idea or essential features. It will be understood that it can be implemented in the specific form of Accordingly, the above-described embodiments are to be considered in all respects as illustrative and not restrictive.

Claims (10)

対象体の脳MRI画像を獲得する段階と、
前記脳MRI画像を複数の領域にセグメンテーションする段階と、
セグメンテーションされた前記脳MRI画像を用いて前記複数の領域を含む前記対象体の3次元脳画像を生成する段階と、
前記3次元脳画像に含まれている複数の領域のそれぞれの性質に基づいて、前記対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる前記対象体の3次元脳地図を生成する段階と、
を含み、
前記セグメンテーションする段階は、
複数の加工された脳MRI画像を用いた機械学習により得られた学習済みモデルに前記対象体の脳MRI画像を入力してセグメンテーションされた前記対象体の脳MRI画像を獲得する段階を含み、
前記学習済みモデルは、前記複数の加工された脳MRI画像を用いてディープラーニングに基づいた学習を行うことによって、前記脳MRI画像が入力されたときに脳の構造に基づいた脳領域別にセグメンテーションされた脳MRI画像を出力するように構築された学習モデルであり、
前記対象体の3次元脳地図を生成する段階は、前記対象体の脳MRI画像を前記学習済みモデルに入力して獲得したセグメンテーションされた前記対象体の脳MRI画像を用いて、前記脳の構造に基づいた脳領域別にセグメンテーションされた前記対象体の3次元脳地図画像を出力することを含み、
前記セグメンテーションする段階は、
前記学習済みモデルに前記対象体の脳MRI画像を入力して獲得したセグメンテーションされた前記対象体の脳MRI画像に含まれるホールを除去する段階を含む、
3次元脳地図の生成方法。
obtaining a brain MRI image of a subject;
segmenting the brain MRI image into a plurality of regions;
generating a three-dimensional brain image of the subject including the plurality of regions using the segmented brain MRI image;
generating a 3D brain map of the subject that can simulate a transmission process of electrical stimulation to the brain of the subject based on the properties of each of a plurality of regions included in the 3D brain image;
including
The segmenting step includes:
acquiring a segmented brain MRI image of the subject by inputting the brain MRI image of the subject into a trained model obtained by machine learning using a plurality of processed brain MRI images;
The trained model is segmented by brain region based on the structure of the brain when the brain MRI image is input by performing learning based on deep learning using the plurality of processed brain MRI images. A learning model constructed to output brain MRI images,
The step of generating a 3D brain map of the object includes: using a segmented brain MRI image of the object obtained by inputting the brain MRI image of the object into the trained model; outputting a 3D brain map image of the subject segmented by brain regions based on
The segmenting step includes:
removing holes included in the segmented brain MRI image of the subject obtained by inputting the brain MRI image of the subject into the trained model;
A method for generating a three-dimensional brain map.
前記加工された脳MRI画像は、前記加工された脳MRI画像に含まれている複数の領域のそれぞれがラベリングされた画像であり、
前記学習済みモデルは、
脳MRI画像の入力を受けて、セグメンテーションされた脳MRI画像を出力するモデルであることを特徴とする請求項1に記載の3次元脳地図の生成方法。
The processed brain MRI image is an image in which each of a plurality of regions included in the processed brain MRI image is labeled;
The trained model is
2. The method of generating a three-dimensional brain map according to claim 1, wherein the model is a model that receives an input of a brain MRI image and outputs a segmented brain MRI image.
前記対象体の3次元脳地図を生成する段階は、
前記対象体の3次元脳画像を用いて前記対象体の脳に対する電気的刺激の伝達過程をシミュレーションできる複数の格子(mesh)で構成された3次元立体画像を生成する段階を含むことを特徴とする請求項1に記載の3次元脳地図の生成方法。
The step of generating a 3D brain map of the subject includes:
generating a 3D stereoscopic image composed of a plurality of meshes capable of simulating a transmission process of electrical stimulation to the brain of the target using the 3D brain image of the target. 3. The method of generating a three-dimensional brain map according to claim 1.
前記対象体の3次元脳地図を生成する段階は、
前記対象体の脳に対する電気的刺激による電流の流れをシミュレーションするための前記複数の領域それぞれの物理的特性を獲得する段階を含み、
前記物理的特性は、前記複数の領域のそれぞれの等方性(isotropic)電気伝導率及び異方性(anisotropic)電気伝導率のうちの少なくとも1つを含むことを特徴とする請求項1に記載の3次元脳地図の生成方法。
The step of generating a 3D brain map of the subject includes:
acquiring physical characteristics of each of the plurality of regions for simulating current flow due to electrical stimulation to the subject's brain;
2. The method of claim 1, wherein the physical properties include at least one of isotropic electrical conductivity and anisotropic electrical conductivity of each of the plurality of regions. 3D brain map generation method.
前記物理的特性を獲得する段階は、
前記対象体の脳MRI画像から前記対象体の脳に対する伝導テンソル画像を獲得する段階と、
前記伝導テンソル画像を用いて前記複数の領域のそれぞれの異方性電気伝導率を獲得する段階と、
を含むことを特徴とする請求項4に記載の3次元脳地図の生成方法。
Obtaining the physical property comprises:
obtaining a conduction tensor image of the subject's brain from the subject's brain MRI image;
obtaining the anisotropic electrical conductivity of each of the plurality of regions using the conduction tensor image;
5. The method of generating a three-dimensional brain map according to claim 4, comprising:
前記対象体の脳MRI画像は拡散テンソル画像を含み、
前記物理的特性を獲得する段階は、
前記対象体の拡散テンソル画像を用いて前記複数の領域のそれぞれの異方性電気伝導率を獲得する段階と、
を含むことを特徴とする請求項4に記載の3次元脳地図の生成方法。
the brain MRI image of the subject comprises a diffusion tensor image;
Obtaining the physical property comprises:
obtaining the anisotropic electrical conductivity of each of the plurality of regions using a diffusion tensor image of the object;
5. The method of generating a three-dimensional brain map according to claim 4, comprising:
前記3次元脳地図を用いて、前記対象体の頭の一地点に特定の電気的刺激が与えられるときに、前記特定の電気的刺激が前記対象体の脳から伝播される状態をシミュレーションする段階を更に含むことを特徴とする請求項1に記載の3次元脳地図の生成方法。 using the three-dimensional brain map to simulate a state in which the specific electrical stimulus is transmitted from the brain of the subject when the specific electrical stimulus is applied to one point on the head of the subject; The method of claim 1, further comprising: 前記対象体の脳で電気的刺激を与える刺激目標地点を獲得する段階と、
前記3次元脳地図を用いて、前記刺激目標地点に電気的刺激を与えるために前記対象体の頭に電気的刺激を与える位置を獲得する段階と、
を更に含むことを特徴とする請求項1に記載の3次元脳地図の生成方法。
obtaining a stimulation target point for applying electrical stimulation to the brain of the subject;
using the 3D brain map to obtain a position for applying electrical stimulation to the subject's head in order to apply electrical stimulation to the stimulation target point;
The method of claim 1, further comprising:
前記電気的刺激を与える位置を獲得する段階は、
前記3次元脳地図を用いて、前記対象体の頭皮から前記刺激目標地点まで電気的刺激が伝達されるための推薦経路を獲得する段階と、
前記推薦経路から前記対象体の頭に電気的刺激を与える位置を獲得する段階と、
を含むことを特徴とする請求項8に記載の3次元脳地図の生成方法。
Acquiring the location for applying the electrical stimulation comprises:
obtaining a recommended route for electrical stimulation to be delivered from the subject's scalp to the stimulation target point using the 3D brain map;
obtaining a position for applying electrical stimulation to the head of the target from the recommended path;
9. The method of generating a three-dimensional brain map according to claim 8, comprising:
ハードウェアであるコンピュータで読み取り可能な記録媒体に格納され、請求項1~9のいずれかに記載の方法を前記コンピュータで実行するためのコンピュータプログラム。 A computer program stored in a computer-readable recording medium, which is hardware, for executing the method according to any one of claims 1 to 9 on the computer.
JP2020514533A 2017-09-11 2018-08-31 Method and program for generating 3D brain map Active JP7263324B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2017-0115779 2017-09-11
KR1020170115779A KR101995900B1 (en) 2017-09-11 2017-09-11 Method and program for generating a 3-dimensional brain map
PCT/KR2018/010170 WO2019050226A1 (en) 2017-09-11 2018-08-31 Method and program for generating three-dimensional brain map

Publications (2)

Publication Number Publication Date
JP2020533102A JP2020533102A (en) 2020-11-19
JP7263324B2 true JP7263324B2 (en) 2023-04-24

Family

ID=65635034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020514533A Active JP7263324B2 (en) 2017-09-11 2018-08-31 Method and program for generating 3D brain map

Country Status (4)

Country Link
US (1) US11744465B2 (en)
JP (1) JP7263324B2 (en)
KR (1) KR101995900B1 (en)
WO (1) WO2019050226A1 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101995900B1 (en) 2017-09-11 2019-07-04 뉴로핏 주식회사 Method and program for generating a 3-dimensional brain map
KR102204371B1 (en) * 2019-03-25 2021-01-19 세종대학교산학협력단 Learning method for generating multiphase collateral image and multiphase collateral imaging method using machine learning
US11620789B2 (en) * 2019-05-03 2023-04-04 Novocure Gmbh Methods, systems, and apparatuses for managing transducer array placement
WO2021216874A1 (en) * 2020-04-22 2021-10-28 The General Hospital Corporation Systems and methods for integrated electric field simulation and neuronavigation for transcranial magnetic stimulation
KR102403686B1 (en) * 2020-05-15 2022-05-31 뉴로핏 주식회사 Apparatus and method for providing posion of brain stimulation
US11087877B1 (en) * 2020-07-02 2021-08-10 Omniscient Neurotechnology Pty Limited Identifying anomalous brain data
KR102385708B1 (en) * 2020-07-20 2022-04-13 경희대학교 산학협력단 Conductivity image reconstruction apparatus and method based on deep learning for diagnosis of alzheimer's diseases
CN111729200B (en) * 2020-07-27 2022-06-17 浙江大学 Transcranial magnetic stimulation automatic navigation system and method based on depth camera and magnetic resonance
CN112435212A (en) * 2020-10-15 2021-03-02 杭州脉流科技有限公司 Brain focus region volume obtaining method and device based on deep learning, computer equipment and storage medium
KR102478278B1 (en) * 2020-10-20 2022-12-16 서울대학교산학협력단 Apparatus and method for brain mapping based on functional activity of brain
CN112819950A (en) * 2021-02-07 2021-05-18 清华-伯克利深圳学院筹备办公室 Preparation method, device and equipment of brain tissue section die and storage medium
KR102338087B1 (en) * 2021-07-06 2021-12-14 뉴로핏 주식회사 Method, server and computer program for determining optimal stimulus position combination using pre-set guide system
WO2023282403A1 (en) * 2021-07-06 2023-01-12 뉴로핏 주식회사 Method for determining optimum stimulation position combination by using pre-set guide system, and electric stimulation simulation method, server, and computer program for determining optimum stimulation position combination
KR102373757B1 (en) * 2021-07-06 2022-03-15 뉴로핏 주식회사 Method, server and computer program for executing electric stimulus simulation for determining optimal stimulus position combination
KR102373760B1 (en) * 2021-07-07 2022-03-15 뉴로핏 주식회사 System and method for executing brain stimulus simulation according to pre-set guide system using external server based on anonymized data
KR102373761B1 (en) * 2021-07-07 2022-03-15 뉴로핏 주식회사 Method, server and computer program for executing stimulus simulation using brain model of brain lesion patient
KR102373767B1 (en) * 2021-07-07 2022-03-14 뉴로핏 주식회사 Method, server and computer program for making treatment strategy of brain lesion patient based on big data
KR20230078217A (en) 2021-11-26 2023-06-02 연세대학교 산학협력단 Method and apparatus for reconstructing brain electrical conductivity map from magnetic resonance imaging
KR20230088281A (en) 2021-12-10 2023-06-19 연세대학교 산학협력단 Analysis apparatus for generating excitation time map and subject evaluating method based on excitation time map

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070043268A1 (en) 2005-06-16 2007-02-22 Russell Michael J Guided Electrical Transcranial Stimulation (GETS) Technique
JP2013506478A (en) 2009-09-30 2013-02-28 インペリアル イノベ−ションズ リミテッド Medical image processing method and apparatus
US20200214570A1 (en) 2017-09-11 2020-07-09 NEUROPHET Inc. Method and program for generating three-dimensional brain map
JP6935630B2 (en) 2017-09-11 2021-09-15 ニューロフェット インコーポレイテッドNeurophet Inc. TMS stimulation navigation method and program
JP6935633B2 (en) 2017-08-25 2021-09-15 ニューロフェット インコーポレイテッドNeurophet Inc. Patch guide method and program

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7346382B2 (en) * 2004-07-07 2008-03-18 The Cleveland Clinic Foundation Brain stimulation models, systems, devices, and methods
JP4972751B2 (en) * 2006-11-27 2012-07-11 株式会社日立製作所 Nerve fiber bundle measuring system and image processing system
KR100920135B1 (en) * 2008-04-01 2009-10-08 한국과학기술원 A method for obtaining a data of 3 dimensional image data and device using thereof
US9805473B2 (en) 2008-09-19 2017-10-31 Siemens Healthcare Gmbh Method and system for segmentation of brain structures in 3D magnetic resonance images
WO2010151229A1 (en) 2009-06-23 2010-12-29 Agency For Science, Technology And Research A method and system for segmenting a brain image
JP6242787B2 (en) * 2011-06-03 2017-12-06 ネクスティム オーワイジェイ A system that combines anatomic connectivity patterns with guided brain stimulation
KR101185727B1 (en) 2011-09-14 2012-09-25 주식회사 인피니트헬스케어 A segmentatin method of medical image and apparatus thereof
CA2899359C (en) * 2013-03-15 2017-01-17 Synaptive Medical (Barbados) Inc. Planning, navigation and simulation systems and methods for minimally invasive therapy
AU2014231344B2 (en) * 2013-03-15 2018-10-04 Synaptive Medical Inc. Systems and methods for navigation and simulation of minimally invasive therapy
CN104123416A (en) * 2014-07-21 2014-10-29 中国医学科学院生物医学工程研究所 Finite element simulation model for simulating real human brain electrical characteristic distribution
WO2016090239A1 (en) * 2014-12-05 2016-06-09 Rush University Medical Center Electrode placement and treatment system and method of use thereof
KR101612394B1 (en) 2015-03-25 2016-04-14 서울대학교산학협력단 Apparatus, system and method for controlling stimulator
US20170021339A1 (en) 2015-07-02 2017-01-26 The University Of Notre Dame Du Lac Methods of making and using layered cobalt nano-catalysts
US10188851B2 (en) * 2015-10-28 2019-01-29 Novocure Limited TTField treatment with optimization of electrode positions on the head based on MRI-based conductivity measurements
US10169871B2 (en) * 2016-01-21 2019-01-01 Elekta, Inc. Systems and methods for segmentation of intra-patient medical images
KR101718130B1 (en) 2016-02-12 2017-03-20 서울대학교산학협력단 Method of dividing and system for brain region using magnetic resonance imaging
US9965863B2 (en) * 2016-08-26 2018-05-08 Elekta, Inc. System and methods for image segmentation using convolutional neural network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070043268A1 (en) 2005-06-16 2007-02-22 Russell Michael J Guided Electrical Transcranial Stimulation (GETS) Technique
JP2013506478A (en) 2009-09-30 2013-02-28 インペリアル イノベ−ションズ リミテッド Medical image processing method and apparatus
JP6935633B2 (en) 2017-08-25 2021-09-15 ニューロフェット インコーポレイテッドNeurophet Inc. Patch guide method and program
US20200214570A1 (en) 2017-09-11 2020-07-09 NEUROPHET Inc. Method and program for generating three-dimensional brain map
JP6935630B2 (en) 2017-09-11 2021-09-15 ニューロフェット インコーポレイテッドNeurophet Inc. TMS stimulation navigation method and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AMIRREZA MAHBOD,Structural Brain MRI Segmentation Using Machine Learning Technique,DEGREE PROJECT IN MEDICAL ENGINEERING SECOND CYCLE,30 CREDITS,KTH ROYAL INSTITUTE OF TECHNOLOGY SCHOOL OF TECHNOLOGY AND HEALTH,2016年,第1-37頁
BREBISSON et al.,Deep Neural Networks for Anatomical Brain Segmentation, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR) Workshop,2015年,p.20-28

Also Published As

Publication number Publication date
WO2019050226A1 (en) 2019-03-14
KR20190028901A (en) 2019-03-20
KR101995900B1 (en) 2019-07-04
US11744465B2 (en) 2023-09-05
US20200214570A1 (en) 2020-07-09
JP2020533102A (en) 2020-11-19

Similar Documents

Publication Publication Date Title
JP7263324B2 (en) Method and program for generating 3D brain map
JP7271000B2 (en) Patch guide method and program
JP6935630B2 (en) TMS stimulation navigation method and program
JP7383679B2 (en) TTFIELD treatment with optimized electrode position on the head based on MRI conductivity measurements
JP7405818B2 (en) Treat the patient with a TT field with optimized electrode positions using a deformable template
CN110337312B (en) Selection and placement of optimal deep brain stimulation electrodes based on stimulation field modeling
CN106572839A (en) Method and device for functional imaging of the brain
KR20140100648A (en) Method, apparatus and system for generating model representing deformation of shape and location of organ in respiration cycle
Farcito et al. Accurate anatomical head segmentations: a data set for biomedical simulations
CN109982741B (en) Time-synchronized deep brain stimulation optimization
NL2016800B1 (en) Method of positioning an interventional device.
US20210267547A1 (en) Patch guide method and program
US20240144593A1 (en) Systems and methods for generating head models
US20240069139A1 (en) Systems and methods for magnetic resonance imaging
WO2024092279A2 (en) Systems and methods for generating head models
CN115311191A (en) Generating reformatted views of three-dimensional anatomical scans using deep learning estimated scan scheme masks
CN116091517A (en) Medical image processing method, medical image processing device, storage medium and computer program product
Rodriguez-Rivera Multimodal Imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210430

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220106

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220106

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220127

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220216

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220222

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220513

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220517

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220712

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221228

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230131

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230228

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R150 Certificate of patent or registration of utility model

Ref document number: 7263324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150