WO2024071508A1 - 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법 - Google Patents

경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법 Download PDF

Info

Publication number
WO2024071508A1
WO2024071508A1 PCT/KR2022/016845 KR2022016845W WO2024071508A1 WO 2024071508 A1 WO2024071508 A1 WO 2024071508A1 KR 2022016845 W KR2022016845 W KR 2022016845W WO 2024071508 A1 WO2024071508 A1 WO 2024071508A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound pressure
pressure field
data
transcranial
focused ultrasound
Prior art date
Application number
PCT/KR2022/016845
Other languages
English (en)
French (fr)
Inventor
노건우
윤경호
최민욱
장민영
정인수
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Publication of WO2024071508A1 publication Critical patent/WO2024071508A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • A61N7/02Localised ultrasound hyperthermia
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • A61N2007/0004Applications of ultrasound therapy
    • A61N2007/0021Neural system treatment
    • A61N2007/0026Stimulation of nerve tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • A61N2007/0086Beam steering
    • A61N2007/0091Beam steering with moving parts, e.g. transducers, lenses, reflectors

Definitions

  • the present invention relates to a transcranial focused ultrasound sound pressure field prediction device, a transcranial focused ultrasound sound pressure field prediction program, and an artificial intelligence implementation method for generating a sound pressure field.
  • it relates to a method of implementing artificial intelligence for generating a sound pressure field. It is about a transcranial focused ultrasound sound pressure field prediction device that can quickly predict the shape of the ultrasonic sound pressure field, a transcranial focused ultrasound sound pressure field prediction program, and an artificial intelligence implementation method for sound pressure field generation.
  • Focused Ultrasound can perform medical treatment non-invasively by irradiating acoustic energy concentrated in a local area within biological tissue, and is used for treatment in a variety of areas.
  • FUS Focused Ultrasound
  • ultrasound is invisible and exhibits reflection and refraction characteristics when transmitted to tissues in vivo.
  • a magnetic-resonance-guided focused ultrasound (MRgFUS) system was developed that detects temperature changes through magnetic resonance and visualizes ultrasound, but the procedure takes a lot of time. There is.
  • MgFUS magnetic-resonance-guided focused ultrasound
  • the temperature change is relatively small, making it difficult to use a magnetic resonance guided focused ultrasound system.
  • the present invention provides a transcranial focused ultrasound sound pressure field prediction device, a transcranial focused ultrasound sound pressure field prediction program, and an artificial sound pressure field generation device that can quickly predict the shape of the ultrasonic sound pressure field formed within the transcranial area depending on the shape of the skull and the position of the ultrasonic transducer. It is intended to provide a method for implementing intelligence.
  • the present invention provides a transcranial focused ultrasound sound pressure field prediction device that can predict the ultrasound sound pressure field by reflecting the refraction that occurs when ultrasound waves pass through the skull, a transcranial focused ultrasound sound pressure field prediction program, and an artificial intelligence implementation method for generating a sound pressure field. It is intended to provide.
  • the present invention is to provide a transcranial focused ultrasound sound pressure field prediction device capable of predicting an ultrasound sound pressure field at a speed close to real time with high accuracy, a transcranial focused ultrasound sound pressure field prediction program, and an artificial intelligence implementation method for generating a sound pressure field.
  • an input/output unit that allows a user to input data and output the data in a form that can be confirmed by the user; Memory in which the transcranial focused ultrasound sound pressure field prediction program is stored; And a control unit that executes the transcranial focused ultrasound sound pressure field prediction program and derives result data according to the data input through the input/output unit, wherein the control unit receives the skull shape data and the position data of the ultrasound transducer when input.
  • a transcranial focused ultrasound sound pressure field prediction device that outputs ultrasonic sound pressure field data formed within the transcranial area by ultrasound applied by the ultrasonic transducer may be provided.
  • control unit may output the ultrasonic sound pressure field data formed by the ultrasonic waves applied by the ultrasonic transducer to the skull shape data, reflecting the fact that refraction occurs as the ultrasonic waves pass through the skull.
  • the position data of the ultrasonic transducer may include coordinate data indicating three-dimensional coordinates at which the ultrasonic transducer is positioned with respect to the skull and angle data indicating the angle at which the ultrasonic transducer is positioned with respect to the skull.
  • the transcranial focused ultrasound sound pressure field prediction program can be provided by artificial intelligence based on a deep neural network (DNN).
  • DNN deep neural network
  • the transcranial focused ultrasound sound pressure field prediction program includes: an encoder that learns a sparse matrix for the compressed shape data of the skull; and a decoder that receives the sparse matrix and the normalized ultrasound transducer position data for the skull and generates an ultrasound sound pressure field in the region of interest corresponding thereto.
  • the transcranial focused ultrasound sound pressure field prediction program may be constructed based on a convolutional neural network-based autoencoder model.
  • transcranial focused ultrasound sound pressure field prediction program may be configured based on the pix2pix model.
  • the transcranial focused ultrasound sound pressure field prediction program may be constructed based on a variational autoencoder model.
  • the artificial intelligence uses learning data including the skull shape data, the ultrasonic transducer position data, and ultrasonic acoustic pressure field data, and the skull shape data and the ultrasonic transducer position data are used as input, The corresponding ultrasonic sound pressure field data is used as an output, and learning can be performed to predict the shape of the ultrasonic sound pressure field according to the skull shape data and the ultrasonic transducer position data.
  • inputting skull shape data and the position of an ultrasound transducer And a record that can be read by a transcranial focused ultrasound sound pressure field prediction device so that the step of outputting ultrasonic sound pressure field data formed within the transcranial area by the ultrasound applied by the ultrasonic transducer is performed by the transcranial focused ultrasound sound pressure field prediction device.
  • a transcranial focused ultrasound sound pressure field prediction program stored in the medium may be provided.
  • the position data of the ultrasonic transducer may include coordinate data indicating three-dimensional coordinates at which the ultrasonic transducer is positioned with respect to the skull and angle data indicating the angle at which the ultrasonic transducer is positioned with respect to the skull.
  • preparing learning data including skull shape data, position data of an ultrasonic transducer, and ultrasonic acoustic pressure field data; And in the learning data, the skull shape data and the position data of the ultrasonic transducer are used as input, and correspondingly, the ultrasonic sound pressure field data is used as an output, and is formed in the transcranial region by ultrasonic waves applied by the ultrasonic transducer.
  • An artificial intelligence implementation method for generating a sound pressure field provided by a transcranial focused ultrasound sound pressure field prediction program stored in a recording medium that can be read by a transcranial focused ultrasound sound pressure field prediction device including the step of learning artificial intelligence to predict the ultrasound sound pressure field. can be provided.
  • a transcranial focused ultrasound sound pressure field prediction device that can quickly predict the shape of the ultrasonic sound pressure field formed in the transcranial area according to the given skull shape and the position of the ultrasonic transducer, transcranial focused ultrasound sound pressure field prediction.
  • a program and a method of implementing artificial intelligence for generating a sound pressure field may be provided.
  • a transcranial focused ultrasound sound pressure field prediction device a transcranial focused ultrasound sound pressure field prediction program, and a sound pressure field that can predict the ultrasound sound pressure field by reflecting the refraction that occurs when ultrasound waves pass through the skull
  • a method of implementing field generation artificial intelligence may be provided.
  • a transcranial focused ultrasound sound pressure field prediction device capable of predicting an ultrasound sound pressure field at a speed close to real time with high accuracy, a transcranial focused ultrasound sound pressure field prediction program, and sound pressure field generation artificial intelligence Implementation methods may be provided.
  • Figure 1 is a diagram showing a transcranial focused ultrasound sound pressure field prediction device according to an embodiment of the present invention.
  • Figure 2 is a diagram showing the process of deriving result data by the transcranial focused ultrasound sound pressure field prediction device according to an embodiment of the present invention.
  • Figure 3 is a flowchart showing how artificial intelligence for generating a sound pressure field provided by a transcranial focused ultrasound sound pressure field prediction program according to an embodiment of the present invention is learned.
  • Figures 4 and 5 are diagrams showing the configuration of data to obtain learning data by performing a simulation based on computational mechanics.
  • Figure 6 is a block diagram showing the operation process of the artificial intelligence for generating a sound pressure field.
  • Figure 7 is a diagram showing the structure of an artificial intelligence for generating a sound pressure field according to the first embodiment of the present invention.
  • Figure 8 is a diagram showing the structure of an artificial intelligence for generating a sound pressure field according to a second embodiment of the present invention.
  • Figure 9 is a diagram showing the structure of an artificial intelligence for generating a sound pressure field according to a third embodiment of the present invention.
  • Figure 10 is a diagram illustrating the distance between the focus coordinates of the ultrasonic sound pressure field predicted by the learned sound pressure field generation artificial intelligence and the focus coordinates corresponding to the answer sheet.
  • Figure 11 is a diagram explaining the Dice similarity coefficient.
  • Figure 12 is a diagram explaining the Hausdorff distance.
  • Figure 13 is a diagram visualizing the ultrasonic sound pressure field predicted by artificial intelligence for generating sound pressure field according to an embodiment of the present invention, the ultrasonic sound pressure field predicted by computer analysis-based simulation, and the error in the focus area to compare them.
  • Figure 14 is a diagram explaining a water tank experiment to measure the sound pressure field of ultrasonic waves in real space.
  • Figure 15 is a diagram comparing the ultrasonic sound pressure field predicted by artificial intelligence for generating sound pressure field according to an embodiment of the present invention and the ultrasonic sound pressure field measured from the water tank experiment.
  • first, second, and third are used to describe various components, but these components should not be limited by these terms. These terms are merely used to distinguish one component from another. Accordingly, what is referred to as a first component in one embodiment may be referred to as a second component in another embodiment. Each embodiment described and illustrated herein also includes its complementary embodiment. Additionally, in this specification, 'and/or' is used to mean including at least one of the components listed before and after.
  • connection is used to mean both indirectly connecting and directly connecting a plurality of components.
  • Figure 1 is a diagram showing a transcranial focused ultrasound sound pressure field prediction device according to an embodiment of the present invention.
  • the transcranial focused ultrasound sound pressure field prediction device includes an input/output unit 10, a memory 20, a control unit 30, and a driver 40.
  • the input/output unit 10 allows the user to input data and output the data in a form that the user can check.
  • the input/output unit 10 may be provided with a keyboard, mouse, digitizing pad, etc. for a user to input data.
  • the input/output unit 10 may include a display panel for data output.
  • the input/output unit 10 may be provided as a touch screen with integrated input and output portions.
  • the input/output unit 10 may be provided in a form in which a data input part or a data output part is integrated with other medical equipment, so that the medical equipment can input data or output data.
  • the memory 20 can store data.
  • the memory 20 may be provided with a transcranial focused ultrasound sound pressure field prediction program stored therein.
  • the transcranial focused ultrasound sound pressure field prediction program is implemented based on artificial intelligence.
  • the transcranial focused ultrasound sound pressure field prediction program may be implemented with artificial intelligence based on a deep neural network (DNN).
  • the memory 20 may store data input through the input/output unit 10 and data generated by applying the data input through the input/output unit 10 to a transcranial focused ultrasound sound pressure field prediction program.
  • DNN deep neural network
  • the control unit 30 executes the transcranial focused ultrasound sound pressure field prediction program stored in the memory 20 to derive result data according to the data input through the input/output unit 10, and the derived result data is generated through the input/output unit 10. ) to be output through.
  • the driving unit 40 controls the operating state of the ultrasonic transducer that generates focused ultrasonic waves.
  • the driving unit 40 may control the position of the ultrasonic transducer according to the ultrasonic sound pressure field predicted by the control unit 30.
  • Figure 2 is a diagram showing the process of deriving result data by the transcranial focused ultrasound sound pressure field prediction device according to an embodiment of the present invention.
  • the transcranial ultrasound is applied by the input ultrasound transducer.
  • the sound pressure field data of the ultrasonic waves formed within is output (S20).
  • the positional data of the ultrasonic transducer is provided as positional data on the outside of the living body's head.
  • Ultrasound sound pressure field data is set to the three-dimensional position and shape of the sound pressure field formed by ultrasound in the area where the skull is located inside and the brain is located in the living body. Accordingly, by inputting the position of the ultrasonic transducer for a specific skull shape, ultrasonic sound pressure field data formed inside the skull can be output and confirmed in real time.
  • Focused Ultrasound can irradiate acoustic energy concentrated in a local area within biological tissue. Accordingly, focused ultrasound is used for purposes such as diagnosis and treatment by applying energy to the inside of the human body. In particular, it has been confirmed that focused ultrasound can stimulate the brain non-invasively when applied to the brain, and thus can be used for brain stimulation and treatment.
  • Focused ultrasound can be divided into high-intensity focused ultrasound (HIFU) and low-intensity focused ultrasound (Low-intensity FUS (LIFU)) depending on its intensity.
  • High-intensity focused ultrasound directly changes the condition of the target area, such as thrombolysis, extracorporeal shockwave, thermal ablation, and boiling histotnipsy, to produce treatment effects. do.
  • low-intensity focused ultrasound is used in fields such as drug delivery through opening the blood-brain barrier and non-invasive brain stimulation. Additionally, low-intensity focused ultrasound has recently been found to be effective in treating neurological diseases such as epilepsy, brain tumors, Alzheimer's, and Parkinson's disease.
  • ultrasound In order for treatment with focused ultrasound to be effective, ultrasound must be able to be irradiated to the desired area.
  • ultrasound is invisible and exhibits the characteristics of reflection and refraction when traveling in the living body.
  • distortion occurs when it passes through a boundary where areas with different physical properties meet, and as a result, severe distortion occurs when it passes through the skull or porous areas. Accordingly, it is difficult to use ultrasound for transcranial treatment.
  • the transcranial focused ultrasound sound pressure field prediction device reflects the fact that refraction occurs as ultrasound progresses and passes through areas including the skull, and is located on the outside of the skull corresponding to the input skull shape data.
  • the ultrasonic transducer When the ultrasonic transducer is positioned, it provides data on the ultrasonic sound pressure field formed inside the transcranial area accordingly. Accordingly, a user performing medical practice can effectively perform medical practice using ultrasound through ultrasonic sound pressure field data provided by the transcranial focused ultrasound sound pressure field prediction device.
  • Figure 3 is a flowchart showing how artificial intelligence for generating a sound pressure field provided by a transcranial focused ultrasound sound pressure field prediction program according to an embodiment of the present invention is learned.
  • the learning data includes skull shape data, ultrasonic transducer position data, and acoustic pressure field shape data.
  • Skull shape data is data about the three-dimensional shape of the skull.
  • Skull shape data can be provided in the form of a 3D image of the skull.
  • the shape data of the skull may be an image taken through CT (computed tomography), etc.
  • the position data of the ultrasonic transducer is data about the point at which the ultrasonic transducer is located with respect to the skull.
  • the position data of the ultrasonic transducer includes coordinate data representing the three-dimensional coordinates at which the ultrasonic transducer is located with respect to the skull, and angle data representing the angle at which the ultrasonic transducer is located with respect to the skull (i.e., the angle at which ultrasound is irradiated with respect to the skull). .
  • Sound pressure field shape data is data about the shape of the ultrasonic waves emitted from the ultrasonic transducer traveling inside the skull, that is, in the area where the brain is located. Sound pressure field shape data may be provided in the form of a three-dimensional image or a two-dimensional image of a specific reference plane. The sound pressure field shape data is provided to be paired with the skull shape data and the position data of the ultrasonic transducer that applies ultrasound to the skull. As described later, the sound pressure field shape data can be binarized into the focus area and out-of-focus area of the ultrasound through the full-width at half-maximum (FWHM) threshold according to the definition of the focus of the focused ultrasound. . Additionally, the boundary of the focal region can be converted from a boundary based on the full width at half maximum threshold to an ellipsoid boundary.
  • FWHM full-width at half-maximum
  • Such learning data can be obtained by placing an ultrasonic transducer adjacent to the skull of a living body, irradiating ultrasonic waves, and photographing the shape of the skull and the path along which the ultrasonic wave travels using existing medical equipment.
  • learning data can be obtained through simulations based on computational mechanics.
  • Figures 4 and 5 are diagrams showing the configuration of data to obtain learning data by performing a simulation based on computational mechanics.
  • data for numerical modeling of the simulation includes a skull model 110, an ultrasound transducer model 120, and a region of interest 150.
  • the skull model 110 corresponds to the skull shape data of the learning data.
  • the skull model 110 may be provided by photographing an actual skull.
  • the skull model 110 may be provided by CT scanning an actual skull.
  • the skull model 110 can be provided with a set spatial resolution or higher to have satisfactory precision and spatial resolution in water.
  • the skull model 110 may be provided by CT scanning to have a spatial resolution of 0.5 mm x 0.5 mm x 0.5 mm or more.
  • Voxels of the skull model 110 can be classified into water, cancellous bone, and cortical bone according to Hounsfiled units, as shown in Equation 1.
  • the skull model 110 may be created in multiple numbers using two or more different actual skulls.
  • the ultrasonic transducer model 120 models an actual ultrasonic transducer.
  • the ultrasonic transducer model 120 may be modeled to have a preset diameter, a preset radius of curvature, and a preset focal length.
  • the ultrasonic transducer model 120 may be modeled with a diameter of 96 mm, a radius of curvature of 52 mm, and a focal length of 83 mm.
  • a position reference point 130 is set in the ultrasonic transducer model 120, and the coordinates of the position reference point can be set as the position of the ultrasonic transducer model 120.
  • the central area of the exit surface facing the skull model 110 may be set as the location reference point 130.
  • Simulation may be performed while the ultrasonic transducer model 120 varies in position in the motion area 140 located adjacent to the skull model 110.
  • the movement area 140 is adjacent to the upper outer surface of the skull model 110 and may be set to have a preset volume. As an example, the movement area 140 may be set to a size of 20mm x 20mm x 20mm.
  • the position of the ultrasonic transducer model 120 includes simulation coordinate data representing the three-dimensional coordinates of the position reference point 130, and simulation angle data representing the angle at which the ultrasonic transducer model 120 is positioned with respect to the skull model 110.
  • Simulation angle data can be defined as the normal vector of the exit surface.
  • the simulation coordinate data and simulation angle data correspond to the coordinate data and angle data of the ultrasonic transducer, respectively.
  • the region of interest 150 is an area for acquiring shape data through which ultrasonic waves radiated from the ultrasonic transducer model 120 propagate and is set to have a preset volume.
  • the area of interest 150 may be set to a size of 40 mm x 75 mm x 40 mm.
  • the center point of the region of interest 150 may be set at a position that is separated from the initial position of the ultrasonic transducer model 120 by the focal length.
  • a simulation is performed to obtain a shape in which ultrasonic waves propagate within the region of interest 150.
  • the Westervelt-Lightill equation such as [Equation 2] can be used as the governing equation.
  • p is the pressure of the sound wave
  • c is the wave speed in the medium
  • a is the attenuation coefficient in the medium
  • f is the frequency of the sound wave
  • t is time.
  • FDTD finite-difference time domain
  • the appropriate frequency of focused ultrasound used in transcranial surgery is known to be less than 650 kHz, and in this example, ultrasound at 250 kHz was irradiated to perform numerical modeling and simulation to obtain learning data.
  • the pressure distribution of ultrasonic waves in the area of interest according to the position of the ultrasonic transducer model 120 can be obtained as sound pressure field shape data.
  • simulation is performed on each of the skull models 110 of different shapes, and the results can be obtained.
  • the simulation results of the sound pressure field shape can be binarized into the focus area and out-of-focus area of the ultrasound by defining the focus of the focused ultrasound.
  • the focus area of focused ultrasound can be defined as the area corresponding to the full-width at half-maximum (FWHM) threshold.
  • Figure 6 is a block diagram showing the operation process of the artificial intelligence for generating a sound pressure field.
  • the sound pressure field generating artificial intelligence learns the relationship between the shape data of the skull, the position of the ultrasonic transducer, and the ultrasonic sound pressure field generated accordingly through the prepared learning data (S21).
  • the artificial intelligence for generating the sound pressure field outputs the ultrasonic sound pressure field data to be generated when the skull shape data and the ultrasonic transducer position are input.
  • skull shape data and ultrasonic transducer position data are used as input, and ultrasonic sound pressure field data formed in the area of interest are used as output, and learning is performed to predict ultrasonic sound pressure field data according to the skull shape and ultrasonic transducer position. It is carried out.
  • Skull shape data can be dimensionally compressed through a VGG (Visual Geomery Group) network pre-trained with ImageNet, a large-scale visual database, for efficient learning of artificial intelligence for generating sound pressure fields.
  • VGG Visual Geomery Group
  • ImageNet a large-scale visual database
  • dimensional compression can be performed into voxel data with a size of 315*512 using the VGG19 network.
  • the previously trained VGG19 network can perform dimensional compression by adding a global average pooling layer to the feature extraction unit composed of convolution layers, receiving data of a different voxel size than the image data used in existing learning as input.
  • the position data of the ultrasonic transducer includes three-dimensional coordinate data and angle data.
  • coordinate data and angle data can be converted to values between -1 and 1 after going through a minimum-maximum normalization process, respectively, for efficient learning of artificial intelligence.
  • Artificial intelligence can learn through error backpropagation.
  • the part set as the focus area can be used as output.
  • the focus area may be transformed into a boundary according to the full width at half maximum threshold.
  • sound pressure field data can be used in a processed form. Afterwards, when the sound pressure field generating artificial intelligence first outputs ultrasonic sound pressure field data according to the shape data of the skull and the position of the ultrasonic transducer, the first output value is denormalized and the final ultrasonic sound pressure field data is output.
  • the sound pressure field generation artificial intelligence receives the encoder 310 that learns the sparse matrix for the compressed skull shape data, the sparse matrix for the skull, and the normalized ultrasound transducer position data, and generates the ultrasound sound pressure field within the corresponding region of interest. It includes a decoder 320 that generates.
  • Skull shape data is input to the encoder 310.
  • the output of the encoder 310 and the position data of the ultrasonic transducer are input to the decoder 320 together.
  • Figure 7 is a diagram showing the structure of an artificial intelligence for generating a sound pressure field according to the first embodiment of the present invention.
  • the artificial intelligence for generating a sound pressure field may be configured based on a convolutional neural network-based autoencoder (AE, AutoEncoder) model.
  • AE convolutional neural network-based autoencoder
  • the encoder 310a may be composed of six convolution layers.
  • the decoder 320a may be composed of six transpose convolution layers.
  • the encoder 310a generates 512 sparse matrices from compressed skull shape data, and the decoder 320a receives the sparse matrix for the skull input from the encoder and the position data of the ultrasonic transducer and converts it into an ultrasonic sound pressure field.
  • C represents the number of feature maps in each convolution layer.
  • the input layer of the encoder 310a may be provided with 64 feature maps (C), a kernel size (k) of 4, and a stride (s) of 3.
  • the encoder 310a may use batch normalization and the transfer function may be LeakyReLU.
  • the first layer of the encoder 310a has 64 feature maps (C), a kernel size (k) of 4, and a stride (s) of 3.
  • the second layer of the encoder 310a has 128 feature maps (C).
  • the third layer of the encoder 310a has 256 feature maps (C).
  • the fourth to sixth layers of the encoder 310a have 512 feature maps (C).
  • D represents the number of feature maps in the transpose convolution layer
  • k represents the kernel size
  • s represents the stride
  • F represents the number of nodes in the fully connected layer.
  • the decoder 320a uses batch normalization, and the transfer function may be ReLu.
  • the first and second layers of the decoder 320a include 512 feature maps (D).
  • the third layer of the decoder 320a has 256 feature maps (D).
  • the fourth layer of the decoder 320a has 128 feature maps (D).
  • the fifth layer of the decoder 320a has 64 feature maps (D), a kernel size (k) of 4, and a stride (s) of 1.
  • the sixth layer of the decoder 320a has 151 feature maps (D), a kernel size (k) of 4, and a stride (s) of 1.
  • Figure 8 is a diagram showing the structure of an artificial intelligence for generating a sound pressure field according to a second embodiment of the present invention.
  • the artificial intelligence for generating a sound pressure field may be configured based on the pix2pix model.
  • the pix2pix model is based on a convolutional neural network structure and is a model specialized for image transformation among generative adversarial networks that improve network performance while the generators 310b and 320b and the discriminator 330b learn adversarially.
  • the generator (310b, 320b) includes an encoder (310b) and a decoder (320b), receives compressed skull shape data and the ultrasonic transducer position, and generates ultrasonic sound pressure field data.
  • the structures of the encoder 310b and the decoder 320b may be the same as those of the encoder and decoder of the sound pressure field generating artificial intelligence according to the first embodiment of the present invention.
  • the discriminator (330b) determines on a patch basis whether the input ultrasonic sound pressure field data is the ultrasonic sound pressure field predicted by the generators (310b, 320b) or the correct answer sheet generated from the simulation used as learning data, and performs network learning. It affects.
  • the artificial intelligence for generating a sound pressure field according to the second embodiment of the present invention further includes a discriminator (330b), the generators (310b, 320b) are evaluated for the predicted ultrasonic sound pressure field, producing better quality sound pressure. You can learn to create fields.
  • the discriminator 330b may be configured to have two layers, one in front and one in the back, based on the point where the Condition pressure field, which is a standard for discrimination, is input. In each layer, C represents the number of feature maps, k represents the kernel size, and s represents the stride.
  • Figure 9 is a diagram showing the structure of an artificial intelligence for generating a sound pressure field according to a third embodiment of the present invention.
  • the artificial intelligence for generating a sound pressure field may be configured based on a Variational AutoEncoder (VAE) model based on a convolutional neural network structure.
  • VAE Variational AutoEncoder
  • the artificial intelligence for generating a sound pressure field further includes a bottleneck 315 located at a point connected to the decoder 320c at the rear of the encoder 310c.
  • the bottleneck unit 315 generates a sparse vector for the input value using a probability distribution, and converts the sparse vector received by the decoder 320c to improve the quality of the output generated by the decoder 320c.
  • the bottleneck unit 315 calculates the mean and variance from the received skull shape data and samples the sparse vectors from a normal distribution with the corresponding population mean and population variance.
  • the dimension of the sparse vector can be set as a hyperparameter.
  • the hyperparameter (F) which is the dimension of the sparse vector, may be set to 512.
  • the structure of the part located in front of the bottleneck 315 and the structure of the decoder 320c may be the same as the encoder and decoder of the sound pressure field generating artificial intelligence according to the first embodiment.
  • Hyper-parameters for learning artificial intelligence for generating sound pressure fields according to the first to third embodiments of the present invention can be set as shown in Table 1.
  • the artificial intelligence for generating sound pressure fields according to the first to third embodiments basically uses the mean square error for the ultrasonic sound pressure field within the region of interest as a loss function for error backpropagation.
  • the artificial intelligence for generating a sound pressure field according to the second embodiment of the present invention uses an adversarial loss function in which the discriminator (330b) determines the authenticity of the sound pressure field predicted by the generators (310b, 320b) and the correct sound pressure field.
  • the weight between the reconstruction loss function implemented as mean square error and the adversarial loss function implemented as binary cross entropy is defined as lambda ( ⁇ ). In this experimental example, the weight of the reconstruction function was used as 60.
  • the artificial intelligence for generating a sound pressure field uses Kullback-Leibler Divergence (KLD) to set the population mean and population variance for extracting latent variables from the bottleneck 315. Use together as a function.
  • KLD Kullback-Leibler Divergence
  • the loss function for the artificial intelligence that generates the sound pressure field according to the first embodiment is as [Equation 5].
  • n is the number of learning data
  • F is the autoencoder network
  • x is the skull shape data
  • c is the position data of the ultrasound transducer
  • y is the correct answer data for the ultrasound sound pressure field.
  • the loss function for the artificial intelligence that generates the sound pressure field according to the second embodiment is as [Equation 6].
  • n is the number of learning data
  • x is the skull shape data
  • c is the ultrasonic transducer position data
  • y is the ultrasonic sound pressure field answer sheet data.
  • G refers to the generator (310b, 320b) network
  • D refers to the discriminator (330b) network.
  • the loss function for the artificial intelligence that generates the sound pressure field according to the third embodiment is as [Equation 7].
  • n refers to the number of learning data
  • x refers to the skull shape data
  • c refers to the ultrasonic transducer position data
  • y refers to the sound pressure field answer sheet data.
  • ⁇ and ⁇ mean the mean and variance of the Gaussian distribution for sampling the latent vector in the bottleneck 315, respectively.
  • FWHM full width half maximum
  • DSC Dice similarity coefficient
  • Figure 10 is a diagram illustrating the distance between the focal coordinates of the ultrasonic sound pressure field predicted by the learned sound pressure field generating artificial intelligence and the focal coordinates corresponding to the answer sheet
  • Figure 11 is a diagram illustrating the Dice similarity coefficient
  • Figure 12 is a diagram illustrating the house This is a diagram explaining the Dorff distance.
  • the white area (pre) represents the focus area of the ultrasonic sound pressure field predicted by the sound pressure field generation artificial intelligence
  • the dark gray area (gT) represents the focus area of the ultrasonic sound pressure field by computer analysis simulation
  • Table 2 compares the performance of the artificial intelligence for generating sound pressure fields according to the first to third embodiments according to the above-mentioned measurement criteria.
  • the artificial intelligence for generating sound pressure fields according to the second and third embodiments predicted the location of the focus of the ultrasonic sound pressure field with an average error of less than 4.25 mm. At this time, it can be seen that prediction is possible with an average error of the boundary of the focus area within 10.7 mm and a similarity of the focus area of 0.63 or higher.
  • the artificial intelligence for generating the sound pressure field according to the third embodiment has the shortest learning time of the artificial neural network at 177 minutes, and the prediction time of the ultrasonic sound pressure field is also the shortest at 1.22 ms, so the sound pressure field according to the first to third embodiments is the shortest. It can be evaluated as having the highest practicality among the field generating artificial intelligence.
  • Figure 13 shows the ultrasonic sound pressure field predicted by the sound pressure field generating artificial intelligence according to an embodiment of the present invention, the ultrasonic sound pressure field predicted by computer analysis-based simulation, and comparing them. This is a diagram visualizing the error in the focus area.
  • the ultrasonic sound pressure field predicted by artificial intelligence and the ultrasonic sound pressure field (ground truth) predicted by computer analysis-based simulation have high morphological similarity.
  • FWHM full-width at half-maximum
  • Figure 14 is a diagram explaining a water tank experiment to measure the sound pressure field of ultrasonic waves in real space.
  • an ultrasonic transducer is generated from a function generator and can be operated by matching the impedance of an electrical signal amplified by a linear amplifier.
  • the actual position and orientation of the skull can be measured using an optical camera.
  • Four donut-shaped markers are located on the skull, and based on these, coordinate systems in real space and numerical modeling space can be set.
  • Sound pressure field data for the XY, YZ, and XZ planes can be obtained through a water vapor hearing device.
  • a total of 15 experimental data were obtained by conducting five experiments and measurements on three different skulls, and used to evaluate the performance of the ultrasonic sound pressure field prediction data of artificial intelligence for generating sound pressure fields according to an embodiment of the present invention. did.
  • Table 3 compares the value predicted by artificial intelligence for generating a sound pressure field according to an embodiment of the present invention and the sound pressure field data measured by the water tank experiment measurement of FIG. 14.
  • the artificial intelligences that generate sound pressure fields according to the first to third embodiments of the present invention have an average error of 7.34 ⁇ 2.80 mm in predicting the focal location of the ultrasonic sound pressure field within the region of interest and an average error of 7.34 ⁇ 2.80 mm in predicting the boundary of the focus area. It shows high performance with an error of 2.62 ⁇ 0.78 mm and an average similarity of the focus area of 0.82 ⁇ 0.03.
  • Figure 15 shows the ultrasonic sound pressure field predicted by artificial intelligence for generating a sound pressure field according to an embodiment of the present invention and the sound pressure field measured from the water tank experiment. This is a diagram comparing ultrasonic sound pressure fields.
  • the ultrasonic sound pressure field generated by artificial intelligence and the ultrasonic sound pressure field measured through the water tank experiment have high morphological similarity.
  • FWHM full-width at half-maximum
  • the transcranial focused ultrasound sound pressure field prediction device quickly and with high accuracy calculates the results of predicting the ultrasonic sound pressure field formed in the transcranial area by the ultrasonic focuser.
  • the existing computer analysis-based focused ultrasound simulation takes about 100 seconds to calculate the ultrasound sound pressure field within the region of interest according to the input of skull data and position data of the ultrasound transducer
  • the sound pressure field generation according to an embodiment of the present invention Artificial intelligence predicts the sound pressure field in the area of interest in about 1.2ms, showing that real-time prediction is possible.
  • the artificial intelligence for generating a sound pressure field according to an embodiment of the present invention is highly practical because it can perform learning based on various skull shape data and takes 177 minutes to learn an artificial neural network. Additionally, by increasing the data used for learning, efficient learning and performance improvement can be expected.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Surgery (AREA)
  • Urology & Nephrology (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

본 발명은 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법에 관한 것이다. 본 발명의 일 실시 예에 따른 경두개 집속초음파 음압장 예측 장치는 사용자가 데이터를 입력하고, 또한 사용자가 확인 가능한 형태로 데이터가 출력되게 하는 입출력부; 경두개 집속초음파 음압장 예측 프로그램이 저장되는 메모리; 및 상기 경두개 집속초음파 음압장 예측 프로그램을 실행시켜, 상기 입출력부를 통해 입력된 데이터에 따른 결과 데이터를 도출하는 제어부를 포함하되, 상기 제어부는, 두개골의 형상 데이터, 초음파 변환기의 위치 데이터가 입력되면, 상기 초음파 변환기가 인가하는 초음파에 의해 경두개 내에 형성되는 초음파 음압장 데이터를 출력한다.

Description

경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법
본 발명은 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법에 관한 것으로, 보다 상세히 주어진 두개골의 형상 및 초음파 변환기의 위치에 따라 경두개 내에 형성되는 초음파 음압장의 형상을 빠르게 예측할 수 있는 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법에 관한 것이다.
집속 초음파(Focused Ultrasound; FUS)는 생체조직 내에 국소영역에 집중된 음향에너지를 조사하여 비침습적으로 의료 행위를 할 수 있어, 다양한 영역의 치료에 이용된다. 집속 초음파를 활용한 비침습적 치료를 위해서는 원하는 영역에 초음파를 조사할 수 있어야 한다. 하지만 초음파가 비가시적이며 생체 내 조직에 전달될 때 반사 및 굴절 특성을 나타낸다.
이러한 문제를 해결하기 위해 자기공명(magnetic resonance)을 통해 온도변화를 알아내 초음파를 가시화하는 자기공명 유도 집속 초음파(magnetic-resonance-guided FUS; MRgFUS) 시스템이 개발되었지만 시술에 많은 시간이 소요되는 문제가 있다. 또한, 경두개 치료의 경우 주로 저강도 집속 초음파가 사용되는데, 저강도 집속 초음파의 경우 비교적 온도변화가 적기 때문에 자기공명 유도 집속 초음파 시스템의 사용이 어렵다.
또한, 영상유도 집속 초음파(neuro-navigation)를 통해 실시간 광학 추적 장비를 이용한 초음파 변환기의 초점 위치를 미리 획득한 의료영상에 나타내는 시스템이 있지만, 두개골에 의한 초점의 위치와 세기의 변화 효과를 고려하지 못하는 한계점이 있다.
본 발명은 주어진 두개골의 형상 및 초음파 변환기의 위치에 따라 경두개 내에 형성되는 초음파 음압장의 형상을 빠르게 예측할 수 있는 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법을 제공하기 위한 것이다.
또한, 본 발명은 초음파가 두개골을 통과할 때 발생하는 굴절을 반영하여 초음파 음압장을 예측할 수 있는 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법을 제공하기 위한 것이다.
또한, 본 발명은 높은 정확성을 가지고 실시간에 근접한 속도로 초음파 음압장을 예측할 수 있는 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법을 제공하기 위한 것이다.
본 발명의 일 측면에 따르면, 사용자가 데이터를 입력하고, 또한 사용자가 확인 가능한 형태로 데이터가 출력되게 하는 입출력부; 경두개 집속초음파 음압장 예측 프로그램이 저장되는 메모리; 및 상기 경두개 집속초음파 음압장 예측 프로그램을 실행시켜, 상기 입출력부를 통해 입력된 데이터에 따른 결과 데이터를 도출하는 제어부를 포함하되, 상기 제어부는, 두개골의 형상 데이터, 초음파 변환기의 위치 데이터가 입력되면, 상기 초음파 변환기가 인가하는 초음파에 의해 경두개 내에 형성되는 초음파 음압장 데이터를 출력하는 경두개 집속초음파 음압장 예측 장치가 제공될 수 있다.
또한, 상기 제어부는, 초음파가 두개골을 지나면서 굴절이 발생되는 것을 반영하여, 상기 두개골 형상 데이터에 상기 초음파 변환기가 인가하는 초음파에 의해 형성되는 상기 초음파 음압장 데이터를 출력할 수 있다.
또한, 상기 초음파 변환기의 위치 데이터는 두개골에 대해 상기 초음파 변환기가 위치되는 3차원 좌표를 나타내는 좌표 데이터 및 두개골에 대해 상기 초음파 변환기가 위치되는 각도를 나타내는 각도 데이터를 포함할 수 있다.
또한, 상기 경두개 집속초음파 음압장 예측 프로그램은 심층 신경망(Deep Neural Network, DNN)을 기반으로 한 인공지능으로 제공될 수 있다.
또한, 상기 경두개 집속초음파 음압장 예측 프로그램은, 압축된 상기 두개골의 형상 데이터에 대한 희소행렬을 학습하는 인코더; 및 두개골에 대한 상기 희소행렬과 정규화된 상기 초음파 변환기 위치 데이터를 입력받아, 이에 대응되는 관심영역 내 초음파 음압장을 생성하는 디코더를 포함할 수 있다.
또한, 상기 경두개 집속초음파 음압장 예측 프로그램은, 합성곱 신경망 기반 오토인코더 모델을 기초로 하여 구성될 수 있다.
또한, 상기 경두개 집속초음파 음압장 예측 프로그램은, pix2pix 모델을 기초로 하여 구성될 수 있다.
또한, 상기 경두개 집속초음파 음압장 예측 프로그램은, 변분오토인코더 모델을 기초로 하여 구성될 수 있다.
또한, 상기 인공지능은 상기 두개골 형상 데이터, 상기 초음파 변환기 위치 데이터 및 초음파 음압장(acoustic pressure field) 데이터를 포함하는 학습 데이터를 이용하여, 상기 두개골 형상 데이터, 상기 초음파 변환기 위치 데이터가 입력으로 사용되고, 이에 대응한 상기 초음파 음압장 데이터가 출력으로 사용되어, 상기 두개골 형상 데이터, 상기 초음파 변환기 위치 데이터에 따라 초음파 음압장의 형상을 예측하도록 학습이 수행될 수 있다.
본 발명의 다른 측면에 따르면, 두개골 형상 데이터, 초음파 변환기의 위치가 입력되는 단계; 및 상기 초음파 변환기가 인가하는 초음파에 의해 경두개 내에 형성되는 초음파의 음압장 데이터를 출력하는 단계를 경두개 집속초음파 음압장 예측 장치에 의해 실행시키기 위하여 경두개 집속초음파 음압장 예측 장치로 판독 가능한 기록 매체에 저장된 경두개 집속초음파 음압장 예측 프로그램디 제공될 수 있다.
또한, 상기 초음파 변환기의 위치 데이터는 두개골에 대해 상기 초음파 변환기가 위치되는 3차원 좌표를 나타내는 좌표 데이터 및 두개골에 대해 초음파 변환기가 위치되는 각도를 나타내는 각도 데이터를 포함할 수 있다.
본 발명의 또 다른 측면에 따르면, 두개골 형상 데이터, 초음파 변환기의 위치 데이터 및 초음파 음압장(acoustic pressure field) 데이터를 포함하는 학습 데이터를 준비하는 단계; 및 상기 학습 데이터에 있어, 상기 두개골 형상 데이터 및 상기 초음파 변환기의 위치 데이터가 입력으로 사용되고, 이에 대응하여 상기 초음파 음압장 데이터가 출력으로 사용되어, 상기 초음파 변환기가 인가하는 초음파에 의해 경두개 내에 형성되는 초음파 음압장을 예측하도록 인공 지능을 학습시키는 단계를 포함하는 경두개 집속초음파 음압장 예측 장치로 판독 가능한 기록 매체에 저장된 경두개 집속초음파 음압장 예측 프로그램으로 제공되는 음압장 생성 인공지능 구현 방법이 제공될 수 있다.
본 발명의 일 실시 예에 의하면, 주어진 두개골의 형상 및 초음파 변환기의 위치에 따라 경두개 내에 형성되는 초음파 음압장의 형상을 빠르게 예측할 수 있는 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법이 제공될 수 있다.
또한, 본 발명의 일 실시 예에 의하면, 초음파가 두개골을 통과할 때 발생하는 굴절을 반영하여 초음파 음압장을 예측할 수 있는 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법이 제공될 수 있다.
또한, 본 발명의 일 실시 예에 의하면, 높은 정확성을 가지고 실시간에 근접한 속도로 초음파 음압장을 예측할 수 있는 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법이 제공될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 경두개 집속초음파 음압장 예측 장치를 나타내는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 경두개 집속초음파 음압장 예측 장치에 의해 결과 데이터가 도출되는 과정을 나타내는 도면이다.
도 3은 본 발명의 일 실시 예에 따른 경두개 집속초음파 음압장 예측 프로그램으로 제공되는 음압장 생성 인공지능이 학습되는 방법을 나타내는 흐름도이다.
도 4 및 도 5는 학습 데이터를 전산역학을 기반으로 한 시뮬레이션을 수행하여 획득하기 위한 데이터의 구성을 나타내는 도면이다.
도 6은 음압장 생성 인공지능이 동작과정을 나타내는 블록도이다.
도 7은 본 발명의 제1 실시 예에 따른 음압장 생성 인공지능의 구조를 나타내는 도면이다.
도 8은 본 발명의 제2 실시 예에 따른 음압장 생성 인공지능의 구조를 나타내는 도면이다.
도 9는 본 발명의 제3 실시 예에 따른 음압장 생성 인공지능의 구조를 나타내는 도면이다.
도 10은 학습된 음압장 생성 인공지능이 예측한 초음파 음압장의 초점 좌표와 정답지에 해당하는 초점 좌표 사이의 거리를 설명하는 도면이다.
도 11은 다이스 유사 계수를 설명하는 도면이다.
도 12는 하우스도르프 거리를 설명하는 도면이다.
도 13은 본 발명의 일 실시 예에 따른 음압장 생성 인공지능이 예측한 초음파 음압장, 전산해석기반 시뮬레이션에 의해 예측되는 초음파 음압장 및 이들을 비교하기 위해 초점 영역의 오차를 시각화한 도면이다.
도 14는 실제 공간에서 초음파의 음압장을 측정하기 위한 수조실험을 설명하는 도면이다.
도 15는 본 발명의 일 실시 예에 따른 음압장 생성 인공지능에 의해 예측되는 초음파의 음압장과 수조실험으로부터 측정된 초음파 음압장을 비교한 도면이다.
이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명할 것이다. 그러나 본 발명의 기술적 사상은 여기서 설명되는 실시 예에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예는 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.
본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한, 도면들에 있어서, 막 및 영역들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다.
또한, 본 명세서의 다양한 실시 예 들에서 제1, 제2, 제3 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 따라서, 어느 한 실시 예에 제 1 구성요소로 언급된 것이 다른 실시 예에서는 제 2 구성요소로 언급될 수도 있다. 여기에 설명되고 예시되는 각 실시 예는 그것의 상보적인 실시 예도 포함한다. 또한, 본 명세서에서 '및/또는'은 전후에 나열한 구성요소들 중 적어도 하나를 포함하는 의미로 사용되었다.
명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 구성요소 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 구성요소 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하는 것으로 이해되어서는 안 된다. 또한, 본 명세서에서 "연결"은 복수의 구성 요소를 간접적으로 연결하는 것, 및 직접적으로 연결하는 것을 모두 포함하는 의미로 사용된다.
또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 것이다.
도 1은 본 발명의 일 실시 예에 따른 경두개 집속초음파 음압장 예측 장치를 나타내는 도면이다.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 경두개 집속초음파 음압장 예측 장치는 입출력부(10), 메모리(20), 제어부(30) 및 구동부(40)를 포함한다.
입출력부(10)는 사용자가 데이터를 입력하고, 또한 사용자가 확인 가능한 형태로 데이터가 출력되도록 한다. 일 예로, 입출력부(10)는 사용자가 데이터를 입력하기 위한 키보드, 마우스, 디지타이징 패드 등으로 제공될 수 있다. 또한, 입출력부(10)는 데이터 출력을 위한 디스플레이 패널 등을 포함할 수 있다. 또한, 입출력부(10)는 입력 부분과 출력 부분이 통합된 터치 스크린 등으로 제공될 수 있다. 또한, 입출력부(10)는 데이터 입력을 위한 부분 또는 데이터 출력을 위한 부분이 다른 의료 장비와 통합된 형태로 제공되어, 의료 장비가 데이터의 입력 또는 데이터의 출력을 수행하도록 제공될 수도 있다.
메모리(20)는 데이터가 저장될 수 있다. 메모리(20)에는 경두개 집속초음파 음압장 예측 프로그램이 저장된 상태로 제공될 수 있다. 이 때, 경두개 집속초음파 음압장 예측 프로그램은 인공지능을 기반으로 구현된다. 구체적으로, 경두개 집속초음파 음압장 예측 프로그램은 심층 신경망(Deep Neural Network, DNN)을 기반으로 한 인공지능으로 구현된 것일 수 있다. 또한, 메모리(20)는 입출력부(10)를 통해 입력된 데이터, 입출력부(10)를 통해 입력된 데이터를 경두개 집속초음파 음압장 예측 프로그램에 적용하여 생성된 데이터를 저장할 수 있다.
제어부(30)는 메모리(20)에 저장된 경두개 집속초음파 음압장 예측 프로그램을 실행시켜, 입출력부(10)를 통해 입력된 데이터에 따른 결과 데이터가 도출되고, 도출된 결과 데이터가 입출력부(10)를 통해 출력되게 한다.
구동부(40)는 집속초음파를 발생시키는 초음파 변환기의 동작 상태를 제어한다. 구동부(40)는 제어부(30)에서 예측된 초음파 음압장에 따라 초음파 변환기의 위치를 제어할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 경두개 집속초음파 음압장 예측 장치에 의해 결과 데이터가 도출되는 과정을 나타내는 도면이다.
도 2를 참조하면, 본 발명의 일 실시 예에 따른 경두개 집속초음파 음압장 예측 장치는 두개골 형상 데이터, 초음파 변환기의 위치가 입력되면(S10), 입력된 초음파 변환기가 인가하는 초음파에 의해 경두개 내에 형성되는 초음파의 음압장 데이터를 출력한다(S20). 초음파 변환기의 위치 데이터는 생체의 머리의 외측에서의 위치 데이터로 제공된다. 초음파의 음압장 데이터는 생체에 있어, 두개골이 내측에 위치되어 뇌가 위치되는 영역에서의 초음파에 의해 형성되는 음압장의 3차원 상의 위치, 형상으로 설정된다. 이에 따라, 특정 두개골의 형태에 대해 초음파 변환기 위치를 입력하면, 이에 의해 해당 두개골의 내부에 형성되는 초음파 음압장 데이터를 실시간으로 출력, 확인할 수 있다.
집속 초음파(Focused Ultrasound; FUS)는 생체조직 내에 국소영역에 집중된 음향에너지를 조사할 수 있다. 이에 따라 집속 초음파는 인체의 내부에 에너지를 인가하여 진단, 치료 등의 목적으로 사용되고 있다. 특히, 집속 초음파는 뇌에 인가되는 경우, 비침습적으로 뇌 자극을 할 수 있어 뇌 자극 및 치료에 사용될 수 있는 것으로 확인되었다.
집속 초음파는 그 강도에 따라 고강도 집속 초음파(High-intensity FUS; HIFU)와 저강도 집속 초음파(Low-intensity FUS; LIFU)로 나뉠 수 있다. 고강도 집속 초음파는 혈전 분해(thrombolysis), 체외 충격파(extracorporeal shockwave), 열 절제(thermal ablation), 보일링 히스토트닙시(boiling histotnipsy) 등과 같이 대상 영역의 상태를 직접적으로 변경하여 치료 효과가 나타나도록 한다.
반면, 저강도 집속 초음파는 혈액 뇌 장벽(blood-brain barrier) 개방을 통한 약물전달, 비침습적 뇌 자극(brain stimulation) 등과 같은 분야에 이용된다. 또한, 저강도 집속 초음파는 최근 간질(epilepsy), 뇌 종양(brain tumors), 알츠하이머(Alzheimer's), 파킨슨병(Parkinson's disease) 등과 같은 신경계 질환의 치료에 효과가 있는 것으로 밝혀지고 있다.
집속 초음파에 의한 치료가 효과를 나타내기 위해서는 원하는 영역에 초음파를 조사할 수 있어야 한다. 하지만 초음파는 비가시적이며 생체 내에서 진행할 때 반사 및 굴절하는 특성을 보인다. 특히, 초음파는 파동특성으로 인해 물성이 다른 영역이 만나는 경계를 통과할 때 왜곡이 발생하며, 이에 따라 두개골이나 다공성 영역을 통과할 때 심한 왜곡이 발생한다. 이에 따라서, 초음파를 경두개 치료에 사용하는 데에는 어려움을 겪는다.
반면, 본 발명의 일 실시 예에 따른 경두개 집속초음파 음압장 예측 장치는 초음파가 진행하면서 두개골을 비롯한 영역을 지나면서 굴절이 발생되는 것을 반영하여, 입력된 두개골 형상 데이터에 대응되는 두개골의 외측에 초음파 변환기를 위치시켰을 때, 그에 따라 경두개 내측에 형성되는 초음파 음압장 데이터를 제공한다. 이에 따라, 의료 행위를 하는 사용자는 경두개 집속초음파 음압장 예측 장치에 의해 제공되는 초음파 음압장 데이터를 통해 효과적으로 초음파를 이용한 의료 행위를 수행할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 경두개 집속초음파 음압장 예측 프로그램으로 제공되는 음압장 생성 인공지능이 학습되는 방법을 나타내는 흐름도이다.
도 3을 참조하면, 음압장 생성 인공지능의 학습을 위한 학습 데이터가 준비된다(S20). 학습 데이터는 두개골의 형상 데이터, 초음파 변환기의 위치 데이터 및 음압장(acoustic pressure field) 형상 데이터를 포함한다.
두개골의 형상 데이터는 두개골의 입체적 형상에 관한 데이터이다. 두개골의 형상 데이터는 두개골에 대한 3차원 이미지 형태로 제공될 수 있다. 두개골의 형상 데이터는 CT(computed tomography) 촬영 등을 통해 촬영된 이미지 일 수 있다.
초음파 변환기의 위치 데이터는 두개골에 대해 초음파 변환기가 위치되는 지점에 대한 데이터이다. 초음파 변환기의 위치 데이터는 두개골에 대해 초음파 변환기가 위치되는 3차원 좌표를 나타내는 좌표 데이터, 두개골에 대해 초음파 변환기가 위치되는 각도(즉, 두개골에 대해 초음파가 조사되는 각도)를 나타내는 각도 데이터를 포함한다.
음압장 형상 데이터는 초음파 변환기에서 조사된 초음파가 두개골의 안쪽, 즉 뇌가 위치된 영역에서 진행되는 형상에 관한 데이터이다. 음압장 형상 데이터는 3원 이미지 형태, 또는 특정 기준면을 대한 2차원 이미지 형태 등으로 제공될 수 있다. 음압장 형상 데이터는 두개골 형상 데이터, 해당 두개골에 초음파를 인가하는 초음파 변환기의 위치 데이터와 쌍을 이루도록 제공된다. 음압장 형상 데이터는 후술하는 바와 같이 집속 초음파의 초점에 대한 정의에 따라, 반치전폭(FWHM, full-width at half-maximum) 임계값을 통해 초음파의 초점 영역과 초점 밖 영역으로 이진화 처리될 수 있다. 또한, 초점 영역의 경계가 반치전폭 임계값에 따른 경계에서 타원체 경계로 변환될 수 있다.
이와 같은 학습 데이터는 초음파 변환기를 생체의 두개골에 인접하게 위치시켜 초음파를 조사하면서 기존의 의료 장비를 통해 두개골의 형태, 초음파가 진행되는 경로를 촬영하여 획득될 수 있다.
또한, 학습 데이터는 전산역학을 기반으로 한 시뮬레이션을 통해 획득될 수 있다.
도 4 및 도 5는 학습 데이터를 전산역학을 기반으로 한 시뮬레이션을 수행하여 획득하기 위한 데이터의 구성을 나타내는 도면이다.
도 4 및 도 5를 참조하면, 시뮬레이션의 수치 모델링을 위한 데이터는 두개골 모델(110), 초음파 변환기 모델(120) 및 관심 영역(150)을 포함한다.
두개골 모델(110)은 학습 데이터의 두개골의 형상 데이터에 대응된다. 두개골 모델(110)은 실물 두개골을 촬영하여 제공될 수 있다. 일 예로, 두개골 모델(110)을 실물 두개골을 CT 촬영하여 제공될 수 있다. 두개골 모델(110)은 물에서 만족스러운 정밀도 및 공간 분해능을 갖도록 설정 공간 해상도 이상으로 제공될 수 있다. 일 예로, 두개골 모델(110)은 0.5mm x 0.5mm x 0.5mm 이상의 공간 해상도를 갖도록 CT 촬영하여 제공될 수 있다. 두개골 모델(110)의 복셀(voxels)은 수학식 1과 같이 Hounsfiled units에 따라 물과 해면골 및 피질골로 분류될 수 있다.
Figure PCTKR2022016845-appb-img-000001
Figure PCTKR2022016845-appb-img-000002
는 초음파의 속력,
Figure PCTKR2022016845-appb-img-000003
는 초음파의 밀도이다. 이 때,
Figure PCTKR2022016845-appb-img-000004
는 물,
Figure PCTKR2022016845-appb-img-000005
는 해면골,
Figure PCTKR2022016845-appb-img-000006
는 피질골이다.
Figure PCTKR2022016845-appb-img-000007
는 감쇄 계수이다.
두개골 모델(110)은 서로 상이한 2개 이상의 실물 두개골 각각을 이용하여, 복수가 만들어 질 수 있다.
초음파 변환기 모델(120)은 실물 초음파 변환기를 모델링 한다. 초음파 변환기 모델(120)은 기 설정 직경, 기 설정 곡률 반경 및 기 설정 초점 길이를 갖도록 모델링 될 수 있다. 일 예로, 초음파 변환기 모델(120)은 직경 96mm, 곡률 반경 52mm, 초점 길이 83mm로 모델링 될 수 있다. 초음파 변환기 모델(120)에는 위치 기준점(130)이 설정되어, 위치 기준점의 좌표를 초음파 변환기 모델(120)의 위치로 설정할 수 있다. 일 예로, 초음파 변환기 모델(120)에 있어 두개골 모델(110)을 향하는 출구면의 중심 영역을 위치 기준점(130)으로 설정할 수 있다. 초음파 변환기 모델(120)은 두개골 모델(110)과 인접하게 위치된 거동 영역(140)에서 위치가 가변 되면서 시뮬레이션이 수행될 수 있다. 거동 영역(140)은 두개골 모델(110)의 상부 외면에 인접하고, 기 설정 체적을 갖도록 설정될 수 있다. 일 예로, 거동 영역(140)은 20mm x 20mm x 20mm 크기로 설정될 수 있다.
초음파 변환기 모델(120)의 위치는 위치 기준점(130)의 3차원 좌표를 나타내는 시뮬레이션 좌표 데이터, 두개골 모델(110)에 대해 초음파 변환기 모델(120)이 위치되는 각도를 나타내는 시뮬레이션 각도 데이터를 포함한다. 시뮬레이션 각도 데이터는 출구면의 법선 벡터로 정의될 수 있다. 시뮬레이션 좌표 데이터, 시뮬레이션 각도 데이터는 각각 초음파 변환기의 좌표 데이터 및 각도 데이터에 대응된다.
관심 영역(150)은 초음파 변환기 모델(120)에서 조사된 초음파가 전파되는 형상 데이터를 획득하기 위한 영역으로 기 설정 체적을 갖도록 설정된다. 일 예로, 관심 영역(150)은 40mm x 75mm x 40mm 크기로 설정될 수 있다.
관심 영역(150)의 중심점은 초음파 변환기 모델(120)의 초기 위치에서 초점 길이만큼 떨어진 위치에 설정될 수 있다. 관심영역이 시작되는 평면의 중심(x=20mm, y=0mm, z=20mm)은 초음파 변환기 출구면의 중심좌표와 50mm 거리를 가지도록 설정될 수 있다. 초음파 변환기 모델(120)의 위치를 변경시키면서, 관심 영역(150)내에서 초음파가 전파되는 형상의 획득을 위한 시뮬레이션이 수행된다. 관심 영역(150) 내에서 초음파 전파 모델링을 실시하기 위해 지배방정식으로 [수학식 2]와 같은 Westervelt-Lightill 방정식이 사용될 수 있다.
Figure PCTKR2022016845-appb-img-000008
여기서 p는 음파의 압력, c는 매질에서의 파동 속도, a는 매질에서의 감쇠 계수, f는 음파의 주파수, t는 시간이다.
지배방정식의 공간 및 시간에 대한 편도함수를 근사하기 위해 [수학식 3]과 같은 finite-difference time domain(FDTD) 방법을 사용할 수 있으며, 초음파 전파는 식을 반복적으로 평가하여 수행된다.
Figure PCTKR2022016845-appb-img-000009
여기서,
Figure PCTKR2022016845-appb-img-000010
는 절점에서의 음파의 압력(음압 값),
Figure PCTKR2022016845-appb-img-000011
,
Figure PCTKR2022016845-appb-img-000012
,
Figure PCTKR2022016845-appb-img-000013
는 절점에서 시간 t에서 x, y, z축에 대한 음파의 속력,
Figure PCTKR2022016845-appb-img-000014
는 초음파의 속도,
Figure PCTKR2022016845-appb-img-000015
는 초음파의 밀도,
Figure PCTKR2022016845-appb-img-000016
는 감쇄 계수이다.
이때, FDTD를 포함하여 explicit dynamic processes를 풀기위한 알고리즘은 수치적인 오류를 가지기 때문에 [수학식 4]와 같이 표현될 수 있는 Courant-Friedrichs-Lewy(CFL) criterion으로 알려진 안정성 조건을 만족시켜야 한다.
Figure PCTKR2022016845-appb-img-000017
여기서,
Figure PCTKR2022016845-appb-img-000018
는 시간간격,
Figure PCTKR2022016845-appb-img-000019
는 이산화 된 공간 간격, c는 파동의 속력이다.
경두개에 사용되는 집속초음파의 적절한 주파수는 650kHz 미만으로 알려져 있으며, 본 실시 예에서는 250kHz의 초음파를 조사하여 수치 모델링을 진행하고 학습데이터를 얻기 위한 시뮬레이션을 수행하였다.
전산역학 기반 시뮬레이션을 수행하면 초음파 변환기 모델(120)의 위치에 따른 관심영역 내의 초음파의 압력분포를 음압장 형상 데이터로 얻을 수 있다. 이 때 시뮬레이션은 서로 상이한 형상의 두개골 모델(110) 각각에 대해 수행되어, 그 결과가 획득될 수 있다.
음압장 형상의 시뮬레이션 결과는 집속 초음파의 초점에 대한 정의를 통해 초음파의 초점 영역과 초점 밖 영역으로 이진화 처리될 수 있다. 집속 초음파의 초점 영역은 반치전폭(FWHM, full-width at half-maximum) 임계값에 해당되는 영역으로 정의될 수 있다.
도 6은 음압장 생성 인공지능이 동작과정을 나타내는 블록도이다.
도 6을 참조하면, 음압장 생성 인공지능은 준비된 학습 테이터를 통해, 두개골의 형상 데이터, 초음파 변환기의 위치와 그에 따라 생성되는 초음파 음압장의 관계를 학습한다(S21).
이후, 음압장 생성 인공지능은 두개골 형상 데이터 및 초음파 변환기 위치가 입력되면 이에 따라 생성될 초음파 음압장 데이터를 출력한다.
구체적으로, 준비된 학습 데이터를 통해 음압장 생성 인공지능이 학습된다.
학습 데이터는 두개골 형상 데이터, 초음파 변환기 위치 데이터가 입력으로 사용되고, 이에 따라 관심 영역에서 형성되는 초음파 음압장 데이터가 출력으로 사용되어, 두개골 형상 및 초음파 변환기 위치에 따라 초음파 음압장 데이터를 예측하도록 학습이 수행된다.
두개골 형상 데이터는 음압장 생성 인공지능의 효율적인 학습을 위해 대규모 시각적 데이터베이스인 ImageNet으로 기학습된 VGG(Visual Geomery Group) 네트워크를 통해 차원압축이 수행될 수 있다. 일 예로, 두개골 형상 데이터는 정규화 된 후, VGG19 네트워크를 사용하여 315*512 크기를 가진 복셀 데이터로 차원압축이 수행될 수 있다. 이때 기 학습된 VGG19 네트워크는 합성곱 층으로 구성된 특징추출부에 전역 평균 풀링 층을 추가하여 기존 학습에 사용한 이미지 데이터와는 다른 복셀 크기의 데이터를 입력 값으로 받아 차원압축을 수행할 수 있다.
초음파 변환기의 위치 데이터는 3차원 좌표 데이터 및 각도 데이터를 포함한다. 이 때 좌표 데이터와 각도 데이터는 인공지능의 효율적인 학습을 위해 각각 최소-최대 정규화 과정을 거처 -1과 1 사이의 값으로 변환된 것이 사용될 수 있다. 인공지능은 오차 역전파를 통해 학습이 이루어 질 수 있다.
음압장 형상 데이터는 초점 영역으로 설정된 부분이 출력으로 사용될 수 있다. 이 때, 초점 영역은 반치전폭 임계값에 따른 경계로 변형한 것일 수 있다. 학습이 진행되는 과정에서 음압장 데이터는 정화규 처리된 형태로 사용될 수 있다. 이 후, 음압장 생성 인공지능이 두개골의 형상 테이터 및 초음파 변환기의 위치에 따라 초음파 음압장 데이터를 1차 출력하면, 1차 출력값은 역정규화 처리된 후 최종적인 초음파 음압장 데이터가 출력된다.
음압장 생성 인공지능은 합성곱 인공신경망(CNN; Convolutional Neural Network) 기반으로 구성될 수 있다. 음압장 생성 인공지능은 압축된 두개골의 형상 데이터에 대한 희소행렬을 학습하는 인코더(310)와 두개골에 대한 희소행렬과 정규화된 초음파 변환기 위치 데이터를 입력받아, 이에 대응되는 관심영역 내 초음파 음압장을 생성하는 디코더(320)를 포함한다.
인코더(310)에는 두개골 형상 데이터가 입력된다. 디코더(320)에는 인코더(310)의 출력과 초음파 변환기의 위치 데이터가 함께 입력된다.
도 7은 본 발명의 제1 실시 예에 따른 음압장 생성 인공지능의 구조를 나타내는 도면이다.
도 7을 참조하면, 본 발명의 제1 실시 예에 따른 음압장 생성 인공지능은 합성곱 신경망 기반 오토인코더(AE, AutoEncoder) 모델을 기초로 하여 구성될 수 있다.
인코터(310a)는 6개의 합성곱 층으로 구성될 수 있다. 디코더(320a)는 6개의 전치 합성곱 층으로 구성될 수 있다. 인코더(310a)는 압축된 두개골 형상 데이터로부터 512개의 희소행렬을 생성하고, 디코더(320a)는 인코더 측에서 입력되는 두개골에 대한 희소행렬과 초음파변환기의 위치 데이터를 함께 입력 받아 초음파 음압장으로 변환한다. 이때, 인코더(310a)에 있어, C는 각 합성곱층의 특징맵의 수를 나낸다. 인코터(310a)의 입력 층은 64개의 특징맵(C), 커널사이즈(k)는 4, 스트라이드(s)는 3으로 제공될 수 있다. 인코더(310a)는 배치정규화를 사용하고 전달함수는 LeakyReLU일 수 있다. 인코더(310a)의 제1 층은 특징맵(C) 64개, 커널사이즈(k) 4, 스트라이드(s) 3이다. 인코더(310a)의 제2 층은 특징맵(C) 128개이다. 인코더(310a)의 제3 층은 특징맵(C) 256개이다. 인코더(310a)의 제4 층 내지 제 6층은 특징맵(C) 512개이다.
디코더(320a)의 각 층에 있어, D는 전치 합성곱 층의 특징맵의 수, k는 커널사이즈, s는 스트라이이드, F는 완전 연결 계층의 노드 수를 나타낸다. 디코더(320a)는 배치정규화화를 사용하고, 전달함수는 ReLu일 수 있다. 디코더(320a)의 제1층 및 제2층은 특징맵(D) 512개이다. 디코더(320a)의 제3층은 특징맵(D) 256개이다. 디코더(320a)의 제4층은 특징맵(D) 128개이다. 디코더(320a)의 제5층은 특징맵(D) 64개, 커널사이즈(k) 4, 스트라이드(s) 1 이다. 디코더(320a)의 제6층은 특징맵(D) 151개, 커널사이즈(k) 4, 스트라이드(s) 1 이다.
도 8은 본 발명의 제2 실시 예에 따른 음압장 생성 인공지능의 구조를 나타내는 도면이다.
도 8을 참조하면, 본 발명의 제2 실시 예에 따른 음압장 생성 인공지능은 pix2pix 모델을 기초로 하여 구성될 수 있다. pix2pix 모델은 합성곱 신경망 구조를 기본으로 하며 생성자(310b, 320b)와 판별자(330b)가 적대적으로 학습하면서 네트워크의 성능을 향상시키는 적대적 생성 신경망(Generative Adversarial Network) 중 이미지 변환에 특화된 모델이다.
생성자(310b, 320b)(generator)는 인코터(310b)와 디코더(320b)를 포함하여, 압축된 두개골 형상 데이터와 초음파 변환기 위치를 입력받아 초음파 음압장 데이터를 생성한다. 인코더(310b) 및 디코더(320b)의 구조는 본 발명의 제1 실시 예에 따른 음압장 생성 인공지능의 인코더 및 디코더와 동일할 수 있다.
판별자(330b)(discriminator)는 입력받은 초음파 음압장 데이터가 생성자(310b, 320b)가 예측한 초음파 음압장인지, 혹은 학습 데이터로 사용된 시뮬레이션으로부터 생성된 정답지인지 패치 기반으로 판별하여 네트워크 학습에 영향을 미친다. 본 발명의 제2 실시 예에 따른 음압장 생성 인공지능은 판별자(330b)를 더 포함함에 따라, 생성자(310b, 320b)는 예측한 초음파 음압장에 대해 평가를 받게 되어, 더 좋은 품질의 음압장을 생성할 수 있도록 학습할 수 있게 된다. 판별자(330b)는 판별을 위한 기준이 되는 Condition pressure field 가 입력되는 지점을 기준으로 전방 및 후방에 각각 2개의 층을 갖도록 구성될 수 있다. 각 층에 있어서, C는 특징맵의 수, k는 커널사이즈, s는 스트라이이드를 나타낸다.
도 9는 본 발명의 제3 실시 예에 따른 음압장 생성 인공지능의 구조를 나타내는 도면이다.
도 9를 참조하면, 본 발명의 제3 실시 예에 따른 음압장 생성 인공지능은 합성곱 신경망 구조를 기본으로 하는 변분오토인코더(VAE, Variational AutoEncoder) 모델을 기초로 구성될 수 있다.
본 발명의 제3 실시 예에 따른 음압장 생성 인공지능은 인코더(310c)의 후단에 있어, 디코더(320c)와 연결되는 지점에 위치되는 병목부(315)를 더 포함한다. 병목부(315)는 확률분포를 이용하여 입력 값에 대한 희소벡터를 생성하고, 디코더(320c)가 전달받은 희소벡터를 변환하여, 디코더(320c)가 생성하는 출력의 품질이 향상되게 한다. 병목부(315)는 생성되는 희소벡터를 통제하기 위해서 전달받은 두개골 형상 데이터로부터 평균과 분산을 계산하고, 이에 해당하는 모평균과 모분산을 가지는 정규분포로부터 희소벡터를 샘플링한다. 병목부(315)에서 희소벡터의 차원을 하이퍼파라미터로 설정할 수 있다. 일 실시 예로, 희소벡터의 차원인 하이퍼파라미터(F)는 512로 설정될 수 있다. 인코더(310c)에 있어, 병목부(315)의 앞 부분에 위치되는 부분의 구조, 디코더(320c)의 구조는 제1 실시 예에 따른 음압장 생성 인공지능의 인코더, 디코더와 동일할 수 있다.
실험 예
도 7 내지 도 9에 도시된 구조를 갖는 인공지능에 대해 학습을 진행하였다.
본 발명의 제1 실시 예에 내지 제3 실시 예 따른 음압장 생성 인공지능을 학습시키기 위한 하이퍼-파라미터는 표 1과 같이 설정될 수 있다. 제1 실시 예에 내지 제3 실시 예 따른 음압장 생성 인공지능은 오차 역전파를 위한 손실 함수로 관심영역 내 초음파 음압장에 대한 평균 제곱 오차를 기본적으로 사용한다. 또한, 본 발명의 제2 실시 예에 따른 음압장 생성 인공지능은 생성자(310b, 320b)가 예측한 음압장과 정답지 음압장의 진위여부를 판별자(330b)가 판별하는 적대적 손실 함수를 함께 사용하며, 이 때 평균 제곱 오차로 구현되는 재구성 손실 함수와 이진 교차 엔트로피로 구현되는 적대적 손실 함수 간의 가중치를 람다(λ)로 정의한다. 본 실험 예에서는 재구성함수의 가중치를 60으로 사용하였다.
optimizer learing rate batch size epoch λ latent dim.
AE Adam 0.002 32 300
pix2pix Adam 0.0004 8 200 60
VAE Adam 0.005 8 100 512
본 발명의 제3 실시 예에 따른 음압장 생성 인공지능은 병목부(315)에서 잠재변수를 추출하기 위한 모평균과 모분산 설정하기 위해 쿨백-라이블러 발산(KLD; Kullback-Leibler Divergence)을 정규화 손실 함수로 함께 사용한다.
제1 실시 예에 따른 음압장 생성 인공지능에 대한 손실함수는 [수학식 5]와 같다.
Figure PCTKR2022016845-appb-img-000020
n은 학습 데이터의 개수, F는 오토인코더 네트워크, x는 두개골 형상 데이터, c는 초음파 변환기의 위치 데이터, y는 초음파 음압장에 대한 정답지 데이터를 의미한다.
제2 실시 예에 따른 음압장 생성 인공지능에 대한 손실함수는 [수학식 6]와 같다.
Figure PCTKR2022016845-appb-img-000021
n은 학습데이터의 개수, x는 두개골 형상 데이터, c는 초음파 변환기 위치 데이터, y는 초음파 음압장 정답지 데이터를 의미한다. G는 생성자(310b, 320b) 네트워크를, D는 판별자(330b) 네트워크를 의미한다.
제3 실시 예에 따른 음압장 생성 인공지능에 대한 손실함수는 [수학식 7]와 같다.
Figure PCTKR2022016845-appb-img-000022
n은 학습데이터의 개수, x는 두개골 형상 데이터, c는 초음파 변환기 위치 데이터, y는 음압장 정답지 데이터를 의미한다. μ, σ는 각각 병목부(315)에서 잠재벡터를 샘플링하기 위한 가우시안 분포의 평균과 분산을 의미한다.
학습된 음압장 생성 인공지능에 대한 성능을 평가하기위해 반치전폭 (FWHM, full width half maximum)으로 정의되는 초음파 음압장의 초점영역을 다음과 같은 네 가지 지표를 사용하여 비교하였다.
1) 학습된 음압장 생성 인공지능이 예측한 초음파 음압장의 초점 좌표와 정답지에 해당하는 초점 좌표 사이의 거리(ΔFP)를 측정한다.
2) 학습된 음압장 생성 인공지능이 예측한 초음파 음압장의 초점 영역 경계와 정답지에 해당하는 초점 영역 경계 사이의 최대 오차를 측정하기 위해 하우스도르프 거리(HD, Hausdorff distance)를 계산한다.
3) 학습된 음압장 생성 인공지능이 예측한 초음파 음압장의 초점 영역과 정답지에 해당하는 초점 영역에 대한 유사성을 평가하기 위해 다이스 유사 계수(DSC, Dice similarity coefficient)를 계산한다.
4) 학습된 음압장 생성 인공지능의 실용성을 평가하기 위해 음압장 생성 인공지능에 사용된 모델의 학습시간과 추론시간을 측정한다.
도 10은 학습된 음압장 생성 인공지능이 예측한 초음파 음압장의 초점 좌표와 정답지에 해당하는 초점 좌표 사이의 거리를 설명하는 도면이고, 도 11은 다이스 유사 계수를 설명하는 도면이고, 도 12는 하우스도르프 거리를 설명하는 도면이다.
도 10 내지 도 12에 있어서, 흰색 영역(pre)은 음압장 생성 인공지능이 예측한 초음파 음압장의 초점 영역을 나타내고, 짙은 회색 영역(gT)은 전산해석 시뮬레이션에 의한 초음파 음압장의 초점 영역을 나타내고, 옅은 회색 영역은 두 초점 영역이 일치하는 부분을 나타낸다.
표 2은 상술한 측정 기준에 따라서, 제1 실시 예에 내지 제3 실시 예 따른 음압장 생성 인공지능의 성능을 비교한 것이다.
△FP [mm]
(focal point error)
HD [mm]
(hausdorff distance)
DSC
(dice similarity coeff.)
Training time
[min]
Test
time [ms]
AE 5.06 ± 3.62 11.81 ± 5.00 0.59 ± 0.18 439 1.44
pix2pix 4.25 ± 2.70 10.34 ± 4.01 0.64 ± 0.15 1071 1.30
VAE 4.17 ± 2.89 10.68 ± 4.19 0.64 ± 0.15 177 1.22
제2 실시 예 및 제3 실시 예에 따른 음압장 생성 인공지능은 평균 4.25mm이내의 오차로 초음파 음압장 초점의 위치를 예측하였다. 이 때 초점 영역 경계의 오차도 평균 10.7mm 이내, 초점영역의 유사도 0.63이상의 성능으로 예측이 가능하다는 것을 알 수 있다. 특히, 제3 실시 예에 따른 음압장 생성 인공지능은 인공신경망의 학습시간이 177분으로 가장 짧으며, 초음파 음압장의 예측시간 또한 1.22ms로 가장 짧아 제1 실시 예 내지 제3 실시 예에 따른 음압장 생성 인공지능 중 가장 실용성이 높다고 평가할 수 있다.도 13은 본 발명의 일 실시 예에 따른 음압장 생성 인공지능이 예측한 초음파 음압장, 전산해석기반 시뮬레이션에 의해 예측되는 초음파 음압장 및 이들을 비교하기 위해 초점 영역의 오차를 시각화한 도면이다.
음압장 생성 인공지능이 예측한 초음파 음압장(generated field), 전산해석기반 시뮬레이션에 의해 예측되는 초음파 음압장(ground truth)는 형태적으로 높은 유사성을 갖는 것을 확인할 수 있다. 또한, 상호 비교를 위해 반치전폭(FWHM, full-width at half-maximum)으로 정의된 초점 영역 사이에도 높은 유사성을 갖는 것을 확인할 수 있다.
도 14는 실제 공간에서 초음파의 음압장을 측정하기 위한 수조실험을 설명하는 도면이다.
도 14를 참조하면, 초음파 변환기(transducer)는 함수 발생기로부터 생성되고, 선형 증폭기에 의해 증폭된 전기신호가 임피던스 매칭되어 작동될 수 있다. 두개골의 실제 위치와 방향은 광학 카메라를 통해 측정될 수 있다. 두개골에는 4개의 도넛모양 마커가 위치되어, 이를 기준으로 하여 실제 공간과 수치 모델링 공간 상의 좌표계를 설정할 수 있다. 수증청음기를 통해서 XY, YZ, XZ 평면에 대한 음압장 데이터를 획득할 수 있다. 3개의 각각 상이한 두개골에 대해서 각각 5번의 실험 및 측정을 진행하여 총 15개의 실험 데이터를 확보하였고 본 발명의 일 실시 예에 따른 음압장 생성 인공지능의 초음파 음압장 예측 데이터의 성능을 평가하기 위해 사용하였다.
표 3은 본 발명의 일 실시 예에 따른 음압장 생성 인공지능이 예측한 값과 도 14의 수조 실험 측정에 의해 측정된 음압장 데이터를 비교한 것이다.
Plane AE pix2pix VAE
Focal position error (△FP) [mm]
XY 3.59 ± 1.03 3.96 ± 1.69 3.13 ± 1.12
YZ 3.44 ± 0.72 2.97 ± 0.80 3.49 ± 0.73
XZ 0.78 ± 0.29 1.03 ± 0.29 1.15 ± 0.37
Hausdorff distance (HD) [mm]
XY 9.30 ± 2.30 8.76 ± 2.55 9.34 ± 1.26
YZ 5.26 ± 0.89 4.78 ± 1.00 5.72 ± 0.94
XZ 2.13 ± 0.26 2.25 ± 0.14 2.29 ± 0.29
Dice similarity coefficient (DSC)
XY 0.79 ± 0.04 0.79 ± 0.04 0.76 ± 0.03
YZ 0.85 ± 0.03 0.86 ± 0.03 0.84 ± 0.04
XZ 0.86 ± 0.02 0.83 ± 0.03 0.83 ± 0.04
표 3을 통해 알 수 있듯이 본 발명의 제1 실시 예 내지 제3 실시 예에 따른 음압장 생성 인공지능들은 관심영역 내 초음파 음압장의 초점 위치 예측에서 평균 오차 7.34 ± 2.80mm, 초점 영역 경계 예측에서 평균 오차 2.62 ± 0.78mm, 초점 영역의 유사도 평균 0.82 ± 0.03로 높은 성능을 보인다.도 15는 본 발명의 일 실시 예에 따른 음압장 생성 인공지능에 의해 예측되는 초음파의 음압장과 수조실험으로부터 측정된 초음파 음압장을 비교한 도면이다.
음압장 생성 인공지능이 예측한 초음파 음압장(generated field), 수조실험을 통해 측정된 초음파 음압장(ground truth)는 형태적으로 높은 유사성을 갖는 것을 확인할 수 있다. 또한, 상호 비교를 위해 반치전폭(FWHM, full-width at half-maximum)으로 정의된 초점 영역 사이에도 높은 유사성을 갖는 것을 확인할 수 있다.
본 발명의 일 실시 예에 따른 경두개 집속초음파 음압장 예측 장치는 빠른 시간에 높은 정확도를 가지고 초음파 집속기에 의해 경두개 내에 형성되는 초음파 음압장 예측 결과를 산출한다. 구체적으로, 기존 전산해석기반 집속초음파 시뮬레이션은 두개골 데이터와 초음파 변환기의 위치 데이터 입력에 따른 관심영역 내 초음파 음압장을 계산하는데 개당 약 100초가 소요되는 반면, 본 발명의 일 실시 예에 따른 음압장 생성 인공지능은 관심 영역에서의 음압장 예측을 약 1.2ms에 수행하여, 실시간 예측이 가능하다는 것을 알 수 있다. 또한, 본 발명의 일 실시 예에 따른 음압장 생성 인공지능은 다양한 두개골 형상 데이터를 기반으로 학습을 수행할 수 있으면서 인공신경망 학습에 177분을 소요하므로 실용성 높다. 또한, 학습에 사용되는 데이터를 증가시켜, 효율적인 학습과 성능향상을 기대할 수 있다.
이상, 본 발명을 바람직한 실시 예를 사용하여 상세히 설명하였으나, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 첨부된 특허청구범위에 의하여 해석되어야 할 것이다. 또한, 이 기술분야에서 통상의 지식을 습득한 자라면, 본 발명의 범위에서 벗어나지 않으면서도 많은 수정과 변형이 가능함을 이해하여야 할 것이다.

Claims (12)

  1. 사용자가 데이터를 입력하고, 또한 사용자가 확인 가능한 형태로 데이터가 출력되게 하는 입출력부;
    경두개 집속초음파 음압장 예측 프로그램이 저장되는 메모리; 및
    상기 경두개 집속초음파 음압장 예측 프로그램을 실행시켜, 상기 입출력부를 통해 입력된 데이터에 따른 결과 데이터를 도출하는 제어부를 포함하되,
    상기 제어부는,
    두개골의 형상 데이터, 초음파 변환기의 위치 데이터가 입력되면, 상기 초음파 변환기가 인가하는 초음파에 의해 경두개 내에 형성되는 초음파 음압장 데이터를 출력하는 경두개 집속초음파 음압장 예측 장치.
  2. 제1항에 있어서,
    상기 제어부는, 초음파가 두개골을 지나면서 굴절이 발생되는 것을 반영하여, 상기 두개골 형상 데이터에 상기 초음파 변환기가 인가하는 초음파에 의해 형성되는 상기 초음파 음압장 데이터를 출력하는 경두개 집속초음파 음압장 예측 장치.
  3. 제2항에 있어서,
    상기 초음파 변환기의 위치 데이터는 두개골에 대해 상기 초음파 변환기가 위치되는 3차원 좌표를 나타내는 좌표 데이터 및 두개골에 대해 상기 초음파 변환기가 위치되는 각도를 나타내는 각도 데이터를 포함하는 경두개 집속초음파 음압장 예측 장치.
  4. 제1항에 있어서,
    상기 경두개 집속초음파 음압장 예측 프로그램은 심층 신경망(Deep Neural Network, DNN)을 기반으로 한 인공지능으로 제공되는 경두개 집속초음파 음압장 예측 장치.
  5. 제4항에 있어서,
    상기 경두개 집속초음파 음압장 예측 프로그램은,
    압축된 상기 두개골의 형상 데이터에 대한 희소행렬을 학습하는 인코더; 및
    두개골에 대한 상기 희소행렬과 정규화된 상기 초음파 변환기 위치 데이터를 입력받아, 이에 대응되는 관심영역 내 초음파 음압장을 생성하는 디코더를 포함하는 경두개 집속초음파 음압장 예측 장치.
  6. 제5항에 있어서,
    상기 경두개 집속초음파 음압장 예측 프로그램은,
    합성곱 신경망 기반 오토인코더 모델을 기초로 하여 구성되는 경두개 집속초음파 음압장 예측 장치.
  7. 제5항에 있어서,
    상기 경두개 집속초음파 음압장 예측 프로그램은,
    pix2pix 모델을 기초로 하여 구성되는 경두개 집속초음파 음압장 예측 장치.
  8. 제5항에 있어서,
    상기 경두개 집속초음파 음압장 예측 프로그램은,
    변분오토인코더 모델을 기초로 하여 구성되는 경두개 집속초음파 음압장 예측 장치.
  9. 제4항에 있어서,
    상기 인공지능은 상기 두개골 형상 데이터, 상기 초음파 변환기 위치 데이터 및 초음파 음압장(acoustic pressure field) 데이터를 포함하는 학습 데이터를 이용하여, 상기 두개골 형상 데이터, 상기 초음파 변환기 위치 데이터가 입력으로 사용되고, 이에 대응한 상기 초음파 음압장 데이터가 출력으로 사용되어, 상기 두개골 형상 데이터, 상기 초음파 변환기 위치 데이터에 따라 초음파 음압장의 형상을 예측하도록 학습이 수행되는 경두개 집속초음파 음압장 예측 장치.
  10. 두개골 형상 데이터, 초음파 변환기의 위치가 입력되는 단계; 및
    상기 초음파 변환기가 인가하는 초음파에 의해 경두개 내에 형성되는 초음파의 음압장 데이터를 출력하는 단계를 경두개 집속초음파 음압장 예측 장치에 의해 실행시키기 위하여 경두개 집속초음파 음압장 예측 장치로 판독 가능한 기록 매체에 저장된 경두개 집속초음파 음압장 예측 프로그램.
  11. 제10항에 있어서,
    상기 초음파 변환기의 위치 데이터는 두개골에 대해 상기 초음파 변환기가 위치되는 3차원 좌표를 나타내는 좌표 데이터 및 두개골에 대해 초음파 변환기가 위치되는 각도를 나타내는 각도 데이터를 포함하는 경두개 집속초음파 음압장 예측 장치로 판독 가능한 기록 매체에 저장된 경두개 집속초음파 음압장 예측 프로그램.
  12. 두개골 형상 데이터, 초음파 변환기의 위치 데이터 및 초음파 음압장(acoustic pressure field) 데이터를 포함하는 학습 데이터를 준비하는 단계; 및
    상기 학습 데이터에 있어, 상기 두개골 형상 데이터 및 상기 초음파 변환기의 위치 데이터가 입력으로 사용되고, 이에 대응하여 상기 초음파 음압장 데이터가 출력으로 사용되어, 상기 초음파 변환기가 인가하는 초음파에 의해 경두개 내에 형성되는 초음파 음압장을 예측하도록 인공 지능을 학습시키는 단계를 포함하는 경두개 집속초음파 음압장 예측 장치로 판독 가능한 기록 매체에 저장된 경두개 집속초음파 음압장 예측 프로그램으로 제공되는 음압장 생성 인공지능 구현 방법.
PCT/KR2022/016845 2022-09-28 2022-10-31 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법 WO2024071508A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0123592 2022-09-28
KR1020220123592A KR20240044155A (ko) 2022-09-28 2022-09-28 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법

Publications (1)

Publication Number Publication Date
WO2024071508A1 true WO2024071508A1 (ko) 2024-04-04

Family

ID=90478365

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/016845 WO2024071508A1 (ko) 2022-09-28 2022-10-31 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법

Country Status (2)

Country Link
KR (1) KR20240044155A (ko)
WO (1) WO2024071508A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160038770A1 (en) * 2013-04-26 2016-02-11 Thync, Inc. Focused transcranial ultrasound systems and methods for using them
KR20190097165A (ko) * 2016-12-22 2019-08-20 서니브룩 리서치 인스티튜트 경두개 초음파 치료 및 영상화 절차 수행을 위한 시스템 및 방법
KR20220128505A (ko) * 2021-03-11 2022-09-21 한국과학기술연구원 인공지능 기반 mri-ct 영상 변환 방법 및 이를 이용한 초음파 치료 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160038770A1 (en) * 2013-04-26 2016-02-11 Thync, Inc. Focused transcranial ultrasound systems and methods for using them
KR20190097165A (ko) * 2016-12-22 2019-08-20 서니브룩 리서치 인스티튜트 경두개 초음파 치료 및 영상화 절차 수행을 위한 시스템 및 방법
KR20220128505A (ko) * 2021-03-11 2022-09-21 한국과학기술연구원 인공지능 기반 mri-ct 영상 변환 방법 및 이를 이용한 초음파 치료 장치

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHOI MINWOOK; JANG MINYEONG; YOO SEUNG-SCHIK; NOH GUNWOO; YOON KYUNGHO: "Deep Neural Network for Navigation of a Single-Element Transducer During Transcranial Focused Ultrasound Therapy: Proof of Concept", IEEE JOURNAL OF BIOMEDICAL AND HEALTH INFORMATICS, IEEE, PISCATAWAY, NJ, USA, vol. 26, no. 11, 12 August 2022 (2022-08-12), Piscataway, NJ, USA , pages 5653 - 5664, XP011927124, ISSN: 2168-2194, DOI: 10.1109/JBHI.2022.3198650 *
DI BIASE LAZZARO, FALATO EMMA, DI LAZZARO VINCENZO: "Transcranial Focused Ultrasound (tFUS) and Transcranial Unfocused Ultrasound (tUS) Neuromodulation: From Theoretical Principles to Stimulation Practices", FRONTIERS IN NEUROLOGY, vol. 10, no. 549, 11 June 2019 (2019-06-11), pages 1 - 12, XP055932894, DOI: 10.3389/fneur.2019.00549 *

Also Published As

Publication number Publication date
KR20240044155A (ko) 2024-04-04

Similar Documents

Publication Publication Date Title
EP3681400B1 (en) Systems and methods for registering headset system
WO2019050226A1 (ko) 3차원 뇌지도 생성 방법 및 프로그램
WO2019050225A1 (ko) Tms 자극 내비게이션 방법 및 프로그램
US11648066B2 (en) Method and system of determining one or more points on operation pathway
WO2020187700A1 (en) Device and method for analyzing optoacoustic data, optoacoustic system and computer program
Wang et al. ViT-P: Classification of genitourinary syndrome of menopause from OCT images based on vision transformer models
WO2023120827A1 (ko) 초음파 변환기 위치 설정 장치, 초음파 변환기 위치 설정 프로그램 및 초음파 변환기 위치 설정 인공 지능 구현 방법
Choi et al. Deep neural network for navigation of a single-element transducer during transcranial focused ultrasound therapy: proof of concept
WO2024071508A1 (ko) 경두개 집속초음파 음압장 예측 장치, 경두개 집속초음파 음압장 예측 프로그램 및 음압장 생성 인공지능 구현 방법
KR102633843B1 (ko) 인공지능 기반 실시간 음향 시뮬레이션 방법 및 시스템
Avila-Carrasco et al. Analytical versus data-driven approach of modelling brachytherapy needle deflection
CN111584086A (zh) 一种基于bp神经网络的红外热源信息反演方法
Seppi et al. Deep-learning approach for tissue classification using acoustic waves during ablation with an Er: YAG laser
Davis et al. A continuum mechanics representation of tongue deformation
Yang et al. A novel neurosurgery registration pipeline based on heat maps and anatomic facial feature points
US8659591B2 (en) Method of and system for image processing
WO2022220318A1 (ko) 인공 지능 기반 뇌 mri영상에서 생성된 ct 영상을 이용한 비침습 치료 계획 방법, 이를 위한 장치 및 이를 위한 컴퓨터 프로그램
CN116671974B (zh) 超声检查的磁定位系统
Wei et al. A study on using texture analysis methods for identifying lobar fissure regions in isotropic CT images
CN116211353B (zh) 可穿戴超声膀胱容量测定与多模态影像形貌评估系统
Zhao et al. Autonomous Robotic Drilling System for Mice Cranial Window Creation
Zhang et al. Combining a Dynamic Vision Sensor with Neuromorphic Computing for Imaging in Turbid Media
Madhwaraj et al. Assistance System for 3D Navigational Endocranial Procedures based on Image Acquisition
Avila-Carrasco et al. This is a repository copy of Analytical versus data-driven approach of modelling brachytherapy needle deflection.
Wang et al. Fast and accurate MEG source localization using deep learning

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22961107

Country of ref document: EP

Kind code of ref document: A1