WO2024058497A1 - 초음파 뇌 치료를 위한 치료정보 표시방법 - Google Patents

초음파 뇌 치료를 위한 치료정보 표시방법 Download PDF

Info

Publication number
WO2024058497A1
WO2024058497A1 PCT/KR2023/013479 KR2023013479W WO2024058497A1 WO 2024058497 A1 WO2024058497 A1 WO 2024058497A1 KR 2023013479 W KR2023013479 W KR 2023013479W WO 2024058497 A1 WO2024058497 A1 WO 2024058497A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
treatment
information
ultrasound
transducer
Prior art date
Application number
PCT/KR2023/013479
Other languages
English (en)
French (fr)
Inventor
조남규
한대근
이성곤
Original Assignee
주식회사 뉴로소나
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뉴로소나 filed Critical 주식회사 뉴로소나
Publication of WO2024058497A1 publication Critical patent/WO2024058497A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy

Definitions

  • the present invention relates to a method of displaying treatment information for ultrasound brain treatment.
  • ultrasound irradiation of the brain was used for the purpose of determining changes in the state of the brain by monitoring the blood flow state of the cerebral blood vessels, as in Patent Registration No. 10-0784117.
  • Patent Publication No. 10-2019-0047251 it was used to monitor the brain with an ultrasound device for insertion of a catheter.
  • Figure 1 is a flowchart showing a conventional ultrasound brain treatment process.
  • conventional ultrasound treatment uses MRI images and CT images (S14, S16) to match the patient and the image (S18), adjusts the transducer (S20), and then irradiates ultrasound ( S11) was the treatment method.
  • This conventional method is an open loop method, and it is difficult to predict the focused location, direction, and intensity of ultrasound before treatment.
  • optimal conditions could not be found and the patient had no choice but to rely on parameters from the initial stage of treatment.
  • the present invention was created to solve the above problems, and the problem to be solved by the present invention is to provide a treatment information display method for ultrasound brain therapy using a non-invasive focused ultrasound transducer for the treatment of depression. will be.
  • the second purpose of the present invention is to provide a method of displaying treatment information for ultrasound brain treatment that can establish a specific treatment plan by performing simulation before treatment based on MRI images and CT images.
  • the third purpose of the present invention is to provide a method of displaying treatment information for ultrasound brain therapy that allows real-time feedback on the ultrasound range of the transducer through simulation during treatment.
  • a step of generating a registered image 14 by combining the MRI image 10 and the CT image 12 of the patient's brain by a computer before treatment (S120);
  • a step (S180) of simulating and displaying the position of the transducer and the ultrasonic range 40 in the segmented image 30; is performed to set the position and range of treatment based on the simulation image, and the position and range of treatment can be set by the computer during treatment.
  • a step (S140) of extracting CT data from the MRI image 10 and confirming the thickness of the skull may be further performed.
  • simulation display step (S180) displays the transducer's position information, direction information, and transducer's ultrasonic intensity information.
  • patient information is text information.
  • the alignment step (S240, S260, S280) includes a landmark registration step (S240) of matching the MRI image 10 to which a plurality of markers are attached and the patient 50; A surface registration step (S260) of matching the actual patient image 70 captured by the 3D camera 80 with the 3D MRI image 10; and a 3D depth step (S280) that matches the 3D mesh image constructed based on the MRI image 10 and the CT image 12 with the patient; is at least one of
  • the information about the actual transducer is at least one of the current and voltage information of the actual transducer.
  • the real-time reflection and display step (S340) reflects and displays the information of the actual transducer on the simulation image 200 in real time.
  • the transducer is a non-invasive focused ultrasound transducer.
  • a specific treatment plan can be established by conducting simulation before treatment based on MRI images and CT images. there is. Therefore, the accuracy of treatment can be improved, and the prognosis according to treatment can be significantly better.
  • Figure 1 is a flow chart showing a conventional ultrasound brain treatment process
  • Figure 2 is an overall flow chart of the treatment information display method for ultrasound brain treatment according to the present invention.
  • Figure 3 is an explanatory diagram showing the process of generating a registered image for aligning an MRI image and a CT image according to the present invention
  • Figure 4 is a screen of a computer program for setting the treatment range and position (Target planning) (S200) according to the present invention
  • Figure 5 is an example of a segmented image 30 according to the present invention.
  • Figure 6 is a partially enlarged screen of the image landmark 20 in Figure 4.
  • Figure 7a is an example of an ultrasound simulated segmentation image 30,
  • Figure 7b is an example of an ultrasound simulated registered image 14.
  • FIG. 8A is an explanatory diagram of the first process of registering a selectable landmark in the present invention.
  • Figure 8b is an explanatory diagram of the second process of landmark registration
  • FIGS. 9A and 9B are diagrams illustrating the surface registration process selectable in the present invention.
  • Figure 10a is a first explanatory diagram of a 3D depth registration process selectable in the present invention.
  • Figure 10b shows a fusion image 130 according to the 3D depth registration process.
  • Figure 12 is an example of a simulation image 200 according to the present invention.
  • Figure 13 is a flowchart of the pre-treatment stage of the treatment information display method for ultrasound brain treatment according to an embodiment of the present invention
  • Figure 14 is a flowchart of the treatment stage in the treatment information display method for ultrasound brain treatment according to an embodiment of the present invention.
  • first and second are used to distinguish one component from another component, and the scope of rights should not be limited by these terms.
  • a first component may be named a second component, and similarly, the second component may also be named a first component.
  • first component may be named a second component, and similarly, the second component may also be named a first component.
  • second component When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected to the other component, but that other components may also exist in between.
  • a component when a component is referred to as being “directly connected” to another component, it should be understood that there are no other components in between.
  • other expressions that describe the relationship between components such as "between” and “immediately between” or “neighboring” and “directly neighboring” should be interpreted similarly.
  • Figure 2 is an overall flowchart of a treatment information display method for ultrasonic brain treatment according to the present invention
  • Figure 13 is a flowchart of the pre-treatment stage of the treatment information display method for ultrasonic brain treatment according to an embodiment of the present invention
  • 14 is a flowchart of the treatment stage in the treatment information display method for ultrasound brain treatment according to an embodiment of the present invention.
  • the present invention is largely implemented as a first program (Pre-Operative) (S100 ⁇ S200) and a second program (140). It consists of the Intra-Operative stage (S220 ⁇ S340).
  • Patient image acquisition S100: The patient's MRI (Magnetic Resonance Imaging) image and CT (Computed Tomography) image are captured and created (S100).
  • MRI Magnetic Resonance Imaging
  • CT Computer Tomography
  • CT+MRI registration (S120): Before treatment, a registration image (14) is created by combining the MRI image (10) and CT image (12) of the patient's brain using a computer image processing program.
  • Figure 3 is an explanatory diagram showing the process of generating a registered image 14 that overlaps the MRI image 10 and the CT image 12.
  • Extraction of CT data from MRI (S140): By extracting CT data from the MRI image (10), the thickness of the skull can be checked through software. That is, by clicking on two desired points with a mouse (not shown), the distance between the two points is calculated.
  • This confirmation step (S140) may be an optional step performed as needed.
  • Brain segmentation Generates a segmentation image (30) that displays each part of the brain by dividing it into multiple colors among the registered images (14).
  • Figure 5 is an example of a segmented image 30 according to the present invention. As shown in Figure 5, the cerebrum, midbrain, and cerebellum are colored with different colors (red, green, orange, gray, etc.).
  • This segmentation image 30 is created by software recognizing the boundary in the registered image 14 and then filling the area defined by the boundary with a predetermined color. Optionally, similar areas among a plurality of segmented images created and stored in advance may be matched.
  • the transducer is a non-invasive focused ultrasound transducer that radiates ultrasound from the skin toward the brain.
  • FIG. 7A is an example of an ultrasound simulated segmented image 30
  • FIG. 7B is an example of an ultrasound simulated registered image 14.
  • the ultrasound irradiated into the brain is indicated by the ultrasound range 40 of the transducer.
  • the ultrasonic range 40 is displayed as a rectangle, and the inside of the rectangle changes in gradation from red to blue depending on the intensity.
  • the length and direction of the rectangle indicate the limit and direction of the ultrasonic range 40
  • the red color inside can be the place where the ultrasonic intensity is the highest
  • the blue color can be the place where the ultrasonic intensity is the lowest.
  • Target Planning Set the location and scope of treatment based on the simulation image.
  • Figure 4 is a screen of a computer program for setting the treatment range and position (Target planning) (S200) according to the present invention
  • Figure 6 is a partial enlarged screen of the image landmark 20 in Figure 4.
  • Figure 4 shows a cross-sectional view of three orthogonal axes of the brain and a 3D screen. This cross-sectional view shows the ultrasonic range 40 of the transducer.
  • the image landmark 20 on one side of the program has the contact position of the transducer (Estimated Entry), the position of the irradiation target in the brain (Estimated Targety), and the coordinates of each vertex of the rectangular ultrasound range 40. They are displayed as X, Y, and Z coordinate values, respectively.
  • Figure 11 is a screen of a second program according to the present invention.
  • patient information is text information displayed on the information monitor 160.
  • the loaded MRI image 10, CT image 12, registered image 14, and simulation image 200 are displayed in segments on the central image view 150 screen.
  • the brain is displayed as a cross-sectional view of three orthogonal axes and a 3D screen.
  • the control panel 170, function menu 180, and IR status window 190 are displayed separately.
  • Image registration Align the actual position of the patient and the MRI image (10) to match.
  • the MRI image 10 may be rotated based on the actual location of the patient, or the actual location of the patient may be rotated based on the MRI image 10.
  • landmark registration S240
  • surface registration S260
  • 3D depth step S280
  • S240 landmark registration
  • S260 surface registration
  • S280 3D depth step
  • Landmark registration is a process of matching markers between an MRI image 10 to which a plurality of markers (eg, 3 to 6) are attached and a patient 50 to which a plurality of markers are attached. Specifically, it is explained as the first process and the second process of landmark registration as shown in Figure 8a.
  • the optical tracking navigation sensor (Vicra, 60) recognizes a plurality of markers attached to the head of the patient (50), and a second reference position error (Fiducial Localization Error, 110) is specified.
  • the first reference position error 100 is designated by a plurality of markers displayed on the MRI image 10. By matching these first and second reference position errors (100, 110) with corresponding points, the target registration error (120) is minimized.
  • S260 is a method of matching the actual patient image (70) captured by the 3D camera (80) with the three-dimensional MRI image (10).
  • Figures 9a and 9b are diagrams illustrating the surface registration process.
  • the 3D depth step (S280) is a method of matching the 3D mesh image constructed based on the MRI image 10 and the CT image 12 with the patient.
  • FIG. 10A is a first explanatory diagram of the 3D depth registration process
  • FIG. 10B is an example of the fusion image 130 according to the 3D depth registration process.
  • physical features of the patient's face e.g. eyes, nose, cheekbones, etc.
  • body markers e.g. eyes, nose, cheekbones, etc.
  • Tracking Aligns the actual transducer position of the patient to match the position of the transducer in the simulation image 200 of the second program 140 as shown in FIG. 12. After alignment, the actual transducer is fixed using a separate device or jig.
  • Sonication Operates the actual transducer to irradiate ultrasound into the patient's brain. Through such ultrasound irradiation, the patient's disease (e.g. depression) can be treated or symptom relief can be achieved.
  • the patient's disease e.g. depression
  • symptom relief can be achieved.
  • Real-time simulation The voltage and current information of the actual transducer that generates ultrasonic waves is reflected in real time and displayed on the simulation image (200).
  • Figure 12 is an example of a simulation image 200 according to the present invention. The treating doctor can obtain or confirm status information regarding ultrasound irradiation in real time by performing treatment while watching the simulation image 200 as shown in FIG. 12 . This simulation image 200 continues to be displayed while ultrasonic waves are irradiated.
  • the present invention relates to a method of displaying treatment information for ultrasound brain treatment.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pulmonology (AREA)

Abstract

본 발명은 초음파 뇌 치료를 위한 치료정보 표시방법.에 관한 것이다. 이를 위해, 치료전에 컴퓨터에 의해, 환자 뇌의 MRI 영상(10)과 CT 영상(12)을 결합하여 등록영상(14)을 생성하는 단계(S120); 등록영상(14) 중 뇌의 각 부분을 복수의 컬러로 구분하여 표시한 세분화영상(30)을 생성하는 단계(S160); 및 세분화영상(30)에서 트랜스듀서의 위치와 초음파범위(40)를 시뮬레이션해서 표시하는 단계(S180);가 수행되어 시뮬레이션 영상(200)을 기초로 치료위치와 범위를 설정할 수 있고, 치료 중 컴퓨터에 의해, MRI 영상(10), CT 영상(12), 시뮬레이션 영상(200) 및 환자의 정보를 로드하여 표시하는 단계(S220); 환자의 실제 위치와 상기 MRI 영상(10)을 정렬하는 단계(S280); 시뮬레이션 영상(200)의 트랜스듀서의 위치에 따라 환자의 실제 트랜스듀서의 위치를 정렬하는 단계(S300); 및 초음파를 발생하는 실제 트랜스듀서의 정보를 시뮬레이션 영상(200)에 반영하여 표시하는 단계(S340);를 포함하는 것을 특징으로 하는 초음파 뇌 치료를 위한 치료정보 표시방법이 제공된다.

Description

초음파 뇌 치료를 위한 치료정보 표시방법
본 발명은 초음파 뇌 치료를 위한 치료정보 표시방법에 관한 것이다.
일반적으로, 뇌에 대한 초음파의 조사는 특허등록 제 10-0784117 호와 같이 뇌혈관의 혈류상태를 감시하여 뇌의 상태 변화를 판단하기 위한 목적으로 사용되었다.
또한, 특허공개 제 10-2019-0047251 호와 같이 카테터의 삽입을 위해 초음파 장치로 뇌를 감시하는 목적으로 사용되곤 하였다.
그러나, 이러한 종래의 초음파 조사는 검사 목적에 국한되었고, 침습적으로 행해지기 때문에 환자의 부담이 크다는 단점이 있었다.
최근에는 도 1에 도시된 바와 같이, 뇌의 특정 영역에 초음파를 집중하여 질병(예 : 우울증)을 치료하는 치료적 방법이 시도되고 있다. 예를 들어, 도 1은 종래의 초음파 뇌치료 과정을 나타낸 흐름도이다.
도 1에 도시된 바와 같이, 종래의 초음파 치료는 MRI 영상과 CT영상을 이용(S14, S16)하여 환자와 영상을 일치시킨 후(S18), 트랜스듀서를 조정(S20)한 후 초음파를 조사(S11)하여 치료하는 방식이었다. 이러한 종래의 방식은 오픈 루프 방식으로서 치료전 초음파의 집속 위치, 방향 및 세기를 예측하기 어려웠다. 또한, 초음파가 조사되는 치료 과정 중 초음파가 미치는 영역을 피드백 받을 수 없었기 때문에 최적의 조건을 찾을 수 없었고, 치료 초기 단계의 파라미터에 의존할 수 밖에 없었다.
이러한 기술적 어려움으로 인해 치료 효과(예 : 완치나 증세 완화)가 낮아지거나 예상치 못한 치료 부작용이 발생할 위험이 컸다.
따라서, 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 해결하고자 하는 과제는 우울증 치료를 위해 비침습적 집속형 초음파 트랜스듀서를 이용하는 초음파 뇌치료를 위한 치료정보 표시방법을 제공하는 것이다.
본 발명의 제 2 목적은 MRI영상과 CT 영상에 기초하여 치료전에 미리 시뮬레이션을 실시함으로서 구체적인 치료 계획을 수립할 수 있는 초음파 뇌치료를 위한 치료정보 표시방법을 제공하는 것이다.
본 발명의 제 3 목적은 치료 중에 트랜스듀서의 초음파 범위를 시뮬레이션을 통해 실시간으로 피드백 받아 볼 수 있는 초음파 뇌치료를 위한 치료정보 표시방법을 제공하는 것이다.
다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기의 기술적 과제를 달성하기 위하여, 치료전에 컴퓨터에 의해, 환자 뇌의 MRI 영상(10)과 CT 영상(12)을 결합하여 등록영상(14)을 생성하는 단계(S120); 등록영상(14) 중 뇌의 각 부분을 복수의 컬러로 구분하여 표시한 세분화영상(30)을 생성하는 단계(S160); 및 세분화영상(30)에서 트랜스듀서의 위치와 초음파범위(40)를 시뮬레이션해서 표시하는 단계(S180);가 수행되어 시뮬레이션 영상을 기초로 치료의 위치와 범위를 설정할 수 있고, 치료 중 컴퓨터에 의해, MRI 영상(10), CT 영상(12), 시뮬레이션 영상(200) 및 환자의 정보를 로드하여 표시하는 단계(S220); 환자의 실제 위치와 상기 MRI 영상(10)을 정렬하는 단계(S240, S260, S280); 시뮬레이션 영상(200)의 트랜스듀서의 위치에 따라 환자의 실제 트랜스듀서의 위치를 정렬하는 단계(S300); 및 초음파를 발생하는 실제 트랜스듀서의 정보를 시뮬레이션 영상(200)에 반영하여 표시하는 단계(S340);를 포함하는 것을 특징으로 하는 초음파 뇌치료를 위한 치료정보 표시방법이 제공된다.
또한, 등록영상 생성단계(S120)와 세분화영상(30) 생성단계(160) 사이에는, MRI영상(10)으로부터 CT 데이터를 추출하여 스컬의 두께를 확인하는 단계(S140)가 더 수행될 수 있다.
또한, 시뮬레이션의 표시단계(S180)는 트랜스듀서의 위치정보, 방향정보 및 트랜스듀서의 초음파 세기 정보를 표시한다.
또한, 환자 정보는 텍스트 정보이다.
또한, 정렬단계(S240, S260, S280)는 복수개의 마커가 각각 부착된 MRI 영상(10)과 환자(50)를 일치시키는 랜드마크 등록단계(S240); 3D 카메라(80)가 촬영한 실제 환자의 영상(70)을 3차원의 MRI 영상(10)과 일치시키는 표면등록단계(S260); 및 MRI영상(10)과 CT 영상(12)에 기초하여 구축된 3D 메쉬영상을 환자와 일치시키는 3D 깊이단계(S280); 중 적어도 하나이다.
또한, 실시간 반영 및 표시단계(S340)에서 실제 트랜스듀서의 정보는 실제 트랜스듀서의 전류 및 전압 정보 중 적어도 하나이다.
또한, 실시간 반영 및 표시단계(S340)는 실제 트랜스듀서의 정보를 시뮬레이션 영상(200)에 실시간으로 반영하여 표시한다.
또한, 트랜스듀서는 비침습적 집속형 초음파 트랜스듀서이다.
본 발명의 일실시예에 따르면, 비침습적 집속형 초음파 트랜스듀서를 이용하는 환자의 뇌에 초음파를 조사하는 치료에서 MRI영상과 CT 영상에 기초하여 치료전에 미리 시뮬레이션을 실시함으로서 구체적인 치료 계획을 수립할 수 있다. 따라서, 치료의 정확도를 높일 수 있고, 치료에 따른 예후가 상당히 좋은 결과를 얻을 수 있다.
또한, 치료 중에 트랜스듀서의 위치, 초음파의 강도와 조사 범위를 시뮬레이션을 통해 실시간으로 피드백 받아 볼 수 있다. 따라서, 정확한 치료가 진행되고 있음을 실시간으로 확인할 수 있고, 필요한 경우 시뮬레이션 피드백을 통해 육안으로 확인하면 적절한 수정을 할 수 있다.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어서 해석되어서는 아니된다.
도 1은 종래의 초음파 뇌치료 과정을 나타낸 흐름도,
도 2는 본 발명에 따른 초음파 뇌치료를 위한 치료정보 표시방법의 전체 흐름도,
도 3은 본 발명 중 MRI영상과 CT영상을 정렬하는 등록영상을 생성하는 과정을 나타낸 설명도,
도 4는 본 발명에 따른 치료 범위와 위치 설정(Target planing)(S200)을 위한 컴퓨터 프로그램의 화면,
도 5는 본 발명에 따른 세분화 영상(30)의 일예,
도 6은 도 4 중 이미지 랜드마크(20)의 부분 확대 화면,
도 7a는 초음파 시뮬레이션된 세분화영상(30)의 일예,
도 7b는 초음파 시뮬레이션된 등록영상(14)의 일예,
도 8a는 본 발명에서 선택 가능한 랜드마크 등록의 제 1 과정의 설명도,
도 8b는 랜드마크 등록의 제 2 과정의 설명도,
도 9a와 도 9b는 본 발명에서 선택 가능한 표면등록 과정의 설명도,
도 10a는 본 발명에서 선택 가능한 3D 깊이등록 과정의 제 1 설명도,
도 10b는 3D 깊이등록 과정에 따른 융합영상(130),
도 11은 본 발명에 따른 제 2 프로그램의 화면,
도 12는 본 발명에 따른 시뮬레이션 영상(200)의 일예,
도 13은 본 발명의 일실시예에 따른 초음파 뇌 치료를 위한 치료정보 표시방법 중 치료전 단계의 흐름도,
도 14는 본 발명의 일실시예에 따른 초음파 뇌 치료를 위한 치료정보 표시방법 중 치료 중인 단계의 흐름도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 2는 본 발명에 따른 초음파 뇌 치료를 위한 치료정보 표시방법의 전체 흐름도이고, 도 13은 본 발명의 일실시예에 따른 초음파 뇌 치료를 위한 치료정보 표시방법 중 치료전 단계의 흐름도이며, 도 14는 본 발명의 일실시예에 따른 초음파 뇌 치료를 위한 치료정보 표시방법 중 치료 중인 단계의 흐름도이다.
도 2, 도 13 및 도 14에 도시된 바와 같이, 본 발명은 크게 제 1 프로그램으로 실행되는 치료(또는 시술)전 단계(Pre-Operative)(S100 ~ S200) 및 제 2 프로그램(140)으로 실행되는 치료중단계(Intra-Operative)(S220 ~ S340)로 구성된다.
환자영상획득(S100) : 환자의 MRI(Magnetic Resonance Imaging, 자기공명영상) 영상 및 CT(Computed Tomography, 컴퓨터 단층촬영) 영상을 촬영하여 생성한다(S100).
CT+MRI 등록(S120) : 치료전에 컴퓨터의 이미지 프로세싱 프로그램을 이용하여 환자 뇌의 MRI 영상(10)과 CT 영상(12)을 결합하여 등록영상(14)을 생성한다. 도 3은 MRI영상(10)과 CT영상(12)을 중첩하는 등록영상(14)을 생성하는 과정을 나타낸 설명도이다.
MRI에서 CT데이터 추출(S140) : MRI영상(10)으로부터 CT 데이터를 추출하여 소프트웨어적으로 스컬(Skull)의 두께를 확인할 수 있다. 즉, 마우스(미도시)로 원하는 두지점을 클릭함으로서 두지점 사이의 거리를 산출한다. 이러한 확인단계(S140)는 필요에 따라 수행되는 선택적인 단계가 될 수 있다.
브레인 세그멘테이션(S160) : 등록영상(14) 중 뇌의 각 부분을 복수의 컬러로 구분하여 표시하는 세분화영상(30)을 생성한다. 도 5는 본 발명에 따른 세분화 영상(30)의 일예이다. 도 5에 도시된 바와 같이, 대뇌, 중뇌, 소뇌 등을 서로 다른 컬러(적색, 녹색, 주황색, 회색 등)로 착색한다. 이러한 세분화영상(30)은 소프트웨어가 등록영상(14)에서 경계를 인식한 뒤 경계로 구획되는 영역을 미리 정해진 컬러로 채워 넣음으로서 수행된다. 선택적으로는, 미리 작성되어 저장된 복수의 세분화영상들 중 유사한 면적을 대응시킬 수도 있다.
시뮬레이션(S180) : 세분화영상(30)에서 트랜스듀서의 위치와 초음파범위(40)를 시뮬레이션해서 표시한다. 트랜스듀서는 비침습적 집속형 초음파 트랜스듀서로서 피부 상에서 뇌를 향해 초음파를 조사한다. 도 7a는 초음파 시뮬레이션된 세분화영상(30)의 일예이고, 도 7b는 초음파 시뮬레이션된 등록영상(14)의 일예이다. 도 7a 및 도 7b에 도시된 바와 같이, 뇌 내부로 조사되는 초음파는 트랜스듀서의 초음파 범위(40)로 표시된다. 시뮬레이션에서 초음파범위(40)는 직사각형으로 표시되고, 직사각형 내부는 강도에 따라 적색에서 청색으로 계조를 띄며 변화한다. 예를 들어, 직사각형의 길이와 방향은 초음파범위(40)의 한계와 방향을 나타내고, 내부의 적색은 초음파 강도가 제일 센 곳이며, 청색은 초음파 강도가 제일 낮은 곳이 될 수 있다.
타겟 플래닝(S200) : 시뮬레이션 영상을 기초로 치료의 위치와 범위를 설정한다. 도 4는 본 발명에 따른 치료 범위와 위치 설정(Target planing)(S200)을 위한 컴퓨터 프로그램의 화면이고, 도 6은 도 4 중 이미지 랜드마크(20)의 부분 확대 화면이다. 도 4에는 뇌의 직교하는 3개축의 단면도 및 3D 화면이 표시된다. 이러한 단면도에는 트랜스듀서의 초음파범위(40)가 표시된다. 프로그램 일측의 이미지 랜드마크(20)는 도 6에 도시된 바와 같이, 트랜스듀서의 접촉 위치(Estimated Entry), 뇌속 조사 대상의 위치(Estimated Targety), 직사각형인 초음파범위(40)의 각 꼭지점 좌표가 X, Y, Z축 좌표값으로 각각 표시된다.
이하에서는 도 14에 도시된 바와 같이, 치료 개시에 따른 각 단계를 설명한다.
로드(S220) : 치료 중 컴퓨터의 제 2 프로그램(140)에 의해, MRI 영상(10), CT 영상(12), 등록영상(14), 시뮬레이션 영상(200) 및 환자의 정보를 로드하여 표시한다.
도 11은 본 발명에 따른 제 2 프로그램의 화면이다. 도 11에 도시된 바와 같이, 환자 정보는 정보 모니터(160)에 표시되는 텍스트 정보이다. 로드된 MRI 영상(10), CT 영상(12), 등록영상(14), 시뮬레이션 영상(200)은 중앙의 이미지 뷰(150) 화면에 분할로 표시된다. 도 11에 도시된 바와 같이 뇌의 직교하는 3개축의 단면도 및 3D 화면으로 표시된다. 제 2 프로그램(140)에는 제어패널(170), 기능메뉴(180), 및 IR 상태창(190)이 구분되어 표시된다.
영상 등록(S240, S260, S280) : 환자의 실제 위치와 MRI 영상(10)을 일치하도록 정렬한다. 환자의 실제 위치를 기준으로 MRI 영상(10)을 회전시킬 수도 있고, MRI 영상(10)을 기준으로 환자의 실제 위치를 회전시킬 수도 있다.
구체적으로는, 랜드마크등록(S240), 표면등록(S260) 및 3D 깊이단계(S280) 중 하나 이상이 선택적으로 실행될 수 있다. 이러한 랜드마크등록(S240), 표면등록(S260) 및 3D 깊이단계(S280)는 공지의 방법이 될 수 있으며, 그 밖에도 공지의 정렬 방법이 사용될 수 있다.
랜드마크등록(S240)는 복수개(예 3개 ~ 6개)의 마커가 부착된 MRI 영상(10)과 복수개의 마커가 부착된 환자(50) 사이에서 마커끼리 일치시키는 과정이다. 구체적으로는 도 8a과 같은 랜드마크 등록의 제 1 과정과 제 2 과정으로 설명된다.
도 8a에 도시된 바와 같이 환자(50)의 머리에 부착된 복수의 마커를 광학추적항법센서(Vicra, 60)가 인식하여 제 2 기준위치오차(Fiducial Localization Error, 110)가 지정된다. 그리고 도 8b에 도시된 바와 같이, MRI 영상(10) 상에 표시된 복수의 마커에 의해 제 1 기준위치오차(100)가 지정된다. 이러한 제 1, 2 기준위치오차(100, 110)를 대응점으로 일치시킴으로서 타켓 등록오차(Target Registration Error, 120)가 최소가 되도록 한다.
표면등록(Surface Registration, S260)은 3D 카메라(80)가 촬영한 실제 환자의 영상(70)을 3차원의 MRI 영상(10)과 일치시키는 방식이다. 도 9a와 도 9b는 표면등록 과정의 설명도이다.
3D 깊이단계(S280)는 MRI영상(10)과 CT 영상(12)에 기초하여 구축된 3D 메쉬영상을 환자와 일치시키는 방식이다. 도 10a는 3D 깊이등록 과정의 제 1 설명도이고, 도 10b는 3D 깊이등록 과정에 따른 융합영상(130)의 일예이다. 이때, 환자 얼굴의 신체적 특징(예 : 눈, 코, 광대 등)을 신체 마커로 삼아 3D 메쉬 영상과 일치시킨다.
트랙킹(S300) : 도 12와 같은 제 2 프로그램(140)의 시뮬레이션 영상(200)의 트랜스듀서의 위치에 따라 환자의 실제 트랜스듀서의 위치를 일치하도록 정렬한다. 정렬 후 별도의 장치나 지그를 통해 실제 트랜스듀서를 고정한다.
소닉케이션(S320) : 실제 트랜스듀서를 동작시켜 환자의 뇌 내부로 초음파를 조사한다. 이러한 초음파 조사를 통해 환자의 질병(예 : 우울증)을 치료하거나 증상 완화의 효과를 얻을 수 있다.
실시간 시뮬레이션(S340) : 초음파를 발생하는 실제 트랜스듀서의 전압 및 전류 정보를 실시간으로 반영하여 시뮬레이션 영상(200)에 표시한다. 도 12는 본 발명에 따른 시뮬레이션 영상(200)의 일예이다. 치료중인 의사는 도 12와 같은 시뮬레이션 영상(200)을 보면서 치료를 진행함으로서 실시간으로 초음파 조사에 관한 상태 정보를 얻거나 확인할 수 있다. 이러한 시뮬레이션 영상(200)은 초음파가 조사되는 동안 계속 표시된다.
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.
본 발명은 초음파 뇌 치료를 위한 치료정보 표시방법에 관한 것이다.
10 : MRI 영상,
12 : CT 영상,
14 : 등록 영상,
20 : 이미지 랜드마크,
30 : 세분화 영상,
40 : 트랜스듀서의 초음파 범위,
50 : 환자,
60 : 광학추적항법센서(Vicra),
70 : 실제 환자영상,
80 : 3D 카메라,
90 : 3차원 영상,
100 : 제 1 기준위치오차,
110 : 제 2 기준위치오차,
120 : 타켓등록오차,
130 : 융합영상,
140 : 제 2 프로그램,
150 : 이미지 뷰,
160 : 정보 모니터,
170 : 제어패널,
180 : 기능 메뉴,
190 : IR 상태창,
200 : 시뮬레이션 영상.

Claims (8)

  1. 치료전에 컴퓨터에 의해,
    환자 뇌의 MRI 영상(10)과 CT 영상(12)을 결합하여 등록영상(14)을 생성하는 단계(S120);
    상기 등록영상(14) 중 상기 뇌의 각 부분을 복수의 컬러로 구분하여 표시한 세분화영상(30)을 생성하는 단계(S160); 및
    상기 세분화영상(30)에서 트랜스듀서의 위치와 초음파범위(40)를 시뮬레이션해서 표시하는 단계(S180);가 수행되어 시뮬레이션 영상을 기초로 치료의 위치와 범위를 설정할 수 있고,
    치료 중 상기 컴퓨터에 의해,
    상기 MRI 영상(10), 상기 CT 영상(12), 상기 시뮬레이션 영상 및 상기 환자의 정보를 로드하여 표시하는 단계(S220);
    상기 환자의 실제 위치와 상기 MRI 영상(10)을 정렬하는 단계(S240, S260, S280);
    상기 시뮬레이션 영상의 트랜스듀서의 위치에 따라 상기 환자의 실제 트랜스듀서의 위치를 정렬하는 단계(S300); 및
    초음파를 발생하는 상기 실제 트랜스듀서의 정보를 상기 시뮬레이션 영상(200)에 반영하여 표시하는 단계(S340);를 포함하는 것을 특징으로 하는 초음파 뇌 치료를 위한 치료정보 표시방법.
  2. 제 1 항에 있어서,
    상기 등록영상 생성단계(S120)와 상기 세분화영상(30) 생성단계(160) 사이에는, 상기 MRI영상(10)으로부터 CT 데이터를 추출하여 스컬의 두께를 확인하는 단계(S140)가 더 수행되는 것을 특징으로 하는 초음파 뇌 치료를 위한 치료정보 표시방법.
  3. 제 1 항에 있어서,
    상기 시뮬레이션의 표시단계(S180)는 상기 트랜스듀서의 위치정보, 방향정보 및 상기 트랜스듀서의 초음파 세기 정보를 표시하는 것을 특징으로 하는 초음파 뇌 치료를 위한 치료정보 표시방법.
  4. 제 1 항에 있어서,
    상기 환자 정보는 텍스트 정보인 것을 특징으로 하는 초음파 뇌 치료를 위한 치료정보 표시방법.
  5. 제 1 항에 있어서,
    상기 정렬단계(S240, S260, S280)는
    복수개의 마커가 각각 부착된 MRI 영상(10)과 환자(50)를 일치시키는 랜드마크 등록단계(S240);
    3D 카메라(80)가 촬영한 실제 환자의 영상(70)을 3차원의 MRI 영상(10)과 일치시키는 표면등록단계(S260); 및
    상기 MRI영상(10)과 상기 CT 영상(12)에 기초하여 구축된 3D 메쉬영상을 상기 환자와 일치시키는 3D 깊이단계(S280); 중 적어도 하나인 것을 특징으로 하는 초음파 뇌 치료를 위한 치료정보 표시방법.
  6. 제 1 항에 있어서,
    상기 실시간 반영 및 표시단계(S340)에서
    상기 실제 트랜스듀서의 정보는 상기 실제 트랜스듀서의 전류 및 전압 정보 중 적어도 하나인 것을 특징으로 하는 초음파 뇌 치료를 위한 치료정보 표시방법.
  7. 제 1 항에 있어서,
    상기 실시간 반영 및 표시단계(S340)는 상기 실제 트랜스듀서의 정보를 상기 시뮬레이션 영상(200)에 실시간으로 반영하여 표시하는 것을 특징으로 하는 초음파 뇌 치료를 위한 치료정보 표시방법.
  8. 제 1 항에 있어서,
    상기 트랜스듀서는 비침습적 집속형 초음파 트랜스듀서인 것을 특징으로 하는 초음파 뇌 치료를 위한 치료정보 표시방법.
PCT/KR2023/013479 2022-09-14 2023-09-08 초음파 뇌 치료를 위한 치료정보 표시방법 WO2024058497A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0115787 2022-09-14
KR1020220115787A KR102549662B1 (ko) 2022-09-14 2022-09-14 초음파 뇌 조사를 위한 조사정보 표시방법

Publications (1)

Publication Number Publication Date
WO2024058497A1 true WO2024058497A1 (ko) 2024-03-21

Family

ID=86959493

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/013479 WO2024058497A1 (ko) 2022-09-14 2023-09-08 초음파 뇌 치료를 위한 치료정보 표시방법

Country Status (2)

Country Link
KR (1) KR102549662B1 (ko)
WO (1) WO2024058497A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102549662B1 (ko) * 2022-09-14 2023-06-30 주식회사 뉴로소나 초음파 뇌 조사를 위한 조사정보 표시방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110098153A (ko) * 2010-02-26 2011-09-01 성균관대학교산학협력단 초음파를 이용한 항암치료 방법 및 항암치료 장치
KR20130015146A (ko) * 2011-08-02 2013-02-13 삼성전자주식회사 의료 영상 처리 방법 및 장치, 영상 유도를 이용한 로봇 수술 시스템
KR20140130888A (ko) * 2013-05-02 2014-11-12 삼성메디슨 주식회사 대상체의 변화 정보를 제공하는 초음파 시스템 및 방법
KR20200104103A (ko) * 2019-02-26 2020-09-03 삼성메디슨 주식회사 초음파 영상과 타 모달리티(modality) 영상을 정합하는 초음파 영상 장치 및 그 동작 방법
KR102549662B1 (ko) * 2022-09-14 2023-06-30 주식회사 뉴로소나 초음파 뇌 조사를 위한 조사정보 표시방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100784117B1 (ko) 2006-01-25 2007-12-12 주식회사 에스앤지바이오텍 두개골 매입형 초음파 24시간 뇌감시장치
KR20190047251A (ko) 2017-10-27 2019-05-08 (주)헬스허브 초음파 안내하의 뇌 치료용 플랫폼

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110098153A (ko) * 2010-02-26 2011-09-01 성균관대학교산학협력단 초음파를 이용한 항암치료 방법 및 항암치료 장치
KR20130015146A (ko) * 2011-08-02 2013-02-13 삼성전자주식회사 의료 영상 처리 방법 및 장치, 영상 유도를 이용한 로봇 수술 시스템
KR20140130888A (ko) * 2013-05-02 2014-11-12 삼성메디슨 주식회사 대상체의 변화 정보를 제공하는 초음파 시스템 및 방법
KR20200104103A (ko) * 2019-02-26 2020-09-03 삼성메디슨 주식회사 초음파 영상과 타 모달리티(modality) 영상을 정합하는 초음파 영상 장치 및 그 동작 방법
KR102549662B1 (ko) * 2022-09-14 2023-06-30 주식회사 뉴로소나 초음파 뇌 조사를 위한 조사정보 표시방법

Also Published As

Publication number Publication date
KR102549662B1 (ko) 2023-06-30

Similar Documents

Publication Publication Date Title
US7343189B2 (en) Method and device for placing a patient repeatedly into the same relative position
WO2020185048A2 (ko) C-arm 기반의 의료영상 시스템 및 2d 이미지와 3d 공간의 정합방법
WO2024058497A1 (ko) 초음파 뇌 치료를 위한 치료정보 표시방법
WO2018056544A1 (ko) 치과 수술용 증강현실 시스템 및 구현방법
US20180263698A1 (en) Image registration and augmented reality system and method augmented reality thereof
Ohayon et al. MR-guided stereotactic navigation
CN110478036A (zh) 用于集成手术台的系统和方法
WO2013062348A1 (ko) 수술영상의 정합 방법
WO2012081743A1 (ko) 방사선치료계획 평가장치 및 평가방법
CA2976391C (en) System and method for intraoperative characterization of brain function using input from a touch panel device
CN111870825A (zh) 基于虚拟智能医疗平台的放射治疗精确逐野摆位方法
WO2017222274A2 (ko) 라인레이저가 장착된 엔드이펙터
WO2017043924A1 (ko) 의료영상을 사용하는 중재시술 가이드 방법 및 이를 위한 중재시술 시스템
EP4129225A1 (en) Operation plan determination method and apparatus, and storage medium
WO2019132244A1 (ko) 수술 시뮬레이션 정보 생성방법 및 프로그램
Jiang et al. Optical positioning technology of an assisted puncture robot based on binocular vision
Şen et al. System integration and preliminary in-vivo experiments of a robot for ultrasound guidance and monitoring during radiotherapy
Ding et al. Semiautomatic registration of pre-and postbrain tumor resection laser range data: method and validation
WO2012036351A1 (ko) 방사선치료계획 평가장치 및 평가방법
JP2001259060A (ja) 患者位置ずれ計測方法、装置、及び、これを用いた患者位置決め方法、装置、並びに放射線治療装置
JP4614957B2 (ja) 解剖学的なターゲットの場所を特定するための磁気共鳴画像の使用
WO2021071306A1 (ko) 세기 조절 방사선 치료를 위한 방사선 치료 계획 수립 장치 및 방법
WO2022164300A1 (ko) 3차원 영상데이터를 이용한 실험동물용 집속초음파 조사장치
TWI787659B (zh) 醫用影像處理裝置、醫用影像處理程式、醫用裝置及治療系統
WO2019074152A1 (ko) 안구의 이미지 분석 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23865795

Country of ref document: EP

Kind code of ref document: A1