KR20240063385A - Skin marker position detection system - Google Patents
Skin marker position detection system Download PDFInfo
- Publication number
- KR20240063385A KR20240063385A KR1020220144959A KR20220144959A KR20240063385A KR 20240063385 A KR20240063385 A KR 20240063385A KR 1020220144959 A KR1020220144959 A KR 1020220144959A KR 20220144959 A KR20220144959 A KR 20220144959A KR 20240063385 A KR20240063385 A KR 20240063385A
- Authority
- KR
- South Korea
- Prior art keywords
- skin
- skin marker
- marker
- reference point
- center point
- Prior art date
Links
- 239000003550 marker Substances 0.000 title claims abstract description 68
- 238000001514 detection method Methods 0.000 title claims description 12
- 238000000034 method Methods 0.000 abstract description 31
- 238000010801 machine learning Methods 0.000 abstract description 25
- 238000011282 treatment Methods 0.000 abstract description 18
- 230000000638 stimulation Effects 0.000 abstract description 5
- 238000002560 therapeutic procedure Methods 0.000 abstract description 3
- 239000012237 artificial material Substances 0.000 abstract 1
- 210000001519 tissue Anatomy 0.000 description 23
- 230000011218 segmentation Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 6
- 238000002600 positron emission tomography Methods 0.000 description 4
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 238000011491 transcranial magnetic stimulation Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000002603 single-photon emission computed tomography Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 241000700608 Sagitta Species 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 210000001175 cerebrospinal fluid Anatomy 0.000 description 1
- 238000007408 cone-beam computed tomography Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000004884 grey matter Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002610 neuroimaging Methods 0.000 description 1
- 238000011369 optimal treatment Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000001959 radiotherapy Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 210000003491 skin Anatomy 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 210000004885 white matter Anatomy 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N1/00—Electrotherapy; Circuits therefor
- A61N1/18—Applying electric currents by contact electrodes
- A61N1/32—Applying electric currents by contact electrodes alternating or intermittent currents
- A61N1/36—Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
- A61N1/36014—External stimulators, e.g. with patch electrodes
- A61N1/3603—Control systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N1/00—Electrotherapy; Circuits therefor
- A61N1/02—Details
- A61N1/04—Electrodes
- A61N1/0404—Electrodes for external use
- A61N1/0472—Structure-related aspects
- A61N1/0476—Array electrodes (including any electrode arrangement with more than one electrode for at least one of the polarities)
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Robotics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Image Analysis (AREA)
Abstract
전기 자극 요법에 대한 치료계획시스템은 3차원 모델에 대한 전극 패드의 위치 및 각도를 결정하는 경우가 많다. 그러나, 실제 대상체의 피부 표면에서 해당 위치와 각도를 찾아 전극 패드를 부착하는 작업은 쉬운 일이 아니며, 따라서 전극 패드의 위치 및 각도 정보를 제공하는 전극 가이드 시스템의 보조가 필요하다. 전극 가이드 시스템의 핵심은 대상체와 3차원 모델에 동일하게 대응하는 레퍼런스 좌표계의 제공이다. 본 발명에서는 스킨 마커 또는 정위적 장치를 대상체의 표면에 부착하고 측정한 의료영상을 미리 훈련된 기계 학습 시스템에 입력함으로써 스킨 마커 또는 정위적 장치의 중심점에 대한 좌표를 3차원 모델의 표면에 출력함으로써 레퍼런스 좌표계를 제공하는 방법이 게시된다.
AI를 이용하여 대상체의 스킨 마커를 식별하는 방법이 제공된다. 상기 스킨 마커는 인체 내부에서 발견할 수 있는 자연적인 스킨 마커와 인공물로 제작된 인공 스킨 마커를 포함한다.Treatment planning systems for electrical stimulation therapy often determine the position and angle of electrode pads relative to a three-dimensional model. However, finding the position and angle on the skin surface of an actual subject and attaching the electrode pad is not an easy task, and therefore, assistance from an electrode guide system that provides position and angle information of the electrode pad is required. The core of the electrode guide system is the provision of a reference coordinate system that equally corresponds to the object and the three-dimensional model. In the present invention, a skin marker or stereotactic device is attached to the surface of an object, the measured medical image is input into a pre-trained machine learning system, and the coordinates of the center point of the skin marker or stereotactic device are output to the surface of a three-dimensional model. A method for providing a reference coordinate system is published.
A method for identifying skin markers of an object using AI is provided. The skin markers include natural skin markers that can be found inside the human body and artificial skin markers made from artificial materials.
Description
본 발명은 스킨 마커 좌표 검출 시스템을 이용하여, 전기 자극 요법을 위한 스킨 마커의 중심점에 기반하여 조직 유형의 표면에 중심점을 이동시키고 좌표를 검출하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for moving a center point and detecting coordinates on the surface of a tissue type based on the center point of a skin marker for electrical stimulation therapy, using a skin marker coordinate detection system.
경두개 직류 자극술(Transcranial direct current stimulation, 이하 tDCS), 경두개 자기 자극술(Transcranial magnetic stimulation, 이하 TMS), 전기장 종양 치료술(Tumor-treating fields, 이하 TTFields) 등의 전기 자극 요법은 비침습적 치료 방법으로, 자극을 가하는 위치 및 자극의 세기에 따라 다양한 질환을 치료하는 데 널리 이용되고 있다. tDCS, TMS, TTFields 치료는 치료계획시스템 소프트웨어를 통하여 환자 개인 특성에 맞춘 최적의 치료계획을 생성할 수 있다. 하지만 치료계획시스템에서 결정된 치료계획 상의 전극 어레이의 위치와 각도를 실제 환자에게 부착될 위치와 각도에 정확하게 매핑할 수 있는 수단이 부재하여 의사가 정확한 위치와 각도에 전극 어레이를 부착하여 시술하기 어려운 문제점이 있다. 따라서, 치료 효과를 높이고, 안전성을 높이고 위험을 낮추기 위해서는 위치와 각도를 동시에 고려하여 전극 어레이를 의도한 대로 부착하는 방법이 필요하다. 여기서 의료용 스킨 마커를 이용하여 전극 어레이를 부착하게 되는데, 스킨 마커를 의료영상에서 식별할 수 있지만, 스킨 마커에 기반한 좌표를 사용함으로써 실제 환자에 부착되는 위치는 상이하다. 따라서 스킨 마커에 기반한 중심점을 환자 몸 위의 중심점으로 검출하는 시스템이 필요하다. Electrical stimulation therapies such as transcranial direct current stimulation (tDCS), transcranial magnetic stimulation (TMS), and tumor-treating fields (TTFields) are non-invasive treatment methods. , It is widely used to treat various diseases depending on the location and intensity of stimulation. tDCS, TMS, and TTFields treatments can create an optimal treatment plan tailored to the patient's individual characteristics through treatment planning system software. However, there is no means to accurately map the position and angle of the electrode array in the treatment plan determined in the treatment planning system to the position and angle to be attached to the actual patient, making it difficult for doctors to perform the procedure by attaching the electrode array to the correct position and angle. There is. Therefore, in order to increase treatment effectiveness, increase safety, and reduce risk, a method of attaching the electrode array as intended is needed while simultaneously considering location and angle. Here, the electrode array is attached using a medical skin marker. Although the skin marker can be identified in the medical image, the location where it is actually attached to the patient is different because coordinates based on the skin marker are used. Therefore, a system that detects the center point based on the skin marker as the center point on the patient's body is needed.
본 발명이 해결하고자 하는 과제는 스킨 마커 좌표 검출 시스템을 제공하는 것이다.The problem to be solved by the present invention is to provide a skin marker coordinate detection system.
마커 위치 검출 시스템은 대상에 제 1 기준점 표시 단계;, 기준점에 기반한 스킨 마커 부착 단계;, 스킨 마커가 포함된 의료 영상 획득 단계를 포함하는 데이터 입력단계, 머신러닝 의료 영상 입력 단계;, 머신 러닝 학습 단계;를 포함하는 데이터 생성 단계, 스킨 마커와 생체 조직 분할데이터 획득 단계;, 분할 데이터에 기반한 스킨 마커 중심점 획득 단계;, 상기 획득한 중심점에 기반한 제2 기준점 검출 단계;를 포함하는 데이터 획득 단계, 학습된 머신 러닝을 이용한 스킨 마커와 생체 조직 분할데이터 출력 단계;, 스킨 마커의 제2 기준점 정보 출력 단계;를 포함하는 데이터 출력 단계를 포함한다.The marker position detection system includes the following steps: marking a first reference point on an object; attaching a skin marker based on the reference point; acquiring a medical image including a skin marker; inputting a machine learning medical image; learning machine learning. A data generation step including; A step of acquiring skin marker and biological tissue segmentation data; A step of acquiring a center point of a skin marker based on the segmentation data; A step of detecting a second reference point based on the obtained center point; A data acquisition step including; It includes a data output step including a step of outputting skin marker and biological tissue segmentation data using learned machine learning; and a step of outputting second reference point information of the skin marker.
본 발명의 일 실시예에 있어서, 제1 기준점의 표시는 일시적인 타투, 타투, 스티커, 스킨 마커를 포함한다.In one embodiment of the present invention, the indication of the first reference point includes a temporary tattoo, tattoo, sticker, or skin marker.
본 발명의 일 실시예에 있어서, 스킨 마커의 중심점을 표시하는 방법에 있어서, 대상에 표시하는 중심점의 개수는 1개 이상으로, 스킨 마커의 중심점을 표시하는 방법에 있어서, 사용될 수 있는 중심점으로 표시된 제1 기준점을 수직으로 봤을 때의 중심점, 스킨 마커의 무게중심을 포함할 수 있다.In one embodiment of the present invention, in the method of displaying the center point of a skin marker, the number of center points displayed on the object is one or more, and in the method of displaying the center point of the skin marker, the number of center points displayed as the center point that can be used is It may include the center point when the first reference point is viewed vertically and the center of gravity of the skin marker.
본 발명의 일 실시예에 있어서, 의료 영상(CT, MRI, CT, PET, SPECT, FMRI(Functional MRI)에서 중심점을 식별 하기위한 방법으로 마커의 크기, 모양, 강도로 위치를 식별하는 방법을 포함할 수 있다.In one embodiment of the present invention, a method for identifying the center point in medical images (CT, MRI, CT, PET, SPECT, FMRI (Functional MRI)) includes a method of identifying the location based on the size, shape, and intensity of the marker. can do.
본 발명의 일실시예에 있어서, 의료 영상을 획득하는 방법에 있어서, 의료 영상은 MRI, CT, PET, SPECT, FMRI(Functional MRI)를 포함할 수 있다.In one embodiment of the present invention, in the method of acquiring a medical image, the medical image may include MRI, CT, PET, SPECT, and FMRI (Functional MRI).
본 발명에 따르면, 스킨 마커를 포함한 의료영상을 획득하고, 머신러닝을 이용하여 조직유형과 스킨 마커의 모델을 만들고 이를 기초로 중심점의 좌표를 분할된 조직 유형 표면의 좌표를 검출함으로써, 정확한 위치에 전극을 부착할 수 있으며, 치료계획의 전극 부착위치와 대상의 전극 부착 위치를 일치시킬 수 있다.According to the present invention, medical images including skin markers are acquired, a model of the tissue type and skin marker is created using machine learning, and based on this, the coordinates of the center point are detected and the coordinates of the segmented tissue type surface are accurately located. Electrodes can be attached, and the electrode attachment location of the treatment plan can be matched with the electrode attachment location of the target.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도 1은 본 실시예에 따른 스킨 마커 좌표 검출 시스템을 설명하는 흐름도이다.
도 2는 현 기술의 문제점을 도시하는 그림이다.
도 3은 본 연구의 목적에 따라 제2 기준점을 검출하는데 있어서, 기존의 머신러닝 기술은 스킨 마커를 조직유형(피부)으로 분류하기 때문에, 스킨 마커의 중심점을 찾을 수 없음을 도시한다.
도 4는 본 발명의 단계가 (1) 분할 단계(segmentation Stage)와 (2) 기준점 검출 단계(Fine Stage)로 구성되는 것을 설명하는 그림이다.
도 5은 스킨 마커 중심점의 한점을 피부 위의 한점으로 이동시키는 과정(Projection)을 도식화 한 그림이다.
도 6는 본 발명에서 제시한 방법을 이용하여 의료 영상에서 검출된 스킨 마커, 스킨 마커의 중심점(The Feature Point of Skin Marker), 검출된 제2 기준점(The Second Reference Point on the Skin)을 도시하는 그림이다.
도 7은 상기 검출된 제2 기준점이 사용되는 예를 도시하고 있는 그림이다.
도 8는 사용자에게 출력되는 데이터 출력 단계를 도시한 그림이다.
도 9는 제2 기준점을 검출하는데 머신러닝을 적용하는데 있어서, 두가지 방법을 도시한다.1 is a flowchart explaining a skin marker coordinate detection system according to this embodiment.
Figure 2 is a diagram showing a problem with current technology.
Figure 3 shows that in detecting the second reference point for the purpose of this study, the center point of the skin marker cannot be found because the existing machine learning technology classifies the skin marker by tissue type (skin).
Figure 4 is a diagram explaining that the stage of the present invention consists of (1) a segmentation stage and (2) a reference point detection stage (Fine Stage).
Figure 5 is a diagram illustrating the process (projection) of moving a point of the center point of a skin marker to a point on the skin.
Figure 6 shows the skin marker, the center point of the skin marker (The Feature Point of Skin Marker), and the detected second reference point (The Second Reference Point on the Skin) detected in the medical image using the method presented in the present invention. It's a picture.
Figure 7 is a diagram showing an example in which the detected second reference point is used.
Figure 8 is a diagram showing the data output step to be output to the user.
Figure 9 shows two methods for applying machine learning to detect the second reference point.
도 1은 본 실시예에 따른 스킨 마커 좌표 검출 시스템을 설명하는 흐름도이다.1 is a flowchart explaining a skin marker coordinate detection system according to this embodiment.
본 방법은 크게 데이터 입력 단계, 데이터 생성 단계, 데이터 획득 단계, 데이터 출력으로 구분되며 데이터 입력 단계는 기준점에 기반한 스킨 마커 부착 단계, 기준점에 기반한 스킨 마커 부착 단계, 스킨 마커가 포함된 의료 영상 획득 단계로 구분되며, 제 1 기준점 표시 단계는 대상의 몸 위에 치료계획에 사용되는 기준점을 표시하는 단계로, 1개 혹은 그 이상이 표시될 수 있다. 기준점에 기반한 스킨 마커 부착 단계;는 상기 표시된 기준점 위에 스킨 마커를 부착한다. 스킨 마커는 의료영상에서 식별이 가능함으로 제1 기준점을 식별하기 위한 특징점을 얻기 위해 사용된다. 스킨 마커가 포함된 영상 획득 단계는 의료 영상에 스킨 마커가 부착된 상태로 촬영한 의료 영상을 획득한다.This method is largely divided into a data input step, a data generation step, a data acquisition step, and a data output step. The data input step is a skin marker attachment step based on a reference point, a skin marker attachment step based on a reference point, and a medical image acquisition step including a skin marker. It is divided into, and the first reference point marking step is a step of marking reference points used in the treatment plan on the subject's body, and one or more may be displayed. A step of attaching a skin marker based on a reference point attaches a skin marker on the marked reference point. Since skin markers can be identified in medical images, they are used to obtain feature points to identify the first reference point. In the image acquisition step including a skin marker, a medical image captured with a skin marker attached to the medical image is acquired.
데이터 생성 단계는 머신러닝 의료 영상 입력 단계, 머신러닝 학습 단계로 이루어져 있으며, 머신 러닝 학습 단계는 의료영상을 이용하여 조직유형으로 분할된 데이터를 생성하는 머신러닝 모델을 만드는 단계이다. 상기 생성된 머신러닝 모델은 머신러닝 의료 영상 입력 단계로 전달되어지며 머신러닝 학습 단계로부터 생성된 모델을 저장하고, 새로운 데이터가 들어오면 저장된 모델을 사용하여 학습에 따른 결과를 제공한다. The data generation step consists of a machine learning medical image input step and a machine learning learning step. The machine learning learning step is a step to create a machine learning model that generates data divided by tissue type using medical images. The generated machine learning model is passed to the machine learning medical image input stage, the model created from the machine learning learning stage is stored, and when new data comes in, the stored model is used to provide results according to learning.
데이터 획득 단계는 스킨마커와 생체 조직 분할데이터 획득 단계와 분할데이터에 기반한 스킨 마커 중심점 회득 단계, 상기 획득한 중심점에 기반한 제 2 기준점 검출 단계로 이루어져 있다. 스킨 마커와 생체 조직 분할데이터 획득 단계는 학습된 머신러닝을 사용하여 상기 획득한 스킨 마커가 포함된 의료영상을 입력하고, 생체 조직 분할데이터를 획득한다. 획득 분할데이터는 생체조직(피부, 두개골, 뇌척수액, 회백질, 백질 등)과 스킨 마커가 구분되어진다. 또한 이렇게 분할된 조직 분할 데이터를 사용하여 3차원의 관심 볼륨 영역(스킨 마커, 생체 조직)으로 만들 수 있다. 분할데이터에 기반한 스킨 마커 중심점 획득 단계는 상기 획득한 분할 데이터를 이용하여, 중심점을 검출해 내는 단계로, 여기서 중심점이란 스킨 마커를 표현할 수 있는 한 점을 의미한다. 구체적으로 무게중심, 경계박스의 중심점을 포함할 수 있다. 이러한 중심점은 수학적인 수식이나, 볼륨 데이터를 이용하여 검출할 수 있다. 상기 획득한 중심점에 기반한 제2 기준점 검출 단계)는 상기 획득한 스킨 마커 중심점에 기반하여 조직 유형으로 분할된 데이터 위의 제2 기준점을 검출하는 단계로, 본 실시 예에서는 프로젝션(Projection)을 이용하여 마커에 기반한 제2 기준점을 검출하였다. 이렇게 검출된 제2 기준점의 좌표는 치료계획시스템에서 사용될 수 있으며, 제2 기준점을 기준으로 전극 또는 전극 어레이의 위치좌표를 생성할 수 있다.The data acquisition step consists of a skin marker and biological tissue segmentation data acquisition step, a skin marker center point acquisition step based on the segmentation data, and a second reference point detection step based on the obtained center point. In the skin marker and biological tissue segmentation data acquisition step, learned machine learning is used to input a medical image containing the obtained skin marker and obtain biological tissue segmentation data. The acquired segmented data is divided into biological tissues (skin, skull, cerebrospinal fluid, gray matter, white matter, etc.) and skin markers. Additionally, this segmented tissue segmentation data can be used to create a three-dimensional volume area of interest (skin marker, biological tissue). The step of acquiring the center point of the skin marker based on the segmentation data is a step of detecting the center point using the obtained segmentation data. Here, the center point means a point that can represent the skin marker. Specifically, it may include the center of gravity and the center point of the bounding box. This center point can be detected using mathematical formulas or volume data. The second reference point detection step based on the obtained center point is a step of detecting the second reference point on the data divided into tissue types based on the acquired skin marker center point. In this embodiment, projection is used to detect the second reference point. A second reference point based on the marker was detected. The coordinates of the second reference point detected in this way can be used in the treatment planning system, and the position coordinates of the electrode or electrode array can be generated based on the second reference point.
데이터 출력 단계는 학습된 머신 러닝을 이용한 스킨 마커와 생체 조직 분할데이터 출력 단계, 스킨 마커의 제 2 기준점 정보 출력 단계로 이루어져 있으며, 학습된 머신 러닝을 이용한 스킨 마커와 생체 조직 분할데이터 출력 단계는 상기 데이터 획득 단계의 스킨 마커와 생체 조직 분할데이터 획득 단계에서 획득한 분할데이터를 출력하는 단계이다. 출력은 3D Volume Mesh 형태 또는 Axial, Coronal, Sagitta과 같은 평면 형태로 출력될 수 있다, 스킨 마커의 제2 기준점 정보 출력 단계는 상기 획득한 제 2 기준점을 출력하는 단계로 검츌된 제2 기준점의 정보를 사용자에게 출력함으로써 제2 기준점의 좌표는 치료계획시스템에서 사용될 수 있으며, 제2 기준점을 기준으로 전극 또는 전극 어레이의 위치좌표를 생성할 수 있다.The data output step consists of a skin marker and biological tissue segmentation data output step using learned machine learning, and a second reference point information output step of the skin marker. The skin marker and biological tissue segmentation data output step using learned machine learning is described above. This is the step of outputting the skin markers of the data acquisition step and the segmentation data obtained in the biological tissue segmentation data acquisition step. The output can be output in the form of a 3D Volume Mesh or in a flat form such as Axial, Coronal, or Sagitta. The step of outputting the second reference point information of the skin marker is the step of outputting the obtained second reference point, and information on the detected second reference point. By outputting to the user, the coordinates of the second reference point can be used in the treatment planning system, and the position coordinates of the electrode or electrode array can be generated based on the second reference point.
도 2은 현 기술의 문제점을 도시하는 그림으로, 일반적으로 스킨 마커가 사용되는 방법은 대상의 몸체에 표시(영구적 타투, 일시적 타투, 스티커 등을 이용한다)를 하고 그 위에 스킨 마커를 부착한다, 그 다음, 스킨 마커를 포함한 의료 영상을 입력받아, DICOM Software(치료계획 소프트웨어 등)에서 마커를 식별하여 스킨 마커를 기준점으로 하여 치료계획을 생성을 한다. 하지만 의료영상에서 스킨 마커만 식별됨으로, 치료계획시뮬레이션에서는 실제 대상에게 전극을 부착하는 전극 또는 전극 어레이의 위치를 계산해야하는데, 스킨 마커의 경우 3D Volume이기 때문에 여러개의 점으로 표현된다. 이러한 문제로 서로 부착하는 기준점이 다르기 때문에 정확도에 있어서 문제가 발생하며 (A)는 이러한 의료영상에서 스킨 마커는 식별이되지만, 몸체에 표시는 식별되지 않음을 도시한다. (B)는 스킨 마커가 의료 영상에서 한 점으로 표현될 수 없음을 도시한다. 본 실시 예에서는 스킨 마커가 포함된 의료 영상(Magnetic Resonant Imaging, MIR)을 도시하며, 총 9개의 슬라이드에서 스킨 마커가 식별됐음을 보여준다. 이를 통해 몸체에 표시는 한점으로 표현되지만, 스킨 마커는 3D Volume을 갖음으로, 의료영상에서 여러개의 슬라이스에서 표현됨을 도시하고 있다. Figure 2 is a picture showing the problem of the current technology. In general, the method in which skin markers are used is to mark the body of the object (permanent tattoos, temporary tattoos, stickers, etc.) and attach a skin marker thereon. Next, the medical image including the skin marker is input, the marker is identified in DICOM Software (treatment planning software, etc.), and a treatment plan is created using the skin marker as a reference point. However, since only skin markers are identified in medical images, the location of the electrode or electrode array that attaches the electrode to the actual target must be calculated in treatment planning simulation. In the case of skin markers, because they are 3D volumes, they are expressed as multiple points. Due to this problem, there is a problem in accuracy because the reference points for attachment are different, and (A) shows that in this medical image, skin markers are identified, but marks on the body are not. (B) shows that the skin marker cannot be expressed as a single point in a medical image. This example shows a medical image (Magnetic Resonant Imaging, MIR) containing skin markers, and shows that skin markers were identified in a total of 9 slides. Through this, the mark on the body is expressed as a single point, but the skin marker has a 3D volume and is expressed in multiple slices in the medical image.
도 3는 본 연구의 목적에 따라 제2 기준점을 검출하는데 있어서, 기존의 머신러닝 기술은 스킨 마커를 조직유형(피부)으로 분류하기 때문에, 스킨 마커의 중심점을 찾을 수 없음을 도시한다. (A)는 머신러닝의 결과물로써, 횡단면에서 봤을 때 스킨 마커도 인체의 외곽조직(External)에 포함됨을 보여준다. (B)는 상기 결과물을 3D Model으로 봤을 때, 인체 외곽조직(External)에 스킨 마커가 포함 되었음을 도시한다.Figure 3 shows that in detecting the second reference point for the purpose of this study, the center point of the skin marker cannot be found because the existing machine learning technology classifies the skin marker by tissue type (skin). (A) is the result of machine learning and shows that skin markers are also included in the external tissue of the human body when viewed in cross section. (B) shows that skin markers are included in the external tissue of the human body when looking at the above result as a 3D model.
도 4를 참조하면, 본 발명은 단계는 (1) 분할 단계(segmentation Stage)와 (2) 기준점 검출 단계(Fine Stage)로 구성된다. (1) 초기 분할 단계는 의료 영상 데이터 전처리 단계 및 머신러닝 (convolutional neural network) 딥러닝 모델을 이용한 3차원 관심 볼륨 영역 (VOI; Volume of Interest) 자동 추출 단계 단계로 구성된다. (2) 중심점 검출 단계는 상기 생성한 관심 볼륨 영역 중 마커와 조직 유형으로 구분하고, 스킨 마커의 중심점을 조직 유형의 최외각에 새로운 제2 기준점을 생성한다. 여기서 중심점은 스킨 마커와 최외각 면(External)의 수직면 위에서 바라보았을 때의 중심점을 포함한다. 새로운 제2 기준점을 생성하는 방법으로 프로젝션 방법이 있으며, 3차원 공간에서의 프로젝션을 포함한다. 이때, 3차원 볼륨 의료 영상 데이터는 CT, CBCT, MRI 및 PET(Positron Emission Tomography) 중 하나가 될 수 있으며, 이 외에 환자의 해부학적 구조가 3차원 볼륨 데이터로 획득되는 어떤 의료 영상 데이터도 가능하다. 검출하고자 하는 환자의 해부학적 중심점은 3차원 볼륨 의료 영상 데이터에 포함된 어떤 중심점도 가능하며, 모든 타겟 중심점에 대해 별도의 처리 없이 동일한 제안 방법을 적용하여 중심점을 자동 검출하는 방법을 포함한다. Referring to FIG. 4, the present invention consists of (1) a segmentation stage and (2) a reference point detection stage (Fine Stage). (1) The initial segmentation step consists of a medical image data preprocessing step and a 3D volume of interest (VOI) automatic extraction step using a machine learning (convolutional neural network) deep learning model. (2) In the center point detection step, the volume of interest created above is divided into markers and tissue types, and the center point of the skin marker is used to create a new second reference point at the outermost edge of the tissue type. Here, the center point includes the skin marker and the center point when viewed from above the vertical plane of the outermost surface (External). There is a projection method as a method of creating a new second reference point, and it includes projection in three-dimensional space. At this time, the 3D volume medical image data can be one of CT, CBCT, MRI, and PET (Positron Emission Tomography), and any medical image data in which the patient's anatomical structure is obtained as 3D volume data is also possible. . The anatomical center point of the patient to be detected can be any center point included in the 3D volume medical image data, and includes a method of automatically detecting the center point by applying the same proposed method to all target center points without separate processing.
도 5은 스킨 마커 중심점의 한점을 피부 위의 한점으로 이동시키는 과정(Projection)을 도식화 한 그림으로, 수식은 다음과 같이 표현될 수 있다.Figure 5 is a diagram illustrating the process (projection) of moving a point at the center point of a skin marker to a point on the skin, and the formula can be expressed as follows.
벡터 표기법에서 평면은 다음과 같이 p와 같은 점들의 집합으로 표현될 수 있다.In vector notation, a plane can be expressed as a set of points such as p as follows.
n은 평면에 대한 노말 벡터로, P0는 평면 위의 점으로 표현된다. (표기법 AB는 벡터의 점 곱을 나타낸다.n is the normal vector for the plane, and P0 is expressed as a point on the plane. (Notation A B represents the point product of vectors.
선에 대한 벡터 방정식은 다음과 같이 표현될 수 있다.The vector equation for a line can be expressed as:
l은 선의 방향에 있는 벡터이고, I0는 선상 위의 점이고, d는 실수이다. 선에 대한 방정식을 평면의 방정식으로 대체하면l is a vector in the direction of the line, I0 is a point on the line, and d is a real number. Substituting the equation for the line into the equation for the plane gives us
이를 확장하면,Expanding this,
정리하여 d에 대해 나타내면 다음과 같은 식으로 정리된다.If we summarize and express it for d, it is organized as follows.
위의 식을 사용하여 백터와 평면상의 교차점을 찾을 수 있다. 따라서 상기 공식을 적용하여 스킨 마커의 중심점으로부터 제2 기준점을 구할 수 있다.Using the formula above, you can find the intersection point between the vector and the plane. Therefore, the second reference point can be obtained from the center point of the skin marker by applying the above formula.
도 6는 본 발명에서 제시한 방법을 이용하여 의료 영상에서 검출된 스킨 마커, 스킨 마커의 중심점(The Feature Point of Skin Marker), 검출된 제2 기준점(The Second Reference Point on the Skin)을 도시하는 그림이다. Figure 6 shows the skin marker, the center point of the skin marker (The Feature Point of Skin Marker), and the detected second reference point (The Second Reference Point on the Skin) detected in the medical image using the method presented in the present invention. It's a picture.
도 7은 상기 검출된 제2 기준점이 사용되는 예를 도시하고 있는 그림으로, 전기장 치료계획소프트웨어에서 상기 방법으로 검출한 제2 기준점(The Second Reference Point on the Skin)을 기준으로 전극의 중심점(Center Point of the electrode arrangement)의 좌표를 검출할 수 있다. 이를 통하여 스킨 마커를 사용하여 전극의 위치를 표시하는 여러명의 사용자가 통일된 좌표를 사용할 수 있다. 결과적으로, 표시된 제1 기준점에 기반한 의료영상에서 식별가능한 스킨 마커의 중심점에 기반하여 피부위의 제2 기준점을 검출함으로써, 치료계획의 통일성을 높일 수 있으며, 이는 치료계획과 전극 부착의 정확도를 높인다. 따라서 전문인뿐만 아니라 모든 의료인이 이 시스템을 이용하여 서로의 치료계획 결과를 공유할 수 있다.Figure 7 is a diagram showing an example of using the detected second reference point. The center point of the electrode is based on the second reference point (The Second Reference Point on the Skin) detected by the above method in the electric field treatment planning software. The coordinates of Point of the electrode arrangement can be detected. Through this, multiple users who use skin markers to indicate the location of electrodes can use unified coordinates. As a result, by detecting the second reference point on the skin based on the center point of the skin marker identifiable in the medical image based on the displayed first reference point, the unity of the treatment plan can be improved, which increases the accuracy of the treatment plan and electrode attachment. . Therefore, not only professionals but also all medical personnel can use this system to share treatment plan results with each other.
도 8는 사용자에게 출력되는 데이터 출력 단계를 도시한 그림으로,Figure 8 is a diagram showing the data output stage to be output to the user.
(A)는 검출된 중심점의 좌표를 사용자에게 출력을 도시하는 그림으로, 중심점의 정보는 마커의 위치를 나타내는 정보, 3차원 공간상에서의 좌표(x,y,z)를 포함한다. 사용자에게 출력되는 정보는 제2 기준점에 기반한 전극의 각 중심점 또는 2개 이상의 전극으로 생성된 전극 어레이의 중심점을 출력할 수 있다. (A) is a diagram showing the coordinates of the detected center point being output to the user. The center point information includes information indicating the location of the marker and coordinates (x, y, z) in three-dimensional space. Information output to the user may output the center point of each electrode based on the second reference point or the center point of the electrode array created with two or more electrodes.
(B)는 상기 검출된 분할데이터의 출력방법을 도시하는 그림으로, Axial, Sagittal, Coronal, 3D Volume Mesh로 각각 출력할 수 있으며, 출력 방법은 Contour형식의 DICOM RTSS(Radiotherapy Structure Set) 또는 NIFTI(Neuroimaging informatics Technology Initiative)형식으로 출력될 수 있다.(B) is a figure showing the output method of the detected segmented data. It can be output as Axial, Sagittal, Coronal, and 3D Volume Mesh, respectively. The output method is DICOM RTSS (Radiotherapy Structure Set) or NIFTI (Contour format). It can be output in (Neuroimaging informatics Technology Initiative) format.
도 9는 제2 기준점을 검출하는데 머신러닝을 적용하는데 있어서, 두가지 방법을 도시한다. 제2 기준점을 검출하는 방법에 있어서, 첫 번째 방법은 두 개의 머신러닝을 이용하여 2단계에 걸쳐 2개의 입력데이터, 출력데이터를 갖는다. 이렇게 머신러닝을 2단계로 나눔으로써, 스킨 마커와 조직유형으로 구획된 데이터를 사용자가 수정하거나, 다른 데이터를 입력할 수 있다. 두 번째 방법은 상기 두 단계 머신러닝을 하나로 합성한 머신러닝으로, 이는 1개의 입력데이터, 출력데이터를 가지므로, 결과적으로 하나의 입력데이터를 넣으면 최종적으로 제2 기준점이 검출됨을 도시하고있으며 이러한 방법은 빠른속도와 다양한 데이터를 처리할 수 있다.Figure 9 shows two methods for applying machine learning to detect the second reference point. In the method of detecting the second reference point, the first method uses two machine learning methods and has two input data and output data in two steps. By dividing machine learning into two stages, users can edit data divided by skin marker and tissue type or input other data. The second method is machine learning that combines the above two stages of machine learning into one. It has one input data and one output data, and as a result, it shows that when one input data is input, a second reference point is finally detected. This method It can process a variety of data at high speed.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220144959A KR20240063385A (en) | 2022-11-03 | 2022-11-03 | Skin marker position detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220144959A KR20240063385A (en) | 2022-11-03 | 2022-11-03 | Skin marker position detection system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240063385A true KR20240063385A (en) | 2024-05-13 |
Family
ID=91073600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220144959A KR20240063385A (en) | 2022-11-03 | 2022-11-03 | Skin marker position detection system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240063385A (en) |
-
2022
- 2022-11-03 KR KR1020220144959A patent/KR20240063385A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12033741B2 (en) | Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient | |
US11744465B2 (en) | Method and program for generating three-dimensional brain map | |
US11745012B2 (en) | Method and program for navigating TMS stimulation | |
JP7271000B2 (en) | Patch guide method and program | |
US11024000B2 (en) | Controlling a medical imaging system | |
EP3589355B1 (en) | Optimal deep brain stimulation electrode selection and placement on the basis of stimulation field modelling | |
JP6220310B2 (en) | Medical image information system, medical image information processing method, and program | |
US6240308B1 (en) | Method and apparatus for archiving and displaying anatomico-physiological data in a normalized whole brain mapping and imaging system | |
CN107067398B (en) | Completion method and device for missing blood vessels in three-dimensional medical model | |
US20180168730A1 (en) | System and method for medical procedure planning | |
KR101748019B1 (en) | Device and method for providing of medical information | |
CN102814002A (en) | Cerebral magnetic stimulation navigation system and cerebral magnetic stimulation coil positioning method | |
JP2019511268A (en) | Determination of rotational orientation in three-dimensional images of deep brain stimulation electrodes | |
JP6873238B2 (en) | Optimizing time-synchronized deep brain stimulation | |
CN109215104B (en) | Brain structure image display method and device for transcranial stimulation treatment | |
EP3292835B1 (en) | Ent image registration | |
CN110135454A (en) | A kind of deep learning model training method based on 3D faulted scanning pattern data set | |
NL2038192A (en) | Intelligent anesthetization system for transperineal prostate puncturing based on multimodal medical images | |
CN110148113A (en) | A kind of lesion target area information labeling method based on tomoscan diagram data | |
Yoshida et al. | Clinical planning support system-CliPSS | |
KR20240063385A (en) | Skin marker position detection system | |
CN110148114A (en) | A kind of deep learning model training method based on 2D faulted scanning pattern data set | |
WO1992022243A1 (en) | Method and apparatus for archiving and displaying anatomico-physiological data | |
EP3227859B1 (en) | Atlas-based position determination of a brain sulcus | |
Kuhn | Aim project a2003: Computer vision in radiology (covira) |