KR102453028B1 - Method for providing three-dimensional animated video using respiratory motion tracking-based lung CT images and recording medium thereof - Google Patents

Method for providing three-dimensional animated video using respiratory motion tracking-based lung CT images and recording medium thereof Download PDF

Info

Publication number
KR102453028B1
KR102453028B1 KR1020200127096A KR20200127096A KR102453028B1 KR 102453028 B1 KR102453028 B1 KR 102453028B1 KR 1020200127096 A KR1020200127096 A KR 1020200127096A KR 20200127096 A KR20200127096 A KR 20200127096A KR 102453028 B1 KR102453028 B1 KR 102453028B1
Authority
KR
South Korea
Prior art keywords
data
image
patient
maximum
image data
Prior art date
Application number
KR1020200127096A
Other languages
Korean (ko)
Other versions
KR20220043558A (en
Inventor
박표원
Original Assignee
박표원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박표원 filed Critical 박표원
Priority to KR1020200127096A priority Critical patent/KR102453028B1/en
Publication of KR20220043558A publication Critical patent/KR20220043558A/en
Application granted granted Critical
Publication of KR102453028B1 publication Critical patent/KR102453028B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/091Measuring volume of inspired or expired gases, e.g. to determine lung capacity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5288Devices using data or image processing specially adapted for radiation diagnosis involving retrospective matching to a physiological signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • General Physics & Mathematics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은 호흡 운동 추적 기반 폐 CT 영상을 이용한 3차원 애니메이션 동영상 제공 방법에 관한 것으로서, 환자에 대해 실시한 폐활량 측정에 따른 폐활량 곡선 데이터를 입력받는 단계, 상기 환자에 대해 최대 흡기시 촬영한 CT(Computed Tomography) 영상인 최대 흡기 CT 영상 데이터 및 최대 호기시 촬영한 CT 영상인 최대 호기 CT 영상 데이터를 입력받는 단계, 상기 폐활량 곡선 데이터, 상기 최대 흡기 CT 영상 데이터 및 상기 최대 호기 CT 영상 데이터를 이용하여 CT 영상을 3차원 영상으로 재건하는 단계 및 실시간으로 감지되어 입력되는 환자의 호흡운동 데이터에 따라 상기 3차원 영상을 동기화하는 방식으로 3차원 애니메이션 동영상을 제공하는 단계를 포함한다.
본 발명에 의하면, 호흡운동에 따른 환자 앞가슴 피부의 높낮이 변화를 호흡운동의 기준지표로 활용하여, 실제 환자의 호흡운동 시 내부 장기의 움직임을 3차원 CT 동영상으로 묘사하고 예측할 수 있는 효과가 있다.
The present invention relates to a method for providing a three-dimensional animation video using a lung CT image based on respiratory movement tracking, comprising the steps of: receiving spirometry curve data according to spirometry performed on a patient; Tomography) receiving maximal inspiration CT image data as images and maximal expiratory CT image data as CT images taken during peak expiration, CT using the spirometry curve data, the maximal inspiratory CT image data, and the maximal expiratory CT image data Reconstructing the image into a three-dimensional image and providing a three-dimensional animation video in a manner that synchronizes the three-dimensional image according to the patient's respiratory movement data detected and input in real time.
According to the present invention, it is possible to describe and predict the movement of internal organs during the actual patient's breathing exercise as a 3D CT video by using the change in the height of the patient's forearm skin according to the respiratory movement as a reference index of the respiratory movement.

Description

호흡 운동 추적 기반 폐 CT 영상을 이용한 3차원 애니메이션 동영상 제공 방법 및 이를 기록한 기록매체 {Method for providing three-dimensional animated video using respiratory motion tracking-based lung CT images and recording medium thereof}{Method for providing three-dimensional animated video using respiratory motion tracking-based lung CT images and recording medium thereof}

본 발명은 폐 CT 영상을 이용한 3차원 애니메이션 동영상 제공 기술에 관한 것이다. The present invention relates to a technology for providing a 3D animation video using a lung CT image.

폐암은 세계에서 가장 발생 빈도가 높은 암이고 연간 130만 명 이상을 사망에 이르게 하는 치명적인 질병이다. 우리나라에서 폐암에 의한 사망자는 2002년 12,000명을 넘어섰으며 폐암에 의한 사망률도 가장 높은 것으로 나타났다. 폐결절은 흉부방사선 영상에서 흔히 발견되며 염증성 육아종, 양성 종양, 악성 종양(폐암)등의 임상적 형태를 가진다. 따라서 폐결절의 단순 발견뿐만 아니라 폐결절의 양성/악성 여부를 판별하는 것이 폐암 조기 진단 및 신속한 치료에 매우 중요하다.Lung cancer is the most common cancer in the world and a fatal disease that kills more than 1.3 million people annually. In Korea, the death toll from lung cancer exceeded 12,000 in 2002, and the death rate from lung cancer was also the highest. Pulmonary nodules are commonly found on chest radiographs and have clinical forms such as inflammatory granulomas, benign tumors, and malignant tumors (lung cancer). Therefore, not only the simple detection of lung nodules, but also the determination of benign/malignant pulmonary nodules is very important for early diagnosis and rapid treatment of lung cancer.

폐결절의 양성/악성을 판별하는 것은 숙련된 전문가에게도 어려운 일이며, 컴퓨터 단층촬영 (CT, computed tomography)영상을 이용할 경우에도 판별 정확도가 2/3정도라고 알려져 있다. 실제 의료 현장에서는, 이러한 이유로 폐결절의 양성/악성 최종판별을 위하여 생체의 직접적인 검증에 많이 의존하는 형편이다.Distinguishing benign/malignant lung nodules is difficult even for experienced experts, and even when using computed tomography (CT) images, it is known that the identification accuracy is about 2/3. In the actual medical field, for this reason, for the final determination of benign/malignant pulmonary nodules, it is highly dependent on direct verification of the living body.

한편, 환자는 살아 있는 한 호흡을 계속 하게 되므로 환자의 호흡 상태에 따라서 폐의 부피 및 형태가 변화한다. 호기 또는 흡기, 즉 서로 다른 호흡 상태에서 얻어진 폐 조직 주변 영역의 영상 간 폐 정합은 치료 계획 수립 (treatment planning), 폐쇄성 폐질환의 정량적 평가, 폐 움직임 분석 등의 임상적인 응용을 위하여 필수적이다.On the other hand, since the patient continues to breathe as long as he is alive, the volume and shape of the lungs change according to the breathing state of the patient. Lung registration between images of the area around the lung tissue obtained from exhalation or inspiration, i.e., in different respiration states, is essential for clinical applications such as treatment planning, quantitative evaluation of obstructive pulmonary disease, and analysis of lung movement.

특히 호흡에 따른 폐의 변형은 통상적인 강체 정합(rigid body registration), 또는 어파인 정합(affine registration)으로는 보정하기 어렵고 보정을 위해서는 비강체 정합 과정을 거쳐야 한다. 강체 정합 또는 어파인 정합은 폐 조직의 이동 변이(translation mismatch) 또는 전역적 확장(global expansion)을 보정하는 데 이용되나, 호흡에 따른 폐의 국지적 변형을 보정할 만큼의 충분한 자유도 (degree of freedom)를 가지고 있지는 못하기 때문이다.In particular, it is difficult to correct the deformation of the lungs due to respiration by conventional rigid body registration or affine registration, and for correction, a non-rigid body registration process must be performed. Rigid registration or affine registration is used to correct for translation mismatch or global expansion of lung tissue, but with sufficient degrees of freedom to compensate for local deformation of the lungs due to respiration. ) because it does not have

비강체 정합의 한 예로는 CT 영상의 모든 픽셀로부터 조밀한 변위 벡터 (displacement vector)를 계산하여 각 픽셀을 정합하는 방법이 제안된 바 있다. 그러나 이러한 방법은 CT 영상의 해상도가 높은 경우에는 처리해야 할 데이터의 양이 너무도 방대하여 정합 과정에 필요한 계산량이 너무 크고 수행 시간이 길어지는 문제점이 있다.As an example of non-rigid registration, a method of registering each pixel by calculating a dense displacement vector from all pixels of a CT image has been proposed. However, this method has a problem in that, when the resolution of a CT image is high, the amount of data to be processed is too large, so the amount of calculation required for the registration process is too large and the execution time is long.

도 1은 폐기능검사를 통해 측정된 환자의 폐활량 곡선을 나타낸 그래프이다. 1 is a graph showing a lung capacity curve of a patient measured through a lung function test.

도 1의 폐활량 곡선 그래프에서 IC(Inspiratory capacity), FRC(Functional Residual Capacity), TLC(Total Lung Capacity), RV(Residual Volume), ERV(Expitory Reserve Volume), VC(Vital Capacity) 등이 표시되어 있다. 여기서 capacity란 폐 볼륨(lung volume)의 합을 의미한다. In the spirometry curve graph of FIG. 1, IC (Inspiratory capacity), FRC (Functional Residual Capacity), TLC (Total Lung Capacity), RV (Residual Volume), ERV (Expitory Reserve Volume), VC (Vital Capacity), etc. are displayed . Here, capacity means the sum of lung volumes.

TLC는 숨을 최대한 들이마셨을 때의 폐 볼륨이다(RFC + IC = TLC). TLC is the lung volume at full inhalation (RFC + IC = TLC).

FRC는 날숨을 끝낸 후의 폐 볼륨으로서, 폐 볼륨 측정의 기준이 된다. FRC is the lung volume after the end of exhalation, and serves as a standard for measuring lung volume.

RV는 숨을 최대한 내쉬었을 때의 폐 볼륨이고, IC는 FRC에서 TLC까지 들이마신 공기의 양이고, ERV는 FRC에서 RV까지 내쉰 공기의 양이다.RV is the lung volume at maximum exhalation, IC is the amount of air inhaled from FRC to TLC, and ERV is the amount of air exhaled from FRC to RV.

VC는 RV에서 최대로 들이마실 수 있는 공기의 양으로서, TLC에서 최대로 내쉴 수 있는 공기의 양이다.VC is the maximum amount of air that can be inhaled in an RV, and is the maximum amount of air that can be exhaled in a TLC.

폐활량 측정법은 존재하는 기류 폐색의 양을 측정하는 것이며, 일반적으로 기도를 열어주는 약인 기관지 확장제 투여 후 실시된다. 이때, 한 호흡의 첫 1초에 내쉴 수 있는 공기의 최대 용적인 초당 강제날숨유량(FEV1)과 한 번의 큰 호흡으로 내쉴 수 있는 공기의 최대 용적인 강제폐활량(FVC)의 두 가지 주요 지표가 진단을 위해 측정된다. 보통 첫 1초에 75-80%의 FVC가 방출되며 폐쇄성 폐질환(COPD)의 증상을 보이는 환자에게서 70% 이하의 FEV1/FVC 비율이 측정될 때, 만성 폐쇄성 폐질환 환자로 정의된다. 한편 만성 폐쇄성 폐질환 환자의 중증도와 진단을 위해 호기 컴퓨터 단층 촬영(expiratory CT)을 폐기능검사 결과와 비교하는 연구가 활발히 진행되고 있다. 이러한 연구에서는 최대 흡기시 CT와 최대 호기시 CT를 분석하여 폐용적 변화를 비교하여, COPD 병변의 중증도를 폐 구역별로 가늠한다. Spirometry measures the amount of airflow obstruction present and is usually performed after administration of a bronchodilator, a drug that opens the airways. At this time, two main indicators are diagnosed: forced expiratory flow per second (FEV1), which is the maximum volume of air that can be exhaled in the first second of one breath, and forced vital capacity (FVC), which is the maximum volume of air that can be exhaled with one big breath. is measured for Usually 75-80% of FVC is released in the first second, and when an FEV1/FVC ratio of 70% or less is measured in patients with symptoms of obstructive pulmonary disease (COPD), it is defined as a chronic obstructive pulmonary disease patient. Meanwhile, studies comparing expiratory computed tomography (expiratory CT) with lung function test results are being actively conducted for the diagnosis and severity of chronic obstructive pulmonary disease. In this study, CT at maximal inspiration and CT at maximal expiration were analyzed and lung volume changes were compared to estimate the severity of COPD lesions by lung area.

대한민국 등록특허 10-1697430Republic of Korea Patent Registration 10-1697430

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 호기(expiratory) CT와 폐기능 검사 결과를 바탕으로 삼차원으로 재건된 CT 영상을 애니메이션(animation) 동영상으로 제공하는 방법을 제공하는데 그 목적이 있다.The present invention has been devised to solve the above problems, and the purpose of the present invention is to provide a method for providing a three-dimensionally reconstructed CT image as an animation video based on the results of an expiratory CT and lung function test. have.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

이와 같은 목적을 달성하기 위한 본 발명은 호흡 운동 추적 기반 폐 CT 영상을 이용한 3차원 애니메이션 동영상 제공 방법에 관한 것으로서, 환자에 대해 실시한 폐활량 측정에 따른 폐활량 곡선 데이터를 입력받는 단계, 상기 환자에 대해 최대 흡기시 촬영한 CT(Computed Tomography) 영상인 최대 흡기 CT 영상 데이터 및 최대 호기시 촬영한 CT 영상인 최대 호기 CT 영상 데이터를 입력받는 단계, 상기 폐활량 곡선 데이터, 상기 최대 흡기 CT 영상 데이터 및 상기 최대 호기 CT 영상 데이터를 이용하여 CT 영상을 3차원 영상으로 재건하는 단계 및 실시간으로 감지되어 입력되는 환자의 호흡운동 데이터에 따라 상기 3차원 영상을 동기화하는 방식으로 3차원 애니메이션 동영상을 제공하는 단계를 포함한다. The present invention for achieving the above object relates to a method for providing a 3D animation video using a lung CT image based on respiratory movement tracking, the step of receiving spirometry curve data according to spirometry performed on a patient, the maximum for the patient receiving CT image data of maximum inspiration, which is a computed tomography (CT) image taken during inspiration, and CT image data of maximum expiration, which is a CT image taken during maximum expiration, the spirometry curve data, the maximum inspiration CT image data, and the maximum expiration Reconstructing a CT image into a 3D image using CT image data and providing a 3D animation video in a manner that synchronizes the 3D image according to the patient's respiratory movement data detected and input in real time .

상기 최대 흡기 CT 영상 데이터 및 상기 최대 호기 CT 영상 데이터에서 주요 장기 부위 별로 세그멘테이션(segmentation)하는 단계, 세그멘테이션된 영상들을 3차원 메시로 재건하는 단계, 각 주요 장기 부위 별로 최대 흡기 시의 메시와 최대 호기 시의 메시를 분류하여 대응 쌍을 생성하는 단계, 각각의 대응 쌍에 대하여 두 메시 간의 버텍스 코릴레이션(Vertex correlation)을 매핑(mapping)하는 단계 및 매핑된 버텍스 코릴레이션 데이터를 기반으로 모든 버텍스를 보간하여 애니메이션 데이터를 생성하는 단계를 더 포함할 수 있다. Segmentation for each major organ region from the maximum inspiratory CT image data and the maximum expiratory CT image data, reconstructing the segmented images into a three-dimensional mesh, meshes at maximal inspiration and maximal expiration for each major organ site Classifying the meshes of the city to generate a corresponding pair, mapping a vertex correlation between two meshes for each corresponding pair, and interpolating all vertices based on the mapped vertex correlation data to generate animation data may be further included.

상기 3차원 애니메이션 동영상을 제공하는 단계는, 상기 환자의 호흡운동 데이터에서 최대 흡기시 위치 데이터와 최대 호기시 위치 데이터를 확인하는 단계, 상기 최대 흡기시 위치 데이터와 최대 호기시 위치 데이터를 기준으로 백분율로 정규화하는 단계, 실시간으로 감지되어 입력되는 환자의 호흡운동 데이터를 정규화하고, 정규화된 값에 해당하는 위치의 3차원 애니메이션 프레임을 선택하여 출력하는 단계를 포함하여 이루어질 수 있다. The step of providing the three-dimensional animation video includes: confirming the position data at the time of maximum inspiration and the position data at the time of maximum exhalation in the respiratory movement data of the patient; Normalizing to, normalizing the patient's respiratory movement data sensed and input in real time, and selecting and outputting a 3D animation frame at a position corresponding to the normalized value.

본 발명에 의하면, 호흡운동에 따른 환자 앞가슴 피부의 높낮이 변화를 호흡운동의 기준지표로 활용하여, 실제 환자의 호흡운동 시 내부 장기의 움직임을 3차원 CT 동영상으로 묘사하고 예측할 수 있는 효과가 있다. According to the present invention, it is possible to describe and predict the movement of internal organs during the actual patient's breathing exercise as a 3D CT video by using the change in the height of the patient's forearm skin according to the respiratory movement as a reference index of the respiratory movement.

도 1은 폐기능검사를 통해 측정된 환자의 폐활량 곡선을 나타낸 그래프이다.
도 2는 본 발명의 일 실시 예에 따른 호흡 운동 추적 기반 폐 CT 영상을 이용한 3차원 애니메이션 동영상 제공 방법을 보여주는 흐름도이다.
도 3은 본 발명의 일 실시 예에 따른 애니메이션 데이터 생성 과정을 보여주는 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 호흡 운동 추적에 기반한 애니메이션 동기화 과정을 보여주는 흐름도이다.
도 5는 본 발명의 일 실시 예에 따른 매핑 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 보간 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 마커를 부착한 환자가 CT 촬영 장비에 누워있는 모습을 도시한 것이다.
도 8은 본 발명의 일 실시 예에 따른 마커와의 정합 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 폐에 대한 3차원 애니메이션 영상이다.
도 10은 본 발명의 일 실시예에 따른 호흡시 마커를 이용한 변위 측정 과정을 설명하기 위한 예시도이다.
도 11은 본 발명의 일 실시예에 따른 마커를 도시한 것이다.
도 12는 본 발명의 일 실시예에 따른 마커의 사이드 뷰를 도시한 것이다.
1 is a graph showing a lung capacity curve of a patient measured through a lung function test.
2 is a flowchart illustrating a method for providing a 3D animation video using a lung CT image based on respiratory movement tracking according to an embodiment of the present invention.
3 is a flowchart illustrating an animation data generation process according to an embodiment of the present invention.
4 is a flowchart illustrating an animation synchronization process based on respiratory movement tracking according to an embodiment of the present invention.
5 is a diagram for explaining a mapping process according to an embodiment of the present invention.
6 is a diagram for explaining an interpolation process according to an embodiment of the present invention.
7 is a view showing a state in which a patient with a marker attached according to an embodiment of the present invention is lying on the CT imaging equipment.
8 is a view for explaining a process of matching with a marker according to an embodiment of the present invention.
9 is a 3D animation image of a lung according to an embodiment of the present invention.
10 is an exemplary view for explaining a displacement measurement process using a marker during respiration according to an embodiment of the present invention.
11 illustrates a marker according to an embodiment of the present invention.
12 illustrates a side view of a marker according to an embodiment of the present invention.

본 명세서에서 개시된 실시 예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 개시에서 제안하고자 하는 실시 예는 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 당해 기술분야에서 통상의 지식을 가진 자에게 실시 예들의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the embodiments disclosed herein, and methods for achieving them will become apparent with reference to the embodiments described below in conjunction with the accompanying drawings. However, the embodiments to be proposed in the present disclosure are not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments are provided to those of ordinary skill in the art. It is only provided to be a complete indication of the category.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시 예에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and the disclosed embodiments will be described in detail.

본 명세서에서 사용되는 용어는 개시된 실시 예들의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 상세한 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 명세서의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in this specification have been selected as currently widely used general terms as possible while considering the functions of the disclosed embodiments, but may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there are also terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the detailed description of the corresponding specification. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the content throughout the present specification, rather than the name of a simple term.

본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.Expressions in the singular herein include plural expressions unless the context clearly dictates the singular.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.In the entire specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. Also, as used herein, the term “unit” refers to a hardware component such as software, FPGA, or ASIC, and “unit” performs certain roles. However, "part" is not meant to be limited to software or hardware. A “unit” may be configured to reside on an addressable storage medium and may be configured to refresh one or more processors. Thus, by way of example, “part” includes components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functionality provided within components and “parts” may be combined into a smaller number of components and “parts” or further divided into additional components and “parts”.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

본 발명에서 호흡 운동 추적 기반 폐 CT 영상을 이용한 3차원 애니메이션 동영상 제공 방법을 수행하는 주체는 제반 컴퓨터 장치라고 할 수 있다. 즉, 본 발명에서 호흡 운동 추적 기반 폐 CT 영상을 이용한 3차원 애니메이션 동영상 제공 방법을 수행하는 컴퓨터, 컴퓨터의 제어부 또는 프로세서(processor)가 그 수행 주체가 될 수 있다.In the present invention, the subject performing the method for providing a 3D animation video using a lung CT image based on respiratory movement tracking may be a general computer device. That is, in the present invention, a computer performing the method for providing a 3D animation video using a lung CT image based on respiratory movement tracking may be a computer, a controller of the computer, or a processor.

도 2는 본 발명의 일 실시 예에 따른 호흡 운동 추적 기반 폐 CT 영상을 이용한 3차원 애니메이션 동영상 제공 방법을 보여주는 흐름도이다. 2 is a flowchart illustrating a method for providing a 3D animation video using a lung CT image based on respiratory movement tracking according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 3차원 애니메이션 동영상 제공 방법은, 환자에 대해 실시한 폐활량 측정에 따른 폐활량 곡선 데이터를 입력받고(S201), 환자에 대해 최대 흡기시 촬영한 CT(Computed Tomography) 영상인 최대 흡기 CT 영상 데이터 및 최대 호기시 촬영한 CT 영상인 최대 호기 CT 영상 데이터를 입력받는다(S203).Referring to FIG. 2 , in the method for providing a 3D animation video of the present invention, spirometry curve data according to spirometry performed on a patient is input (S201), and a computed tomography (CT) image taken during maximum inspiration of the patient is obtained. The maximum inspiration CT image data and the maximum expiration CT image data, which is a CT image taken during maximum expiration, are received ( S203 ).

그리고, 폐활량 곡선 데이터, 최대 흡기 CT 영상 데이터 및 최대 호기 CT 영상 데이터를 이용하여 CT 영상을 3차원 영상으로 재건한다(S205). Then, the CT image is reconstructed into a three-dimensional image by using the spirometry curve data, the maximum inspiratory CT image data, and the maximum expiratory CT image data (S205).

그리고, 실시간으로 감지되어 입력되는 환자의 호흡운동 데이터에 따라 3차원 영상을 동기화하는 방식으로 3차원 애니메이션 동영상을 제공한다(S207, S209).Then, a 3D animation video is provided in a manner that synchronizes the 3D image according to the patient's respiratory movement data detected and input in real time (S207, S209).

도 3은 본 발명의 일 실시 예에 따른 애니메이션 데이터 생성 과정을 보여주는 흐름도이다.3 is a flowchart illustrating an animation data generation process according to an embodiment of the present invention.

도 3을 참조하면, 최대 흡기 CT 영상 데이터 및 최대 호기 CT 영상 데이터에서 주요 장기 부위 별로 세그멘테이션(segmentation)한다(S301). Referring to FIG. 3 , the maximum inspiration CT image data and the maximum expiration CT image data are segmented for each major organ region ( S301 ).

그리고, 세그멘테이션된 영상들을 3차원 메시(mesh)로 재건한다(S303). Then, the segmented images are reconstructed into a three-dimensional mesh (S303).

그리고, 각 주요 장기 부위 별로 최대 흡기 시의 메시와 최대 호기 시의 메시를 분류하여 대응 쌍을 생성한다(S305). Then, the mesh at the time of maximal inspiration and the mesh at the time of maximal exhalation are classified for each major organ region to generate a corresponding pair (S305).

그리고, 각각의 대응 쌍에 대하여 두 메시 간의 버텍스 코릴레이션(Vertex correlation)을 매핑(mapping)한다(S307). Then, for each corresponding pair, a vertex correlation between the two meshes is mapped ( S307 ).

도 5는 본 발명의 일 실시 예에 따른 매핑 과정을 설명하기 위한 도면이다.5 is a diagram for explaining a mapping process according to an embodiment of the present invention.

도 5를 참조하면, 본 발명에서 모든 쌍 각각에 대하여 두 메시 간의 버텍스 코릴레이션을 매핑한다. 이때, 기존에 사용되는 버텍스 투 버텍스 코릴레이션(Vertex to Vertex Correlation) 방법이 사용될 수 있으며, 보다 정확한 코릴레이션을 위해 일부 버텍스 간의 관계를 직접 찍는 방식으로 수동 지정할 수도 있다.Referring to FIG. 5 , in the present invention, vertex correlations between two meshes are mapped for each pair. In this case, an existing vertex to vertex correlation method may be used, and for more accurate correlation, a relationship between some vertices may be manually specified by directly taking a picture.

다음, 매핑된 버텍스 코릴레이션 데이터를 기반으로 모든 버텍스를 보간하여 애니메이션 데이터를 생성한다(S309, S311). Next, animation data is generated by interpolating all vertices based on the mapped vertex correlation data (S309, S311).

도 6은 본 발명의 일 실시 예에 따른 보간 과정을 설명하기 위한 도면이다. 6 is a diagram for explaining an interpolation process according to an embodiment of the present invention.

도 6을 참조하면, 매핑된 버텍스 코릴레이션(Vertex Correlation) 데이터를 기반으로 모든 버텍스를 보간하여 애니메이션 데이터를 생성한다. 이때, 보간 횟수는 목표 체적 변화량 출력 정밀도에 따라 결정할 수 있다. 예를 들어, 0.01% 단위의 체적 변화량을 표현하고자 하면, 보간 데이터의 수가 10000개가 될 때까지 보간을 반복하는 식이다. 본 발명의 일 실시예에서 보간 방법은 아무 정보가 주어지지 않았을 경우 선형 보간을 사용하며, 특정 버텍스들의 변화율 정보를 가지고 있으면 변화율을 파라미터로 한 비선형 보간을 시행할 수 있다. Referring to FIG. 6 , animation data is generated by interpolating all vertices based on mapped vertex correlation data. In this case, the number of interpolation may be determined according to the target volume change amount output precision. For example, to express the amount of volume change in units of 0.01%, interpolation is repeated until the number of interpolated data becomes 10000. In an embodiment of the present invention, the interpolation method uses linear interpolation when no information is given, and nonlinear interpolation using the rate of change as a parameter can be performed if information on rate of change of specific vertices is provided.

도 4는 본 발명의 일 실시 예에 따른 호흡 운동 추적에 기반한 애니메이션 동기화 과정을 보여주는 흐름도이다. 4 is a flowchart illustrating an animation synchronization process based on respiratory movement tracking according to an embodiment of the present invention.

도 4를 참조하면, 3차원 애니메이션 동영상을 제공하는 단계(S209)는 다음과 같은 과정을 포함하여 이루어진다. Referring to FIG. 4 , the step of providing a 3D animation video ( S209 ) includes the following process.

먼저, 환자의 호흡운동 데이터에서 최대 흡기시 위치 데이터와 최대 호기시 위치 데이터를 확인한다(S401). First, the position data at the time of maximum inspiration and the position data at the time of maximum exhalation are checked in the patient's respiratory movement data (S401).

그리고, 최대 흡기시 위치 데이터와 최대 호기시 위치 데이터를 기준으로 백분율로 정규화한다(S403). Then, the position data at the time of maximum inspiration and the position data at the time of the maximum exhalation are normalized as a percentage based on the position data (S403).

그리고, 실시간으로 감지되어 입력되는 환자의 호흡운동 데이터를 정규화하고, 정규화된 값에 해당하는 위치의 3차원 애니메이션 프레임을 선택하여 출력한다(S405). Then, the patient's respiratory movement data detected and inputted in real time is normalized, and a 3D animation frame of a position corresponding to the normalized value is selected and output (S405).

본 발명에서 3차원 모델 파일은 일반적으로 점(vertex), 면(face), 질감(texture)과 같은 정보를 포함한다. 이 중에서 fbx, c4d 등 일부 모델 파일 형식은 3차원 애니메이션 정보를 포함하기도 하는데, 본 발명에서의 애니메이션 동영상 파일은 이러한 3D 애니메이션 모델(Animated Model) 파일을 지칭한다. 3D 애니메이션 모델(3D Animated Model)은 blender, 3ds max, cinema4d 등 다양한 3D 모델링 프로그램에서 제작 가능하다. In the present invention, the 3D model file generally includes information such as points, faces, and textures. Among them, some model file formats such as fbx and c4d also include 3D animation information, and the animation video file in the present invention refers to such a 3D animation model file. 3D Animated Model can be produced in various 3D modeling programs such as blender, 3ds max, cinema4d, etc.

본 발명에서는 환자의 호흡 운동을 측정하여 애니메이션 데이터와 동기화한다. 이때, 호흡 운동을 측정하기 위하여 IMU(Inertial Measurement Unit) 센서 또는 이미지 마커를 이용할 수 있다. In the present invention, the respiratory movement of the patient is measured and synchronized with the animation data. In this case, an Inertial Measurement Unit (IMU) sensor or an image marker may be used to measure the respiratory movement.

본 발명에서는 IMU 센서 또는 이미지 마커를 이용하여 환자의 호흡시 변위를 측정할 수 있으나, 이에 한정되는 것은 아니며, 사물의 변위를 측정할 수 있는 다양한 방법이 활용될 수 있다. In the present invention, the displacement during respiration of the patient may be measured using an IMU sensor or an image marker, but the present invention is not limited thereto, and various methods for measuring the displacement of an object may be used.

예를 들어, 마커를 이용하여 호흡 정도를 측정하는 경우, 카메라로 패턴화된 무늬가 그려진 기준 마커(fiducial marker)를 촬영한 후, 마커로부터 점 4개 이상을 검출하고, PnP Solution을 구하는 방법을 통해 절대 변위를 구할 수 있다. For example, when measuring the degree of respiration using a marker, after photographing a fiducial marker with a patterned pattern with a camera, detecting 4 or more points from the marker, and obtaining a PnP solution Absolute displacement can be obtained through

도 7은 본 발명의 일 실시 예에 따른 마커를 부착한 환자가 CT 촬영 장비에 누워있는 모습을 도시한 것이다. 7 is a view showing a state in which a patient with a marker attached according to an embodiment of the present invention is lying on the CT imaging equipment.

도 7에서 마커(710)를 부착한 환자(10)가 CT 촬영 장비에 누워 있는 모습이 도시되어 있다. In FIG. 7 , a state in which the patient 10 to which the marker 710 is attached is lying on the CT imaging equipment is shown.

도 7에서는 마커(710)를 이용한 환자(10)의 호흡 운동을 측정하는 방법을 예시하고 있다. 7 illustrates a method of measuring the respiratory movement of the patient 10 using the marker 710 .

환자의 최대 흡기를 ZM, 환자의 최대 호기를 Zm, 현재 호흡 변위를 z라 하면, 현재 호흡 상태를 다음과 같은 백분율로 표현할 수 있다. If the patient's maximum inspiration is Z M , the patient's maximum expiration is Z m , and the current respiratory displacement is z, the current respiration state can be expressed as the following percentage.

{(z-ZM)/(ZM-Zm)}*100 %{(zZ M )/(Z M -Z m )}*100 %

도 8은 본 발명의 일 실시 예에 따른 마커와의 정합 과정을 설명하기 위한 도면이다.8 is a view for explaining a process of matching with a marker according to an embodiment of the present invention.

도 8을 참조하면, 본 발명에서 환자(10)에 마커(710)를 부착하여 CT를 촬영하고, CT 영상의 폐(810)와 마커(710) 간의 상대적 위치를 정합한다. Referring to FIG. 8 , in the present invention, a CT is taken by attaching a marker 710 to the patient 10 , and the relative positions between the lung 810 and the marker 710 in the CT image are matched.

도 9는 본 발명의 일 실시예에 따른 폐에 대한 3차원 애니메이션 영상이다.9 is a 3D animation image of a lung according to an embodiment of the present invention.

도 9를 참조하면, 환자의 호흡운동에 따라 동기화된 3차원 애니메이션 영상이 표출되는 것을 확인할 수 있다.Referring to FIG. 9 , it can be confirmed that a 3D animation image synchronized according to the patient's breathing movement is displayed.

도 10은 본 발명의 일 실시예에 따른 호흡시 마커를 이용한 변위 측정 과정을 설명하기 위한 예시도이다.10 is an exemplary view for explaining a displacement measurement process using a marker during respiration according to an embodiment of the present invention.

도 10에서 (a)는 환자의 최대흡기시 마커(710)의 변위를 보여주는 측면도이고, (b)는 환자의 최대호기시 마커(710)의 변위를 보여주는 측면도이다. In FIG. 10, (a) is a side view showing the displacement of the marker 710 during maximum inspiration of the patient, and (b) is a side view showing the displacement of the marker 710 during maximum expiration of the patient.

이처럼, 본 발명에서는 마커(710)를 이용하여 환자의 호흡시 변위를 측정할 수 있다. As such, in the present invention, the displacement during respiration of the patient may be measured using the marker 710 .

본 발명에서 애니메이션 동영상을 실제 폐와 동일한 위치에 정합하기 위해서는 정합을 위한 기준 마커가 CT 영상에도 선명히 나와야 한다. In the present invention, in order to register the animation video at the same position as the actual lung, the reference marker for registration must be clearly displayed on the CT image.

이러한 CT 영상에서의 선명도를 보장하기 위해, 본 발명에서는 일정 이상의 두께를 가진 아크릴, 테프론 등의 소재를 사용하고, 축 정렬을 위한 총 3개의 3차원 랜드마크(landmark)가 형성된, 패턴이 그려진 이미지 마커가 사용된다.In order to ensure clarity in such a CT image, in the present invention, a material such as acrylic or Teflon having a thickness greater than or equal to a certain thickness is used, and a pattern is drawn image in which a total of three three-dimensional landmarks for axis alignment are formed. markers are used.

여기서, 랜드마크는 3차원 CT 복원 영상에서 식별할 수 있는 형태를 의미한다. 예를 들어, 랜드마크는 구멍이 뚫려있거나, 패여있거나, 튀어나온 형태 등이여야 하며, 랜드마크와 마커 패턴의 원점 좌표간의 상대적 위치가 정해져있으면 이를 현실에서 정합할 수 있다. Here, the landmark means a shape that can be identified in the 3D CT reconstructed image. For example, the landmark should be perforated, dented, or protruding, and if the relative position between the landmark and the origin coordinates of the marker pattern is determined, it can be matched in reality.

즉, 본 발명에서 신체 영상과 폐 애니메이션 영상을 정합하기 위해서는 서로 공유할 수 있는 동일한 기준점과 축을 가지고 있어야 한다. 이러한 공통 기준점과 축을 만들어내기 위해 기준 마커(Fiducial marker)가 사용된다. That is, in the present invention, in order to match the body image and the lung animation image, the same reference point and axis must be shared with each other. To create these common fiducial points and axes, fiducial markers are used.

보통 사각형의 패턴 이미지를 기준 마커로 사용하는데, 대부분의 기준 마커가 비대칭형의 무늬를 갖고 있으므로, 각 꼭지점의 방향은 회전, 이동에 관계 없이 반드시 하나로 정해진다. 그 중 하나의 꼭지점을 기준점으로 잡고, 그로부터 수직방향에 있는 꼭지점에 연장한 직선들을 각각 x축, y축이라고 하면, 신체 영상과 폐 애니메이션 영상 각각에 대한 마커 꼭지점 좌표만으로 양쪽의 좌표를 정확히 동기화할 수 있다.Usually, a rectangular pattern image is used as a reference marker. Since most of the reference markers have an asymmetric pattern, the direction of each vertex is always set to one regardless of rotation or movement. If one of the vertices is taken as a reference point, and the straight lines extending from the vertex in the vertical direction are called the x-axis and y-axis, respectively, the coordinates of both sides can be precisely synchronized only with the coordinates of the vertices of the markers for each body image and lung animation image. can

다만 신체 영상에서는 외부 카메라가 마커를 직접적으로 촬영하기 때문에 사각 기준 마커의 패턴을 검출하여 꼭지점 위치를 쉽게 찾아낼 수 있지만, 폐 애니메이션 영상은 CT 영상으로부터 복원되기 때문에 일반적인 방법으로는 마커 모양을 찾아내기가 어렵다. However, in the body image, since the external camera directly captures the marker, it is easy to find the vertex position by detecting the pattern of the rectangular reference marker. is difficult

CT 영상에서 사각 마커를 검출하기 위해서는 아크릴 혹은 테프론 등으로 제작된 일정 두께 이상의 사각판에 마커 패턴을 그리는 방법을 사용해야하는데, 이와 같은 경우에도 마커의 단순 형태만 검출될 뿐, 마커의 패턴 무늬는 여전히 볼 수 없기 때문에 꼭지점 위치를 정확히 알기 위해서는 근처에 식별 가능한 형태의 조형물을 배치해야 한다. 이러한 조형물을 랜드마크(Landmark)라고 하며, 구멍이나 기둥, 철심 등 다양한 소재 및 형태를 사용하여 랜드마크를 형성시킬 수 있다. In order to detect a square marker in a CT image, it is necessary to use a method of drawing a marker pattern on a square plate of a certain thickness or more made of acrylic or Teflon. Since it cannot be seen, in order to accurately know the position of the vertex, it is necessary to place a sculpture of an identifiable form nearby. These sculptures are called landmarks, and landmarks can be formed using various materials and shapes such as holes, columns, and iron cores.

도 11은 본 발명의 일 실시예에 따른 마커를 도시한 것이다. 11 illustrates a marker according to an embodiment of the present invention.

도 11에서 (a)는 CT 영상에서의 마커(710)에 대한 탑 뷰(Top View)와 사이드 뷰(Side View)를 도시한 것이고, (b)는 실제 마커를 나타낸 것이다. In FIG. 11, (a) shows a top view and a side view of the marker 710 in a CT image, and (b) shows an actual marker.

도 11에서 마커(710)에서 랜드마크(712)와 원점(714)을 확인할 수 있다. In FIG. 11 , a landmark 712 and an origin 714 can be identified from the marker 710 .

도 12는 본 발명의 일 실시예에 따른 마커의 사이드 뷰를 도시한 것이다. 12 illustrates a side view of a marker according to an embodiment of the present invention.

도 12는 CT 영상에서 마커(710)의 사이드 뷰를 도시한 것으로서, 구멍이 형성되어 있는 랜드마크(712)와, 일정 두께 이상으로 형성된 사각판(716)을 포함하는 마커(710)의 형태를 확인할 수 있다. 이때 사각판(716)은 아크릴 또는 테프론의 소재가 사용될 수 있다. 12 shows a side view of the marker 710 in the CT image, the shape of the marker 710 including a landmark 712 in which a hole is formed and a square plate 716 formed with a predetermined thickness or more. can be checked In this case, the square plate 716 may be made of acrylic or Teflon.

한편, 본 발명의 실시 예에 따른 호흡 운동 추적 기반 폐 CT 영상을 이용한 3차원 애니메이션 동영상 제공 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.Meanwhile, the method for providing a 3D animation video using a lung CT image based on respiratory movement tracking according to an embodiment of the present invention may be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored.

예컨대, 컴퓨터가 읽을 수 있는 기록매체로는 롬(ROM), 램(RAM), 시디-롬(CD-ROM), 자기 테이프, 하드디스크, 플로피디스크, 이동식 저장장치, 비휘발성 메모리(Flash Memory), 광 데이터 저장장치 등이 포함된다.For example, computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, hard disk, floppy disk, removable storage device, and non-volatile memory (Flash Memory). , optical data storage devices, and the like.

또한, 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.In addition, the computer-readable recording medium may be distributed in computer systems connected through a computer communication network, and stored and executed as readable codes in a distributed manner.

이상 본 발명을 몇 가지 바람직한 실시 예를 사용하여 설명하였으나, 이들 실시 예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.The present invention has been described above using several preferred embodiments, but these embodiments are illustrative and not restrictive. Those of ordinary skill in the art to which the present invention pertains will understand that various changes and modifications can be made without departing from the spirit of the present invention and the scope of the appended claims.

10 환자 710 마커
810 폐
10 patient 710 markers
810 lung

Claims (4)

환자에 대해 실시한 폐활량 측정에 따른 폐활량 곡선 데이터를 입력받는 단계;
상기 환자에 대해 최대 흡기시 촬영한 CT(Computed Tomography) 영상인 최대 흡기 CT 영상 데이터 및 최대 호기시 촬영한 CT 영상인 최대 호기 CT 영상 데이터를 입력받는 단계;
상기 폐활량 곡선 데이터, 상기 최대 흡기 CT 영상 데이터 및 상기 최대 호기 CT 영상 데이터를 이용하여 CT 영상을 3차원 영상으로 재건하는 단계;
실시간으로 감지되어 입력되는 환자의 호흡운동 데이터에 따라 상기 3차원 영상을 동기화하는 방식으로 3차원 애니메이션 동영상을 제공하는 단계;
상기 최대 흡기 CT 영상 데이터 및 상기 최대 호기 CT 영상 데이터에서 주요 장기 부위 별로 세그멘테이션(segmentation)하는 단계;
세그멘테이션된 영상들을 3차원 메시로 재건하는 단계;
각 주요 장기 부위 별로 최대 흡기 시의 메시와 최대 호기 시의 메시를 분류하여 대응 쌍을 생성하는 단계;
각각의 대응 쌍에 대하여 두 메시 간의 버텍스 코릴레이션(Vertex correlation)을 매핑(mapping)하는 단계; 및
매핑된 버텍스 코릴레이션 데이터를 기반으로 모든 버텍스를 보간하여 애니메이션 데이터를 생성하는 단계
를 포함하는 것을 특징으로 하는 3차원 애니메이션 동영상 제공 방법.
receiving spirometry curve data according to spirometry performed on the patient;
receiving maximum inspiration CT image data, which is a computed tomography (CT) image taken during maximum inspiration, and maximum expiration CT image data, which is a CT image taken during maximum inspiration, of the patient;
reconstructing a CT image into a three-dimensional image using the spirometry curve data, the maximum inspiratory CT image data, and the maximum expiratory CT image data;
providing a 3D animation video in a manner that synchronizes the 3D image according to the patient's respiratory movement data detected and input in real time;
segmenting the maximal inspiratory CT image data and the maximal expiratory CT image data for each major organ region;
reconstructing the segmented images into a 3D mesh;
classifying the mesh at the time of maximum inspiration and the mesh at the time of maximum expiration for each major organ region to generate a corresponding pair;
mapping a vertex correlation between the two meshes for each corresponding pair; and
Interpolating all vertices based on the mapped vertex correlation data to generate animation data
3D animation video providing method comprising a.
삭제delete 청구항 1에 있어서,
상기 3차원 애니메이션 동영상을 제공하는 단계는,
상기 환자의 호흡운동 데이터에서 최대 흡기시 위치 데이터와 최대 호기시 위치 데이터를 확인하는 단계;
상기 최대 흡기시 위치 데이터와 최대 호기시 위치 데이터를 기준으로 백분율로 정규화하는 단계;
실시간으로 감지되어 입력되는 환자의 호흡운동 데이터를 정규화하고, 정규화된 값에 해당하는 위치의 3차원 애니메이션 프레임을 선택하여 출력하는 단계
를 포함하여 이루어지는 것을 특징으로 하는 3차원 애니메이션 동영상 제공 방법.
The method according to claim 1,
The step of providing the 3D animation video includes:
confirming position data during maximum inspiration and position data during maximum expiration in the patient's respiratory movement data;
Normalizing the position data during maximum inspiration and position data during maximum expiration as a percentage based on the position data;
Normalizing the patient's respiratory movement data detected and input in real time, selecting and outputting a 3D animation frame at a position corresponding to the normalized value
3D animation video providing method, characterized in that it comprises a.
청구항 1, 청구항 3 중 어느 한 청구항의 방법을 컴퓨터로 실행시킬 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
A computer-readable recording medium in which a program capable of executing the method of any one of claims 1 and 3 to a computer is recorded.
KR1020200127096A 2020-09-29 2020-09-29 Method for providing three-dimensional animated video using respiratory motion tracking-based lung CT images and recording medium thereof KR102453028B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200127096A KR102453028B1 (en) 2020-09-29 2020-09-29 Method for providing three-dimensional animated video using respiratory motion tracking-based lung CT images and recording medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200127096A KR102453028B1 (en) 2020-09-29 2020-09-29 Method for providing three-dimensional animated video using respiratory motion tracking-based lung CT images and recording medium thereof

Publications (2)

Publication Number Publication Date
KR20220043558A KR20220043558A (en) 2022-04-05
KR102453028B1 true KR102453028B1 (en) 2022-10-07

Family

ID=81181994

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200127096A KR102453028B1 (en) 2020-09-29 2020-09-29 Method for providing three-dimensional animated video using respiratory motion tracking-based lung CT images and recording medium thereof

Country Status (1)

Country Link
KR (1) KR102453028B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240034978A (en) 2022-09-08 2024-03-15 경북대학교 산학협력단 Apparatus and method of providing diagnostic evaluation index capable of diagnosing structural and functional changes in subject using computed tomography image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150228074A1 (en) * 2011-05-13 2015-08-13 Broncus Technologies Surgical assistance planning method using lung motion analysis
JP2016189956A (en) * 2015-03-31 2016-11-10 株式会社日立製作所 Image processing apparatus, X-ray CT apparatus, and image processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101144579B1 (en) * 2009-08-18 2012-05-09 서울여자대학교 산학협력단 Apparatus and method for nonrigid lung registration between end-exhale and end-inhale computed tomography scan
KR102106535B1 (en) * 2013-02-06 2020-05-06 삼성전자주식회사 Method, apparatus and system for generating model representing deformation of shape and location of organ in respiration cycle
KR101697430B1 (en) 2015-08-12 2017-01-18 성균관대학교산학협력단 Lung Phantom System For 4D-CT

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150228074A1 (en) * 2011-05-13 2015-08-13 Broncus Technologies Surgical assistance planning method using lung motion analysis
JP2016189956A (en) * 2015-03-31 2016-11-10 株式会社日立製作所 Image processing apparatus, X-ray CT apparatus, and image processing method

Also Published As

Publication number Publication date
KR20220043558A (en) 2022-04-05

Similar Documents

Publication Publication Date Title
US11089974B2 (en) Monitoring the location of a probe during patient breathing
US11304630B2 (en) Apparatus and method for image guided accuracy verification
US10617332B2 (en) Apparatus and method for image guided accuracy verification
JP4560643B2 (en) Ventilation distribution measurement method using respiratory CT images
US11779241B2 (en) Systems, methods, and computer-readable media of estimating thoracic cavity movement during respiration
WO2013140749A1 (en) Image analysis device, method, and program
Luó et al. Development and comparison of new hybrid motion tracking for bronchoscopic navigation
JP6131161B2 (en) Image registration apparatus, method, program, and three-dimensional deformation model generation method
JP6806655B2 (en) Radiation imaging device, image data processing device and image processing program
JP6493877B2 (en) Reference point evaluation apparatus, method and program, and alignment apparatus, method and program
KR102453028B1 (en) Method for providing three-dimensional animated video using respiratory motion tracking-based lung CT images and recording medium thereof
JP6729994B2 (en) Image processing apparatus, image processing method, and program
US20160000355A1 (en) Automatic method of predictive determination of the position of the skin
Tanaka et al. Computerized methods for determining respiratory phase on dynamic chest radiographs obtained by a dynamic flat-panel detector (FPD) system
CN114375461A (en) Inspiratory metrics for chest X-ray images
US20220087647A1 (en) Ultrasound Speckle Decorrelation Estimation of Lung Motion and Ventilation
JP2019171102A (en) Image processing device, image processing method, and program
KR101529658B1 (en) Integrated method for analyzing function and anatomy of organ
JP2023056314A (en) Program, image processing device and image processing method
WO2022248982A1 (en) Volumetric filter of fluoroscopic sweep video
JP2022109778A (en) Information processing device, information processing method and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant