KR20230152854A - 콘빔ct 및 3차원 스캔의 동시 촬영을 통한 데이터 정합 장치 및 방법 - Google Patents

콘빔ct 및 3차원 스캔의 동시 촬영을 통한 데이터 정합 장치 및 방법 Download PDF

Info

Publication number
KR20230152854A
KR20230152854A KR1020220051843A KR20220051843A KR20230152854A KR 20230152854 A KR20230152854 A KR 20230152854A KR 1020220051843 A KR1020220051843 A KR 1020220051843A KR 20220051843 A KR20220051843 A KR 20220051843A KR 20230152854 A KR20230152854 A KR 20230152854A
Authority
KR
South Korea
Prior art keywords
data
cbct
scan
matching
image
Prior art date
Application number
KR1020220051843A
Other languages
English (en)
Inventor
정홍
이성민
Original Assignee
주식회사 에이치디엑스윌
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이치디엑스윌 filed Critical 주식회사 에이치디엑스윌
Priority to KR1020220051843A priority Critical patent/KR20230152854A/ko
Priority to PCT/KR2023/001656 priority patent/WO2023210934A1/ko
Publication of KR20230152854A publication Critical patent/KR20230152854A/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • A61B6/14
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은 데이터 정합 장치에서 수행되는 데이터 정합 방법에 있어서, CBCT(Cone Beam Computed Tomography) 데이터와 3D 스캔 데이터의 획득 시점을 동기화하는 단계, 상기 CBCT 데이터와 3D 스캔 데이터의 좌표계를 일치시키는 단계, 상기 3D 스캔 데이터가 획득될 때마다 생성된 깊이 맵을 정합하여 움직임이 보정된 3D 스캔 영상을 구성하는 단계, 및 상기 깊이 맵의 정합에 의해 획득된 움직임 정보를 적용하여, 상기 CBCT 데이터로부터 상기 움직임이 보정된 CBCT 3D 영상을 구성하는 단계를 포함한다.

Description

콘빔CT 및 3차원 스캔의 동시 촬영을 통한 데이터 정합 장치 및 방법{APPARATUS AND METHOD FOR DATA REGISTRATION THROUGH SIMULTANEOUS IMAGING OF CONE BEAM COMPUTED TOMOGRAPHY AND 3D SCAN}
본 발명은 데이터 정합 기술에 관한 것으로서, 보다 상세하게, 콘빔CT 영상과 3차원 스캔 영상을 자동으로 정합하는 데이터 정합 장치 및 방법에 관한 것이다.
최근 치과용 CBCT 영상 위에 3D 얼굴 스캔 영상을 추가로 정합하여 환자를 모델링하고 진단하는 기법들이 개발되고 있다. 3D 얼굴 스캔 영상을 추가로 활용하는 이유는 주로 교정 치료나 성형 수술 시 환자의 얼굴 변화를 가상으로 미리 예측하거나 현재의 안모를 더 사실적으로 보여줄 수 있기 때문이다. 그러나, 도 1을 참조하면, 기존의 치과용 CBCT 장치(110)는 촬영 시 환자의 머리 움직임을 최소화하기 위해 턱받침(120)에 턱을 얹어 고정시키고 추가 고정기구(130)를 이용하여 관자놀이 부위를 고정시킨다. 턱받침(120) 및 추가 고정기구(130)와 같은 고정기구물을 사용하여 환자를 촬영하게 되면 환자가 움직이지 않도록 강제할 수는 있으나, 3D 얼굴 스캔 촬영 시 턱받침(120)에 의해 턱이 눌리고 추가 고정기구(130)에 의해 관자놀이 부분인 환자 안모의 양쪽 옆모습이 가려져 환자의 평상시 실제 안모를 표현할 수 없게 된다. 즉, 환자의 현재 안모를 사실적으로 확인하기 위하여 3D 얼굴 스캔 영상을 촬영하는 것인데 고정기구물에 의해 사실적인 안모의 확인이 어려워져 3D 얼굴 스캔 영상을 활용하기 어려운 문제가 있는 것이다.
한국등록특허 제10-2273437호
본 발명의 목적은 CBCT 영상과 3D 얼굴 스캔 촬영 시 환자의 얼굴을 고정시키기 위한 고정기구물을 제거하여 평상시의 실제 안모를 촬영할 수 있고, 고정기구물의 부재로 인해 환자가 움직이더라도 움직임을 보정하여 선명한 3D 영상을 얻을 수 있는 데이터 정합 장치 및 방법을 제공하는데 있다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 제1 측면은, 데이터 정합 장치에서 수행되는 데이터 정합 방법에 있어서, CBCT(Cone Beam Computed Tomography) 데이터와 3D 스캔 데이터의 획득 시점을 동기화하는 단계, 상기 CBCT 데이터와 3D 스캔 데이터의 좌표계를 일치시키는 단계, 상기 3D 스캔 데이터가 획득될 때마다 생성된 깊이 맵을 정합하여 움직임이 보정된 3D 스캔 영상을 구성하는 단계, 및 상기 깊이 맵의 정합에 의해 획득된 움직임 정보를 적용하여, 상기 CBCT 데이터로부터 상기 움직임이 보정된 CBCT 3D 영상을 구성하는 단계를 포함한다.
바람직하게, 상기 동기화하는 단계는, 상기 CBCT 데이터를 획득하기 위한 CBCT 촬영 장치와 상기 3D 스캔 데이터를 획득하기 위한 3D 스캔 촬영 장치의 프레임 레이트를 일치시키는 단계, 및 상기 CBCT 촬영 장치가 상기 CBCT 데이터를 검출하기 시작하는 시점과 상기 3D 스캔 촬영 장치가 상기 3D 스캔 데이터를 촬영하기 시작하는 시점을 일치시키는 단계를 포함할 수 있다.
바람직하게, 상기 좌표계를 일치시키는 단계는, 상기 CBCT 데이터와 3D 스캔 데이터의 정합 오차를 최소화하기 위해 ICP(Iterative Closest Point) 알고리즘을 이용하여 트랜스폼(transform)을 산출하는 단계, 상기 트랜스폼을 상기 3D 스캔 데이터에 적용하는 단계, 및 상기 트랜스폼이 적용된 3D 스캔 데이터를 상기 CBCT 데이터로 이동시키는 단계를 포함할 수 있다.
바람직하게, 상기 3D 스캔 영상을 구성하는 단계는, 상기 3D 스캔 데이터가 획득되는 매 프레임마다 깊이 맵을 생성하는 단계, 상기 생성한 깊이 맵 간에 차이가 있는 것으로 확인되면, 차이가 있는 두 깊이 맵을 ICP 알고리즘을 이용하여 정합하는 단계, 상기 두 깊이 맵을 정합하기 위해 상기 ICP 알고리즘을 통해 산출된 트랜스폼을 움직임 정보로 설정하는 단계를 포함할 수 있다.
바람직하게, 상기 깊이 맵을 획득하는 단계는, 상기 3D 스캔 데이터를 획득하기 위한 3D 스캔 촬영 장치의 프로젝터로부터 촬영 대상에 대해 출력된 특정 패턴을 상기 3D 스캔 촬영 장치의 카메라가 촬영하면, 상기 특정 패턴으로부터 상기 카메라 간 또는 상기 카메라와 프로젝터 간의 대응점을 검출하는 단계, 상기 대응점에 대해 상기 카메라의 픽셀별로 깊이 정보를 획득하는 단계, 및 상기 깊이 정보를 기초로 깊이 맵을 생성하는 단계를 포함할 수 있다.
바람직하게, 상기 CBCT 3D 영상을 구성하는 단계는, 상기 움직임 정보가 설정된 3D 스캔 데이터의 획득 시점에 획득된 CBCT 데이터를 검색하는 단계, 및 상기 검색된 CBCT 데이터에 상기 움직임 정보인 트랜스폼을 적용하여 역투사(backprojection)하는 단계를 포함할 수 있다.
상기 목적을 달성하기 위한 본 발명의 제2 측면은, 데이터 정합 장치로서, CBCT(Cone Beam Computed Tomography) 데이터와 3D 스캔 데이터의 획득 시점을 동기화하는 시점 동기화부, 상기 CBCT 데이터와 3D 스캔 데이터의 좌표계를 일치시키는 좌표 동기화부, 상기 3D 스캔 데이터가 획득될 때마다 생성된 깊이 맵을 정합하여 움직임이 보정된 3D 스캔 영상을 구성하는 3D 스캔 영상 구성부, 및 상기 깊이 맵의 정합에 의해 획득된 움직임 정보를 적용하여, 상기 CBCT 데이터로부터 상기 움직임이 보정된 CBCT 3D 영상을 구성하는 CBCT 3D 영상 구성부를 포함한다.
상기 목적을 달성하기 위한 본 발명의 제3 측면은 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램에 있어서, 상기 컴퓨터 프로그램의 명령이 실행될 경우, 데이터 정합 방법이 수행되는 것을 특징으로 한다.
상기한 바와 같이 본 발명에 의하면, 촬영 장치에 환자의 얼굴을 고정하기 위한 고정기구물이 불필요하고, 환자의 움직임으로 인한 모션 블러(motion blur)가 보정된 CBCT 영상과 3D 얼굴 스캔 영상을 동시에 얻을 수 있고, 촬영 후 추가적인 CBCT 영상과 3D 얼굴 스캔 영상의 데이터 정합이 필요 없는 효과가 있다.
도 1은 종래의 촬영 장치를 나타내는 예시도이다.
도 2는 본 발명의 바람직한 실시예에 따른 데이터 정합 장치를 나타내는 블록도이다.
도 3은 일 실시예에 따른 데이터 정합 방법을 나타내는 흐름도이다.
도 4는 일 실시예에 따른 좌표계 일치 과정을 설명하기 위한 예시도이다.
도 5는 일 실시예에 따른 깊이 맵 생성 과정을 설명하기 위한 예시도이다.
도 6은 일 실시예에 따른 깊이 맵 정합 과정을 설명하기 위한 예시도이다.
도 7은 일 실시예에 따른 CBCT 3D 영상을 구성하는 과정을 설명하기 위한 예시도이다.
도 8은 일 실시예에 따른 CBCT 3D 영상 및 3D 스캔 영상을 나타내는 예시도이다.
도 9는 일 실시예에 따른 촬영 장치를 나타내는 예시도이다.
이하, 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. "및/또는"은 언급된 아이템들의 각각 및 하나 이상의 모든 조합을 포함한다.
비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.
또한, 각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 “포함한다(comprises)" 및/또는 “포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
또한, 본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 2는 본 발명의 바람직한 실시예에 따른 데이터 정합 장치를 나타내는 블록도이다.
도 2를 참조하면, 데이터 정합 장치(200)는 시점 동기화부(210), 좌표 동기화부(220), 3D 스캔 영상 구성부(230), CBCT 3D 영상 구성부(240), 및 제어부(250)를 포함한다. 여기에서, 제어부(250)는 시점 동기화부(210), 좌표 동기화부(220), 3D 스캔 영상 구성부(230), 및 CBCT 3D 영상 구성부(240)의 동작 및 데이터의 흐름을 제어한다.
먼저, 데이터 정합 장치(200)는 콘빔CT(Cone Beam Computed Tomography; CBCT) 데이터와 3차원(3D) 얼굴 스캔 데이터를 기초로 CBCT 3D 영상과 3D 스캔 영상을 구성하는 장치이다. 바람직하게, 데이터 정합 장치(200)는 CBCT 데이터를 획득하기 위한 CBCT 촬영 장치 및 3D 스캔 데이터를 획득하기 위한 3D 스캔 촬영 장치와 별도로 구비되거나, CBCT 촬영 장치 또는 3D 스캔 촬영 장치에 일체화되어 구성될 수 있다. 데이터 정합 장치(200)가 CBCT 촬영 장치 또는 3D 스캔 촬영 장치와 별도로 구비되는 경우에는 물리적으로 분리되어 있는 CBCT 촬영 장치 또는 3D 스캔 촬영 장치와 무선 네트워크 또는 유선 연결되어 CBCT 데이터 또는 3D 스캔 데이터를 획득하여 이하에서 설명할 데이터 정합 방법을 수행할 수 있다. 즉, 본 발명에 따른 데이터 정합 장치(200)는 CBCT 데이터 및 3D 스캔 데이터만 획득 가능하면 그 형태에는 제한이 없고, 이는 본 발명의 기술분야에 속하는 통상의 기술자에 의하여 용이하게 변형 가능한 정도이다. 또한, CBCT 촬영 장치, 3D 스캔 장치, CBCT 데이터 획득 방법, 및 3D 스캔 데이터 획득 방법은 본 발명이 속하는 기술분야에서 널리 알려진 기술이므로 여기에서는 상세하게 설명하지 않는다.
바람직하게, 데이터 정합 장치(200)는 컴퓨터로서 데이터 정합 방법을 수행하기 위한 어플리케이션 또는 프로그램을 설치하여 실행할 수 있고, 사용자 인터페이스(User Interface)를 구비하여 데이터의 입출력이 제어될 수 있다. 여기에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.
도 2에 도시된 데이터 정합 장치(200)의 각 구성을 통하여 수행되는 동작은 이하 도 3을 참조하여 상세하게 설명한다. 도 3을 참조하여 설명될 각 단계는 서로 다른 구성에 의하여 수행되는 것으로 기재하였으나 이에 제한되는 것은 아니며, 실시예에 따라 각 단계들의 적어도 일부는 서로 동일하거나 다른 구성에서 수행될 수도 있다.
도 3은 일 실시예에 따른 데이터 정합 방법을 나타내는 흐름도이다.
도 3을 참조하면, 시점 동기화부(210)는 CBCT 데이터와 3D 스캔 데이터의 획득 시점을 동기화한다(단계 S310). 바람직하게, 시점 동기화부(210)는 CBCT 데이터를 획득하기 위한 CBCT 촬영 장치와 3D 스캔 데이터를 획득하기 위한 3D 스캔 촬영 장치의 프레임 레이트를 일치시키고, CBCT 촬영 장치가 CBCT 데이터를 검출하기 시작하는 시점과 3D 스캔 촬영 장치가 3D 스캔 데이터를 촬영하기 시작하는 시점을 일치시킬 수 있다. 즉, CBCT 촬영 장치의 로테이터(rotator)가 회전하면서 디텍터(detector)가 각도마다 데이터를 획득하는 시점이 3D 스캔 촬영의 몇 번째 측정(measurement)에 대응하는지 알 수 있도록 CBCT 촬영 장치의 디텍터와 3D 스캔 촬영 장치의 카메라를 동기화 시키는 것이다.
예를 들어, 시점 동기화부(210)는, CBCT 촬영 장치의 프레임 레이트가 30FPS(Frame Per Second)에 해당하여 1/30초당 한 프레임에 해당하는 CBCT 데이터(즉, 프로젝션 데이터)를 획득한다면 3D 스캔 촬영 장치의 프레임 레이트도 30FPS로 설정하고, CBCT 촬영 장치의 디텍터가 CBCT 데이터를 획득하는 시작점과 3D 스캔 촬영 장치가 3D 스캔 데이터를 촬영하는 시작점을 동일하게 맞출 수 있다.
좌표 동기화부(220)는 CBCT 데이터와 3D 스캔 데이터의 좌표계를 일치시킨다(단계 S320). 여기에서, 좌표 동기화부(220)가 좌표계를 일치시키는 과정은 CBCT 데이터와 3D 스캔 데이터를 3차원 공간 상에서 정합하여 좌표계를 동일시하기 위한 것으로서, 움직이지 않는 고정 물체에 대해 CBCT와 3D 스캔을 동시 또는 각각 촬영하여 얻어진 CBCT 데이터와 3D 스캔 데이터를 이용하여 한번만 수행되면 된다. 즉, 환자를 대상으로 촬영된 데이터를 이용할 필요가 없고 환자의 CBCT 3D 영상과 3D 스캔 영상을 획득하기 위한 촬영 전에 수행되는 것이 바람직하나, 수행 순서는 여기에 제한되지 않는다.
바람직하게, 좌표 동기화부(220)는 CBCT 데이터와 3D 스캔 데이터의 정합 오차를 최소화하기 위해 ICP(Iterative Closest Point) 알고리즘을 이용하여 트랜스폼(transform)을 산출할 수 있다. ICP 알고리즘 및 ICP 알고리즘을 이용한 트랜스폼의 산출 방법은 본 발명의 기술분야에 속하는 통상의 기술자에 의하여 용이하게 수행될 수 있으므로 여기에서 상세하게 설명하지 않는다. 좌표 동기화부(220)는 산출된 트랜스폼을 3D 스캔 데이터에 적용하고 트랜스폼이 적용된 3D 스캔 데이터를 CBCT 데이터로 이동시켜 두 데이터의 좌표계를 일치시킬 수 있다.
예를 들어, 좌표계 일치 과정을 설명하기 위한 예시도인 도 4를 참조하면, 좌표 동기화부(220)는 3D 스캔 데이터(410) 및 CBCT 데이터(420)를 획득하고, 3D 스캔 데이터(410)를 S라하고 CBCT 데이터(420)를 D라 할 때, ICP 알고리즘을 이용하여 ∥TS-D∥가 최소가 되는 트랜스폼 T를 산출할 수 있다. 그 다음, 산출된 트랜스폼 T를 3D 스캔 데이터(410)에 적용하고 3D 스캔 데이터(410)를 CBCT 데이터(420)에 이동시켜 부호 430이 가리키는 도면과 같이 두 데이터의 좌표를 일치시킬 수 있다.
단계 S310과 단계 S320을 통해 동기화 설정이 완료되면, CBCT 데이터와 3D 스캔 데이터의 촬영 이후 추가적인 데이터 정합 없이 CBCT와 3D 스캔의 동시 촬영과 함께 실시간으로 데이터 정합이 수행되어 CBCT 3D 영상과 3D 스캔 영상이 바로 구성될 수 있다. 즉, 프레임 레이트를 변경하지 않는 한, 단계 S310 및 S320은 한번만 수행된 후, 환자 촬영시마다 단계 S330 및 S340의 반복 수행에 의해 환자에 대한 CBCT 3D 영상과 3D 스캔 영상이 획득될 수 있는 것이다.
3D 스캔 영상 구성부(230)는 3D 스캔 데이터가 획득될 때마다 생성된 깊이 맵을 정합하여 움직임이 보정된 3D 스캔 영상을 구성한다(단계 S330).
바람직하게, 3D 스캔 영상 구성부(230)는 3D 스캔 데이터가 획득되는 매 프레임마다 깊이 맵을 생성할 수 있다. 깊이 맵이란 3차원 컴퓨터 그래픽스에서 관찰 시점으로부터 물체 표면과의 거리에 대한 정보가 담긴 하나의 영상으로서, 깊이 맵 생성 과정을 설명하기 위한 예시도인 도 5를 참조하여 보다 상세하게 설명한다. 3D 스캔 촬영 장치는 하나 이상의 프로젝터(510)와 하나 이상의 카메라(520)로 구성될 수 있다. 프로젝터(510)에서 특정 패턴을 촬영 대상에 출력하게 되면 카메라(520)는 촬영 대상 위에 출력된 특정 패턴 촬영하고, 3D 스캔 영상 구성부(230)는 카메라가 촬영한 특정 패턴으로부터 카메라 간 또는 카메라와 프로젝터 간의 대응점을 검출할 수 있다. 여기에서, 대응점은 카메라의 개수 또는 프로젝터의 개수에 따라 카메라 간에도 찾아질 수 있고 카메라와 프로젝터 간에도 찾아질 수 있다. 그 다음, 3D 스캔 영상 구성부(230)는 검출된 대응점에 대해 카메라의 픽셀별로 깊이 정보를 획득하고, 깊이 정보를 기초로 깊이 맵을 생성할 수 있다. 깊이 맵은 매 프레임에 대해 생성되는 것으로서, 예를 들어, 프레임 레이트가 30FPS라면 초당 30개의 프레임 각각에 대하여 깊이 맵이 생성될 수 있다.
바람직하게, 3D 스캔 영상 구성부(230)는 매 프레임마다 생성한 깊이 맵 간에 차이가 있는 것으로 확인되면, 차이가 있는 두 깊이 맵을 ICP 알고리즘을 이용하여 정합할 수 있다. 촬영 중간에 촬영 대상인 환자가 움직이면 3D 스캔 데이터로부터 획득된 깊이 맵에 차이가 발생하게 되므로, 매 프레임마다 획득된 깊이 맵을 정합하는 것을 통해 선명한 3D 스캔 영상을 획득할 수 있고, 이에 더하여 각 프레임마다 발생된 환자의 움직임도 알 수 있게 된다.
예를 들어, 깊이 맵 정합 과정을 설명하기 위한 예시도인 도 6을 참조하면, 첫번째 프레임에 생성된 깊이 맵을 f1(610)이라 하고, 두번째 프레임에 생성된 깊이 맵을 f2(620)라고 한다. 즉, 촬영 중에 환자의 움직임이 발생하여 깊이 맵이 f1(610)에서 f2(620)로 움직인 것으로서, 3D 스캔 영상 구성부(230)는 ICP 알고리즘을 통해 f2(620)를 f1(610)에 정합시키기 위한 트랜스폼 T를 구할 수 있다. 이 때 트랜스폼의 인버스인 T-1가 환자의 실제 움직임에 해당하고, 트랜스폼 T가 f2(620)에 적용되면 부호 630이 가리키는 도면과 같이 f1(610)과 f2(620)가 정합되는 것이다.
일 실시예에서, 매 프레임마다 생성된 깊이 맵들은 첫번째 프레임을 기준으로 정합될 수 있다. 즉, 아래의 [표 1]과 같이 첫번째 프레임에 대한 깊이 맵 f1을 기준으로, 3D 스캔 영상 구성부(230)는 두번째 프레임에 대한 깊이 맵 f2를 f1에 정합시키기 위한 트랜스폼 T2를 구하여 f2에 T2를 적용하고, 세번째 프레임에 대한 깊이 맵 f3을 f1에 정합시키기 위한 트랜스폼 T3을 구하여 f3에 T3을 적용하는 방식으로 매 프레임마다 생성된 깊이 맵을 정합할 수 있다. 깊이 맵 간의 정합은 기준이 되는 프레임에 대해 모든 프레임의 정합이 수행될 수 있고, 또는 기준이 되는 깊이 맵과 동일한 깊이 맵을 가지는 프레임에 대해서는 정합이 수행되지 않을 수도 있다.
[표 1]
다른 실시예에서, 매 프레임마다 생성된 깊이 맵들은 특정 기준을 만족하는 프레임을 기준으로 정합될 수 있다. 여기에서, 특정 기준이란 깊이 맵의 차이가 발생하지 않은 최대 구간의 프레임이거나, 깊이 맵의 차이가 발생하지 않는 구간의 크기가 기설정된 구간을 초과하는 경우에 해당할 수 있다. 즉, 3D 스캔 영상 구성부(230)는 모든 프레임에 대한 깊이 맵이 생성되면, 깊이 맵들 간의 차이가 존재하는지 여부를 확인하고, 차이가 존재하지 않는 구간이 있다면 해당 구간들 중 가장 큰 구간의 프레임에 대한 깊이 맵을 정합의 기준으로 설정하여 정합을 수행하거나, 차이가 존재하지 않는 구간이 기설정된 크기의 구간을 만족하면 해당 구간에 속하는 프레임을 깊이 맵 정합의 기준으로 설정하여 정합을 수행할 수 있다.
예를 들어, 첫번째 프레임 f1과 마지막 프레임 fn 사이의 각 프레임 중에서 f2~f4 프레임 간의 깊이 맵이 동일하고, f6~f20간의 깊이 맵이 동일하다면, f6~f20의 구간이 깊이 맵 간의 차이가 존재하지 않는 가장 큰 구간이므로 f6~f20의 프레임 중 하나(여기에서는 f6을 기준으로 하는 것으로 함)에 해당하는 프레임을 기준으로 정합이 수행될 수 있다. 또는 f6~f18간의 깊이 맵이 동일하고 기 설정된 구간의 크기가 10이라면 f6~f18은 그 구간의 크기를 만족하므로 f6~f18의 프레임 중 하나(여기에서는 f6을 기준으로 하는 것으로 함)해당하는 프레임을 기준으로 정합이 수행될 수 있다. 아래의 [표 2]를 참조하면, 여섯번째 프레임에 대한 깊이 맵 f6을 기준으로, 3D 스캔 영상 구성부(230)는 첫번째 프레임에 대한 깊이 맵 f1을 f6에 정합시키기 위한 트랜스폼 T1을 구하여 f1에 T1을 적용하고, 두번째 프레임에 대한 깊이 맵 f2를 f6에 정합시키기 위한 트랜스폼 T2를 구하여 f2에 T2를 적용하는 방식으로 매 프레임마다 생성된 깊이 맵을 정합할 수 있다. f6~f18에 대한 깊이 맵은 서로 동일하므로 정합이 수행되지 않을 수 있다.
[표 2]
바람직하게, 3D 스캔 영상 구성부(230)는 두 깊이 맵을 정합하기 위해 ICP 알고리즘을 통해 산출된 트랜스폼을 움직임 정보로 설정할 수 있다. 3D 스캔 영상 구성부(230)는 각 프레임별 움직임 정보를 서로 매칭하여 설정할 수 있고, 예를 들어, [표 1]에서, 프레임 f2의 움직임 정보는 T2, 프레임 f3의 움직임 정보는 T3, 프레임 f30의 움직임 정보는 T30으로 설정할 수 있다.
이와 같이, 3D 스캔 영상 구성부(230)는 깊이 맵의 정합을 통해 3D 스캔 영상을 구성함과 동시에 움직임 정보를 획득하는 것이다.
CBCT 3D 영상 구성부(240)는 단계 S330에서 깊이 맵의 정합에 의해 획득된 움직임 정보를 적용하여, CBCT 데이터로부터 움직임이 보정된 CBCT 3D 영상을 구성한다(단계 S340). CBCT 데이터는 역투사(backprojection)를 통해 3차원 영상으로 구성되는데, 각 프레임의 CBCT 데이터를 역투사할 때 단계 S330에서 획득된 움직임 정보를 적용하여 모션 블러(motion blur)가 없는 영상을 획득하고자 하는 것이다.
바람직하게, CBCT 3D 영상 구성부(240)는 움직임 정보가 설정된 3D 스캔 데이터의 획득 시점에 획득된 CBCT 데이터를 검색할 수 있다. 보다 구체적으로, CBCT 3D 영상 구성부(240)는 단계 S330에서 설정된 프레임별 움직임 정보를 기초로 움직임 정보가 설정된 3D 스캔 데이터의 프레임을 확인하고, 해당 3D 스캔 데이터의 프레임이 획득된 시점에 획득된 CBCT 데이터를 확인한다. CBCT 데이터의 획득 시점과 3D 스캔 데이터의 획득 시점은 단계 S310에서 동기화된 상태이므로 CBCT 3D 영상 구성부(240)는 움직임이 발생한 3D 스캔 데이터가 몇번째 프레임인지를 기초로 해당 시점의 CBCT 데이터를 찾을 수 있다. 이 때, 찾아진 CBCT 데이터는 3D 스캔 데이터의 해당 프레임과 동일한 시점 또는 제일 가까운 시점에 획득된 프레임에 해당할 수 있다.
그 다음, CBCT 3D 영상 구성부(240)는 검색된 CBCT 데이터에 움직임 정보인 트랜스폼을 적용하여 역투사(backprojection)할 수 있다. CBCT 3D 영상을 구성하는 과정을 설명하기 위한 예시도인 도 7을 참조하면, CBCT 3D 영상 구성부(240)는 x위치에 대한 CBCT 데이터를 역투사(backprojection)할 때, 움직임 정보인 트랜스폼 T를 이용하여 x대신 Tx에 역투사 값을 대응시켜 움직임을 보정한 CBCT 3D 영상을 복원할 수 있다. 즉, CBCT 데이터를 3D로 구성할 때 단계 S330에서 구한 움직임 정보(T)를 반영하여 역투사를 하는 것이다.
예를 들어, [표 1]과 같이 3D 스캔 영상 구성부(230)가 3D 스캔 데이터의 각 프레임별 트랜스폼을 구하고 트랜스폼을 움직임 정보로 설정해 놓았다고 할 때, CBCT 3D 영상 구성부(240)는 f1에 대한 움직임 정보는 없으므로 첫번째 프레임에 해당하는 CBCT 데이터 F1은 그대로 역투사 하고, f2에 대한 움직임 정보는 T2이므로 두번째 프레임에 해당하는 CBCT 데이터 F2는 T2를 적용하여 역투사 하고, f3에 대한 움직임 정보는 T3이므로 세번째 프레임에 해당하는 CBCT 데이터 F3은 T3을 적용하여 역투사 하고, 이와 동일한 방식으로 마지막 프레임에 해당하는 CBCT 데이터까지 역투사를 수행하여 CBCT 3D 영상을 구성할 수 있다.
여기에서, 단계 S320을 통해 CBCT 데이터와 3D 스캔 데이터의 좌표계를 일치시켜 놓았기 때문에, 3D 스캔 데이터로부터 획득한 움직임 정보가 CBCT 데이터의 3D 영상 구성 시 그대로 사용가능한 것이다.
이와 같이, CBCT 3D 영상 구성부(240)는 움직임 정보를 적용한 역투사를 통해 CBCT 데이터로부터 CBCT 3D 영상을 획득하는 것이다.
또한, 단계 S340이 단계 S330 이후에 수행되는 것으로 설명하였으나 동시에 병렬적으로 수행될 수도 있다. 즉, 단계 S330은 3D 스캔 데이터를 이용하는 것이고 단계 S340은 CBCT 데이터를 이용하는 것이므로 단계 S330을 통해 매 프레임별로 움직임 정보가 설정될 때마다 단계 S340을 통해 실시간으로 해당 움직임 정보를 반영한 CBCT 3D 영상 구성이 동시에 수행될 수 있는 것이다.
도 8은 일 실시예에 따른 CBCT 3D 영상 및 3D 스캔 영상을 나타내는 예시도이다.
도 8을 참조하면, 움직임이 보정된 3D 스캔 영상(810), 움직임이 보정되지 않은 CBCT 3D 영상(820), 및 움직임이 보정된 CBCT 3D 영상(830)이다.
바람직하게, 움직임이 보정된 3D 스캔 영상(810) 및 움직임이 보정된 CBCT 3D 영상(830)이 본 발명에 따른 데이터 정합 방법에 의해 획득되는 영상으로서, 도 3을 참조하여 설명한 단계 S310 및 단계 S320이 수행된 후, 특정 환자에 대하여 획득된 모든 3D 스캔 데이터에 대해 단계 S330을 통한 깊이 맵 정합이 수행되면 3D 스캔 영상(810)이 획득되고, 모든 각도에서의 CBCT 데이터에 대해 단계 S340을 통한 역투사가 수행되면 CBCT 3D 영상(830)이 획득되는 것이다.
움직임이 보정되지 않은 CBCT 3D 영상(820)과 움직임이 보정된 CBCT 3D 영상(830)을 대비하여 보면, 움직임이 보정되지 않은 CBCT 3D 영상(820)은 환자의 움직임으로 인하여 모션 블러가 발생한 것을 볼 수 있고, 움직임이 보정된 CBCT 3D 영상(830)은 3D 스캔 영상의 깊이 맵 정합 과정에서 산출된 트랜스폼을 적용하여 움직임이 보정됨에 따라 선명한 영상이 획득된 것을 볼 수 있다.
도 9는 일 실시예에 따른 촬영 장치를 나타내는 예시도이다.
종래에는 CBCT 영상을 촬영하기 위해서는 부호 910에 해당하는 촬영 장치에 빨간색 점선으로 표시된 바와 같이 환자의 얼굴을 움직이지 못하게 고정하기 위한 고정기구물이 필수적이었으나, 본 발명에 의하면 환자가 촬영 중 움직이더라도 움직임을 보정한 CBCT 3D 영상과 3D 스캔 영상을 바로 획득할 수 있으므로 부호 920에 해당하는 촬영 장치와 같이 고정기구물 없이 촬영 장치의 구조가 설계될 수 있다. 도 9에 도시된 촬영 장치의 구조는 고정기구물의 유무를 설명하기 위한 것으로서, 본 발명에 의한 발명이 해당 구조로 형성되는 것임을 나타내는 것은 아니고, 고정기구물이 없는 구조라면 어떠한 구조로도 변형될 수 있다.
한편, 본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시예는 데이터구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.
전술한 본 발명에 따른 데이터 정합 장치 및 방법에 대한 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명에 속한다.
200: 데이터 정합 장치
210: 시점 동기화부
220: 좌표 동기화부
230: 3D 스캔 영상 구성부
240: CBCT 3D 영상 구성부
250: 제어부

Claims (8)

  1. 데이터 정합 장치에서 수행되는 데이터 정합 방법에 있어서,
    CBCT(Cone Beam Computed Tomography) 데이터와 3D 스캔 데이터의 획득 시점을 동기화하는 단계;
    상기 CBCT 데이터와 3D 스캔 데이터의 좌표계를 일치시키는 단계;
    상기 3D 스캔 데이터가 획득될 때마다 생성된 깊이 맵을 정합하여 움직임이 보정된 3D 스캔 영상을 구성하는 단계; 및
    상기 깊이 맵의 정합에 의해 획득된 움직임 정보를 적용하여, 상기 CBCT 데이터로부터 상기 움직임이 보정된 CBCT 3D 영상을 구성하는 단계를 포함하는 데이터 정합 방법.
  2. 제1항에 있어서, 상기 동기화하는 단계는,
    상기 CBCT 데이터를 획득하기 위한 CBCT 촬영 장치와 상기 3D 스캔 데이터를 획득하기 위한 3D 스캔 촬영 장치의 프레임 레이트를 일치시키는 단계; 및
    상기 CBCT 촬영 장치가 상기 CBCT 데이터를 검출하기 시작하는 시점과 상기 3D 스캔 촬영 장치가 상기 3D 스캔 데이터를 촬영하기 시작하는 시점을 일치시키는 단계를 포함하는 데이터 정합 방법.
  3. 제1항에 있어서, 상기 좌표계를 일치시키는 단계는,
    상기 CBCT 데이터와 3D 스캔 데이터의 정합 오차를 최소화하기 위해 ICP(Iterative Closest Point) 알고리즘을 이용하여 트랜스폼(transform)을 산출하는 단계;
    상기 트랜스폼을 상기 3D 스캔 데이터에 적용하는 단계; 및
    상기 트랜스폼이 적용된 3D 스캔 데이터를 상기 CBCT 데이터로 이동시키는 단계를 포함하는 데이터 정합 방법.
  4. 제1항에 있어서, 상기 3D 스캔 영상을 구성하는 단계는,
    상기 3D 스캔 데이터가 획득되는 매 프레임마다 깊이 맵을 생성하는 단계;
    상기 생성한 깊이 맵 간에 차이가 있는 것으로 확인되면, 차이가 있는 두 깊이 맵을 ICP 알고리즘을 이용하여 정합하는 단계;
    상기 두 깊이 맵을 정합하기 위해 상기 ICP 알고리즘을 통해 산출된 트랜스폼을 움직임 정보로 설정하는 단계를 포함하는 데이터 정합 방법.
  5. 제4항에 있어서, 상기 깊이 맵을 획득하는 단계는,
    상기 3D 스캔 데이터를 획득하기 위한 3D 스캔 촬영 장치의 프로젝터로부터 촬영 대상에 대해 출력된 특정 패턴을 상기 3D 스캔 촬영 장치의 카메라가 촬영하면, 상기 특정 패턴으로부터 상기 카메라 간 또는 상기 카메라와 프로젝터 간의 대응점을 검출하는 단계;
    상기 대응점에 대해 상기 카메라의 픽셀별로 깊이 정보를 획득하는 단계; 및
    상기 깊이 정보를 기초로 깊이 맵을 생성하는 단계를 포함하는 데이터 정합 방법.
  6. 제4항에 있어서, 상기 CBCT 3D 영상을 구성하는 단계는,
    상기 움직임 정보가 설정된 3D 스캔 데이터의 획득 시점에 획득된 CBCT 데이터를 검색하는 단계; 및
    상기 검색된 CBCT 데이터에 상기 움직임 정보인 트랜스폼을 적용하여 역투사(backprojection)하는 단계를 포함하는 데이터 정합 방법.
  7. CBCT(Cone Beam Computed Tomography) 데이터와 3D 스캔 데이터의 획득 시점을 동기화하는 시점 동기화부;
    상기 CBCT 데이터와 3D 스캔 데이터의 좌표계를 일치시키는 좌표 동기화부;
    상기 3D 스캔 데이터가 획득될 때마다 생성된 깊이 맵을 정합하여 움직임이 보정된 3D 스캔 영상을 구성하는 3D 스캔 영상 구성부; 및
    상기 깊이 맵의 정합에 의해 획득된 움직임 정보를 적용하여, 상기 CBCT 데이터로부터 상기 움직임이 보정된 CBCT 3D 영상을 구성하는 CBCT 3D 영상 구성부를 포함하는 데이터 정합 장치.
  8. 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램의 명령이 실행될 경우, 제1항 내지 제6항 중 어느 한 항에 따른 방법이 수행되는 것을 특징으로 하는 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램.
KR1020220051843A 2022-04-27 2022-04-27 콘빔ct 및 3차원 스캔의 동시 촬영을 통한 데이터 정합 장치 및 방법 KR20230152854A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220051843A KR20230152854A (ko) 2022-04-27 2022-04-27 콘빔ct 및 3차원 스캔의 동시 촬영을 통한 데이터 정합 장치 및 방법
PCT/KR2023/001656 WO2023210934A1 (ko) 2022-04-27 2023-02-06 콘빔ct 및 3차원 스캔의 동시 촬영을 통한 데이터 정합 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220051843A KR20230152854A (ko) 2022-04-27 2022-04-27 콘빔ct 및 3차원 스캔의 동시 촬영을 통한 데이터 정합 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20230152854A true KR20230152854A (ko) 2023-11-06

Family

ID=88519046

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220051843A KR20230152854A (ko) 2022-04-27 2022-04-27 콘빔ct 및 3차원 스캔의 동시 촬영을 통한 데이터 정합 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20230152854A (ko)
WO (1) WO2023210934A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102273437B1 (ko) 2021-01-20 2021-07-07 주식회사 에이치디엑스윌 컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 정합 장치 및 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6292530B1 (en) * 1999-04-29 2001-09-18 General Electric Company Method and apparatus for reconstructing image data acquired by a tomosynthesis x-ray imaging system
KR101878467B1 (ko) * 2016-11-01 2018-07-13 한국과학기술연구원 3차원 치아 영상 데이터와 광학식 스캔 치아 모델의 선택적 정합 방법, 장치 및 프로그램
WO2019002616A1 (en) * 2017-06-30 2019-01-03 Carestream Dental Technology Topco Limited SURFACE CARTOGRAPHY USING AN INTRA-MOBILE SCANNER HAVING PENETRATION CAPABILITIES
KR102581685B1 (ko) * 2017-06-30 2023-09-25 프로메이톤 홀딩 비.브이. 딥 러닝을 이용한 3d 구강 악안면 구조의 분류 및 3d 모델링

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102273437B1 (ko) 2021-01-20 2021-07-07 주식회사 에이치디엑스윌 컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 정합 장치 및 방법

Also Published As

Publication number Publication date
WO2023210934A1 (ko) 2023-11-02

Similar Documents

Publication Publication Date Title
KR101878467B1 (ko) 3차원 치아 영상 데이터와 광학식 스캔 치아 모델의 선택적 정합 방법, 장치 및 프로그램
JP6394005B2 (ja) 投影画像補正装置、投影する原画像を補正する方法およびプログラム
JP5739409B2 (ja) 第1の画像デバイスおよび第2の画像デバイスの相対位置を決定する方法及びこれらデバイス
KR102135770B1 (ko) 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치
US7177449B2 (en) Image correction system and method
US9947112B2 (en) Scanning device and method for positioning a scanning device
JP2002081922A (ja) 画像処理装置および画像処理方法、並びにプログラム
US20150172637A1 (en) Apparatus and method for generating three-dimensional output data
US10987198B2 (en) Image simulation method for orthodontics and image simulation device thereof
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
JP6342128B2 (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP2009211513A (ja) 画像処理装置及びその方法
KR20190101416A (ko) 촬영되도록 요구되는 해부학적 구조의 컴퓨터 단층촬영 및 위치결정
JP2022516487A (ja) 下顎と上顎の3dセグメンテーション
KR102082277B1 (ko) 파노라마 영상 생성 방법 및 그 장치
JP5410328B2 (ja) 光学投影安定化装置、光学投影安定化方法およびプログラム
EP3865067A1 (en) Patient model estimation from camera stream in medicine
KR20230152854A (ko) 콘빔ct 및 3차원 스캔의 동시 촬영을 통한 데이터 정합 장치 및 방법
CN110288707B (zh) 一种三维动态建模的方法及其系统
KR102453897B1 (ko) 컴퓨터 단층촬영 영상을 활용한 3차원 구강 스캔 데이터 복원 장치 및 방법
CN108814641A (zh) 用于成像装置的自动协议选择
KR101799399B1 (ko) 디지털 단층영상합성 시스템에서의 이분검색방법을 이용한 영상재구성 방법
JP2022094744A (ja) 被検体動き測定装置、被検体動き測定方法、プログラム、撮像システム
KR101307673B1 (ko) 전산화 단층 촬영장치의 호흡동기 영상 획득 방법
JP2002260017A (ja) 3次元形状データ生成方法および装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal