KR102098929B1 - 수술용 내비게이션의 표면 정합 방법 및 장치 - Google Patents

수술용 내비게이션의 표면 정합 방법 및 장치 Download PDF

Info

Publication number
KR102098929B1
KR102098929B1 KR1020180022793A KR20180022793A KR102098929B1 KR 102098929 B1 KR102098929 B1 KR 102098929B1 KR 1020180022793 A KR1020180022793 A KR 1020180022793A KR 20180022793 A KR20180022793 A KR 20180022793A KR 102098929 B1 KR102098929 B1 KR 102098929B1
Authority
KR
South Korea
Prior art keywords
medical image
point data
data
image point
extracted
Prior art date
Application number
KR1020180022793A
Other languages
English (en)
Other versions
KR20190102429A (ko
Inventor
문정환
유학제
심태용
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020180022793A priority Critical patent/KR102098929B1/ko
Publication of KR20190102429A publication Critical patent/KR20190102429A/ko
Application granted granted Critical
Publication of KR102098929B1 publication Critical patent/KR102098929B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Geometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Computer Graphics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은 수술용 내비게이션의 표면 정합 방법 및 장치에 관한 것으로, 본 발명의 일 실시 예에 따른 수술용 내비게이션의 표면 정합 방법은, 수술대상 표면에 대한 카메라 영상 데이터로부터 카메라 포인트 데이터를 추출하고, 상기 수술대상 표면에 대한 의료영상 데이터로부터 제1 의료영상 포인트 데이터를 추출하는 단계; 상기 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위한 제2 의료영상 포인트 데이터를 생성하여 의료영상 포인트 데이터를 개선하는 단계; 및 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 탐색하는 단계를 포함한다.

Description

수술용 내비게이션의 표면 정합 방법 및 장치{METHODS AND APPARATUSES FOR SURFACE REGISTRATION OF SURGICAL NAVIGATION}
본 발명은 수술용 내비게이션에 관한 것으로, 보다 상세하게는, 수술용 내비게이션의 표면 정합 방법 및 장치에 관한 것이다.
일반적으로 외과용 내비게이션 수술 시 사용되는 표면 정합은 수술 전 획득한 얼굴 CT(Computerized Tomography) 포인트 데이터(point data)와 수술 중 획득된 얼굴에 대한 광학 카메라 포인트 데이터들(Optical camera point data)의 포인트들 간 정합을 통해 수행된다. CT와 광학 카메라 포인트 데이터 간 정합을 통해 획득된 정합 정확도는 정확한 병변의 위치를 파악하여 수술의 성공률을 향상시키기 위한 중요한 지표로 사용될 수 있다. 일반적으로 수술 전 획득되는 CT 데이터의 포인트 수는 일정하게 유지된다.
수술용 내비게이션 시스템은 수술 전 획득한 환자의 CT(Computerized Tomography) 데이터와 수술하기 바로 직전에 획득하는 광학 카메라(optical camera) 데이터를 사용하여 표면 정합을 수행한다. 수술 전 획득한 CT 데이터는 재구성 알고리즘을 통해 정점들의 집합으로 재구성된다. 재구성 알고리즘은 마칭 큐브(marching cube)와 같은 의료영상을 3차원 격자의 정점들의 형태로 재구성한다.
일본 등록특허공보 제04938933호 (2012.03.02 등록)
CT 데이터가 정점들로 구성되는 과정에서 2가지 문제점이 존재하게 된다. 첫 번째 문제점은 1mm~4mm 슬라이스 간격으로 구성된 CT 데이터를 3차원으로 변환시킨 뒤, 얼굴 표면 부분만 획득하는 과정에서 세밀한 얼굴 표면을 구성하기 어렵다는 것이다. 두 번째 문제점은 얼굴 표면을 구성한 뒤, 마칭 큐브를 적용하기 직전에 획득될 얼굴 표면 정보에서 간헐적인 데이터 공백이 발생하게 된다.
그리고 정점화된 CT 데이터와 정합될 수술 바로 직전의 광학 카메라 데이터는 수술자의 수행방식에 따라 다양한 형태로 획득하게 된다. 앞서 말한 다양한 형태의 데이터의 형식은 수술자가 어느 부위에서 더욱 많은 데이터를 취하느냐, 또는 어떤 방향으로 환자얼굴 표면 데이터를 획득하느냐에 따라 달라지는 것을 의미한다. 이렇듯 마칭 큐브를 통해 획득된 CT 데이터, 수술자의 의해서 획득된 카메라 데이터는 각각이 갖고 있는 특정한 문제들이 존재하게 된다.
본 발명의 실시 예들은 의료영상 데이터를 추출하는 과정에서 발생하는 문제점을 극복할 뿐만 아니라, 카메라 데이터와 의료영상 데이터 간의 상이한 데이터 형태에서 발생하는 표면 정합의 정합 정확도 저하의 문제점을 극복할 수 있는, 수술용 내비게이션의 표면 정합 방법 및 장치를 제공하고자 한다.
본 발명의 실시 예들은 의료영상 데이터를 컴퓨터 데이터로 변환하는 과정에서 1차적으로 발생하는 불균일적인 데이터(예컨대, 1mm~4mm 슬라이스 간격)를 균일하게 연속적으로 재구성함으로써, 기초적인 의료영상을 연속적인 형태로 개선할 수 있는, 수술용 내비게이션의 표면 정합 방법 및 장치를 제공하고자 한다.
본 발명의 실시 예들은 수술대상(예컨대, 사용자의 얼굴) 표면 데이터를 실제 수술대상 표면과 유사한 곡면을 유지할 수 있도록 개선할 수 있는, 수술용 내비게이션의 표면 정합 방법 및 장치를 제공하고자 한다.
또한, 본 발명의 실시 예들은 개선된 의료영상 데이터와 비일관된 카메라 데이터들 간의 정합 정확도를 높은 정합 정확도 상태로 유지할 수 있는, 수술용 내비게이션의 표면 정합 방법 및 장치를 제공하고자 한다.
본 발명의 일 실시 예에 따르면, 수술용 내비게이션의 표면 정합 장치에 의해 수행되는 표면 정합 방법에 있어서, 수술대상 표면에 대한 카메라 영상 데이터로부터 카메라 포인트 데이터를 추출하고, 상기 수술대상 표면에 대한 의료영상 데이터로부터 제1 의료영상 포인트 데이터를 추출하는 단계; 상기 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위한 제2 의료영상 포인트 데이터를 생성하여 의료영상 포인트 데이터를 개선하는 단계; 및 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 탐색하는 단계를 포함하는 수술용 내비게이션의 표면 정합 방법이 제공될 수 있다.
상기 의료영상 포인트 데이터를 개선하는 단계는, 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위한 상기 제2 의료영상 포인트 데이터를 생성할 수 있다.
상기 의료영상 포인트 데이터를 개선하는 단계는, 상기 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위해 코어스 폴리곤 모델(Coarse polygon model)을 생성하고, 상기 생성된 코어스 폴리곤 모델과 상기 제1 의료영상 포인트 데이터를 최소 제곱 프로젝션 알고리즘에 적용하여 상기 제2 의료영상 포인트 데이터를 생성할 수 있다.
상기 의료영상 포인트 데이터를 개선하는 단계는, 상기 생성된 코어스 폴리곤 모델을 구성하는 포인트들을 상기 제1 의료영상 포인트 데이터에 프로젝션시켜 상기 제2 의료영상 포인트 데이터를 생성할 수 있다.
상기 의료영상 포인트 데이터를 개선하는 단계는, 상기 생성된 코어스 폴리곤 모델을 구성하는 포인트들 중에서 하나의 포인트로부터 상기 제1 의료영상 포인트 데이터들로 구성된 포인트 데이터 집단으로의 프로젝션 벡터를 계산하고, 상기 계산된 프로젝션 벡터를 이용하여 상기 제2 의료영상 포인트 데이터를 생성할 수 있다.
상기 의료영상 포인트 데이터를 개선하는 단계는, 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 제1 의료영상 포인트 데이터 사이에 상기 제2 의료영상 포인트 데이터를 생성할 수 있다.
상기 의료영상 포인트 데이터를 개선하는 단계는, 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 제1 의료영상 포인트 데이터의 불연속 형태를 연속적인 형태로 재곡면화하기 위한 지점에 상기 제2 의료영상 포인트 데이터를 생성할 수 있다.
상기 방법은, 상기 개선된 의료영상 포인트 데이터를 기설정된 간격 또는 밀도에 따라 재구성하는 단계를 더 포함할 수 있다.
상기 정합점을 탐색하는 단계는, 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 추가로 생성하고, 상기 생성된 정합점을 이용하여 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 정합할 수 있다.
상기 정합점을 탐색하는 단계는, 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 추가로 생성할 수 있다.
한편, 본 발명의 다른 실시 예에 따르면, 수술대상 표면에 대한 카메라 영상 데이터로부터 카메라 포인트 데이터를 추출하고, 상기 수술대상 표면에 대한 의료영상 데이터로부터 제1 의료영상 포인트 데이터를 추출하는 데이터 추출부; 상기 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위한 제2 의료영상 포인트 데이터를 생성하여 의료영상 포인트 데이터를 개선하는 데이터 개선부; 및 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 탐색하는 표면 정합부를 포함하는 수술용 내비게이션의 표면 정합 장치가 제공될 수 있다.
상기 데이터 개선부는, 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위한 상기 제2 의료영상 포인트 데이터를 생성할 수 있다.
상기 데이터 개선부는, 상기 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위해 코어스 폴리곤 모델(Coarse polygon model)을 생성하고, 상기 생성된 코어스 폴리곤 모델과 상기 제1 의료영상 포인트 데이터를 최소 제곱 프로젝션 알고리즘에 적용하여 상기 제2 의료영상 포인트 데이터를 생성할 수 있다.
상기 데이터 개선부는, 상기 생성된 코어스 폴리곤 모델을 구성하는 포인트들을 상기 제1 의료영상 포인트 데이터에 프로젝션시켜 상기 제2 의료영상 포인트 데이터를 생성할 수 있다.
상기 데이터 개선부는, 상기 생성된 코어스 폴리곤 모델을 구성하는 포인트들 중에서 하나의 포인트로부터 상기 제1 의료영상 포인트 데이터들로 구성된 포인트 데이터 집단으로의 프로젝션 벡터를 계산하고, 상기 계산된 프로젝션 벡터를 이용하여 상기 제2 의료영상 포인트 데이터를 생성할 수 있다.
상기 데이터 개선부는, 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 제1 의료영상 포인트 데이터 사이에 상기 제2 의료영상 포인트 데이터를 생성할 수 있다.
상기 데이터 개선부는, 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 제1 의료영상 포인트 데이터의 불연속 형태를 연속적인 형태로 재곡면화하기 위한 지점에 상기 제2 의료영상 포인트 데이터를 생성할 수 있다.
상기 데이터 개선부는, 상기 개선된 의료영상 포인트 데이터를 기설정된 간격 또는 밀도에 따라 재구성할 수 있다.
상기 표면 정합부는, 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 추가로 생성하고, 상기 생성된 정합점을 이용하여 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 정합할 수 있다.
상기 표면 정합부는, 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 추가로 생성할 수 있다.
본 발명의 실시 예들은 의료영상 데이터를 컴퓨터 데이터로 변환하는 과정에서 1차적으로 발생하는 불균일적인 데이터(예컨대, 1mm~4mm 간격)를 균일한 연속적으로 재구성함으로써, 기초적인 의료영상을 연속적인 형태로 개선할 수 있다.
본 발명의 실시 예들은 수술대상(예컨대, 사용자의 얼굴) 표면 데이터를 실제 수술대상 표면과 유사한 곡면을 유지할 수 있도록 개선할 수 있다.
또한, 본 발명의 실시 예들은 개선된 의료영상 데이터와 비일관된 카메라 데이터들 간의 정합 정확도를 높은 정합 정확도 상태로 유지할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 수술용 내비게이션 시스템의 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 수술용 내비게이션의 표면 정합 장치(130)의 구성을 설명하기 위한 도면이다.
도 3은 일반적인 CT 단층 영상을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 사용되는 얼굴 표면 데이터를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 사용되는 얼굴 표면의 CT 포인트 데이터를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 수술용 내비게이션의 표면 정합 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 수술용 내비게이션의 표면 정합 방법에서 데이터 개선 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 데이터 개선 방법에서 법선 벡터를 계산하는 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 데이터 개선 방법에서 거리 필드의 계산 과정 및 폴리곤 모델의 추출 과정을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시 예에 따른 데이터 개선 방법에서 LSP 알고리즘을 적용하는 과정을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시 예에 따른 CT 데이터 개선 레벨에 따른 CT 데이터 개선 변화 과정을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시 예에 따른 데이터 개선 방법에서 등밀도면 작업 과정을 설명하기 위한 도면이다.
도 13은 본 발명의 일 실시 예에 따른 등간격의 포인트 데이터로 재구성하는 과정을 설명하기 위한 도면이다.
도 14는 일반적인 CT 포인트 데이터와 본 발명의 일 실시 예에 따라 개선된 CT 포인트 데이터를 설명하기 위한 도면이다.
도 15는 본 발명의 일 실시 예에 따른 수술용 내비게이션의 표면 정합 방법에서 정합점 탐색 방법을 설명하기 위한 도면이다.
도 16 및 도 17은 본 발명의 일 실시 예에 따른 정합점 탐색 방법에 정합점을 탐색하는 과정을 설명하기 위한 도면이다.
도 18 및 도 19는 일반적인 ICP 알고리즘에 따른 표면 정합 과정 및 본 발명에 따른 표면 정합 과정을 설명하기 위한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 일 실시 예에 따른 수술용 내비게이션 시스템의 구성을 설명하기 위한 도면이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 수술용 내비게이션 시스템(100)은 카메라 영상 장치(110), 의료영상 장치(120) 및 표면 정합 장치(130)를 포함한다.
이하, 도 1의 수술용 내비게이션 시스템(100)의 각 구성요소들의 구체적인 구성 및 동작을 설명한다.
카메라 영상 장치(110)는 광학 카메라, 3차원 스캐너, 내시경 장치, 씨암(C-arm) 장치 및 광간섭 단층 촬영장치(optical coherence tomography) 중 어느 하나일 수 있다. 카메라 영상 장치(110)는 카메라 영상 데이터를 획득하여 표면 정합 장치(130)로 전달한다.
여기서, 카메라 영상 데이터는, 광학 카메라, 3차원 스캐너, 내시경 장치, 씨암(C-arm) 장치 및 광간섭 단층 촬영장치(optical coherence tomography) 중 어느 하나로부터 촬영되는 카메라 영상 데이터일 수 있다.
의료영상 장치(120)는 컴퓨터 단층촬영(computed tomography: CT) 장치, 자기공명영상(magnetic resonance imaging, MRI) 장치 및 양전자 단층 촬영(positron emission tomography, PET) 장치 중 어느 하나일 수 있다. 의료영상 장치(120)는 의료영상 데이터를 획득하여 표면 정합 장치(130)로 전달한다.
여기서, 의료영상 데이터는, 컴퓨터 단층촬영(computed tomography: CT) 장치, 자기공명영상(magnetic resonance imaging, MRI) 장치 및 양전자 단층 촬영(positron emission tomography, PET) 장치 중 어느 하나로부터 촬영되는 의료영상 데이터일 수 있다.
표면 정합 장치(130)는 표면 정합 시 필요로 하는 의료영상(예컨대, CT) 포인트 데이터를 개선하고, 그 개선된 의료영상 포인트 데이터와 광학 카메라 포인트 데이터를 이용함으로써, 정합 결과를 확인하기 위한 가상의 병변 위치를 정확하게 산출한다.
일례로, 표면 정합 장치(130)는 수술용 내비게이션에서 사용되는 표면 정합 방법 시, CT 포인트 데이터와 광학 카메라의 포인트 데이터 간 상이한 데이터 형태에서 발생하는 정합 정확도의 저하를 극복하기 위해 CT 포인트 데이터의 문제점을 해결하고, 문제점이 해결된 CT 포인트 데이터와 카메라 포인트 데이터 간 최적 정합점을 탐색할 수 있다.
이를 위해, 표면 정합 장치(130)는 크게 3단계의 데이터 처리 과정을 수행한다. 1차적으로, 표면 정합 장치(130)는 마칭 큐브(marching cube)로획득된 의료영상 포인트 데이터를 최소 제곱 프로젝션(least square projection) 알고리즘을 통해 재구성한다. 2차적으로, 표면 정합 장치(130)는 재구성된 면을 동일한 간격의 의료영상 포인트 데이터로 재정점화 시킨다. 3차적으로, 표면 정합 장치(130)는 재정점화 된 의료영상 포인트 데이터를 기반으로 카메라 포인트 데이터에 근접한 N 개(예컨대, 50개 등)의 의료영상 포인트 데이터를 획득하고, LSP 알고리즘을 적용시켜 N 개의 의료영상 포인트 데이터와 카메라 포인트 데이터 간 가장 가까운 공간상의 점을 수학적으로 획득하여 표면 정합을 수행한다.
도 2는 본 발명의 일 실시 예에 따른 수술용 내비게이션의 표면 정합 장치의 구성을 설명하기 위한 도면이다.
도 2에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 수술용 내비게이션의 표면 정합 장치(130)는 데이터 추출부(210), 데이터 개선부(220) 및 표면 정합부(230)를 포함한다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 수술용 내비게이션의 표면 정합 장치(130)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 수술용 내비게이션의 표면 정합 장치(130)는 구현될 수 있다.
이하, 도 2의 수술용 내비게이션의 표면 정합 장치(130)의 각 구성요소들의 구체적인 구성 및 동작을 설명한다.
데이터 추출부(210)는 수술대상 표면에 대한 카메라 영상 데이터로부터 카메라 포인트 데이터를 추출한다. 데이터 추출부(210)는 수술대상 표면에 대한 의료영상 데이터로부터 제1 의료영상 포인트 데이터를 추출한다.
데이터 개선부(220)는 데이터 추출부(210)에서 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위한 제2 의료영상 포인트 데이터를 생성하여 의료영상 포인트 데이터를 개선한다.
표면 정합부(230)는 데이터 추출부(210)에서 추출된 카메라 포인트 데이터와 데이터 개선부(220)에서 개선된 의료영상 포인트 데이터를 이용하여 정합점을 탐색한다.
데이터 개선부(220)는, 데이터 추출부(210)에서 추출된 제1 의료영상 포인트 데이터를 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라 연속적인 형태로 재곡면화하기 위한 제2 의료영상 포인트 데이터를 생성할 수 있다.
데이터 개선부(220)는, 데이터 추출부(210)에서 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위해 코어스 폴리곤 모델(Coarse polygon model)을 생성할 수 있다. 그리고 데이터 개선부(220)는 그 생성된 코어스 폴리곤 모델과 제1 의료영상 포인트 데이터를 최소 제곱 프로젝션 알고리즘에 적용하여 제2 의료영상 포인트 데이터를 생성할 수 있다.
여기서, 데이터 개선부(220)는, 생성된 코어스 폴리곤 모델을 구성하는 포인트들을 제1 의료영상 포인트 데이터에 프로젝션시켜 제2 의료영상 포인트 데이터를 생성할 수 있다.
데이터 개선부(220)는, 그 생성된 코어스 폴리곤 모델을 구성하는 포인트들 중에서 하나의 포인트로부터 제1 의료영상 포인트 데이터들로 구성된 포인트 데이터 집단으로의 프로젝션 벡터를 계산할 수 있다. 그리고 데이터 개선부(220)는 그 계산된 프로젝션 벡터를 이용하여 제2 의료영상 포인트 데이터를 생성할 수 있다.
데이터 개선부(220)는, 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 데이터 추출부(210)에서 추출된 제1 의료영상 포인트 데이터 사이에 위치하는 빈 공간에 제2 의료영상 포인트 데이터를 생성할 수 있다.
데이터 개선부(220)는, 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 데이터 추출부(210)에서 추출된 제1 의료영상 포인트 데이터의 불연속 형태를 연속적인 형태로 재곡면화하기 위한 지점에 제2 의료영상 포인트 데이터를 생성할 수 있다.
데이터 개선부(220)는, 개선된 의료영상 포인트 데이터를 기설정된 간격 또는 밀도에 따라 재구성할 수 있다.
표면 정합부(230)는, 데이터 추출부(210)에서 추출된 카메라 포인트 데이터와 데이터 개선부(220)에서 개선된 의료영상 포인트 데이터를 이용하여 정합점을 추가로 생성할 수 있다. 그리고 표면 정합부(230)는 그 생성된 정합점을 이용하여 데이터 추출부(210)에서 추출된 카메라 포인트 데이터와 개선된 의료영상 포인트 데이터를 정합할 수 있다.
표면 정합부(230)는, 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 데이터 추출부(210)에서 추출된 카메라 포인트 데이터와 개선된 의료영상 포인트 데이터를 이용하여 정합점을 추가로 생성할 수 있다.
도 3은 일반적인 CT 단층 영상을 설명하기 위한 도면이다.
도 3에 도시된 바와 같이, CT와 같은 의료영상은 단층(301)으로 촬영된다. 여기서, 각 단층(301)은 1mm~4mm 간격으로 촬영되고 있다.
도 4는 본 발명의 일 실시 예에 사용되는 얼굴 표면 데이터를 설명하기 위한 도면이다.
도 4에 도시된 바와 같이, 얼굴 표면과 두상 내부의 그레이스케일(gray scale)이 다르다. 얼굴 상단부의 밀집도가 높은 부분과 밀집도가 낮은 부분의 CT 영상 표면의 밝기(그레이스케일)가 차이가 난다. 즉, 얼굴 표면 위치에 따른 그레이스케일 차이가 발생하게 된다. 이러한 차이를 통해 얼굴 표면 데이터만 우선적으로 획득하게 된다.
표면 정합 장치(130)는 그레이스케일의 차이로 인해, 얼굴 표면 정보를 획득하고 그 획득된 얼굴 표면을 마칭 큐브(marching cube)알고리즘을 통해 의료영상 포인트 데이터로 구성한다.
한편, 도 3과 같이 단층으로 촬영된 CT 데이터는 3차원으로 복원된다. 이때, CT 데이터가 단층으로 촬영되기 때문에, 3차원으로 복원된 CT 데이터는 401 내지 403 부분과 같이 빈 공간을 갖거나, 부드럽지 못한 데이터 형태를 갖게 된다.
표면 정합 장치(130)는 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라 의료영상 데이터를 개선할 수 있다. 여기서, 표면 정합 장치(130)는 의료영상 데이터의 401 내지 403부분과 같은 빈 공간을 채우거나, 부드럽지 못한 데이터 형태를 연속적인 형태로 부드럽게 개선할 수 있다. 일례로, 사용되는 의료영상 데이터는 의료영상(CT)에서 획득된 얼굴 표면의 의료영상 포인트 데이터가 기본적으로 사용될 수 있다.
도 5는 본 발명의 일 실시 예에 사용되는 얼굴 표면의 CT 포인트 데이터를 설명하기 위한 도면이다.
표면 정합 장치(130)는 마칭 큐브 방법을 이용해서 의료영상에서 획득된 이미지를 컴퓨터로 데이터화시킨다. 그리고 표면 정합 장치(130)는 도 5와 같은 CT 포인트 데이터를 추출할 수 있다.
도 5와 같은 그레이스케일의 차이에 따라, 마칭 큐브로 획득되는 의료영상 포인트 데이터에는 501 내지 503부분과 같은 빈 공간이나 간헐적인 공간이 발생하게 된다.
본 발명의 일 실시 예에 따른 표면 정합 장치(130)는 마칭 큐브를 적용하기 전에 CT 데이터에서 획득 시 501 내지 503부분에서 발생했던 간헐적인 데이터 부재에 대한 문제점을 극복할 수 있다. 또한, 본 발명의 일 실시 예에 따른 표면 정합 장치(130)는 최소 제곱 프로젝션 알고리즘을 이용하여 마칭 큐브로 획득된 CT 데이터를 균일화할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 수술용 내비게이션의 표면 정합 방법을 설명하기 위한 도면이다.
단계 S101에서, 표면 정합 장치(130)는 수술대상 표면에 대한 카메라 영상 데이터로부터 카메라 포인트 데이터를 추출한다.
단계 S102에서, 표면 정합 장치(130)는 수술대상 표면에 대한 의료영상 데이터로부터 제1 의료영상 포인트 데이터를 추출한다.
단계 S103에서, 표면 정합 장치(130)는 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위한 제2 의료영상 포인트 데이터를 생성하여 의료영상 포인트 데이터를 개선한다.
단계 S104에서, 표면 정합 장치(130)는 추출된 카메라 포인트 데이터와 개선된 의료영상 포인트 데이터를 이용하여 정합점을 탐색한다.
도 7은 본 발명의 일 실시 예에 따른 수술용 내비게이션의 표면 정합 방법에서 데이터 개선 방법을 설명하기 위한 도면이다.
본 발명의 일 실시 예에 따른 수술용 내비게이션의 표면 정합 방법에서 데이터 개선 방법은 의료영상 포인트 데이터를 부드럽고 연속적인 형태로 재곡면화하기 위해, 코어스 폴리곤 모델(Coarse polygon model)을 생성하고, 그 생성된 코어스 폴리곤 모델과 의료영상 포인트 데이터를 LSP 알고리즘에 적용하여 의료영상 데이터를 개선할 수 있다.
이하, 본 발명의 일 실시 예에 따른 수술용 내비게이션의 표면 정합 방법에서 데이터 개선 방법을 살펴보기로 한다.
단계 S201에서, 표면 정합 장치(130)는 CT 포인트 데이터를 획득한다.
단계 S202에서, 표면 정합 장치(130)는 각 CT 포인트 데이터의 법선 벡터(normal vector)를 계산한다. 이때, 표면 정합 장치(130)는 주성분 분석을 사용한다.
단계 S203에서, 표면 정합 장치(130)는 CT 포인트 클라우드(CT point cloud)의 거리 필드(distance field)를 계산한다.
단계 S204에서, 표면 정합 장치(130)는 마칭 큐브(Marching cube)를 통해 코어스 폴리곤 모델(Coarse polygon model)을 추출한다.
단계 S205에서, 표면 정합 장치(130)는 코어스 폴리곤 모델의 스무딩(smoothing) 작업을 진행한다.
단계 S206에서, 표면 정합 장치(130)는 LSP 알고리즘을 이용하여 코어스 폴리곤 모델을 구성하는 포인트들을 CT 포인트 데이터에 프로젝션시켜 의료영상 데이터를 개선한다.
도 8은 본 발명의 일 실시 예에 따른 데이터 개선 방법에서 법선 벡터를 계산하는 과정을 설명하기 위한 도면이다.
표면 정합 장치(130)는 각 CT 포인트 데이터의 법선 벡터(normal vector)를 획득하기 위해 임의로 선택된 포인트 P_select(801)를 기준으로 주변 포인트들을 주변 집단(802)으로 획득하여 군집화를 형성한다. 여기서, 표면 정합 장치(130)는 k-NN(k-Nearest Neighbor)을 사용할 수 있다. 이때, 임의로 선택된 포인트는 P_select로 지칭하고, 군집화가 형성된 포인트 집단은 P_select의 주변 집단으로 지칭될 수 있다.
표면 정합 장치(130)는 군집된 포인트의 주변 집단(802)들로 주성분분석(principal component analysis)을 수행하여 가장 대표가 될 수 있는 법선 벡터(803)를 구한다. 여기서, 표면 정합 장치(130)는 주성분 분석 후, 가장 작은 고유값을 획득하고 그에 해당하는 고유벡터를 획득할 수 있다. 이때, 획득된 고유벡터가 해당 주변 집단(802)의 법선 벡터(803)가 될 수 있다. 즉, 이 고유벡터는 주성분분석으로 획득된 P_select의 주변 집단(802)에 대한 법선 벡터(803)가 된다. 표면 정합 장치(130)는 모든 CT 포인트 데이터에 대해 위의 법선 벡터(803)를 계산하는 과정을 적용하여 각 포인트들의 법선 벡터(803)를 구할 수 있다.
도 9는 본 발명의 일 실시 예에 따른 데이터 개선 방법에서 거리 필드의 계산 과정 및 폴리곤 모델의 추출 과정을 설명하기 위한 도면이다.
도 9에 도시된 바와 같이, 표면 정합 장치(130)는 법선 벡터(803)와 거리 필드(distance field)의 격자 포인트를 이용하여 임의로 선택된 포인트 P_select(801)의 수평선에 가상의 포인트 데이터(901)를 획득한다. 여기서, 격자무늬의 공간은 거리 필드(distance field)를 생성하기 위한 기본 공간이 된다.
그리고 표면 정합 장치(130)는 획득된 가상의 포인트 데이터(901)를 이용하여 폴리곤 모델(polygon model) 데이터를 만들기 위한 기초 자료를 확보한다. 그리고 삼각형의 모양으로 기초 데이터가 구성되게 된다.
도 10은 본 발명의 일 실시 예에 따른 데이터 개선 방법에서 LSP 알고리즘을 적용하는 과정을 설명하기 위한 도면이다.
도 10의 (a)에 도시된 바와 같이, 표면 정합 장치(130)는 하기의 [수학식 1]과 같이 새로 생성된 P*와 Pi의 거리의 최적화를 통해 P*에 값을 선정한다.
Figure 112018019574874-pat00001
표면 정합 장치(130)는 하기의 [수학식 2]와 같이 P, t, np를 이용하여 P*를 새로 생성한다.
Figure 112018019574874-pat00002
여기서, P는 코어스 폴리곤 모델(Coarse polygon model)을 구성하는 포인트 중 어느 한 개를 나타낸다. P*는 의료영상 포인트 데이터를 개선할 수 있는 추가 포인트 데이터를 나타낸다. t는 P와 새로 생성되는 P* 간의 거리를 나타낸다. np는 LSP 알고리즘을 이용해 빨간색 점들로 구성된 의료영상 포인트의 주변 집단으로의 프로젝션 벡터를 계산한 것이다. 여기서, LSP 알고리즘의 초기 진행단계에 해당한다.
한편, 표면 정합 장치(130)는 코어스 폴리곤 모델(coarse polygon model)의 모든 포인트에 대해 LSP 알고리즘을 적용하여 진행할 수 있다.
도 10의 (b)에 도시된 바와 같이, 표면 정합 장치(130)는 의료영상 포인트 데이터를 부드럽게 개선하기 위해 삼각형(1001)을 작은 삼각형 조각(1002)과 더 작은 삼각형 조각(1003)으로 계속해서 나눌 수 있다.
도 11은 본 발명의 일 실시 예에 따른 CT 데이터 개선 레벨에 따른 CT 데이터 개선 변화 과정을 설명하기 위한 도면이다.
도 11에 도시된 바와 같이, 코어스 폴리곤 모델을 구성하는 삼각형의 개수가 증가함에 따라 얼굴 형상이 정확해질 수 있다. 즉, 표면 정합 장치(130)는 코어스 폴리곤 모델을 구성하는 삼각형을 나눠서 삼각형의 개수를 증가시킬 수 있다. 도 11의 첫 번째 얼굴 형상(1101)은 삼각형의 개수가 증가함에 따라 얼굴 형상이 더욱 정확해진다. 마지막 얼굴 형상(1102)이 가장 정확해진다.
이와 같이, 표면 정합 장치(130)는 의료영상(예컨대, CT) 포인트 데이터의 문제점을 해결하기 위해, 최소 제곱 프로젝션(LSP) 알고리즘을 이용하여 CT 포인트 데이터를 개선할 수 있다. CT 데이터로부터 CT 포인트 데이터를 획득하는 과정에서 발생하는 2가지 문제점인 포인트 데이터의 빈 공간의 발생 여부와 이산적이게 획득되는 문제를 해결하기 위해, 표면 정합 장치(130)는 최소 제곱 프로젝션(LSP) 알고리즘을 적용한다.
도 12는 본 발명의 일 실시 예에 따른 데이터 개선 방법에서 등밀도면 작업 과정을 설명하기 위한 도면이다.
전술된 바와 같이, 표면 정합 장치(130)는 의료영상 포인트 데이터를 LSP 알고리즘에 적용하여 추가적인 의료영상 포인트 데이터를 생성함으로써, 의료영상 포인트를 1차적으로 개선할 수 있다.
이후, 도 12에 도시된 바와 같이, 표면 정합 장치(130)는 1차적으로 데이터가 개선되었지만, 이산적인 분포로 있던 의료영상 포인트 데이터(1201)를 기설정된 간격과 같은 등간격 또는 기설정된 밀도와 같은 등밀도면 작업을 수행하여 일관된 분포의 의료영상 포인트 데이터(1202)를 생성한다.
도 13은 본 발명의 일 실시 예에 따른 등간격의 포인트 데이터로 재구성하는 과정을 설명하기 위한 도면이다.
도 13에 도시된 바와 같이, 단계 S301에서, 표면 정합 장치(130)는 CT 데이터로부터 CT 포인트 데이터를 기본적으로 추출한다.
단계 S302에서, 표면 정합 장치(130)는 기본적으로 추출된 CT 포인트 데이터를 LSP 알고리즘에 적용한다. 이는 기본적으로 구성된 CT 포인트 데이터에 대한 데이터 보장을 위해 기본 데이터의 특징에 벗어나지 않도록 해당 획득 데이터를 최대로 이용하기 위함이다.
그래서 표면 정합 장치(130)는 추출된 CT 포인트 데이터를 LSP 알고리즘에 적용하여 빈 공간의 주변 포인트 데이터를 이용하여 새로운 포인트를 생성한다.
또한, 표면 정합 장치(130)는 빈 공간에 새로운 점을 생성하는 작업을 반복하여 이전의 CT 포인트 데이터에서 존재했던 빈 공간을 주변 집단의 포인트 데이터들을 이용하여 채운다.
S303에서, 표면 정합 장치(130)는 이전 의료영상 포인트 데이터에서 존재했던 빈 공간을 모두 채운 뒤, 모든 의료영상 포인트 데이터를 등밀도면으로 재생성하여 포인트들의 구성을 일정한 분포로 재구성한다.
이와 같이, 표면 정합 장치(130)는 개선된 의료영상 포인트 데이터를 기설정된 간격(예컨대, 등간격, 또는 등밀도 등)의 의료영상 포인트 데이터로 재구성할 수 있다. CT 포인트를 일례로 살펴보면, 표면 정합 장치(130)는 개선된 CT 포인트 데이터를 등간격의 CT 포인트 데이터로 변환할 수 있다. 이때, 표면 정합 장치(130)는 등가면 알고리즘(isosurface algorithm)을 사용하여 개선된 CT 포인트 데이터를 등간격의 CT 포인트 데이터로 변환할 수 있다.
도 14는 일반적인 CT 포인트 데이터와 본 발명의 일 실시 예에 따라 개선된 CT 포인트 데이터를 설명하기 위한 도면이다.
일반적인 CT 포인트 데이터는 예를 들어, 1mm~4mm로 획득되는 CT 포인트 데이터의 단층촬영 기법으로 인한 부드럽지 못한 곡면을 가지고 있다. 이는 1mm~4mm 간격으로 CT 영상이 촬영되는 한계점 때문에 발생된다. 부드럽지 못한 데이터 표면이 된다.
도 14에서 불연속적인 형태나 부드럽지 못한 곡면을 가진 빨간색 데이터(1401)가 일반적인 CT 포인트 데이터를 나타낸다.
반면, 본 발명의 일 실시 예에 따라 개선된 CT 포인트 데이터는 표면 정합 장치(130)에 의해 연속적이고 균일한 곡면의 데이터로 재생성될 수 있다. 도 14에서 연속적인 형태나 부드러운 곡면을 가진 파란색 데이터(1402)가 개선된 CT 포인트 데이터를 나타낸다. 표면 정합 장치(130)는 균일한 곡면 데이터를 통해 표면을 부드럽게 곡면화할 수 있다.
도 15는 본 발명의 일 실시 예에 따른 수술용 내비게이션의 표면 정합 방법에서 정합점 탐색 방법을 설명하기 위한 도면이다.
정합점 탐색 방법에서, 표면 정합 장치(130)는 등간격으로 새롭게 구성된 CT 포인트 데이터와 광학 카메라 포인트 데이터를 LSP 알고리즘을 적용하여 최적 정합점을 탐색할 수 있다. 이때, 표면 정합 장치(130)는 최적 정합점을 추가로 생성할 수 있다.
이하, 도 15를 참조하여, 본 발명의 일 실시 예에 따른 정합점 탐색 방법을 살펴보면 다음과 같다.
단계 S401에서, 표면 정합 장치(130)는 광학 카메라 포인트 데이터를 선택한다. 여기서, 선택된 카메라 포인트 데이터는 P=camera point_n(카메라 포인트_n)이라고 지칭될 수 있다.
단계 S402에서, 표면 정합 장치(130)는 선택된 카메라 포인트 데이터인 camera point_n에 근접한 CT 포인트 데이터들을 선택한다.
단계 S403에서, 표면 정합 장치(130)는 LSP 알고리즘에 따라, CT 포인트 데이터의 주변 집단에 프로젝션될 camera point_n의 프로젝션 방향(np, projection direction)을 계산한다. 이는 LSP 알고리즘의 초기 진행단계에 해당될 수 있다.
단계 S404에서, 표면 정합 장치(130)는 주어진 선택된 카메라 포인트 데이터 P와 정합점 P*의 거리가 최단거리가 되도록 최적의 정합점 P*를 탐색할 수 있다. 이는 LSP 알고리즘의 후반 작업에 해당될 수 있다.
단계 S405에서, 표면 정합 장치(130)는 모든 카메라 포인트 데이터에 대해서 완료되는지를 확인한다.
단계 S406에서, 상기 확인 결과(S405), 모든 카메라 포인트 데이터에 대해서 완료된 경우, 표면 정합 장치(130)는 최적 정합점 탐색을 완료한다.
반면, 상기 확인 결과(S405), 모든 카메라 포인트 데이터에 대해서 완료되지 않은 경우, 표면 정합 장치(130)는 단계 S401부터 다시 수행한다.
도 16 및 도 17은 본 발명의 일 실시 예에 따른 정합점 탐색 방법에 정합점을 탐색하는 과정을 설명하기 위한 도면이다.
도 16에 도시된 바와 같이, 표면 정합 장치(130)는 선택된 카메라 포인트 데이터(camera point_n)와 가장 근접한 CT 포인트 데이터의 군집들(1601)을 이용하여 표면 정합을 진행한다. 이를 통해, 표면 정합 장치(130)는 표면 정합 결과를 향상시킬 수 있다.
표면 정합 장치(130)는 LSP 알고리즘에 따라 재구성된 균일한 CT 포인트 데이터를 기준으로 카메라 포인트 데이터에 대응되는 최소 거리의 군집 포인트들을 획득한다. 그리고 표면 정합 장치(130)는 그 획득된 군집 포인트들의 관계를 평면으로 만든 뒤, 최소 거리에 존재하는 새로운 정합점 P*을 생성할 수 있다. 이와 같이 생성된 정합점을 최적 정합점으로 정의될 수 있다.
한편, 도 15의 단계 S404를 도 17을 참조하여 살펴보기로 한다.
표면 정합 장치(130)는 하기의 [수학식 3]과 같이 새로 생성된 P*와 Pi의 거리의 최적화를 통해 P*에 값을 선정할 수 있다.
Figure 112018019574874-pat00003
그리고 표면 정합 장치(130)는 하기의 [수학식 4]와 같이 P, t, np를 이용하여 P*를 새로 생성할 수 있다. 새로 생성된 P*은 P, t, np를 통해 계산될 수 있다.
Figure 112018019574874-pat00004
여기서, P는 선택된 카메라 포인트 데이터(P=camera point_n)를 나타내고, P*는 정합점을 나타낸다. t는 P와 새로 생성되는 P* 간의 거리를 나타낸다. np는 CT 포인트 데이터의 주변 집단에 프로젝션될 카메라 포인트 데이터(camera point_n)의 프로젝션 방향(projection direction)을 나타낸다.
도 18 및 도 19는 일반적인 ICP 알고리즘에 따른 표면 정합 과정 및 본 발명에 따른 표면 정합 과정을 설명하기 위한 도면이다.
도 18에 도시된 일반적인 ICP 알고리즘에 따른 표면 정합 과정과 도 19에 도시된 본 발명의 일 실시 예에 따른 표면 정합 과정을 통한 ICP 결과를 비교하기로 한다.
비교 결과로서, 150개의 병변 위치를 기준으로 한 평균 TRE(Target registration error)가 하기의 [표 1]과 같이 산출되었다. 일반적인 CT 포인트 데이터를 이용하여 표면 정합한 첫 번째 결과와, LSP 알고리즘에 따라 최적 정합점을 탐색한 뒤, 카메라 포인트 데이터와 정합한 두 번째 결과가 [표 1]에 나타나 있다.
일반적인 ICP 결과 TRE(mm) 본 발명에 따른 ICP 결과 TRE(mm)
2.78±0.21 1.32±0.13
상기 [표 1]에 나타난 바와 같이, 본 발명에 따른 표면 정합 정확도가 일반적인 ICP 알고리즘에 따른 정합 정확도보다 높음이 확인되었다. 본 발명에 따른 ICP 결과 TRE는 1.32±0.13이고, 일반적인 ICP 결과 TRE(mm)인 2.78±0.21보다 낮다. 이러한 결과를 통해, 본 발명의 일 실시 예는 국내 수술용 내비게이션의 개발에 적극적인 활용이 가능할 뿐만 아니라, 종래의 상용 제품의 정확도를 더욱 높여서 국내 기술을 확보할 수 있을 것으로 판단된다.
이러한 실험 결과에 따른 활용 예를 살펴보면, 본 발명의 일 실시 예에 따른 표면 정합 장치(130)는 CT 포인트 데이터를 3차원으로 구축하는데 있어서, 문제가 되었던 빈 공간의 발생 유무 및 데이터 분포의 불균일성을 극복함으로써, 신뢰성 높은 데이터 값을 산출할 수 있다.
이와 더불어, 본 발명의 일 실시 예에 따른 표면 정합 장치(130)는 신뢰성 높은 CT 포인트 데이터를 기반으로 카메라 포인트 데이터에 대응하는 최적의 정합점을 획득함으로써, 표면 정합의 정확도를 더욱 높일 수 있다.
더 나아가, 본 발명의 일 실시 예에 따른 표면 정합 장치(130)는 이러한 결과를 기반으로 표면 정합의 문제점인 낮은 정확도의 문제점을 극복하고 정확도 높은 표면 정합 알고리즘을 통한 향상된 국내 제품 개발에 활용할 수 있다.
상술한 본 발명의 실시 예들에 따른 수술용 내비게이션의 표면 정합 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다.
본 발명의 실시 예들에 따른 수술용 내비게이션의 표면 정합 방법은, 프로세서에 의해 실행 가능한 명령어들을 포함하는 컴퓨터 판독 가능한 저장 매체로서, 상기 명령어들은 상기 프로세서로 하여금, 수술대상 표면에 대한 카메라 영상 데이터로부터 카메라 포인트 데이터를 추출하고, 상기 수술대상 표면에 대한 의료영상 데이터로부터 제1 의료영상 포인트 데이터를 추출하는 단계, 상기 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위한 제2 의료영상 포인트 데이터를 생성하여 의료영상 포인트 데이터를 개선하는 단계, 및 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 탐색하는 단계를 포함하여 실행하도록 구성되는, 컴퓨터 판독 가능한 저장 매체를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.
이상, 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
구체적으로, 설명된 특징들은 디지털 전자 회로, 또는 컴퓨터 하드웨어, 펌웨어, 또는 그들의 조합들 내에서 실행될 수 있다. 특징들은 예컨대, 프로그래밍 가능한 프로세서에 의한 실행을 위해, 기계 판독 가능한 저장 디바이스 내의 저장장치 내에서 구현되는 컴퓨터 프로그램 제품에서 실행될 수 있다. 그리고 특징들은 입력 데이터 상에서 동작하고 출력을 생성함으로써 설명된 실시예들의 함수들을 수행하기 위한 지시어들의 프로그램을 실행하는 프로그래밍 가능한 프로세서에 의해 수행될 수 있다. 설명된 특징들은, 데이터 저장 시스템으로부터 데이터 및 지시어들을 수신하기 위해, 및 데이터 저장 시스템으로 데이터 및 지시어들을 전송하기 위해 결합된 적어도 하나의 프로그래밍 가능한 프로세서, 적어도 하나의 입력 디바이스, 및 적어도 하나의 출력 디바이스를 포함하는 프로그래밍 가능한 시스템 상에서 실행될 수 있는 하나 이상의 컴퓨터 프로그램들 내에서 실행될 수 있다. 컴퓨터 프로그램은 소정 결과에 대해 특정 동작을 수행하기 위해 컴퓨터 내에서 직접 또는 간접적으로 사용될 수 있는 지시어들의 집합을 포함한다. 컴퓨터 프로그램은 컴파일된 또는 해석된 언어들을 포함하는 프로그래밍 언어 중 어느 형태로 쓰여지고, 모듈, 소자, 서브루틴(subroutine), 또는 다른 컴퓨터 환경에서 사용을 위해 적합한 다른 유닛으로서, 또는 독립 조작 가능한 프로그램으로서 포함하는 어느 형태로도 사용될 수 있다.
지시어들의 프로그램의 실행을 위한 적합한 프로세서들은, 예를 들어, 범용 및 특수 용도 마이크로프로세서들 둘 모두, 및 단독 프로세서 또는 다른 종류의 컴퓨터의 다중 프로세서들 중 하나를 포함한다. 또한 설명된 특징들을 구현하는 컴퓨터 프로그램 지시어들 및 데이터를 구현하기 적합한 저장 디바이스들은 예컨대, EPROM, EEPROM, 및 플래쉬 메모리 디바이스들과 같은 반도체 메모리 디바이스들, 내부 하드 디스크들 및 제거 가능한 디스크들과 같은 자기 디바이스들, 광자기 디스크들 및 CD-ROM 및 DVD-ROM 디스크들을 포함하는 비휘발성 메모리의 모든 형태들을 포함한다. 프로세서 및 메모리는 ASIC들(application-specific integrated circuits) 내에서 통합되거나 또는 ASIC들에 의해 추가될 수 있다.
이상에서 설명한 본 발명은 일련의 기능 블록들을 기초로 설명되고 있지만, 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경 가능하다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.
전술한 실시 예들의 조합은 전술한 실시 예에 한정되는 것이 아니며, 구현 및/또는 필요에 따라 전술한 실시예들 뿐 아니라 다양한 형태의 조합이 제공될 수 있다.
전술한 실시 예들에서, 방법들은 일련의 단계 또는 블록으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
전술한 실시 예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.
이상 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 수술용 내비게이션 시스템
110: 카메라 영상 장치
120: 의료영상 장치
130: 표면 정합 장치
210: 데이터 추출부
220: 데이터 개선부
230: 표면 정합부

Claims (20)

  1. 수술용 내비게이션의 표면 정합 장치에 의해 수행되는 표면 정합 방법에 있어서,
    수술대상 표면에 대한 카메라 영상 데이터로부터 카메라 포인트 데이터를 추출하고, 상기 수술대상 표면에 대한 의료영상 데이터로부터 제1 의료영상 포인트 데이터를 추출하는 단계;
    상기 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위한 제2 의료영상 포인트 데이터를 생성하여 의료영상 포인트 데이터를 개선하는 단계; 및
    상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 탐색하는 단계를 포함하고,
    상기 의료영상 포인트 데이터를 개선하는 단계는, 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라 상기 추출된 제1 의료영상 포인트 데이터를 이용하여 상기 추출된 제1 의료영상 포인트 데이터와 다른 제2 의료영상 포인트 데이터를 생성하는, 수술용 내비게이션의 표면 정합 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 의료영상 포인트 데이터를 개선하는 단계는,
    상기 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위해 코어스 폴리곤 모델(Coarse polygon model)을 생성하고, 상기 생성된 코어스 폴리곤 모델과 상기 제1 의료영상 포인트 데이터를 최소 제곱 프로젝션 알고리즘에 적용하여 상기 제2 의료영상 포인트 데이터를 생성하는 수술용 내비게이션의 표면 정합 방법.
  4. 제3항에 있어서,
    상기 의료영상 포인트 데이터를 개선하는 단계는,
    상기 생성된 코어스 폴리곤 모델을 구성하는 포인트들을 상기 제1 의료영상 포인트 데이터에 프로젝션시켜 상기 제2 의료영상 포인트 데이터를 생성하는 수술용 내비게이션의 표면 정합 방법.
  5. 제3항에 있어서,
    상기 의료영상 포인트 데이터를 개선하는 단계는,
    상기 생성된 코어스 폴리곤 모델을 구성하는 포인트들 중에서 하나의 포인트로부터 상기 제1 의료영상 포인트 데이터들로 구성된 포인트 데이터 집단으로의 프로젝션 벡터를 계산하고, 상기 계산된 프로젝션 벡터를 이용하여 상기 제2 의료영상 포인트 데이터를 생성하는 수술용 내비게이션의 표면 정합 방법.
  6. 제1항에 있어서,
    상기 의료영상 포인트 데이터를 개선하는 단계는,
    최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 제1 의료영상 포인트 데이터를 구성하는 제1 의료영상 포인트들 사이의 빈 공간에 상기 추출된 제1 의료영상 포인트 데이터와 다른 제2 의료영상 포인트 데이터를 생성하는, 수술용 내비게이션의 표면 정합 방법.
  7. 제1항에 있어서,
    상기 의료영상 포인트 데이터를 개선하는 단계는,
    최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 제1 의료영상 포인트 데이터의 불연속 형태를 연속적인 형태로 재곡면화하기 위한 지점에 상기 제2 의료영상 포인트 데이터를 생성하는 수술용 내비게이션의 표면 정합 방법.
  8. 제1항에 있어서,
    상기 개선된 의료영상 포인트 데이터를 기설정된 간격 또는 밀도에 따라 재구성하는 단계를 더 포함하는 수술용 내비게이션의 표면 정합 방법.
  9. 제1항에 있어서,
    상기 정합점을 탐색하는 단계는,
    상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 추가로 생성하고, 상기 생성된 정합점을 이용하여 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 정합하는 수술용 내비게이션의 표면 정합 방법.
  10. 제1항에 있어서,
    상기 정합점을 탐색하는 단계는,
    최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 추가로 생성하는 수술용 내비게이션의 표면 정합 방법.
  11. 수술대상 표면에 대한 카메라 영상 데이터로부터 카메라 포인트 데이터를 추출하고, 상기 수술대상 표면에 대한 의료영상 데이터로부터 제1 의료영상 포인트 데이터를 추출하는 데이터 추출부;
    상기 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위한 제2 의료영상 포인트 데이터를 생성하여 의료영상 포인트 데이터를 개선하는 데이터 개선부; 및
    상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 탐색하는 표면 정합부를 포함하고,
    상기 데이터 개선부는, 최소 제곱 프로젝션(Least square projection) 알고리즘에 따라 상기 추출된 제1 의료영상 포인트 데이터를 이용하여 상기 추출된 제1 의료영상 포인트 데이터와 다른 제2 의료영상 포인트 데이터를 생성하는, 수술용 내비게이션의 표면 정합 장치.
  12. 삭제
  13. 제11항에 있어서,
    상기 데이터 개선부는,
    상기 추출된 제1 의료영상 포인트 데이터를 연속적인 형태로 재곡면화하기 위해 코어스 폴리곤 모델(Coarse polygon model)을 생성하고, 상기 생성된 코어스 폴리곤 모델과 상기 제1 의료영상 포인트 데이터를 최소 제곱 프로젝션 알고리즘에 적용하여 상기 제2 의료영상 포인트 데이터를 생성하는 수술용 내비게이션의 표면 정합 장치.
  14. 제13항에 있어서,
    상기 데이터 개선부는,
    상기 생성된 코어스 폴리곤 모델을 구성하는 포인트들을 상기 제1 의료영상 포인트 데이터에 프로젝션시켜 상기 제2 의료영상 포인트 데이터를 생성하는 수술용 내비게이션의 표면 정합 장치.
  15. 제13항에 있어서,
    상기 데이터 개선부는,
    상기 생성된 코어스 폴리곤 모델을 구성하는 포인트들 중에서 하나의 포인트로부터 상기 제1 의료영상 포인트 데이터들로 구성된 포인트 데이터 집단으로의 프로젝션 벡터를 계산하고, 상기 계산된 프로젝션 벡터를 이용하여 상기 제2 의료영상 포인트 데이터를 생성하는 수술용 내비게이션의 표면 정합 장치.
  16. 제11항에 있어서,
    상기 데이터 개선부는,
    최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 제1 의료영상 포인트 데이터를 구성하는 제1 의료영상 포인트들 사이의 빈 공간에 상기 추출된 제1 의료영상 포인트 데이터와 다른 제2 의료영상 포인트 데이터를 생성하는, 수술용 내비게이션의 표면 정합 장치.
  17. 제11항에 있어서,
    상기 데이터 개선부는,
    최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 제1 의료영상 포인트 데이터의 불연속 형태를 연속적인 형태로 재곡면화하기 위한 지점에 상기 제2 의료영상 포인트 데이터를 생성하는 수술용 내비게이션의 표면 정합 장치.
  18. 제11항에 있어서,
    상기 데이터 개선부는,
    상기 개선된 의료영상 포인트 데이터를 기설정된 간격 또는 밀도에 따라 재구성하는 수술용 내비게이션의 표면 정합 장치.
  19. 제11항에 있어서,
    상기 표면 정합부는,
    상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 추가로 생성하고, 상기 생성된 정합점을 이용하여 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 정합하는 수술용 내비게이션의 표면 정합 장치.
  20. 제11항에 있어서,
    상기 표면 정합부는,
    최소 제곱 프로젝션(Least square projection) 알고리즘에 따라, 상기 추출된 카메라 포인트 데이터와 상기 개선된 의료영상 포인트 데이터를 이용하여 정합점을 추가로 생성하는 수술용 내비게이션의 표면 정합 장치.
KR1020180022793A 2018-02-26 2018-02-26 수술용 내비게이션의 표면 정합 방법 및 장치 KR102098929B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180022793A KR102098929B1 (ko) 2018-02-26 2018-02-26 수술용 내비게이션의 표면 정합 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180022793A KR102098929B1 (ko) 2018-02-26 2018-02-26 수술용 내비게이션의 표면 정합 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20190102429A KR20190102429A (ko) 2019-09-04
KR102098929B1 true KR102098929B1 (ko) 2020-04-08

Family

ID=67950623

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180022793A KR102098929B1 (ko) 2018-02-26 2018-02-26 수술용 내비게이션의 표면 정합 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102098929B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11164391B1 (en) 2021-02-12 2021-11-02 Optum Technology, Inc. Mixed reality object detection
US11210793B1 (en) 2021-02-12 2021-12-28 Optum Technology, Inc. Mixed reality object detection

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102271189B1 (ko) * 2019-12-11 2021-06-30 성균관대학교산학협력단 수술용 내비게이션 시스템에서의 표면 점군집 개선 방법 및 장치
TWI722738B (zh) * 2019-12-25 2021-03-21 亞達科技股份有限公司 擴增實境裝置與定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150036901A1 (en) 2011-08-01 2015-02-05 Impac Medical Systems, Inc. Method and apparatus for correction of errors in surfaces
JP2015531923A (ja) 2012-08-06 2015-11-05 ヴァンダービルト ユニヴァーシティ 画像誘導処置中の変形のためにデータを修正する向上された方法
KR101767005B1 (ko) 2016-05-26 2017-08-09 성균관대학교산학협력단 표면정합을 이용한 영상정합방법 및 영상정합장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1142536B1 (de) 2000-04-05 2002-07-31 BrainLAB AG Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte
EP2153794B1 (en) * 2008-08-15 2016-11-09 Stryker European Holdings I, LLC System for and method of visualizing an interior of a body

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150036901A1 (en) 2011-08-01 2015-02-05 Impac Medical Systems, Inc. Method and apparatus for correction of errors in surfaces
JP2015531923A (ja) 2012-08-06 2015-11-05 ヴァンダービルト ユニヴァーシティ 画像誘導処置中の変形のためにデータを修正する向上された方法
KR101767005B1 (ko) 2016-05-26 2017-08-09 성균관대학교산학협력단 표면정합을 이용한 영상정합방법 및 영상정합장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11164391B1 (en) 2021-02-12 2021-11-02 Optum Technology, Inc. Mixed reality object detection
US11210793B1 (en) 2021-02-12 2021-12-28 Optum Technology, Inc. Mixed reality object detection
US11734927B2 (en) 2021-02-12 2023-08-22 Optum Technology, Inc. Mixed reality object detection

Also Published As

Publication number Publication date
KR20190102429A (ko) 2019-09-04

Similar Documents

Publication Publication Date Title
KR102098929B1 (ko) 수술용 내비게이션의 표면 정합 방법 및 장치
JP6884853B2 (ja) ニューラルネットワーク法を用いた画像セグメンテーション
JP6932182B2 (ja) 畳み込みニューラルネットワークを用いた画像セグメンテーションのためのシステムおよび方法
JP6581104B2 (ja) データ及びモデルを用いた画像再構成ならびに補正のためのシステム及び方法
US11321589B2 (en) Apparatus and method for generating medical image segmentation deep-learning model, and medical image segmentation deep-learning model generated therefrom
US8457379B2 (en) Method for quantifying organ motion, apparatus therefor, method for estimating organ position, apparatus therefor, method for irradiating radiation, apparatus therefor, and apparatus for detecting abnormal organ
US20190012567A1 (en) Systems and methods for contouring a set of medical images
US20180174311A1 (en) Method and system for simultaneous scene parsing and model fusion for endoscopic and laparoscopic navigation
US9280819B2 (en) Image segmentation techniques
JP2018142303A (ja) 多視点画像の奥行き推定方法及び奥行き推定装置
JP2005161044A (ja) 動的制約を用いる多次元構造の抽出方法及びシステム
US20150174428A1 (en) Dose deformation error calculation method and system
US20130222368A1 (en) Mesh generating apparatus and method
RU2721078C2 (ru) Сегментация анатомической структуры на основе модели
JP2022509126A (ja) 対話的な反復的画像注釈付け
KR102144012B1 (ko) 유전 알고리즘을 이용한 수술용 내비게이션의 표면 정합 방법 및 장치
US10573006B2 (en) Selection of a subset of atlases from a set of candidate atlases
KR102574761B1 (ko) 선명성을 향상시킨 의료영상 변환방법 및 그 장치
KR102271189B1 (ko) 수술용 내비게이션 시스템에서의 표면 점군집 개선 방법 및 장치
Penarrubia et al. Improving motion‐mask segmentation in thoracic CT with multiplanar U‐nets
JP2020075063A (ja) 画像補間・臓器抽出装置およびそのプログラム
KR102078737B1 (ko) 수술용 내비게이션의 표면 정합 방법 및 수술용 내비게이션 장치
CN111242915B (zh) 基于蒙特卡洛树搜索的血管3d/2d配准方法及装置
CN109564685B (zh) 鲁棒的肺叶分割
Eide Skull stripping MRI images of the brain using deep learning

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant