KR102394921B1 - 의료 영상의 정합 장치 및 방법 - Google Patents

의료 영상의 정합 장치 및 방법 Download PDF

Info

Publication number
KR102394921B1
KR102394921B1 KR1020210026433A KR20210026433A KR102394921B1 KR 102394921 B1 KR102394921 B1 KR 102394921B1 KR 1020210026433 A KR1020210026433 A KR 1020210026433A KR 20210026433 A KR20210026433 A KR 20210026433A KR 102394921 B1 KR102394921 B1 KR 102394921B1
Authority
KR
South Korea
Prior art keywords
medical image
image data
matching
coordinate points
coordinate
Prior art date
Application number
KR1020210026433A
Other languages
English (en)
Inventor
최안렬
Original Assignee
가톨릭관동대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭관동대학교산학협력단 filed Critical 가톨릭관동대학교산학협력단
Priority to KR1020210026433A priority Critical patent/KR102394921B1/ko
Application granted granted Critical
Publication of KR102394921B1 publication Critical patent/KR102394921B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명의 일실시예는 환자 공간의 영상 데이터와 의료 영상 데이터를 정합하는 의료 영상 정합 장치에 있어서, 환자 공간 영상 데이터와 의료 영상 데이터를 수신하는 입력부, 환자 공간 영상 데이터와 의료 영상 데이터의 정합 결과물을 출력하는 출력부, 환자 공간 영상 데이터와 의료 영상 데이터를 정합하는 프로세서부를 포함하며, 프로세서부는 환자 공간 영상 데이터로부터 제1 좌표점 셋트를 추출하는 제1 좌표점 추출부, 제1 좌표점 셋트를 증강하여 제2 좌표점 셋트를 구성하는 증강부, 제2 좌표점 셋트로부터 보간 다항식을 추출하고, 의료 영상 데이터의 표면 좌표점 셋트로부터 최소 거리를 만족하며 보간 다항식 상에 위치하는 제3 좌표점들을 생성하는 제3 좌표점 생성부, 제2 좌표점 셋트 및 제3 좌표점 셋트를 표면 좌표점 셋트와 정합하는 정합부 및 환자 공간 영상 데이터와 의료 영상 데이터, 상기 정합부에 의해 정합된 결과물을 저장하는 저장부를 포함하는 의료 영상 정합 장치를 제공한다.

Description

의료 영상의 정합 장치 및 방법 {APPARATUS AND METHOD FOR MATCHING MEDICAL IMAGES}
본 발명은 의료 영상의 정합 장치 및 방법에 관한 것으로, 더욱 상세하게는 수술 전 획득한 의료 영상과 수술 시의 환자 영상을 정합하기 위한 의료 영상의 정합 장치 및 방법에 관한 것이다.
영상 유도 수술 시스템은 수술 도구의 3차원 위치를 수술 전 촬영한 환자의 의료 영상에 가시화하여 병변 및 주변의 위치를 실시간으로 제공하는 의료 시스템이다. 외과의는 영상 유도 수술 시스템의 영상 정보를 활용하여 최소 침습 수술(Minimally invasive surgery)을 시행할 수 있다. 최소 침습 수술은 수술 시 절개부위를 줄여 인체에 상처를 최소한으로 남기는 수술 방법이다.
영상 유도 수술 시스템은 수술 전 환자의 의료 영상을 획득하고, 수술 중 공간 정합을 수행한 후, 수술 도구의 좌표 변환을 통한 가상의 수술 도구를 의료 영상 내에 겹쳐서 표시한다. 여기서, 공간의 정합은 수술 전 촬영한 의료 영상의 좌표와 수술 중 획득한 환자 공간 좌표를 동일한 공간으로 정렬시키는 과정을 의미한다. 두 좌표의 정합이 정확하게 수행되지 않으면 실제 수술도구의 위치와 가상의 수술도구의 위치간 이격이 발생할 수 있다. 따라서 준비된 의료 영상과 환자 공간의 영상을 정확하게 정합하는 기술이 필요하다.
이와 같은 표면 정합 방법에 있어서, 환자 공간의 영상의 좌표 군집을 획득하기 위하여 스캐너 장치를 이용하거나 프로브를 이용할 수 있다. 스캐너 장치를 이용하는 방법은 스캐너 장치를 이용하여 얼굴 표면 또는 두상 전체의 3D 좌표를 비접촉식으로 추출하는 방법이다. 스캐너 장치를 이용하는 방법은 비접촉식으로 좌표점을 추출하므로 접촉에 따른 피부 변형으로부터의 오차를 감소시킬 수 있으나, 시스템을 추가로 구축해야 하므로 장치의 관리나 그에 따른 비용이 증가하는 단점이 있다.
프로브를 이용하는 방법은 프로브를 얼굴 표면에 접촉하여 좌표점을 추출하는 방법이다. 도 1은 프로브를 활용한 종래의 공간 정합을 설명하기 위한 도면이다.
도 1에 도시된 바와 같이 환자(P)의 표면에 대한 정보는 프로브(10)를 통해 획득될 수 있다.
일 예로, 집도의는 프로브(10)가 환자(P)의 신체에 인접한 상태에서 프로브(10)를 천천히 이동시키게 되며, 수술용 내비게이션 장치는 환자(P)의 표면에 대한 정보를 반영하는 프로브 좌표 데이터(C)들을 획득하게 된다.
그리고, 수술용 내비게이션 장치는 획득한 프로브 좌표 데이터(C)들을 회전 또는 이동시켜 기 촬영한 환자(P)의 의료 영상으로부터 획득한 표면 좌표 데이터들과 정합하고 정합한 결과물을 단일의 공간에 위치시키게 된다.
프로브를 이용한 표면 정합 방법을 실제 수술에 적용할 경우, 환자 공간의 좌표점을 빠르게 획득할 필요가 있으므로 프로브의 사용 시간에 제한이 있을 수 있다. 그리고 사용 시간 제한에 따라 표면 좌표점을 충분히 획득하지 못하는 문제가 발생할 수 있으며, 이는 의료 영상 좌표와의 정합 정확도를 떨어뜨리는 결과를 초래할 수 있다.
본 발명이 이루고자 하는 기술적 과제는 수술 전 획득한 의료 영상과 수술 시의 환자 영상을 정합하기 위한 의료 영상의 정합 장치 및 방법을 제공하는 것이다.
본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위하여, 본 발명의 일실시예는 환자 공간의 영상 데이터와 의료 영상 데이터를 정합하는 의료 영상 정합 장치에 있어서, 환자 공간 영상 데이터와 의료 영상 데이터를 수신하는 입력부, 환자 공간 영상 데이터와 의료 영상 데이터의 정합 결과물을 출력하는 출력부, 환자 공간 영상 데이터와 의료 영상 데이터를 정합하는 프로세서부를 포함하며, 프로세서부는 환자 공간 영상 데이터로부터 제1 좌표점 셋트를 추출하는 제1 좌표점 추출부, 제1 좌표점 셋트를 증강하여 제2 좌표점 셋트를 구성하는 증강부, 제2 좌표점 셋트로부터 보간 다항식을 추출하고, 의료 영상 데이터의 표면 좌표점 셋트로부터 최소 거리를 만족하며 보간 다항식 상에 위치하는 제3 좌표점들을 생성하는 제3 좌표점 생성부, 제2 좌표점 셋트 및 제3 좌표점 셋트를 표면 좌표점 셋트와 정합하는 정합부 및 환자 공간 영상 데이터와 의료 영상 데이터, 상기 정합부에 의해 정합된 결과물을 저장하는 저장부를 포함하는 의료 영상 정합 장치를 제공한다.
본 발명의 실시예에 있어서, 제2 좌표점 셋트는 제1 좌표점 셋트와 상기 제1 좌표점 셋트로부터 증강된 좌표점들을 포함하는 것일 수 있다.
본 발명의 실시예에 있어서, 증강부는 구간적 3차 에르미트 보간 다항식을 이용하여 제1 좌표점 셋트를 증강하는 것일 수 있다.
본 발명의 실시예에 있어서, 정합부는 ICP(iterative closest point) 알고리즘을 이용하여 정합하는 것일 수 있다.
상기 기술적 과제를 달성하기 위하여, 본 발명의 또 다른 실시예는 환자 공간의 영상 데이터와 의료 영상 데이터를 정합하는 의료 영상 정합 장치를 이용한 의료 영상 정합 방법에 있어서, 의료 영상 정합 장치가 의료 영상 데이터로부터 표면 좌표점 셋트(T)를 획득하는 단계, 의료 영상 정합 장치가 환자 공간의 영상 데이터로부터 제1 좌표점 셋트를 추출하는 단계, 의료 영상 정합 장치가 제1 좌표점 셋트를 증강하여 제2 좌표점 셋트를 구성하는 단계, 의료 영상 정합 장치가 제2 좌표점 셋트로부터 보간 다항식을 추출하고, 보간 다항식으로부터 제3 좌표점 셋트를 생성하는 단계 및 의료 영상 정합 장치가 표면 좌표점 셋트와 제3 좌표점 셋트를 정합하는 단계를 포함하는 의료 영상 정합 방법을 제공한다.
본 발명의 실시예에 있어서, 환자 공간의 영상 데이터는 프로브를 통해 수집되는 것일 수 있다.
본 발명의 실시예에 있어서, 제2 좌표점 셋트를 구성하는 단계에서, 1회의 증강 시마다 제1 좌표점 셋트를 10% 증강시키며, 증강을 복수회 실시하는 것일 수 있다.
본 발명의 실시예에 있어서, 제2 좌표점 셋트를 구성하는 단계는, 1회의 증강이 끝날 때마다 표면 정합 오차를 분석하는 단계를 포함하며, 표면 정합 오차의 변화량이 0.1% 이하의 절대값을 나타낼 때 증강을 중단하는 것일 수 있다.
본 발명의 실시예에 있어서, 제2 좌표점 셋트를 구성하는 단계에서, 3차 에르미트 보간 다항식을 이용하여 제1 좌표점 셋트를 증강하는 것일 수 있다.
본 발명의 실시예에 있어서, 제3 좌표점 셋트를 생성하는 단계에서, 제3 좌표점 셋트는 표면 좌표점 셋트로부터 최소 거리를 만족하며 보간 다항식 상에 위치하는 좌표점들로 구성되는 것일 수 있다.
본 발명의 실시예에 있어서, 정합하는 단계는ICP(iterative closest point) 알고리즘을 이용하는 것일 수 있다.
본 발명의 실시예에 따르면, 환자 공간의 영상 데이터와 의료 영상 데이터의 정합 시 발생하는 정합 오차를 최소화할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 제한된 시간 내에 환자 공간의 좌표 데이터를 최대한 획득할 수 있으므로, 수술 시간을 지연시키는 등의 문제로부터 자유로울 수 있다.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 설명 또는 청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.
도 1은 프로브를 활용한 종래의 공간 정합을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 의료 영상 정합 장치를 나타내는 블록도이다.
도 3은 도 2에 도시한 제3 좌표점 생성부가 좌표점을 생성하는 것을 개략적으로 나타낸 예시도이다.
도 4는 도 2에 도시한 의료 영상 정합 장치를 이용한 의료 영상 정합 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 의료 영상 정합 장치의 표면 정합 오차를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 의료 영상 정합 장치의 표면 정합 오차를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 의료 영상 정합 장치의 표면 정합 오차를 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 의료 영상 정합 장치의 표면 정합 오차를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 의료 영상 정합 장치의 표면 정합 오차를 설명하기 위한 도면이다.
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.
도 2는 본 발명의 일 실시예에 따른 의료 영상 정합 장치를 나타내는 블록도이다.
도 2에 도시한 바와 같이, 본 발명의 일 실시예에 따른 의료 영상 정합 장치(10)는 입력부(100), 출력부(200) 및 프로세서부(300)를 포함할 수 있다.
입력부(100)는 환자 공간의 영상 데이터와 의료 영상 데이터를 수신한다. 여기서 환자 공간은 환자가 위치한 공간을 의미하고, 수술 시 환자 공간으로부터 획득될 수 있다. 상기 환자 공간의 영상 데이터와 상기 의료 영상 데이터는 3차원 형태일 수 있다. 입력부(100)는 상기한 영상 데이터의 수신을 위한 통신 모듈 포함할 수 있다.
입력부(100)는 프로브(110)를 포함할 수 있다. 프로브(110)는 환자 공간의 영상 데이터를 획득한다. 프로브(110)는 막대 형상의 의료 도구일 수 있다. 프로브(110)는 단부가 환자의 신체 표면과 접촉되거나 인접하게 배치된 상태로 사용될 수 있다. 프로브(110)는 환자의 신체 표면을 따라 이동하며 환자 공간의 신체 표면에 대한 영상 데이터를 획득한다. 프로브(110)는 환자의 신체를 향한 일측에 배치되는 센서를 포함할 수 있다. 상기 센서는 광학식 센서일 수 있다.
상기 의료 영상 데이터는 수술 전에 획득된 환자의 영상으로 CT나 MRI 등을 통해 촬영된 것일 수 있다. 상기 의료 영상 데이터는 저장부(350)에 저장될 수 있다.
출력부(200)는 환자 공간의 영상 데이터 및 의료 영상 데이터가 정합된 결과물을 출력한다. 출력부(200)는 정합 결과물을 디스플레이 장치를 통해 영상으로 표시할 수 있다.
프로세서부(300)는 환자 공간의 영상 데이터와 의료 영상 데이터를 정합한다. 다시 말해, 프로세서부(300)는 환자 공간의 표면 좌표 데이터와 의료 영상의 표면 좌표 데이터를 동일한 공간으로 매칭한다. 프로세서부(300)는 제1 좌표점 추출부(310), 증강부(320), 제3 좌표점 생성부(330), 정합부(340) 및 저장부(350)를 포함할 수 있다.
제1 좌표점 추출부(310)는 프로브(110)로부터 입력된 환자 공간의 영상 데이터로부터 제1 좌표점 셋트(P1)를 추출한다. 제1 좌표점 셋트(P1)는 프로브(110)의 이동 경로에 따라 입력된 환자의 신체 표면에 대한 좌표점들을 포함한다.
증강부(320)는 제1 좌표점 셋트(P1)를 증강시킨다. 증강부(320)는 보간법을 이용하여 제1 좌표점 셋트(P1)를 증강시킬 수 있다. 여기서 제1 좌표점 셋트(P1)를 증강시킨다는 것은 제1 좌표점들의 수를 증가시키는 것으로 이해될 수 있다. 구체적으로, 증강부(320)는 구간적 3차 에르미트 보간 다항식(Piecewise Cubic Hermite Interpolating Polynomial)을 이용하여 제1 좌표점 셋트(P1)를 증강시킬 수 있다. 보간법은 주어진 점들롤부터 곡선 혹은 직선을 구하는 방법을 의미한다. 구간적 3차 에르미트 보간 다항식은 각 점들의 값과 1차 미분값을 대응시켜 보간하는 특징을 가진다. 구간적 3차 에르미트 보간 다항식은 다음의 [수학식 1]으로 설명될 수 있다.
Figure 112021023589060-pat00001
Figure 112021023589060-pat00002
Figure 112021023589060-pat00003
Figure 112021023589060-pat00004
구간적 3차 에르미트 보간법은 k번째 데이터를
Figure 112021023589060-pat00005
, 데이터 값을
Figure 112021023589060-pat00006
, 기울기 값을
Figure 112021023589060-pat00007
, k번째 데이터의 구간을
Figure 112021023589060-pat00008
,
Figure 112021023589060-pat00009
라 하고,
Figure 112021023589060-pat00010
의 범위에서 [수학식 2]를 만족하는 [수학식 1]의 3차 다항식
Figure 112021023589060-pat00011
를 계산하는 것을 의미한다.
구간적 3차 에르미트 보간법을 이용하여 좌표점을 증강시키면, 데이터가 과도하게 상승하는 오버슈트(overshoot) 현상이 방지될 수 있다. 따라서 신체 표면의 평탄 영역을 정확하게 연결할 수 있다.
증강부(320)는 제1 좌표점 셋트(P1)를 10%씩 증강시킬 수 있다. 제1 좌표점 셋트(P1)를 10% 증강시키는 과정을 1회의 스텝으로 가정하면, 좌표점 증강부(14)는 1회 이상의 스텝을 반복 실시할 수 있다. 좌표점 증강부(310)는 제한된 시간 내에서 획득된 제1 좌표점 셋트(P1)의 좌표점 수를 증강시키므로 정합 정확도를 높일 수 있다.
이하의 설명에서, 제1 좌표점 셋트(P1)와 제1 좌표점 셋트(P1)가 증강된 좌표점들을 총칭하여 제2 좌표점 셋트(P2)로 설명한다. 제2 좌표점 셋트(P2)는 제1 좌표점 셋트(P1)와 제1 좌표점 셋트(P1)로부터 증강된 좌표점들로 구성된다.
제3 좌표점 생성부(330)는 제2 좌표점 셋트(P2)에 의해 추출된 보간 다항식으로부터 제3 좌표점을 생성한다. 좌표점 생성부(330)는 제2 좌표점 셋트(P2)를 기반으로 보간 다항식을 추출할 수 있다. 보간 다항식은 전술한 구간적 3차 에르미트 보간법을 이용할 수 있다. 제3 좌표점 생성부(340)는 제2 좌표점 셋트(P2) 중 선택된 전체 또는 일부 좌표점들을 이용하여 보간 다항식을 추출할 수 있다. 그리고 제3 좌표점 생성부(330)는 의료 영상의 표면 좌표점 셋트(T)로부터 최소 거리가 되는 보간 다항식 상의 좌표점을 생성할 수 있다. 이와 같이 생성된 좌표점을 제3 좌표점이라 하며, 복수의 제3 좌표점을 제3 좌표점 셋트(P3)로 표시하고 설명한다.
도 3은 제3 좌표점 생성부(330)가 제3 좌표점을 생성하는 것을 개략적으로 나타낸 예시도이다.
도 3에 도시한 바와 같이, 제3 좌표점 생성부(330)는 제2 좌표점 셋트(P2)로부터 보간 다항식(s)을 추출할 수 있다. 그리고 보간 다항식(s)와 의료 영상의 표면 좌표점 셋트(T)를 비교 분석하여 제3 좌표점(P3)을 생성한다. 제3 좌표점은 보간 다항식을 만족하는 좌표점이며, 의료 영상의 표면 좌표점 셋트(T)와의 거리가 최소가 되는 좌표점들이다. 제3 좌표점 셋트(P3)는 복수의 제3 좌표점들(P3)을 포함한다.
정합부(340)는 의료 영상의 표면 좌표점 셋트(T)와 환자 공간의 제2 및 제3 좌표점 셋트를 정합한다. 정합은 각자의 공간에 위치한 좌표점 셋트들을 하나의 좌표계에 배치하는 것을 의미한다. 정합부(340)는 표면 좌표점 셋트(T)를 회전시키거나 이동시켜 제2 및 제3 좌표점 셋트(P2)(P3)와 정합시킬 수 있다. 또는 정합부(340)는 제2 및 제3 좌표점 셋트(P2)(P3)를 회전시키거나 이동시켜 표면 좌표점 셋트(T)와 정합시킬 수 있다. 그리고 정합부(340)는 정합된 결과물을 하나의 공간 좌표계에 배치할 수 있다. 정합부(340)는 ICP(iterative closest point) 알고리즘을 이용하여 좌표점 셋트를 정합할 수 있다. 상기 ICP 알고리즘은 두 공간의 좌표간 위치의 평균 차이가 최소가 될 수 있는 회전 및 이동 행렬을 계산하여 매칭하는 방법이다. 상기 ICP 알고리즘은 다음의 수학식 3으로 정의된다.
Figure 112021023589060-pat00012
수학식 3에서, R과 t는 두개의 좌표점 셋트의 위치 오차를 최소화할 수 있는 회전 행렬과 이동 행렬을 의미하며,
Figure 112021023589060-pat00013
Figure 112021023589060-pat00014
는 각각 환자 공간의 좌표점 셋트와 의료영상 공간의 좌표점 셋트를 의미한다.
한편, 정합부(340)는 정합 결과물에 대한 정확도를 분석할 수 있다. 정합부(340)는 표면 정합 오차 (Surface registration error; SRE) 분석 또는 타겟 정합 오차 (Target registration error;TRE) 분석을 통해 정합 오차나 정합 정확도를 분석할 수 있다. 상기 표면 정합 오차는 하나의 표면 좌표점 셋트와 다른 표면 좌표점 셋트 간 거리를 계산하고 이를 평균하여 획득된다.
상기 표면 정합 오차는 아래의 수학식 4에 의해 계산될 수 있다.
Figure 112021023589060-pat00015
[수학식 4]에서
Figure 112021023589060-pat00016
는 i번째 의료영상 공간의 좌표점을 의미하고
Figure 112021023589060-pat00017
는 ICP 알고리즘을 통해 획득된 변환행렬이 적용된 i번째 환자 공간 좌표점을 의미한다.
저장부(350)는 영상 데이터를 포함한 각종 데이터들을 저장할 수 있다. 저장부(350)는 입력부(100)로부터 입력된 환자 공간의 영상 데이터, 의료 영상 데이터를 저장할 수 있다. 또한, 저장부(350)는 표면 좌표점 셋트(T), 제1 좌표점 셋트(P1), 제2 좌표점 셋트(P2), 제3 좌표점 셋트(P3)와 같은 좌표점 정보들을 저장할 수 있다. 또한, 저장부(350)는 정합부(340)에 의해 정합된 결과물을 3차원 영상 형태로 저장할 수 있다.
도 4는 도 2에 도시한 의료 영상 정합 장치를 이용한 의료 영상 정합 방법을 설명하기 위한 흐름도이다.
도 4에 도시한 바와 같이, 의료 영상 데이터로부터 표면 좌표점 셋트(T)를 획득하는 단계가 실시될 수 있다(S100).
입력부(100)는 의료 영상 데이터를 수신하거나 의료 영상 데이터의 표면 좌표점 셋트(T)를 수신할 수 있다. 입력부(100)가 의료 영상 데이터를 수신하는 경우, 프로세서부(300)는 의료 영상 데이터로부터 표면 좌표점 셋트(T)를 추출할 수 있다. 표면 좌표점 셋트(T)는 환자의 신체 표면에 대한 좌표점들을 포함한다.
다음으로, 환자 공간의 영상 데이터로부터 제1 좌표점 셋트(P1)를 추출하는 단계가 실시될 수 있다(S200).
입력부(100)는 프로브(110)를 이용하여 프로브(110)의 위치 정보를 나타내는 환자 공간의 영상 데이터를 수집한다. 프로브(110)는 10초 내외의 시간동안 환자의 피부 표면을 따라 접촉 또는 근접한 상태로 이동하며 환자의 신체 표면에 대한 데이터를 수집한다. 일례로, 프로브(110)는 10초 내지 20초의 시간 동안 데이터를 수집할 수 있다. 수집된 환자 공간의 영상 데이터는 저장부(350)에 저장될 수 있다. 제1 좌표점 추출부(310)가 상기 영상 데이터로부터 표면 좌표 데이터인 제1 좌표점 셋트(P1)를 추출한다.
다음으로, 제1 좌표점 셋트(P1)를 증강하는 단계가 실시될 수 있다(S300). 증강부(320)는 보간법을 이용하여 제1 좌표점 셋트(P1)를 증강시킨다. 제1 좌표점 셋트(P1)를 증강하는 단계는 복수 회 반복 실시될 수 있다. S200단계에서 생성된 제1 좌표점 셋트(P1)는 수술 시 환자 공간에서 프로브(110)를 통해 획득되므로 획득 시간에 제한이 있을 수 있다. 프로브(110)의 이동 시간을 증가시키면 보다 많은 양의 제1 좌표점 셋트(P1)를 획득할 수 있지만 수술 시에는 신속하게 환자 공간의 제1 좌표점 셋트(P1)를 획득할 필요가 있다. 따라서 제한된 시간 내에 획득된 제1 좌표점 셋트(P1)를 증강함으로써 의료 영상과의 정합도를 높일 수 있다.
제1 좌표점 셋트(P1)를 증강하는 단계는 좌표점의 개수를 10% 씩 증강시키는 것을 1회의 스텝이라고 할 때, 1회 이상의 스텝이 반복 수행될 수 있다. 그리고 1회의 스텝이 완료될 때마다 ICP 알고리즘을 이용하여 증강에 따른 표면 정합 성능을 평가할 수 있다.
정합부(340)는 제1 좌표점 셋트(P1)의 표면 정합 오차를 분석한다. 분석된 표면 정합 오차가 종료 기준을 만족하는 경우, S300 단계의 증강이 종료될 수 있고, 종료 기준을 만족하지 않는 경우 S300단계의 증강이 계속 반복될 수 있다.
상기 표면 정합 오차는 전술한 수학식 4에 따라 분석될 수 있다. 상기 종료 기준은 표면 정합 오차의 변화량이 0.1% 이하의 절대값을 갖는 것으로 설정될 수 있다. 여기서 표면 정합 오차의 변화량은 하나의 스텝에서 분석된 표면 정합 오차가 이전 스텝에서의 표면 정합 오차와의 차이 값을 의미한다.
S300 단계가 종료되면 제2 좌표점 셋트(P2)가 구성된다. 제2 좌표점 셋트(P2)는 제1 좌표점 셋트(P1)와 제1 좌표점 셋트(P1)로부터 증강된 좌표점들을 포함한다.
다음으로, 제3 좌표점 셋트(P3)를 생성하는 단계가 실시될 수 있다(S400). 이를 위하여 제2 좌표점 셋트(P2)로부터 보간 다항식을 추출할 수 있다. 상기 보간 다항식은 구간적 3차 에르미트 보간법일 수 있다. 그리고 추출된 보간 다항식을 표면 좌표점 셋트(T)와 비교 분석하여 제3 좌표점 셋트(P3)를 생성할 수 있다. 제3 좌표점 셋트(P3)는 보간 다상식 상에 존재하는 좌표점일 수 있으며, 의료 영상의 표면 좌표점 셋트(T)로부터 최소 거리를 만족하는 좌표점들이다. 즉, 제3 좌표점 셋트(P3)는 의료 영상의 표면 좌표점 셋트(T)와의 위치 오차가 최소인 점들일 수 있다. 따라서 제3 좌표점 셋트(P3)를 이용하여 표면 좌표점 셋트(T)와 정합 시, 정합 오차를 최소화할 수 있다.
다음으로, 제2 및 제3 좌표점 셋트(P3)를 의료 영상의 표면 좌표점 셋트(T)와 정합하는 단계가 실시될 수 있다 (S500). 정합은 ICP 알고리즘을 이용하여 시행될 수 있다. 이에 따라 표면 좌표점 셋트(T)는 제2 및 제3 좌표점 셋트(P2)(P3)와 동일한 좌표계에 표시될 수 있다. 이에 따라 의료 영상과 환자 공간의 영상의 정합이 완료될 수 있다.
상기한 과정을 따라 정합된 의료 영상은 디스플레이와 같은 출력부(200)에 의해 표시될 수 있다.
도 5 내지 도 7은 본 발명의 일 실시예에 따른 의료 영상 정합 장치의 표면 정합 오차를 설명하기 위한 도면이다.
도 5 내지 도 7에 도시한 실험 데이터는 본 발명의 일 실시예에 따른 의료 영상 정합 장치를 이용하여 표면 정합을 실시하고, 그 결과물에 대하여 오차를 분석하여 나타낸 것이다.
본 발명의 일 실시예에 따른 의료 영상 정합 장치를 테스트하기 위하여 가상의 반구(Semi-sphere) 모형을 활용하였다. 상기 반구는 표면에 일정한 분포로 배치된 점들로 이루어진 점군집을 포함한다. 상기 반구의 반지름은 사람 얼굴의 크기를 고려하여 100mm로 설정하였으며, 의료영상 점군집의 개수에 따른 효과를 분석하기 위하여 1,527개부터 12,100개의 8가지 케이스로 나뉘어 모형화하였다. 좌표의 점군집은 구의 모형과 동일한 형태로 만들었으며, 좌표점의 개수는 200개로 한정하였다.
그리고 병변 오차를 분석하기 위하여 6곳에 타겟의 위치를 선정하였다. 상기 반구의 중심을 기준으로 설정하였으며, 심부 오차 분석을 위하여 깊이를 달리한 구의 정면부, 중간부, 후면부의 3곳에 타겟을 배치하였다.
정합 성능은 표면 정합 오차와 타겟 정합 오차(Target registration error;TRE)를 분석하여 평가되었다. 표면 정합 오차는 의료영상 공간 점군집 (i = 1…n)과 ICP알고리즘을 통해 획득된 환자 공간 점군집 (i = 1…n) 간 거리를 계산하고 이에 대한 평균을 통해 획득된다. 또한, 타겟 정합 오차는 의료영상 공간에서 측정된 병변 위치와 ICP알고리즘을 통해 획득된 변환행렬을 적용하여 변환된 환자 공간의 병변 위치간 거리를 계산함으로써 획득된다. 타겟 정합 오차는 아래의 수학식 5를 통해 평가될 수 있다.
[수학식 5]
Figure 112021023589060-pat00018
수학식 5에서
Figure 112021023589060-pat00019
는 의료 영상 공간에서 측정된 병변의 위치이고,
Figure 112021023589060-pat00020
는 환자 공간에서 측정된 병변의 위치를 변환 행렬을 적용하여 생성한 위치를 의미한다.
도 5에 도시한 바와 같이, 실시예에 따른 표면 정합 오차가 비교예보다 작게 나타난 것을 알 수 있다. 실시예는 본 발명의 일 실시예에 따른 의료 영상 정합 장치를 이용한 결과를 나타내고, 비교예는 종래의 의료 영상 정합 장치를 이용한 결과를 나타낸다. 실시예에 따른 표면 정합 오차는 좌표점의 개수가 증가하여도 비교예보다 오차가 적은 것으로 확인되었다.
도 6에 도시한 바와 같이, 실시예에 따른 표면 정합 오차가 비교예보다 작게 나타난 것을 알 수 있다. 도 6의 실험 데이터에서 표식의 색이 붉은색에 가까울수록 오차가 크고 청색에 가까울수록 오차가 작은 것을 의미한다. 실시예에 따른 모형의 데이터에서 청색 표식이 더 많이 나타나는 것을 알 수 있다. 좌표점의 개수가 1527개, 6066개, 12,100개로 증가하여도, 실시예에 따른 표면 정합 오차가 비교예보다 작게 나타남을 알 수 있다.
또한, 도 7에 도시한 바와 같이, 실시예에 따른 타겟 정합 오차가 비교예보다 작게 나타난 것을 알 수 있다. 또한, 정면부, 중간부 및 후면부에 있어서도 실시예에 따른 타겟 정합 오차가 비교예보다 작게 나타난 것을 알 수 있다.
도 8 및 도 9는 본 발명의 일 실시예에 따른 의료 영상 정합 장치의 표면 정합 오차를 설명하기 위한 도면이다.
도 8 및 도 9에 도시한 실험데이터는 본 발명의 일 실시예에 따른 의료 영상 정합 장치를 이용하여 표면 정합을 실시하고, 그 결과물에 대하여 오차를 분석하여 나타낸 것이다.
본 발명의 일 실시예에 따른 의료 영상 정합 장치를 테스트하기 위하여 사람 얼굴 모형을 제작하여 사용하였다. 모형의 기본적인 구성은 가슴 윗부분부터 머리까지 형태가 존재하는 마네킹과 마네킹 내부에 삽입될 프레임으로 구성된다.
모형의 얼굴 표면 위치 정보를 획득하기 위하여 의료영상 장비 (Brivo CT 385, General Electronics Medical Systems, Milwaukee, Wisconsin, USA)를 사용하여 컴퓨터 단층 촬영(Computed tomography; CT)을 수행하였다. CT 영상은 횡단면 기준으로 0.5mm 간격으로 촬영되었으며 해상도는 512x512 픽셀이다. 또한, 환자공간의 좌표점을 획득하기 위하여 임상에서 일반적으로 활용되는 광학식 추적 장치와 전자기장식 추적 장치를 활용하였다. 광학식 추적 장치로는 광학카메라(Optitrack Flex 3, Natural points, Corvallis, OR, USA) 3대와 패시브 방식의 수술 프로브 (Northern Digital Inc., Waterloo, ON, Canada)를 활용하였다. 3차원 좌표점은 3대의 광학식 카메라로 구성된 3차원 위치 복원 시스템을 기반으로 패시브 프로브에 부착된 4개의 적외선 마커를 획득하고, 이를 활용해 수술 프로브 끝단의 위치를 계산하였다. 전자기장 추적 장치는 Aurora 시스템 (Northern Digital Inc., Waterloo, ON, Canada)을 활용하였다. 시스템에 부착된 위치 트래커 끝단의 3차원 위치를 기반으로 얼굴 표면 좌표를 획득하였다.
그리고 의료영상처리 라이브러리(The Medical Imaging Interaction Toolkit; MITK)를 활용하여 CT 단층 영상정보 DICOM 파일에 대한 2차원 단층 영상 및 3차원 형상을 획득하였다. 재구성한 3차원 형상은 마칭 큐브(Marching cube) 기법을 활용하여 얼굴 표면의 3차원 좌표점을 추출하였으며, 범위는 입술부위부터 이마 상단까지로 한정하였다. 환자공간의 좌표는 광학식 및 전자기식 장비를 활용하여 얼굴 표면을 트레이싱 하여 획득하였으며, 트레이싱 시간은 실제 임상 상황을 고려하여 20초를 넘기지 않았다.
도 8에 도시한 바와 같이, 광학식과 전자기장식 모두에서 실시예에 따른 표면 정합 오차가 비교예보다 작게 나타난 것을 알 수 있다. 도 8의 실험 데이터에서 표식의 색이 붉은색에 가까울수록 오차가 크고 청색에 가까울수록 오차가 작은 것을 의미한다. 실시예에 따른 모형의 데이터에서 청색 표식이 더 많이 나타나는 것을 알 수 있다.
그리고 도 9에 도시한 바와 같이, 광학식과 전자기장식 모두에서 실시예에 따른 표면 정합 오차가 비교예보다 작게 나타난 것을 알 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100 : 입력부
200 : 출력부
300 : 프로세서부
310 : 제1 좌표점 추출부
320 : 증강부
330 : 제3 좌표점 생성부
340 : 정합부
350 : 저장부

Claims (11)

  1. 환자 공간의 영상 데이터와 의료 영상 데이터를 정합하는 의료 영상 정합 장치에 있어서,
    프로브를 통해 수집되는 상기 환자 공간 영상 데이터와 상기 의료 영상 데이터를 수신하는 입력부;
    상기 환자 공간 영상 데이터와 상기 의료 영상 데이터의 정합 결과물을 출력하는 출력부;
    상기 환자 공간 영상 데이터와 상기 의료 영상 데이터를 정합하는 프로세서부
    를 포함하며,
    상기 프로세서부는,
    상기 환자 공간 영상 데이터로부터 제1 좌표점 셋트를 추출하는 제1 좌표점 추출부;
    상기 제1 좌표점 셋트를 증강하여 제2 좌표점 셋트를 구성하는 증강부;
    상기 제2 좌표점 셋트로부터 보간 다항식을 추출하고, 상기 의료 영상 데이터의 표면 좌표점 셋트로부터 최소 거리를 만족하며 상기 보간 다항식 상에 위치하는 제3 좌표점들을 생성하는 제3 좌표점 생성부;
    상기 제2 좌표점 셋트 및 상기 제3 좌표점 셋트를 상기 표면 좌표점 셋트와 정합하는 정합부; 및
    상기 환자 공간 영상 데이터와 상기 의료 영상 데이터, 상기 정합부에 의해 정합된 결과물을 저장하는 저장부
    를 포함하는 의료 영상 정합 장치.
  2. 제1항에 있어서,
    상기 제2 좌표점 셋트는 상기 제1 좌표점 셋트와 상기 제1 좌표점 셋트로부터 증강된 좌표점들을 포함하는 것인 의료 영상 정합 장치.
  3. 제1항에 있어서,
    상기 증강부는 구간적 3차 에르미트 보간 다항식을 이용하여 상기 제1 좌표점 셋트를 증강하는 것인 의료 영상 정합 장치.
  4. 제1항에 있어서,
    상기 정합부는 ICP(iterative closest point) 알고리즘을 이용하여 정합하는 의료 영상 정합 장치.
  5. 환자 공간의 영상 데이터와 의료 영상 데이터를 정합하는 의료 영상 정합 장치를 이용한 의료 영상 정합 방법에 있어서,
    상기 의료 영상 정합 장치가 상기 의료 영상 데이터로부터 표면 좌표점 셋트(T)를 획득하는 단계;
    상기 의료 영상 정합 장치가 프로브를 통해 수집되는 상기 환자 공간의 영상 데이터로부터 제1 좌표점 셋트를 추출하는 단계;
    상기 의료 영상 정합 장치가 상기 제1 좌표점 셋트를 증강하여 제2 좌표점 셋트를 구성하는 단계;
    상기 의료 영상 정합 장치가 상기 제2 좌표점 셋트로부터 보간 다항식을 추출하고, 상기 보간 다항식으로부터 제3 좌표점 셋트를 생성하는 단계; 및
    상기 의료 영상 정합 장치가 상기 표면 좌표점 셋트와 상기 제3 좌표점 셋트를 정합하는 단계
    를 포함하는 의료 영상 정합 방법.
  6. 삭제
  7. 제5항에 있어서,
    상기 제2 좌표점 셋트를 구성하는 단계에서,
    1회의 증강 시마다 상기 제1 좌표점 셋트를 10% 증강시키며,
    상기 증강을 복수회 실시하는 것인 의료 영상 정합 방법.
  8. 제7항에 있어서,
    상기 제2 좌표점 셋트를 구성하는 단계는,
    상기 1회의 증강이 끝날 때마다 표면 정합 오차를 분석하는 단계를 포함하며,
    상기 표면 정합 오차의 변화량이 0.1% 이하의 절대값을 나타낼 때 증강을 중단하는 것인 의료 영상 정합 방법.
  9. 제5항에 있어서,
    상기 제2 좌표점 셋트를 구성하는 단계에서,
    3차 에르미트 보간 다항식을 이용하여 상기 제1 좌표점 셋트를 증강하는 것인 의료 영상 정합 방법.
  10. 제5항에 있어서,
    제3 좌표점 셋트를 생성하는 단계에서,
    상기 제3 좌표점 셋트는 표면 좌표점 셋트로부터 최소 거리를 만족하며 상기 보간 다항식 상에 위치하는 좌표점들로 구성되는 것인 의료 영상 정합 방법.
  11. 제5항에 있어서,
    상기 정합하는 단계는
    ICP(iterative closest point) 알고리즘을 이용하는 것인 의료 영상 정합 방법.
KR1020210026433A 2021-02-26 2021-02-26 의료 영상의 정합 장치 및 방법 KR102394921B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210026433A KR102394921B1 (ko) 2021-02-26 2021-02-26 의료 영상의 정합 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210026433A KR102394921B1 (ko) 2021-02-26 2021-02-26 의료 영상의 정합 장치 및 방법

Publications (1)

Publication Number Publication Date
KR102394921B1 true KR102394921B1 (ko) 2022-05-06

Family

ID=81584725

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210026433A KR102394921B1 (ko) 2021-02-26 2021-02-26 의료 영상의 정합 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102394921B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200026851A (ko) * 2020-02-26 2020-03-11 (주)레벨소프트 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법
KR20210051481A (ko) * 2019-10-30 2021-05-10 가톨릭관동대학교산학협력단 수술용 내비게이션 장치 및 방법
KR20210074089A (ko) * 2019-12-11 2021-06-21 성균관대학교산학협력단 수술용 내비게이션 시스템에서의 표면 점군집 개선 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210051481A (ko) * 2019-10-30 2021-05-10 가톨릭관동대학교산학협력단 수술용 내비게이션 장치 및 방법
KR20210074089A (ko) * 2019-12-11 2021-06-21 성균관대학교산학협력단 수술용 내비게이션 시스템에서의 표면 점군집 개선 방법 및 장치
KR20200026851A (ko) * 2020-02-26 2020-03-11 (주)레벨소프트 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Ahnryul Choi 외 6인, A Novel Patient-to-Image Surface Registration Technique for ENT- and Neuro-Navigation Systems: Proper Point Set in Patient Space(2021.06.12.) *

Similar Documents

Publication Publication Date Title
US11883118B2 (en) Using augmented reality in surgical navigation
Grimson et al. An automatic registration method for frameless stereotaxy, image guided surgery, and enhanced reality visualization
US9498132B2 (en) Visualization of anatomical data by augmented reality
JP2950340B2 (ja) 三次元データ組の登録システムおよび登録方法
US10026016B2 (en) Tracking and representation of multi-dimensional organs
CN107067398B (zh) 用于三维医学模型中缺失血管的补全方法及装置
KR20210051141A (ko) 환자의 증강 현실 기반의 의료 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램
CN103687541B (zh) 用于导航引导的可视化
CN101797182A (zh) 一种基于增强现实技术的鼻内镜微创手术导航系统
Wu et al. Three-dimensional modeling from endoscopic video using geometric constraints via feature positioning
CA2797302A1 (en) System and methods for intraoperative guidance feedback
WO2007011314A2 (en) Methods and systems for mapping a virtual model of an object to the object
Reichard et al. Projective biomechanical depth matching for soft tissue registration in laparoscopic surgery
Adagolodjo et al. Marker-based registration for large deformations-application to open liver surgery
KR102233585B1 (ko) 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법
KR102433473B1 (ko) 환자의 증강 현실 기반의 의료 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램
Stolka et al. A 3D-elastography-guided system for laparoscopic partial nephrectomies
Plantefeve et al. Automatic alignment of pre and intraoperative data using anatomical landmarks for augmented laparoscopic liver surgery
KR100346363B1 (ko) 자동 의료 영상 분할을 통한 3차원 영상 데이터 구축방법/장치, 및 그를 이용한 영상유도 수술 장치
Reichard et al. Intraoperative on-the-fly organ-mosaicking for laparoscopic surgery
KR102437616B1 (ko) 3차원 영상 정합 제공 장치, 이를 이용한 영상 좌표 정합 방법 및 표면 데이터 획득 방법
KR102394921B1 (ko) 의료 영상의 정합 장치 및 방법
Speidel et al. Intraoperative surface reconstruction and biomechanical modeling for soft tissue registration
CN111329589A (zh) 一种手持式智能融合造影导航系统
CN114283179B (zh) 基于超声图像的骨折远近端空间位姿实时获取与配准系统

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant