KR20120130563A - 좌표공간 상에서의 영상정합장치 및 영상정합방법 - Google Patents

좌표공간 상에서의 영상정합장치 및 영상정합방법 Download PDF

Info

Publication number
KR20120130563A
KR20120130563A KR1020110048585A KR20110048585A KR20120130563A KR 20120130563 A KR20120130563 A KR 20120130563A KR 1020110048585 A KR1020110048585 A KR 1020110048585A KR 20110048585 A KR20110048585 A KR 20110048585A KR 20120130563 A KR20120130563 A KR 20120130563A
Authority
KR
South Korea
Prior art keywords
image
model
robot
dimensional
tomography
Prior art date
Application number
KR1020110048585A
Other languages
English (en)
Other versions
KR101239294B1 (ko
Inventor
김영수
신승학
장종성
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020110048585A priority Critical patent/KR101239294B1/ko
Publication of KR20120130563A publication Critical patent/KR20120130563A/ko
Application granted granted Critical
Publication of KR101239294B1 publication Critical patent/KR101239294B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4458Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit or the detector unit being attached to robotic arms

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명에 의한 영상 정합 장치는, 검사대상을 단층촬영하는 단층촬영기; 상기 단층촬영기에 의해 촬영된 다수개의 단층촬영 영상에서 표면정보만을 추출하여 3차원 영상모델로 재구성하는 연산부; 검사대상이 안착된 공간상에서 3차원으로 이동 가능한 로봇; 상기 로봇에 장착되며, 상기 검사대상 표면의 각 지점 위치정보를 수집하여 상기 검사대상의 표면을 3차원 표면모델로 재구성하는 표면영상 측정기; 상기 3차원 영상모델과 3차원 표면모델을 정합하여, 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계를 일치시키는 제어부를 포함하여 구성된다. 본 발명에 의한 영상정합장치 및 영상정합방법을 이용하면, 환자에게 인공표식을 부착하고 인공표식의 위치를 감지하는 작업을 할 필요가 없으므로 영상정합을 위한 장치 및 공정이 매우 간단하며, 한 번의 정합과정을 통해 단층촬영 영상 공간좌표계를 검사대상과 조작로봇이 존재하고 있는 공간좌표계로 정합할 수 있으므로 두 단계의 정합과정을 거치는 종래에 비해 오차가 현저히 감소된다는 장점이 있다.

Description

좌표공간 상에서의 영상정합장치 및 영상정합방법 {Apparatus and method for registering images at coordinate space}
본 발명은 검사대상의 단층촬영 영상을 검사대상 조작로봇이 존재하는 좌표공간으로 정합하는 영상정합장치 및 영상정합방법에 관한 것으로, 더 상세하게는 단층촬영 표면영상과 검사대상의 현재 표면영상을 정합함으로써 단층촬영 영상을 검사대상 조작로봇이 존재하는 현실공간에 한 번에 정합시킬 수 있는 영상정합장치 및 영상정합방법에 관한 것이다.
의학적으로 수술이란 피부나 점막, 기타 조직을 의료 기계를 사용하여 자르거나 째거나 조작을 가하여 병을 고치는 것을 말한다. 특히, 수술부위의 피부를 절개하여 열고 그 내부에 있는 기관 등을 치료, 성형하거나 제거하는 개복 수술은 출혈, 부작용, 환자의 고통, 흉터 등의 문제가 발생되는 바, 최근에는 로봇(robot)을 사용한 수술이 대안으로서 각광받고 있다.
이와 같이 로봇을 사용한 수술 방법으로는 여러 종류가 있는데, 신체 내부를 수술하고자 하는 경우에는 신체 내부의 영상을 보면서 로봇을 조작하는 영상유도수술(IGS : image-guided surgery)이 주로 활용되고 있다. 영상유도수술은 수술장에서 수술도구의 위치를 추적하여 CT 영상 또는 MR 영상 등 환자의 단층촬영 영상에 중첩하여 시각화함으로써 수술의 정확성과 안정성을 높일 수 있는 방법이다.
영상유도수술을 수행하기 위해서는, 수술 전 획득한 환자의 CT 혹은 MR 영상(이하 '단층촬영 영상'이라 통칭함)을 이용하여 수술 계획을 수립하고, 계산된 로봇의 이동 경로를 수술에 적용하기 전에 로봇과 영상 그리고 환자 공간 사이의 정합이 필수적으로 요구된다. 이와 같은 정합은, 환자에 인공표식을 부착한 후 위치 추적이 가능한 프로브로 부착된 인공표식의 위치정보를 획득하는 과정과, CT 혹은 MR 영상에서 추출한 인공표식의 위치와 수술실에서 획득한 인공표식의 위치를 기반으로 하는 포인트 기반 정합 과정을 통해 이루어진다.
즉, 상기와 같은 종래의 정합방법은, 단층촬영 영상과 인공표식 간의 정합과, 로봇이 위치하는 공간과 인공표식 간의 정합이 각각 이루어져야 하므로, 2번의 정합 과정을 거치는 동안 오차가 커질 수 있다는 문제점이 있다. 또한 상기와 같은 종래의 정합방법은, 환자에게 수술에 불필요한 인공표식을 부착하기 때문에 환자에게 위해를 가할 수 있고, 정합 과정이 복잡하여 사용자의 숙련도에 따라 손떨림 등에 의한 인공 표식의 위치 측정오차가 발생될 수 있다는 단점이 있다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 제안된 것으로, 한 번의 정합과정을 통해 단층촬영 영상을 검사대상과 조작로봇이 존재하고 있는 좌표공간으로 정합할 수 있는 영상정합장치 및 영상정합방법을 제공하는데 목적이 있다.
상기와 같은 목적을 달성하기 위한 본 발명에 의한 영상 정합 장치는, 검사대상에 대한 다수개의 단층촬영 영상에서 표면정보만을 추출하여 3차원 영상모델로 재구성하는 연산부; 검사대상이 안착된 공간상에서 3차원으로 이동 가능한 로봇; 상기 로봇에 장착되며, 상기 검사대상 표면의 각 지점 위치정보를 수집하여 상기 검사대상의 표면을 3차원 표면모델로 재구성하는 표면영상 측정기; 상기 3차원 영상모델과 3차원 표면모델을 정합하여, 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계를 일치시키는 제어부;를 포함하여 구성된다.
상기 연산부는, 상기 단층촬영 영상에서 추출한 표면정보를 마칭 큐브 알고리즘(Marching Cube Algorithm)을 사용하여 3차원 영상모델로 재구성한다.
상기 연산부는, 상기 단층촬영 영상에 디스플레이되는 검사대상 형상 중 최외곽 라인의 내부영역을 삭제함으로써 표면정보를 추출하도록 구성된다.
상기 제어부는, ICP(Iterative Closest Point) 알고리즘을 사용하여 상기 3차원 영상모델과 3차원 표면모델을 정합하도록 구성된다.
상기 표면영상 측정기는, 검사대상 표면 중 어느 한 지점까지의 거리를 측정한 후 상기 로봇의 위치 및 각도를 고려하여, 검사대상 표면 중 거리를 측정한 어느 한 지점의 위치를 로봇의 공간좌표로 변환함으로써, 상기 3차원 표면모델을 로봇의 공간좌표계 상에서 재구성한다.
상기 표면영상 측정기는, 레이저 스캐너 또는 3차원 카메라로 적용된다.
본 발명에 의한 영상 정합 방법은, 검사대상에 대한 다수개의 단층촬영 영상에서 표면정보만을 추출하여 3차원 영상모델로 재구성하는 제1 단계; 로봇에 장착된 표면영상 측정기의 위치를 변경시켜 가면서 상기 검사대상 표면의 각 지점 위치정보를 수집하여 상기 검사대상의 표면을 3차원 표면모델로 재구성하는 제2 단계; 상기 3차원 영상모델과 3차원 표면모델을 정합하여, 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계를 일치시키는 제3 단계;를 포함한다.
상기 제1 단계는, 마칭 큐브 알고리즘(Marching Cube Algorithm)을 이용하여 상기 단층촬영 영상에서 추출한 표면정보를 3차원 영상모델로 재구성하도록 구성된다.
상기 제1 단계는, 상기 단층촬영 영상에 디스플레이되는 검사대상 형상 중 최외곽 라인의 내부영역을 삭제함으로써 표면정보를 추출하도록 구성된다.
상기 제1 단계는, 상기 단층촬영 영상에 디스플레이되는 검사대상 형상 중 최외곽 라인의 내부영역을 삭제하는 과정을 통해 표면정보를 추출하도록 구성된다.
상기 제2 단계는, 검사대상 표면 중 어느 한 지점까지의 거리를 측정한 후 상기 로봇의 위치 및 각도를 고려하여, 검사대상 표면 중 거리를 측정한 어느 한 지점의 위치를 로봇의 공간좌표로 변환함으로써, 상기 3차원 표면모델을 로봇의 공간좌표계 상에서 재구성한다.
상기 제3 단계는, ICP(Iterative Closest Point) 알고리즘을 이용하여 상기 3차원 영상모델과 3차원 표면모델을 정합하도록 구성된다.
상기 표면영상 측정기는, 레이저 스캐너 또는 3차원 카메라로 적용된다.
본 발명에 의한 영상정합장치 및 영상정합방법을 이용하면, 환자에게 인공표식을 부착하고 인공표식의 위치를 감지하는 작업을 할 필요가 없으므로 영상정합을 위한 장치 및 공정이 매우 간단하며, 한 번의 정합과정을 통해 단층촬영 영상 공간좌표계를 검사대상과 조작로봇이 존재하고 있는 공간좌표계로 정합할 수 있으므로 두 단계의 정합과정을 거치는 종래에 비해 오차가 현저히 감소된다는 장점이 있다.
도 1은 본 발명에 의한 영상정합장치의 블록도이다.
도 2는 본 발명에 의한 영상정합방법의 순서도이다.
도 3은 3차원 영상모델을 구성하는 과정을 순차적으로 도시한다.
도 4는 본 발명에 의한 영상정합장치에 포함되는 로봇과 표면영상 측정기를 도시한다.
도 5는 3차원 영상모델과 3차원 표면모델을 정합시킨 형상을 도시한다.
이하 첨부된 도면을 참조하여 본 발명에 의한 영상정합장치 및 영상정합방법의 실시예를 상세히 설명한다.
도 1은 본 발명에 의한 영상정합장치의 블록도이다.
본 발명에 의한 영상정합장치는 검사대상을 단층촬영한 영상의 공간좌표계를 검사대상 조작 또는 수술을 위한 로봇이 존재하는 공간좌표계와 정합하기 위한 장치이다. 본 발명에 의한 영상정합장치는, 검사대상의 외형뿐만 아니라 내부까지 확인할 수 있도록 단층촬영기(100)에 의해 촬영된 다수개의 단층촬영 영상에서 표면정보만을 추출한 후, 단층촬영 영상 표면정보를 3차원 영상모델로 재구성하는 연산부(200)와, 검사대상이 실제로 안착된 공간상에서 3차원으로 이동 및 회전이 가능한 로봇(300)과, 상기 로봇(300)에 장착되어 실제 검사대상 표면의 각 지점 위치정보를 수집한 후 검사대상의 표면을 3차원 표면모델로 재구성하는 표면영상 측정기(400)와, 연산부(200)에 의해 재구성된 3차원 영상모델과 표면영상 측정기(400)에 의해 재구성된 3차원 표면모델을 정합하여, 단층촬영 영상 공간좌표와 로봇(300)의 공간좌표를 일치시키는 제어부(500)를 포함하여 구성된다.
이때, 본 발명에 의한 영상정합장치가 검사대상의 단층촬영을 하는 기능까지 수행할 필요가 있는 경우, 본 발명에 의한 영상정합장치는 상기 단층촬영기(100)를 구성요소로 포함하고, 상기 단층촬영기(100)는 제어부(500)로부터 신호를 전달받아 검사대상을 단층촬영 하도록 구성됨이 바람직하다.
물론, 검사대상의 단층촬영 영상의 공간좌표계를 로봇의 공간좌표계와 정합시키기 위한 영상정합장치는 종래에도 제안된 바 있으나, 종래의 영상정합장치를 이용하여 단층촬영 영상을 로봇이 존재하는 공간좌표에 정합하고자 할 때에는 검사대상의 표면에 다수 개의 인공표식을 부착시킨 후, 단층촬영 영상과 인공표식을 정합시키고 로봇이 존재하는 공간과 인공표식을 정합시킴으로써 즉, 인공표식을 매개체로 단층촬영 영상과 로봇을 간접적으로 정합시킨다는 점에 있어 본 발명에 의한 영상정합장치와 차이가 있다.
즉, 종래의 영상정합장치는 2단계의 정합(단층촬영 영상과 인공표식 간의 정합 및 로봇이 존재하는 공간과 인공표식 간의 정합)을 거친 후 인공표식을 중간 매개체로 상기 두 정합을 매칭시킴으로써, 단층촬영 영상과 로봇이 존재하는 공간을 2단계에 걸쳐 간접적으로 정합시키므로, 정합 과정이 매우 복잡해진다는 단점이 있다. 또한, 두 대상을 정합시키는 과정에서 비교적 큰 오차가 발생되는데, 종래의 영상정합장치를 사용할 때와 같이 정합이 2단계에 걸쳐 이루어지는 경우에는 각각의 정합에서 발생된 오차가 누적되어 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계에 차이가 크게 발생된다는 문제점이 있다. 이와 같이 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계에 차이가 크게 발생되면, 단층촬영 영상의 공간좌표계 상에서는 로봇이 정상적인 경로를 따라 움직인다 하더라도 실제 검사대상이 위치하는 공간좌표계에서는 로봇이 비정상적인 경로를 따라 움직이게 되므로, 정합을 하는 의미가 없어지는 경우도 발생될 수 있다.
그러나 본 발명에 의한 영상정합장치는, 상기 언급한 바와 같이 단층촬영 영상으로부터 3차원 영상모델을 재구성하고 실제 검사대상의 표면으로부터 3차원 표면모델을 재구성한 후, 3차원 영상모델과 3차원 표면모델을 정합하도록 즉, 한 번의 정합과정을 통해 단층촬영 영상을 로봇(300)이 존재하는 공간좌표 상에 일치시킬 수 있다는 장점이 있다. 본 발명에 의한 영상정합장치를 이용하면, 검사대상에 인공표식을 부착시키는 과정이 필요 없으므로 전체적인 영상정합과정이 매우 간략해지고, 사용자의 손떨림 등에 의해 인공표식의 위치가 변경되고 이에 따라 오차가 발생되는 현상이 발생되지 아니한다는 장점이 있다. 또한, 본 발명에 의한 영상정합장치와 같이 한 번의 정합으로 검사대상의 단층촬영 영상의 공간좌표계를 로봇(300)의 공간좌표계와 정합시키게 되면, 두 차례에 걸쳐 정합을 해야만 단층촬영 영상의 공간좌표계를 로봇(300)의 공간좌표계와 정합시킬 수 있는 경우에 비해 단층촬영 영상의 공간좌표계와 로봇(300)의 공간좌표계 간의 오차가 적어진다는 장점이 있다. 또한, 본 발명에 의한 영상정합장치를 이용하는 경우에는 인공표식이 필요 없으므로 운전비용을 절감할 수 있다는 이점도 있다.
이때, 상기 언급한 바와 같이 한 번의 정합과정을 통해 단층촬영 영상을 로봇(300)이 존재하는 공간좌표 상에 일치시키는 것이 가능하기 위해서는, 단층촬영 영상 내의 검사대상 표면을 3차원 영상모델로 재구성하는 과정과, 실제 검사대상 표면을 3차원 표면모델로 재구성하는 과정과, 상기 3차원 영상모델과 3차원 표면모델을 정합하는 과정이 필수적으로 요구되는데, 3차원 영상모델 및 3차원 표면모델의 재구성 및 이들의 정합에 대해서는 이하 별도의 도면을 참조하여 상세히 설명한다.
또한, 상기 연산부(200)는 마칭 큐브 알고리즘(Marching Cube Algorithm)을 사용하여 단층촬영 영상에서 추출한 표면정보를 3차원 영상모델로 재구성하도록 구성되고, 상기 제어부(500)는 ICP(Iterative Closest Point) 알고리즘을 사용하여 상기 3차원 영상모델과 3차원 표면모델을 정합하도록 구성되며, 상기 표면영상 측정기(400)는 검사대상 표면 중 어느 한 지점까지의 거리를 측정한 후 상기 로봇(300)의 위치 및 각도를 고려하여 검사대상 표면 중 거리를 측정한 어느 한 지점의 위치를 로봇(300)의 공간좌표로 변환함으로써 상기 3차원 표면모델을 로봇(300)의 공간좌표계 상에서 재구성하도록 구성됨이 바람직한데, 이와 같은 3차원 영상모델 및 3차원 표면모델을 재구성하는 알고리즘에 관한 상세설명 역시 이하 별도의 도면을 참조하여 상세히 설명한다.
도 2는 본 발명에 의한 영상정합방법의 순서도이고, 도 3은 3차원 영상모델을 구성하는 과정을 순차적으로 도시하며, 도 4는 본 발명에 의한 영상정합장치에 포함되는 로봇과 표면영상 측정기를 도시하고, 도 5는 3차원 영상모델과 3차원 표면모델을 정합시킨 형상을 도시한다.
본 발명에 의한 영상정합방법은 도 1에 도시된 영상정합장치를 이용하여 단층촬영 영상을 로봇(300)이 존재하는 공간좌표 상에 일치시키기 위한 것으로서, 본 실시예에서는 환자의 머리(20)를 검사대상으로 하고, 상기 로봇(300)이 수술용 로봇(300)으로 적용되는 경우를 설명한다.
수술용 로봇(300)을 이용하여 머리(20) 내부를 수술을 하기 위해서는, 머리(20)를 CT 촬영 또는 MRI 촬영을 하여 머리(20) 내부의 구조를 명확하게 파악한 후, 촬영된 단층영상을 수술로봇(300)이 위치하고 있는 공간좌표 상에 정합시킴으로써 수술로봇(300)이 수술부위를 정확하게 수술할 수 있도록 해야 한다. 이와 같은 정합을 위해서는, 먼저 도 2에 도시된 바와 같이 머리(20)를 연속적으로 단층 촬영하여 다수개의 단층촬영 영상을 마련하고(S10), 상기 다수개의 단층촬영 영상에서 표면정보만을 추출하여 3차원 영상모델(10)로 재구성하는 과정(S20)이 선행되어야 한다. 이때, 머리(20)를 단층촬영하기 위한 단층촬영기(100)로는 일반적으로 CT 촬영기나 MRI 촬영기가 가장 널리 사용되는데, 머리(20) 즉, 검사대상의 표면뿐만 아니라 내부까지 촬영할 수만 있다면 어떠한 촬영기로도 대체될 수 있다.
한편, 단층촬영 영상 내의 머리 표면을 3차원 영상모델(10)로 재구성하기 위해서는 단층촬영 영상에 디스플레이되고 있는 머리의 단면형상 중 표면정보만을 추출하여 활용해야 하는데, 단층촬영 영상에는 도 3의 (a)에 도시된 바와 같이 머리의 표면 라인만이 나타나는 것이 아니라 머리의 내부까지 나타나는바, 표면정보만을 추출하는데 어려움이 있다. 즉, 사람의 머리를 단층촬영하게 되면, 뇌나 안구, 치아 등과 같은 부위가 단층촬영 영상에 나타나는바, 사람의 머리 표면정보만을 추출하는데 어려움이 있다.
따라서 도 3의 (b)에 도시된 바와 같이 단층촬영 영상에 디스플레이된 머리 형상 중 최외곽 라인을 따라 경계선을 설정하고, 도 3의 (c)에 도시된 바와 같이 경계선의 내부영역을 삭제한 후 머리의 표면정보만을 추출하여, 도 3의 (d)에 도시된 바와 같이 단층촬영 영상 내의 머리 표면을 3차원 영상모델(10)로 재구성함이 바람직하다. 한편, 한 장의 단층촬영 영상에는 머리의 표면이 선으로 나타나므로, 머리의 표면을 3차원 영상모델(10) 즉, 3차원적으로 굴곡을 갖는 면으로 나타내기 위해서는 머리의 각 지점별 단층촬영 영상이 다수 개 필요하다. 이때 머리의 단층촬영을 촘촘히 할수록 즉, 단층촬영 영상의 개수가 많을수록 재구성되는 3차원 영상모델(10)의 정밀도가 높아지는바, 보다 정밀한 3차원 영상모델(10)을 얻고자 하는 경우에는 많은 수의 단층촬영 영상을 마련해야 한다.
또한, 상기 단층촬영 영상에서 추출한 표면정보를 3차원 영상모델(10)로 재구성하는 방법으로는 마칭 큐브 알고리즘(Marching Cube Algorithm)을 사용하는 방법이 활용됨이 바람직하다. 상기 마칭 큐브 알고리즘은 3차원 입체적인 데이터 셋으로부터 등가면(isosurface)을 추출하기 위한 방법으로서, 픽셀값을 이용하여 큐브를 형성하고 각각의 픽셀 명암값을 이용하여 등가면을 추출하여 오브젝트를 생성하도록 구성되는데, 이와 같은 마칭 큐브 알고리즘은 표면 랜더링에 있어 널리 사용되고 있는 알고리즘이므로, 이에 대한 상세한 설명은 생략한다.
단층촬영 영상 내의 머리 표면을 3차원 영상모델(10)로 재구성하는 과정이 완료되면, 표면영상 측정기(400)를 이용하여 실제 머리(20) 표면의 각 지점 위치정보를 수집한 후, 실제 머리(20) 표면을 3차원 표면모델(30)로 재구성한다(S30). 이때 표면영상 측정기(400)는, 실제 머리(20) 표면까지(도 4에서는 얼굴 표면까지)의 거리를 측정할 수 있도록 구성되며, 로봇(300)에 고정 장착된다. 따라서 표면영상 측정기(400)가 실제 머리(20) 표면의 각 지점 위치정보를 수집하기 위하여 움직일 때 로봇(300) 역시 표면영상 측정기(400)와 함께 움직이게 되므로, 상기 표면영상 측정기(400)에 의해 재구성되는 3차원 표면모델(30)은 로봇(300)이 위치하는 공간의 좌표로 나타내질 수 있다. 즉, 상기 표면영상 측정기(400)에 의해 재구성되는 3차원 표면모델(30)과 로봇(300)은 동일한 좌표 상에서 나타내지므로, 상기 3차원 표면모델(30)과 로봇(300) 간의 정합은 필요치 아니하다.
상기 표면영상 측정기(400)는 이동하는 동안 실제 머리(20) 표면까지의 거리를 연속적으로 측정할 수 있도록 레이저 스캐너나 3차원 카메라로 적용됨이 바람직하나, 검사대상(본 실시예에서는 머리(20))까지의 거리를 각 부위별로 측정하여 검사대상의 표면을 3차원 표면모델(30)로 재구성할 수 있다면 레이저 스캐너나 3차원 카메라에 한정되지 아니하고 다양한 종류의 측정기로 대체될 수 있다.
한편, 실제 머리(30) 표면을 3차원 표면모델(30)로 재구성하는 과정이 완료되면, 상기 3차원 영상모델(10)과 3차원 표면모델(30)을 정합하여, 단층촬영 영상 공간좌표계와 로봇(300)의 공간좌표계를 일치시킨다(S40). 이와 같이 단층촬영 영상 공간좌표계와 로봇(300)의 공간좌표계가 일치되면, 시술자가 단층촬영 영상을 보면서 로봇(300)을 조작하여 수술을 하더라도 정밀한 수술이 가능해지는바, 영상유도수술의 안정성이 높아지고 원격수술이 가능해진다는 장점이 있다.
또한, 3차원 영상모델(10)과 3차원 표면모델(30)을 정합할 때에는, 표면 정보 기반 정합 알고리즘인 ICP(Iterative Closest Point) 알고리즘을 적용함으로써, 단층촬영 영상 공간좌표와 로봇(300) 공간좌표를 정합시킴이 바람직하다. 이때, ICP 알고리즘은 두 개의 표면모델을 정합하는데 널리 활용되고 있는 알고리즘이므로, 이에 대한 상세한 설명은 생략한다.
이상, 본 발명을 바람직한 실시 예를 사용하여 상세히 설명하였으나, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 첨부된 특허청구범위에 의하여 해석되어야 할 것이다. 또한, 이 기술분야에서 통상의 지식을 습득한 자라면, 본 발명의 범위에서 벗어나지 않으면서도 많은 수정과 변형이 가능함을 이해하여야 할 것이다.
100 : 단층촬영기 200 : 연산부
300 : 로봇 400 : 표면영상 측정기
500 : 제어부

Claims (12)

  1. 검사대상에 대한 다수개의 단층촬영 영상에서 표면정보만을 추출하여 3차원 영상모델로 재구성하는 연산부;
    검사대상이 안착된 공간상에서 3차원으로 이동 가능한 로봇;
    상기 로봇에 장착되며, 상기 검사대상 표면의 각 지점 위치정보를 수집하여 상기 검사대상의 표면을 3차원 표면모델로 재구성하는 표면영상 측정기;
    상기 3차원 영상모델과 3차원 표면모델을 정합하여, 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계를 일치시키는 제어부;
    를 포함하는 것을 특징으로 하는 영상정합장치.
  2. 제1항에 있어서,
    상기 연산부는, 상기 단층촬영 영상에서 추출한 표면정보를 마칭 큐브 알고리즘(Marching Cube Algorithm)을 사용하여 3차원 영상모델로 재구성하는 것을 특징으로 하는 영상정합장치.
  3. 제1항에 있어서,
    상기 연산부는, 상기 단층촬영 영상에 디스플레이되는 검사대상 형상 중 최외곽 라인의 내부영역을 삭제함으로써 표면정보를 추출하는 것을 특징으로 하는 영상정합장치.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제어부는, ICP(Iterative Closest Point) 알고리즘을 사용하여 상기 3차원 영상모델과 3차원 표면모델을 정합하는 것을 특징으로 하는 영상정합장치.
  5. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 표면영상 측정기는, 검사대상 표면 중 어느 한 지점까지의 거리를 측정한 후 상기 로봇의 위치 및 각도를 고려하여, 검사대상 표면 중 거리를 측정한 어느 한 지점의 위치를 로봇의 공간좌표로 변환함으로써, 상기 3차원 표면모델을 로봇의 공간좌표계 상에서 재구성하는 것을 특징으로 하는 영상정합장치.
  6. 제5항에 있어서,
    상기 표면영상 측정기는, 레이저 스캐너 또는 3차원 카메라인 것을 특징으로 하는 영상정합장치.
  7. 검사대상에 대한 다수개의 단층촬영 영상에서 표면정보만을 추출하여 3차원 영상모델로 재구성하는 제1 단계;
    로봇에 장착된 표면영상 측정기의 위치를 변경시켜 가면서 상기 검사대상 표면의 각 지점 위치정보를 수집하여 상기 검사대상의 표면을 3차원 표면모델로 재구성하는 제2 단계;
    상기 3차원 영상모델과 3차원 표면모델을 정합하여, 단층촬영 영상의 공간좌표계와 로봇의 공간좌표계를 일치시키는 제3 단계;
    를 포함하는 것을 특징으로 하는 영상정합방법.
  8. 제7항에 있어서,
    상기 제1 단계는, 마칭 큐브 알고리즘(Marching Cube Algorithm)을 이용하여 상기 단층촬영 영상에서 추출한 표면정보를 3차원 영상모델로 재구성하도록 구성되는 것을 특징으로 하는 영상정합방법.
  9. 제7항에 있어서,
    상기 제1 단계는, 상기 단층촬영 영상에 디스플레이되는 검사대상 형상 중 최외곽 라인의 내부영역을 삭제하는 과정을 통해 표면정보를 추출하도록 구성되는 것을 특징으로 하는 영상정합방법.
  10. 제7항 내지 제9항 중 어느 한 항에 있어서,
    상기 제2 단계는, 검사대상 표면 중 어느 한 지점까지의 거리를 측정한 후 상기 로봇의 위치 및 각도를 고려하여, 검사대상 표면 중 거리를 측정한 어느 한 지점의 위치를 로봇의 공간좌표로 변환함으로써, 상기 3차원 표면모델을 로봇의 공간좌표계 상에서 재구성하도록 구성되는 것을 특징으로 하는 영상정합방법.
  11. 제7항 내지 제9항 중 어느 한 항에 있어서,
    상기 표면영상 측정기는, 레이저 스캐너 또는 3차원 카메라인 것을 특징으로 하는 영상정합방법.
  12. 제7항 내지 제9항 중 어느 한 항에 있어서,
    상기 제3 단계는, ICP(Iterative Closest Point) 알고리즘을 이용하여 상기 3차원 영상모델과 3차원 표면모델을 정합하도록 구성되는 것을 특징으로 하는 영상정합방법.
KR1020110048585A 2011-05-23 2011-05-23 좌표공간 상에서의 영상정합장치 및 영상정합방법 KR101239294B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110048585A KR101239294B1 (ko) 2011-05-23 2011-05-23 좌표공간 상에서의 영상정합장치 및 영상정합방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110048585A KR101239294B1 (ko) 2011-05-23 2011-05-23 좌표공간 상에서의 영상정합장치 및 영상정합방법

Publications (2)

Publication Number Publication Date
KR20120130563A true KR20120130563A (ko) 2012-12-03
KR101239294B1 KR101239294B1 (ko) 2013-03-05

Family

ID=47514612

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110048585A KR101239294B1 (ko) 2011-05-23 2011-05-23 좌표공간 상에서의 영상정합장치 및 영상정합방법

Country Status (1)

Country Link
KR (1) KR101239294B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150000259A (ko) * 2013-06-24 2015-01-02 현대중공업 주식회사 인체 장기 3차원 영상 표시 시스템
KR20170078180A (ko) * 2015-12-29 2017-07-07 한국전기연구원 단층 촬영을 위한 관심 영역 설정 방법 및 시스템
KR20190096178A (ko) * 2018-02-08 2019-08-19 성균관대학교산학협력단 수술용 내비게이션의 표면 정합 방법 및 수술용 내비게이션 장치
KR20200113075A (ko) * 2019-03-21 2020-10-06 (주)레벨소프트 수술용 네비게이션을 위한 영상 정합 장치 및 영상 정합 방법
CN111973212A (zh) * 2020-08-19 2020-11-24 杭州三坛医疗科技有限公司 参数标定方法和参数标定装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101594989B1 (ko) * 2014-05-30 2016-02-18 큐렉소 주식회사 조직 위치 정합 방법 및 이를 이용하는 장치

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6033415A (en) * 1998-09-14 2000-03-07 Integrated Surgical Systems System and method for performing image directed robotic orthopaedic procedures without a fiducial reference system
US6650927B1 (en) * 2000-08-18 2003-11-18 Biosense, Inc. Rendering of diagnostic imaging data on a three-dimensional map
JP4630564B2 (ja) * 2004-03-30 2011-02-09 国立大学法人浜松医科大学 手術支援装置、方法及びプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150000259A (ko) * 2013-06-24 2015-01-02 현대중공업 주식회사 인체 장기 3차원 영상 표시 시스템
KR20170078180A (ko) * 2015-12-29 2017-07-07 한국전기연구원 단층 촬영을 위한 관심 영역 설정 방법 및 시스템
KR20190096178A (ko) * 2018-02-08 2019-08-19 성균관대학교산학협력단 수술용 내비게이션의 표면 정합 방법 및 수술용 내비게이션 장치
KR20200113075A (ko) * 2019-03-21 2020-10-06 (주)레벨소프트 수술용 네비게이션을 위한 영상 정합 장치 및 영상 정합 방법
CN111973212A (zh) * 2020-08-19 2020-11-24 杭州三坛医疗科技有限公司 参数标定方法和参数标定装置

Also Published As

Publication number Publication date
KR101239294B1 (ko) 2013-03-05

Similar Documents

Publication Publication Date Title
KR101572487B1 (ko) 환자와 3차원 의료영상의 비침습 정합 시스템 및 방법
CN108694743B (zh) 将二维图像/照片投影到3d重建诸如心脏的心外膜视图上的方法
KR101239294B1 (ko) 좌표공간 상에서의 영상정합장치 및 영상정합방법
CA2949264C (en) Method and system of determining probe position in surgical site
KR20140096919A (ko) 의료 영상 정합 방법 및 장치
CN112741692B (zh) 实现将器件导航至目标组织位置的快速导航方法及系统
JP4491420B2 (ja) 手術支援装置及び手術支援撮像装置
CN107106243B (zh) 光学跟踪系统及光学跟踪系统的跟踪方法
US11127153B2 (en) Radiation imaging device, image processing method, and image processing program
CN112294436A (zh) 锥形束和3d荧光镜肺导航
KR20150129506A (ko) 의료 영상 정합 방법 및 그 장치
Stolka et al. A 3D-elastography-guided system for laparoscopic partial nephrectomies
Mirota et al. Toward video-based navigation for endoscopic endonasal skull base surgery
KR20110136487A (ko) 의료용 융합영상 획득장치 및 획득방법
KR20160057024A (ko) 마커리스 3차원 객체추적 장치 및 그 방법
KR101687934B1 (ko) 스프린트를 이용한 전자식 수술 내비게이션 시스템 및 방법
US20230316550A1 (en) Image processing device, method, and program
JP2015529529A (ja) 乳房mr画像及び放射性マーカーに基づく乳房外科誘導
CN114283179A (zh) 基于超声图像的骨折远近端空间位姿实时获取与配准系统
KR101492801B1 (ko) Oct 영상과 심장 삼차원 영상의 정합을 통한 심장 수술 내비게이션 시스템 및 방법
JP6703470B2 (ja) データ処理装置及びデータ処理方法
WO2016042297A1 (en) Computer and computer-implemented method for supporting laparoscopic surgery
EP4156100A1 (en) Providing result image data
US20220273273A1 (en) Systems and methods for identifying biopsy location coordinates
Lu et al. Virtual-real registration of augmented reality technology used in the cerebral surgery lesion localization

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151214

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161227

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee