KR102184001B1 - 수술용 네비게이션을 위한 영상 정합 장치 및 영상 정합 방법 - Google Patents

수술용 네비게이션을 위한 영상 정합 장치 및 영상 정합 방법 Download PDF

Info

Publication number
KR102184001B1
KR102184001B1 KR1020190032178A KR20190032178A KR102184001B1 KR 102184001 B1 KR102184001 B1 KR 102184001B1 KR 1020190032178 A KR1020190032178 A KR 1020190032178A KR 20190032178 A KR20190032178 A KR 20190032178A KR 102184001 B1 KR102184001 B1 KR 102184001B1
Authority
KR
South Korea
Prior art keywords
matching
image
mask
coordinate system
area
Prior art date
Application number
KR1020190032178A
Other languages
English (en)
Other versions
KR20200113075A (ko
Inventor
설동표
Original Assignee
(주)레벨소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)레벨소프트 filed Critical (주)레벨소프트
Priority to KR1020190032178A priority Critical patent/KR102184001B1/ko
Publication of KR20200113075A publication Critical patent/KR20200113075A/ko
Application granted granted Critical
Publication of KR102184001B1 publication Critical patent/KR102184001B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis

Abstract

수술용 네비게이션을 위한 영상 정합 장치 및 영상 정합 방법이 개시된다.본 발명에 따른 수술용 네비게이션을 위한 영상 정합 장치는, 대상체 상에서 센싱된 복수의 점들을 제1 좌표계(coordinate system)의 좌표로 정의하는 제1 표면점 세트(surface points set)를 획득하는 제1 표면점 획득부, 상기 대상체에 대응하는 영상 데이터는 제2 좌표계에서 정의되고, 상기 영상 데이터로부터 렌더링된 대상체 영상에 마스크형 유저인터페이스(UI)가 제공되며, 상기 마스크형 UI의 위치, 크기 및 형태(shape) 중 적어도 하나가 사용자 입력에 의해 설정되고, 설정된 상기 마스크형 UI가 상기 대상체 영상과 중첩되는 영역에 기초하여 상기 제2 좌표계 상에서의 정합 영역을 설정하는 정합 영역 설정부, 상기 영상 데이터로부터 대상체의 표면 정보를 추출하고, 상기 추출된 표면 정보로부터 상기 정합 영역 내에서 상기 대상체의 표면에 대응하는 복수의 점들을 상기 제2 좌표계의 좌표로 정의하는 제2 표면점 세트를 획득하는 제2 표면점 획득부, 및 상기 제1 표면점 세트와 상기 제2 표면점 세트를 기초로, 상기 제1 좌표계와 상기 제2 좌표계를 정합하는 정합부를 포함한다.

Description

수술용 네비게이션을 위한 영상 정합 장치 및 영상 정합 방법 {MEDICAL IMAGE REGISTRATION APPARATUS AND METHOD FOR SURGICAL NAVIGATION}
본 발명은 수술용 네비게이션을 위한 영상 정합 장치 및 영상 정합 방법에 관한 것으로서, 더욱 상세하게는 환자에 대한 의료용 기기의 위치를 환자의 의료 영상 데이터 상에 표시하기 위하여 실제 환자의 공간과 의료 영상 데이터 상의 가상 공간을 정합하기 위한 영상 정합 장치 및 방법에 관한 것이다.
수술시 환자의 절개 부위를 최소화하는 최소 침습 수술이 널리 사용되고 있다. 최소 침습 수술은 절개 부위를 최소화하고 그에 따른 실혈(blood loss)과 회복기간을 최소화할 수 있는 장점이 있으나, 의사의 시야가 제한되어 일부 수술들의 경우 뇌수막 손상, 안구 손상 등의 위험 요인을 갖고 있다. 의사의 시야가 제한되는 최소 침습 수술의 단점을 극복하기 위한 도구의 하나로써, 의료용 항법 장치(또는, 수술 항법 장치)가 사용되고 있다. 의료용 항법 장치는 사전에 확보된 환자의 의료 영상을 기준으로 환자의 환부에 삽입된 기구의 위치 정보를 실시간으로 추적하여 제공한다. 또한, 이러한 의료용 항법 장치는 내시경과 결합하여 사용될 수도 있다.
의료용 항법 장치에서 삽입된 시술 기구의 실시간 위치 추적을 위해 광학식 또는 전자기식 위치 추적 장치가 사용될 수 있다. 시술 기구의 위치 추적을 위한 일 예로, 적외선 방출 장치와 패시브 형태의 이미지 센서를 포함하는 광학식 위치 추적 장치가 사용될 수 있다. 광학식 위치 추적 장치는 적외선 방출 장치를 통해 기준 광을 방사하고, 복수의 마커들에 의해 반사되는 이미지를 이미지 센서를 통해 수집한다. 해당 위치 추적 장치는 복수의 마커들의 위치를 기초로 시술 기구의 위치 정보를 획득할 수 있다. 한편, 시술 기구의 위치 추적을 위한 다른 예로, 자기장 생성기 및 전도성 금속 물체를 포함하는 전자기식 위치 추적 장치가 사용될 수 있다. 전자기식 위치 추적 장치는 자기장 생성기에 의해 생성된 자기장 내에서 전도성 금속 물체에 발생하는 맴돌이 전류를 측정하여 시술 기구의 위치 정보를 획득할 수 있다.
다만, 환자에 대한 시술이 이루어지는 공간에서 위치 추적 장치에 의해 획득되는 시술 기구의 위치 정보와 사전에 획득된 환자의 의료 영상은 서로 상이한 좌표계를 가질 수 있다. 따라서, 의료용 항법 장치의 모니터에 출력되는 환자의 의료 영상에서 환자의 신체 부위에 대한 시술 기구의 위치 관계를 정확하게 표시하기 위해서는, 환자의 의료 영상이 정의되는 좌표계와 위치 추적 장치에 의해 획득되는 시술 기구의 위치 정보가 정의되는 좌표계를 서로 일치시키는 정합(registration)이 필요할 수 있다. 의료 시술은 환자의 생명과 직접적인 관련이 있으므로, 의료 영상의 정합에는 상당한 수준의 정확도가 요구된다. 또한, 의료 영상의 정합에 상당한 시간이 소요된다면 전체적인 시술 시간이 길어져 시술자와 환자 모두의 피로를 증가시킬 수 있다.
본 발명은 환자의 의료 영상에서 환자의 신체 부위에 대한 시술 기구의 위치 정보를 신속하면서도 정확하게 표시할 수 있는 수술용 네비게이션을 위한 영상 정합 장치 및 방법을 제공하는 것을 목적으로 한다.
구체적으로, 본 발명은 환자의 신체 부위에 대한 시술 기구의 위치 정보가 정의되는 좌표계와 환자의 의료 영상이 정의되는 좌표계를 정합하기 위해 필요한 연산량을 감소시키면서도 정합의 정확도 및 신뢰성를 높일 수 있는 영상 정합 장치 및 방법을 제공하는 것을 목적으로 한다.
상기와 같은 과제를 해결하기 위하여, 본 발명은 다음과 같은 수술용 네비게이션을 위한 영상 정합 장치 및 방법을 제공한다.
먼저, 본 발명의 실시예에 따르면, 수술용 네비게이션을 위한 영상 정합 장치에 있어서, 대상체 상에서 센싱된 복수의 점들을 제1 좌표계(coordinate system)의 좌표로 정의하는 제1 표면점 세트(surface points set)를 획득하는 제1 표면점 획득부; 상기 대상체에 대응하는 영상 데이터는 제2 좌표계에서 정의되고, 상기 영상 데이터로부터 렌더링된 대상체 영상에 마스크형 유저인터페이스(UI)가 제공되며, 상기 마스크형 UI의 위치, 크기 및 형태(shape) 중 적어도 하나가 사용자 입력에 의해 설정되고, 설정된 상기 마스크형 UI가 상기 대상체 영상과 중첩되는 영역에 기초하여 상기 제2 좌표계 상에서의 정합 영역을 설정하는 정합 영역 설정부; 상기 영상 데이터로부터 대상체의 표면 정보를 추출하고, 상기 추출된 표면 정보로부터 상기 정합 영역 내에서 상기 대상체의 표면에 대응하는 복수의 점들을 상기 제2 좌표계의 좌표로 정의하는 제2 표면점 세트를 획득하는 제2 표면점 획득부; 및 상기 제1 표면점 세트와 상기 제2 표면점 세트를 기초로, 상기 제1 좌표계와 상기 제2 좌표계를 정합하는 정합부를 포함하는, 영상 정합 장치가 제공된다.
또한, 본 발명의 실시예에 따르면, 수술용 네비게이션을 위한 영상 정합 방법에 있어서, 대상체 상에서 센싱된 복수의 점들을 제1 좌표계(coordinate system)의 좌표로 정의하는 제1 표면점 세트(surface points set)를 획득하는 제1 표면점 획득 단계; 상기 대상체에 대응하는 영상 데이터는 제2 좌표계에서 정의되고, 상기 영상 데이터로부터 렌더링된 대상체 영상에 마스크형 유저인터페이스(UI)가 제공되며, 상기 마스크형 UI의 위치, 크기 및 형태(shape) 중 적어도 하나가 사용자 입력에 의해 설정되고, 설정된 상기 마스크형 UI가 상기 대상체 영상과 중첩되는 영역에 기초하여 상기 제2 좌표계 상에서의 정합 영역을 설정하는 정합 영역 설정 단계; 상기 영상 데이터로부터 대상체의 표면 정보를 추출하고, 상기 추출된 표면 정보로부터 상기 정합 영역 내에서 상기 대상체의 표면에 대응하는 복수의 점들을 상기 제2 좌표계의 좌표로 정의하는 제2 표면점 세트를 획득하는 제2 표면점 획득 단계; 및 상기 제1 표면점 세트와 상기 제2 표면점 세트를 기초로, 상기 제1 좌표계와 상기 제2 좌표계를 정합하는 정합 단계를 포함하는, 영상 정합 방법이 제공된다.
일 실시예에 따르면, 상기 마스크형 UI는, 2개의 링형(ring-shaped) 영역을 포함하는 마스크 형태 또는 상기 2개의 링형 영역과 그 사이의 막대형(bar-shaped) 영역을 포함하는 마스크 형태를 가질 수 있다.
또한, 상기 마스크형 UI는 상기 대상체 영상에서 대상체의 안와(orbit) 및 콧등에 대응하는 영역에 위치하도록 자동 설정될 수 있다.
일 실시예에 따르면, 상기 영상 데이터는 상기 대상체에 대한 의료 영상을 이용하여 생성된 복셀들이며, 상기 제2 표면점 세트를 획득함에 있어서, 상기 영상 데이터로부터 상기 대상체 영상이 렌더링된 시점(viewpoint)과 동일한 시점에서 상기 영상 데이터에 광선을 투사하여 상기 대상체의 표면에 대응하는 복셀의 좌표를 상기 대상체의 표면 정보로서 추출할 수 있다.
이때, 광선 투사 경로상의 복셀들 중 최초로 기 설정된 범위의 값을 갖는 복셀의 좌표를 상기 대상체의 표면에 대응하는 복셀의 좌표로 추출할 수 있다.
또한, 상기 기 설정된 범위는 상기 대상체의 특정 조직(tissue)의 HU(Hounsfield Unit) 수치를 참조하여 설정될 수 있다.
또한, 일 실시예에 따르면, 상기 제2 표면점 세트를 획득함에 있어서, 상기 복셀의 기울기(gradient)를 참조하여 상기 대상체의 표면에 대응하는 복셀의 좌표를 추출할 수 있다.
본 발명의 다른 실시예에 따르면, 상기 제2 표면점 세트를 획득함에 있어서, 상기 정합 영역 내에서 상기 영상 데이터로부터 상기 대상체의 표면 정보를 추출하고, 상기 추출된 표면 정보로부터 상기 제2 표면점 세트를 획득할 수 있다.
본 발명의 추가적인 실시예에 따르면, 상기 마스크형 UI는 복수의 부분 마스크 영역들로 분할되고, 각 부분 마스크 영역에 대하여 위치, 크기, 형태 및 두께 중 적어도 하나가 설정가능하며, 상기 정합 영역은 상기 각 부분 마스크 영역이 상기 대상체 영상과 중첩되는 영역에 기초하여 설정되고, 설정된 상기 정합 영역은 상기 복수의 부분 마스크 영역들 각각에 대응하는 복수의 부분 정합 영역들을 포함할 수 있다.
이 경우, 각 부분 정합 영역에 대하여, 상기 제1 및 제2 좌표계의 정합 결과를 기준으로, 상기 제1 표면점 세트와 상기 제2 표면점 세트 사이의 정합 오차를 측정하고, 상기 복수의 부분 정합 영역들 중 어느 하나에 대하여 측정된 정합 오차가 기 설정된 값 이상인 경우, 정합 오류 발생을 알리는 메시지를 제공하며, 상기 정합 오류 발생에 대응하여, 사용자 입력에 의해 상기 복수의 부분 마스크 영역들 중 어느 하나에 대한 위치, 크기, 형태 및 두께 중 적어도 하나가 재설정될 수 있다.
본 발명의 영상 정합 장치 및 방법에 따르면, 환자 공간에서의 좌표계와 환자의 의료 영상에서의 좌표계를 정합하는 과정에서 수행되는 연산량을 감소시킬 수 있어, 정합의 속도가 빨라지고 및 효율성이 향상된다. 또한, 본 발명의 영상 정합 장치 및 방법에 따르면, 정합이 실패할 가능성이 크게 낮아지므로, 정합의 정확도 및 신뢰성이 높아진다. 더욱이, 정합의 신뢰성 및 정확도를 높여주는 본 발명의 영상 정합 장치 및 방법은, 정합 실패로 인해 정합 재시도에 소요되는 정합 시간을 단축할 수 있다는 점에서, 정합의 효율성을 더욱 향상시킬 수 있다.
또한, 본 발명의 영상 정합 장치 및 방법에 따르면, 시술자에게 보다 신속하면서도 정확하게 의료 영상에서 환자의 신체 부위에 대한 시술 기구의 위치를 제공할 수 있어, 시술의 편의성 및 정확도를 개선할 수 있다.
도 1은 점 정합 방식의 일 예를 도시한다.
도 2는 폴리곤 메시에 의해 모델링된 환자의 표면 정보를 예시하는 도면이다.
도 3은 정합 오류 발생의 일 예를 도시한다.
도 4는 본 발명의 실시예에 따른 영상 정합 장치의 블록도이다.
도 5는 본 발명의 실시예에 따른 영상 정합 장치의 정합 처리부의 더욱 상세한 블록도이다.
도 6은 본 발명의 실시예에 따른 영상 정합 장치의 동작 방법을 도시하는플로우차트이다.
도 7은 볼륨 광선 투사 방식을 도시한다.
도 8은 정합 영역을 설정하기 위한 마스크형 사용자 인터페이스(UI)의 일 실시예를 도시한다.
도 9는 본 발명의 실시예에 따라 광선 투사를 이용하여 환자의 표면 정보를 추출하는 방법을 도시한다.
도 10은 복셀의 그래디언트를 계산하는 방법의 일 예를 도시한다.
도 11은 정합 영역을 설정하기 위한 마스크형 사용자 인터페이스(UI)의 추가적인 실시예를 도시한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다. 해석되어야 함을 밝혀두고자 한다.
명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우 뿐 아니라, 그 중간에 다른 구성요소를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 구성이 특정 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 이에 더하여, 특정 임계값을 기준으로 "이상"또는 "이하"라는 한정 사항은 실시예에 따라 각각 "초과" 또는 "미만"으로 적절하게 대체될 수 있다.
이하, 각 도면을 참조로 본 발명의 실시예에 따른 영상 정합 장치 및 방법을 설명하도록 한다. 본 발명의 실시예에 따른 영상 정합 장치 및 방법은 인체 및 동물체를 포함하는 대상체에 대응하는 영상 데이터에 적용될 수 있다. 영상 데이터는 X-ray 영상, 컴퓨터 단층 촬영(Computed Tomography, CT) 영상, 양전자 방출 단층 촬영(Positron Emission Tomography, PET) 영상, 초음파 영상 및 자기 공명 영상(Magnetic Resonance Imaging, MRI)을 포함하며, 본 발명은 이에 한정되지 않는다. 예를 들어, 대상체에 대응하는 영상 데이터는 해당 대상체를 상기 다양한 촬영 방식으로 촬영하여 획득한 영상 데이터를 의미할 수 있다. 또한, 본 명세서에서 영상 데이터는 영상 자체 뿐만 아니라 영상을 렌더링하여 생성된 다양한 형태의 데이터를 포함하는 넓은 의미의 용어로 사용된다. 일 실시예에 따르면, 영상 데이터는 2차원의 의료 영상들의 그룹으로 구성된 3차원 데이터 세트(또는, 3차원 볼륨 데이터)를 가리킬 수 있다. 이와 같이 구성된 3차원 데이터 세트의 정규 격자 단위의 값을 복셀(voxel)이라고 하며, 각 복셀은 고유의 밀도, 불투명도, 색깔 등을 가질 수 있다.
본 발명에 따른 영상 정합 장치 및 방법이 적용되는 의료용 항법 장치(또는, 수술용 네비게이터)는, 대상체에 삽입된 의료용 기기의 위치를 사전에 획득한 대상체의 영상 데이터 상에 표시하여, 시술자가 대상체 내에서의 의료용 기기의 위치를 파악하고 시술에 있어 인접한 위험 요소를 파악할 수 있도록 한다. 의료용 기기의 위치를 대상체의 영상 데이터 상에 정확하게 표시하기 위해서는, 대상체 상에서 의료용 기기의 위치로 센싱된 지점의 위치 정보를 영상 데이터 상의 위치 정보로 변환해야 할 수 있다. 센서를 통해 센싱된 지점의 위치 정보는 영상 데이터를 나타내는 좌표계와 상이한 좌표계를 통해 정의될 수 있기 때문이다.
따라서, 본 발명에 따른 영상 정합 장치 및 방법은, 대상체 상에서 센싱된 점들의 위치 정보가 정의되는 좌표계(이하, "환자 좌표계")와 대상체에 대응하는 영상 데이터가 정의되는 좌표계(이하, "영상 좌표계")를 정합(registration)하여, 대상체 상에서 센싱된 의료용 기기의 위치 정보를 영상 데이터 상의 위치 정보로 변환할 수 있도록 한다. 여기에서, 정합이란 서로 다른 좌표계 상에서 정의된 위치 정보 사이의 관계를 이용하여 하나의 좌표계에 정의된 좌표를 다른 좌표계로 변환(transform)하기 위한 변환 관계를 정의하는 것을 의미할 수 있고, 그에 더해 정의된 변환 관계에 기초하여 서로 다른 좌표계를 하나의 좌표계로 일치시키는 것을 더 의미할 수도 있다. 영상 정합(image registration)이란 서로 다른 좌표계에서 얻어진 영상을 변형하여 하나의 좌표계에 나타내는 처리 기법으로, 좌표계를 정합하는 것을 통해 영상 정합이 이루어질 수 있다.
의료 영상을 정합하는 방식은 크게 점 정합(paired-point registration)과 표면 정합(surface-based registration)으로 구분된다.
점 정합이란 서로 다른 좌표계에서 각각 정의되는 기준점 세트(fiducial points set)를 이용하는 정합 방식으로, 서로 다른 두 개의 좌표계 각각에서 동일한 개수와 순서로 기준점 세트를 획득하고, 두 개의 기준점 세트의 대응점 사이의 오차가 최소화되도록 하는 변환 결과를 획득한다.
도 1을 참조하여 점 정합 방식의 일 예를 설명한다. 사용자는 위치 추적 장치(120)를 이용하여 대상체(130) 상에서 제1 기준점 세트에 포함되는 복수의 기준점(21, 22, 23)을 센싱하며, 영상 처리 장치(100)는 위치 추적 장치(120)로부터 제1 기준점(21), 제2 기준점(22) 및 제3 기준점(23)의 위치 정보를 수신하여 제1 기준점 세트를 획득한다. 이때, 제1 기준점(21), 제2 기준점(22) 및 제3 기준점(23)은 환자 좌표계의 3차원 좌표일 수 있다. 또한, 영상 처리 장치(100)는 대상체에 대응하는 영상 데이터(110) 상에서 지정된 복수의 기준점(11, 12, 13)을 포함하는 제2 기준점 세트를 획득한다. 제2 기준점 세트에 포함되는 제4 기준점(11), 제5 기준점(12) 및 제 6 기준점(13)은 영상 좌표계의 3차원 좌표일 수 있다. 도 1에 도시된 바와 같이, 제1 기준점(21)은 제4 기준점(11)에, 제2 기준점(22)은 제5 기준점(12)에, 제3 기준점(23)은 제6 기준점(13)에 각각 매핑(mapping)되며, 매핑 관계에 있는 한 쌍의 기준점은 페어링된 기준점(paired fiducial points)으로 지칭될 수 있다. 영상 처리 장치(100)는 복수의 페어링된 기준점 사이의 위치 관계를 기초로 환자 좌표계와 영상 좌표계간의 변환 관계를 정의하고, 정의된 변환 관계에 기초하여 환자 좌표계 상에서의 위치를 영상 좌표계 상에 정합할 수 있다. 다만, 이러한 점 정합 방식의 경우, 정합을 수행하기 위한 기준점의 개수가 제한되며, 기준점을 획득함에 있어서 인적 오류가 개입될 가능성이 높기 때문에, 정합의 정확도가 저하된다는 문제점이 있다. 따라서, 정합을 수행하기 위한 기준점의 개수나 획득 순서에 대한 제약이 없는 표면 정합 방식이 제안되어 사용된다.
표면 정합은 서로 다른 좌표계에서 각각 정의되는 포인트 클라우드(point clouds)의 대응점 사이의 오차가 최소화되도록 하는 변환 결과를 획득한다. 이때, 포인트 클라우드는 복수의 점들의 집합일 수 있다. 표면 정합은 서로 다른 좌표계 각각에서 동일한 개수와 순서로 포인트 클라우드의 점들을 획득해야 하는 제약이 없으며, 또한 점 정합보다 훨씬 많은 개수의 점들을 사용하여 정합을 수행하기 때문에, 점 정합보다 더 정확한 정합 결과를 얻을 수 있다.
한편, 표면 정합을 위해 영상 좌표계에서의 포인트 클라우드를 획득하기 위해서는, 먼저 환자의 영상 데이터로부터 환자의 표면 정보를 추출하고, 추출된 표면 정보로부터 환자의 표면에 대응하는 포인트 클라우드를 수집한다. 일반적으로, 환자의 표면 정로보서 환자의 영상 데이터로부터 모델링된 표면 메시(surface mesh)가 추출된다. CT, MRI 등의 의료 영상 데이터는 3차원 공간에 분포한 각 복셀의 밀도(density)값이 정의된 3차원 볼륨 데이터이므로, 3차원 볼륨 데이터로부터 등위면(iso-surface)을 추출하는 마칭 큐브(marching cube) 등의 표면 추출 알고리즘을 적용하여, 환자의 영상 데이터로부터 폴리곤 메쉬로 모델링된 환자의 표면 정보를 추출할 수 있다. 도 2에는 환자의 의료 영상 데이터로부터 폴리곤 메쉬로 모델링된 환자의 표면 정보(200)의 일 예가 도시된다.
다만, 마칭 큐브 등의 표면 추출 알고리즘은 복잡도가 높고 병렬화가 어렵기 때문에 연산에 필요한 자원의 소모가 크고 연산에 소요되는 시간이 길다는 단점이 있다. 또한, 실제로 표면 정합에 사용되는 정보는 메쉬가 아닌 포인트 클라우드임을 고려할 때, 환자의 영상 데이터로부터 환자의 표면 메쉬를 추출하고, 이로부터 다시 영상 좌표계에서의 포인트 클라우드를 수집하는 것은, 영상 좌표계에서의 포인트 클라우드 획득 과정에 불필요한 연산을 발생시킨다는 측면에서 정합의 속도 및 효율성을 저하시킨다. 따라서, 이러한 문제점을 해결하기 위해, 본 발명에 따른 영상 정합 장치 및 방법은, 보다 효율적인 방식으로 환자의 영상 데이터로부터 환자의 표면 정보를 추출하고, 추출된 표면 정보로부터 영상 좌표계에서의 포인트 클라우드를 수집할 수 있도록 한다.
또한, 의료용 항법 장치에서 표면 정합을 위해 환자 좌표계에서의 포인트 클라우드를 획득할 때, 환자의 움직임이나 피부 눌림에 의한 변형이 가장 적고, 동시에 특징이 될만한 굴곡점이 많은 신체 부위의 지점들을 포인트 클라우드로 획득할 수 있다. 특히, 이비인후과(ENT) 수술시, 환자 좌표계에서의 포인트 클라우드 획득 영역은 환자의 입벌림 등에 의한 변형이 없고, 피부가 얇아 눌림 현상이 적은 안와(orbit) 및 콧등으로 한정될 수 있다. 이에 반해, 영상 좌표계에서는 환자의 정수리, 뒷통수 등을 포함하는 환자의 머리 전체에 대하여 표면 정보를 추출하여 포인트 클라우드를 획득하므로, 불필요한 연산이 발생한다. 더욱이, 영상 좌표계와 환자 좌표계에서 수집된 포인트들 간의 위치 차이가 클수록 정합 과정에서의 연산량이 증가하며 연산의 정확도 역시 저하된다. 이러한 경우 도 3에 도시된 바와 같이 정합 오류가 발생할 수 있다. 도 3에는 환자의 안와와 콧등을 센싱하여 획득된 환자 좌표계의 포인트 클라우드(310, 청색점들로 표시됨)가 영상 좌표계 상에서 환자 영상(300)의 정수리 부분에 잘못 정합된 경우가 도시되어 있다. 이처럼, 환자 좌표계에서 포인트 클라우드가 획득되는 영역에 관계없이, 영상 좌표계에서 환자의 표면 전체 영역에 대해 포인트 클라우드를 획득하여 표면 정합을 수행하는 경우, 불필요한 연산량이 증가에 의해 정합에 소요되는 시간이 길어지고 정합 오류가 발생할 가능성이 높아져 정합의 정확도 및 신뢰성이 저하될 수 있다. 또한, 정합 실패시 포인트 클라우드 재수집을 위해 상당한 시간과 노력이 소요되므로 시술자와 환자 모두의 피로를 증가시킬 수 있다. 따라서, 이러한 문제점을 해결하기 위해, 본 발명은 정합에 필요한 연산량을 감소시키면서도 정합의 정확도 및 신뢰성을 향상시킬 수 있는 영상 정합 장치 및 방법을 제공한다.
이하, 도 4 및 도 5를 참조하여, 본 발명의 실시예에 따른 영상 정합 장치(40)의 구성을 설명한다.
도 4는 본 발명의 실시예에 따른 영상 정합 장치(40)의 블록도이다. 도시된 바와 같이, 본 발명의 실시예에 따른 영상 정합 장치(40)는 프로세서(41, 정합 처리부), 입력부(42) 및 출력부(43)를 포함할 수 있다. 그러나, 도 4에 도시된 구성 요소 모두가 영상 정합 장치(40)의 필수 구성 요소인 것은 아니다. 예를 들어, 영상 정합 장치(40)는 도 4에 도시되지 않은 구성 요소를 추가로 포함할 수 있다. 뿐만 아니라 도 4에 도시된 영상 정합 장치(40)의 구성 요소 중 적어도 일부가 생략될 수도 있다.
입력부(42)는 영상 정합 장치(40)에 대한 사용자 입력을 수신한다. 일 실시예에 따르면, 입력부(42)는 후술할 마스크형 UI를 설정하기 위한 사용자 입력을 수신할 수 있다. 예를 들어, 입력부(42)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등을 포함할수 있다. 또한, 입력부(42)는 대상체에 대응하는 영상 데이터를 수신할 수도 있다. 예를 들어, 입력부(42)는 외부 서버와 통신 가능한 통신 모듈을 포함할 수 있으며, 상기 통신 모듈을 통해 영상 데이터를 수신할 수 있다. 또한, 입력부(42)는 키보드, 마우스, 카메라, 마이크, 포인터, USB, 외부 장치와의 연결 포트를 포함할 수 있으며, 본 발명은 이에 한정되지 않는다.
출력부(43)는 영상 정합 장치(40)에서의 정합 결과를 출력한다. 일 실시예에 따르면, 출력부(43)는 입력부(42)로부터 수신한 영상 데이터 상에, 대상체 내에 삽입된 의료용 기기의 위치를 정합하여 출력할 수 있다. 예를 들어, 출력부(43)는 영상 데이터를 출력하기 위한 모니터(65)를 포함할 수 있다. 또한, 출력부(43)는 오디오 신호 또는 비디오 신호를 출력할 수 있다. 출력부(43)는 영상 정합 장치(40)가 아닌 외부의 비디오/오디오 출력 장치를 통해 출력 영상 데이터를 출력하기 위한 유/무선 포트를 포함할 수 있다. 이때, 출력부(43)는 유/무선 포트를 통해 외부의 비디오/오디오 출력 장치와 연결될 수 있다.
프로세서(41, 정합 처리부)는 다양한 명령 또는 프로그램을 실행하고, 영상 정합 장치(40)의 전반적인 동작을 제어한다. 또한, 프로세서(41, 정합 처리부)는 영상 정합 장치(40)의 각 유닛 및 유닛들 간의 데이터 송수신을 제어할 수 있고, 영상 정합 장치(40) 내부의 데이터를 처리할 수 있다.
도 5에는 본 발명의 실시예에 따른 정합 처리부(41)의 보다 상세한 블록도가 도시된다. 도시된 바와 같이, 정합 처리부(41)는 제1 표면점 획득부(410), 정합 영역 설정부(420), 제2 표면점 획득부(430) 및 정합부(440)를 포함할 수 있다.
이하에서는, 도 6을 참조하여 본 발명의 실시예에 따른 영상 정합 장치(40)가 대상체 상에서 센싱된 의료용 기기의 위치 정보가 정의되는 제1 좌표계와 대상체에 대응하는 영상 데이터가 정의되는 제2 좌표계를 정합하는 방법에 대해 상세히 설명한다. 도 6은 본 발명의 실시예에 따른 영상 정합 장치(40)의 동작 방법을 도시하는 플로우차트이다. 도 6은 영상 정합 장치(40)의 동작을 단계별로 나누어 도시하고 있으나, 본 발명은 이에 제한되지 않는다. 예를 들어, 도 6에 개시된 영상 정합 장치(40)의 각각의 단계별 동작은 오버랩되거나 병렬적으로 수행될 수 있다. 또한, 영상 정합 장치(40)는 도 6에 개시된 순서와 다른 순서로 각각의 단계별 동작을 수행할 수도 있다.
단계 S601에서, 제1 표면점 획득부(510)는 대상체 상에서 센싱된 복수의 점들을 제1 좌표계의 좌표로 정의하는 제1 표면점 세트를 획득한다. 예를 들어, 대상체가 환자의 얼굴인 경우, 환자의 안와 및 콧등을 센서에 의해 센싱하여, 센싱된 점들의 제1 좌표계의 좌표를 제1 표면점 세트로 획득할 수 있다.
일 실시예에 따르면, 영상 정합 장치(40)는 위치 추적 장치(55)와 유선 또는 무선으로 연결되며, 위치 추적 장치(55)로부터 대상체 내에서 센싱된 지점의 위치 정보를 수신할 수 있다. 일 실시예에서 위치 추적 장치(55)는 광학식 위치 추적 방법 또는 전자기식 위치 추적 방법을 사용할 수 있으나, 본 발명은 이에 한정되지 않는다.
단계 S602에서, 정합 영역 설정부(420)는 사용자 입력에 의해 마스크형 UI를 설정함으로써, 영상 데이터가 정의되는 제2 좌표계 상에서의 정합 영역을 설정한다.
먼저, 정합 영역을 설정하기 위한 마스크형 UI가 대상체에 대응하는 영상 데이터로부터 렌더링된 대상체 영상에 제공된다. 일 실시예에 따르면, 대상체에 대응하는 영상 데이터는 대상체에 대한 의료 영상을 이용하여 생성된 복셀들로 구성된 3차원 볼륨 데이터이며, 대상체 영상은 영상 데이터를 다양한 방법으로 볼륨 렌더링하여 생성된 영상일 수 있다. 볼륨 렌더링은 3차원 볼륨 데이터를 2차원 영상으로 렌더링하는 영상 처리 기법으로, 도 7은 볼륨 렌더링 기법 중 하나인 볼륨 광선 투사(ray-casting) 방식을 도시한다. 볼륨 광선 투사 방식은 사용자의 시선(또는, 카메라의 위치 및 방향)에 따라 결정된 렌더링 시점(viewpoint)으로부터 투영면(image plane)의 한 픽셀을 통과하는 각 광선(ray)을 따라 3차원 공간에서 정의된 볼륨 데이터를 일정한 간격으로 샘플링하고, 샘플링된 복셀 값들을 누적하여 해당 픽셀에서의 값(예를 들어, 색상값)을 획득함으로써, 투영면에서의 렌더링 영상을 생성한다.
다음으로, 정합 영역 설정부(420)는, 입력부(42)를 통해 사용자 입력을 수신하여 대상체 영상(800)에서 마스크형 UI의 위치, 크기, 및 형태 중 적어도 하나를 설정하고, 설정된 마스크형 UI가 대상체 영상(800)과 중첩되는 영역에 기초하여 정합 영역을 설정한다. 후술하는 바와 같이, 정합 영역은 영상 데이터로부터 제2 표면점 세트를 획득하기 위한 영역 즉, 영상 좌표계에서 포인트 클라우드를 획득하기 위한 영역으로, 영상 데이터가 정의된 좌표계인 제2 좌표계 상에서 설정된다.
도 8에는 정합 영역을 설정하기 위한 마스크형 UI의 일 실시예가 도시된다. 구체적으로, 도 8(a)는 대상체 영상(800)에 마스크형 UI(820)가 제공된 초기 화면을 나타내며, 도 8(b)는 사용자 입력에 의해 마스크형 UI(820)가 대상체 영상(800)에서 대상체의 안와 및 콧등에 위치하도록 설정된 것을 나타낸다. 마스크형 UI(820)의 설정이 완료되면, 정합 영역 설정부(420)는 설정된 마스크형 UI(820)가 대상체 영상(800)과 중첩되는 영역에 기초하여 정합 영역을 설정한다. 대상체 영상(800)은 대상체에 대응하는 영상 데이터로부터 렌더링된 영상이므로, 마스크형 UI(820)가 대상체 영상(800)과 중첩되는 영역에 기초하여, 영상 데이터가 정의된 제2 좌표계 상에서 정합 영역을 설정할 수 있다. 예를 들어, 도 8(b)에서와 같이, 마스크형 UI(820)가 대상체 영상(800)에서 대상체의 안와 및 콧등에 대응하는 영역과 중첩되면, 중첩된 영역으로 렌더링된 영상 데이터의 복셀들 즉, 영상 데이터에서 대상체의 안와 및 콧등에 해당하는 복셀들이 정합 영역으로 설정된다.
한편, 다른 실시예에 따르면, 영상 정합 장치(40)는 대상체 영상(800)에서 대상체의 안와 및 콧등의 위치를 추출하여, 마스크형 UI(820)가 대상체의 안와 및 콧등에 대응하는 영역에 위치하도록 자동으로 설정되도록 할 수 있다. 이러한 다른 실시예에 따르면, 사용자는 자동 설정된 마스크형 UI를 참조하여, 정합 영역을 제1 좌표계에서 제1 표면점 세트가 획득된 영역과 보다 세밀하게 대응시킬 수 있다.
일 실시예에 따르면, 마스크형 UI(820)는 좌측 링형(ring-shaped) 영역(822), 우측 링형 영역(824) 및 그 사이의 막대형(bar-shaped) 영역(826)을 포함하는 마스크 형태를 가진다. 여기서, 링형이란 원형링, 타원링, 모서리가 둥근 사각링 등 다양한 형태의 링형을 포괄할 수 있고, 또한 막대형이란 세로로 긴 직사각형, 타원형, 삼각형, 마름모, 사다리꼴 등 다양한 형태의 막대형을 포괄할 수 있다. 그러나, 본 발명은 이에 한정되지 않으며, 본 발명에 따른 마스크형 UI는 좌우측 링형 영역만을 포함하는 ∞_자 형태, 이마와 콧등을 형상화한 T자 형태 등 다양한 형태를 가질 수 있다.
단계 S603에서, 제2 표면점 획득부(430)는 대상체에 대응하는 영상 데이터로부터 대상체의 표면 정보를 추출한다. 이때, 영상 데이터는 제2 좌표계에서 정의되므로, 영상 데이터로부터 추출된 대상체의 표면 정보 역시 제2 좌표계서 정의된다. 일 실시예에 따르면, 제2 표면점 획득부(430)는 대상체 영상(800)의 렌더링 시점과 동일한 시점에서 영상 데이터에 광선을 투사하여, 대상체의 표면에 대응하는 복셀의 좌표(또는, 대상체의 표면 좌표)를 대상체의 표면 정보로서 추출할 수 있다. 본 발명의 일 실시예에 따라 제2 표면점 획득부(430)가 적용하는 광선 투사 방식은, 영상 데이터로부터 렌더링 영상을 생성하기 위한 것이 아니라, 영상 데이터로부터 대상체의 표면 좌표를 정합을 위한 대상체의 표면 정보로서 추출하기 위한 것이라는 점에서, 전술한 볼륨 광선 투사 방식과는 차이가 있다.
본 발명의 일 실시예에 따라 제2 표면점 획득부(430)가 광선 투사를 이용하여 영상 데이터로부터 대상체의 표면 좌표를 추출하는 방법을 도 9를 참조하여 설명한다. 도 9에 도시된 바와 같이, 대상체에 대응하는 영상 데이터가 정의된 공간에 광선을 투사하면, 대상체(900)에 도달하는 광선(910, 적색으로 표시됨)은 대상체(900)의 표면에서 최초로 히팅되지만, 대상체(900)에 도달하지 못하는 광선(920, 청색으로 표시됨) 어디에서도 히팅되지 않고 그대로 투사된다. 따라서, 제2 표면점 획득부(430)는 대상체에 대응하는 영상 데이터가 정의된 제2 좌표계 공간에 광선을 투사하여, 광선이 최초로 히팅(hitting)되는 제2 좌표계상의 위치를 대상체의 표면 좌표로 추출한다.
구체적으로, 제2 표면점 획득부(430)는 광선 투사 경로 상의 복셀들을 샘플링하며, 샘플링된 복셀 값이 최초로 기 설정된 범위를 갖는 복셀의 좌표를 대상체의 표면 좌표로 추출할 수 있다. 이때, 기 설정된 범위는 대상체의 특정 조직(tissue)의 HU(Hounsfield Unit) 수치를 참조하여 설정될 수 있다. 전술한 바와 같이, 일 실시예에 따르면, 대상체에 대응하는 영상 데이터는 대상체에 대한 의료 영상을 이용하여 생성된 복셀들일 수 있다. 가장 널리 사용되는 의료 영상인 CT의 경우, 인체의 각 구성 요소는 HU(Hounsfield Unit) 단위의 CT 수치를 갖는다. 예를 들어, 물은 0HU, 공기는 -1000HU, 근육 조직은 10HU 내지 40HU 범위의 CT 수치를 갖는다. 따라서, 이러한 물질별 또는 조직별 HU 수치를 참조하여, 공기와 환자 피부의 경계면에 대응하는 복셀의 좌표를 대상체의 표면 좌표로 추출하도록 기 설정된 범위의 조건을 정의할 수 있다.
이러한 본 발명의 일 실시예에 따르면, 제2 표면점 획득부(430)는, 폴리곤 메시 추출과 같이 복잡한 연산을 수행할 필요없이, 광선 투사 방식을 이용하여 비교적 간단한 연산만으로 영상 데이터로부터 대상체의 표면 정보를 추출할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 제2 표면점 획득부(430)는, 복셀의 기울기(gradient)를 참조하여 대상체의 표면에 대응하는 복셀의 좌표를 추출할 수 있다. 예를 들어, 제2 표면점 획득부(430)는, 중앙 차분(central difference)에 의해 복셀의 기울기(Gx, Gy, Gz)를 계산할 수 있다. 도 10은 중앙 차분법에 의해 복셀의 그래디언트를 계산하는 방법을 도시한다. 도 10에 도시된 바와 같이, 복셀의 기울기(Gx, Gy, Gz)는 인접한 6개의 복셀을 참조하여 아래의 [수학식 1]에 의해 계산될 수 있다.
Figure 112019028993230-pat00001
여기서, Vi,j,k는 3차원 직교 좌표계의 (i,j,k) 좌표에서의 복셀값이고, Gx, Gy, Gz는 각각 복셀(i,j,k)의 x축, y축, z축 기울기이다.
전술한 바와 같이, CT 영상의 경우, 물질별 또는 조직별로 서로 다른 HU 수치를 갖는다. 예를 들어, 물은 0HU, 공기는 -1000HU, 근육 조직은 10HU 내지 40HU 범위의 수치를 갖는다. 따라서, 공기와 환자 피부의 경계면에 위치하는 복셀에서는 복셀의 기울기가 상당히 크게 나타날 수 있다. 이러한 조건을 고려하여, 제2 표면점 획득부(430)는 복셀의 그래디언트(Gx, Gy, Gz)를 계산하고, 계산 결과를 참조하여 해당 복셀이 대상체의 표면에 해당하는 여부를 판단할 수 있다. 이러한 구성을 통해, 본 발명의 일 실시예에 따른 제2 표면점 획득부(430)는, 광선 투사만으로 영상 데이터로부터 대상체의 표면 정보를 추출하는 경우보다 더욱 정확하게 대상체의 표면 정보를 추출할 수 있다.
단계 S604에서, 제2 표면점 획득부(430)는 추출된 표면 정보로부터 정합 영역 내에서 대상체의 표면에 대응하는 복수의 점들을 제2 좌표계의 좌표로 정의하는 제2 표면점 세트를 획득한다. 전술한 바와 같이, 단계 S602에서 마스크형 UI(820)를 통해 영상 데이터에서의 정합 영역이 설정된다. 도 8(b)에 도시된 바와 같이, 마스크형 UI(820)가 대상체 영상(800)에서 대상체의 안와 및 콧등에 대응하는 영역과 중첩되도록 설정된 경우, 영상 데이터에서 대상체의 안와 및 콧등에 해당하는 복셀들이 정합 영역으로 설정된다. 이 경우, 제2 표면점 획득부(430)는, 영상 데이터로부터 추출된 표면 정보 중에서, 대상체의 안와 및 콧등에 대응하는 복셀들의 좌표를 제2 표면점 세트로 획득한다. 영상 데이터는 제2 좌표계에서 정의되므로, 제2 표면점 세트로 획득된 대상체의 안와 및 콧등에 대응하는 복셀들의 좌표 역시 제2 좌표계에서 정의된다.
단계 S605에서, 정합부(440)는 제1 표면점 세트와 제2 표면점 세트를 기초로, 제1 좌표계와 제2 좌표계를 정합한다. 정합부(440)는 제1 표면점 세트와 제2 표면점 세트를 비교하여, 제1 좌표계와 제2 좌표계 간의 정합 파라미터를 획득하고, 획득된 정합 파라미터를 기초로 제1 좌표계의 좌표를 제2 좌표계로 변환할 수 있다. 정합부(440)는 정합 파라미터를 획득하기 위해 제1 및 제2 표면점 세트의 대응점 사이의 오차를 최적화하는 다양한 최적화 알고리즘을 이용할 수 있다. 구체적으로, 정합부(440)는 반복 최근점(iterative closest points, ICP) 방법을 이용할 수 있다. ICP 방법은 페어링된 대응점 사이의 거리의 총합을 최소화시키는 정합 파라미터를 구하는 최적화 알고리즘이다.
전술한 바와 같이, 본 발명의 실시예에 따른 영상 정합 장치(40)는, 비교적간단한 방식의 연산을 통해 영상 데이터로부터 대상체의 표면 정보를 추출할 수 있도록 함으로써, 정합 과정에서의 연산량을 감소시킬 수 있다. 또한, 본 발명의 실시예에 따른 영상 정합 장치(40)는, 마스크형 UI를 통해 설정된 정합 영역 내에서 제2 표면점 세트를 획득하여 제1좌표계와 제2 좌표계를 정합함으로써, 정합 과정에서의 연산량을 감소시킬 뿐만 아니라, 제1 표면점 세트와 실질적으로 대응되는 제2 표면점 세트를 사용하여 정합을 수행함으로써, 정합 오류가 발생할 가능성을 낮춰, 정합의 정확도 및 신뢰성을 향상시킬 수 있다.
또한, 본 발명의 다른 실시예에 따르면, 제2 표면점 획득부(430)는, 단계 S603에서 영상 데이터로부터 대상체의 표면 정보를 추출함에 있어서, 정합 영역 내에서만 영상 데이터로부터 대상체의 표면 정보를 추출할 수 있다. 이 경우, 단계 S604에서 제2 표면점 세트를 획득함에 있어서, 제2 표면점 획득부(430)는, 단계 S603에서 추출된 표면 정보를 그대로 제2 표면점 세트로 획득할 수 있다. 이러한 다른 실시예에 따르면, 영상 데이터로부터 환자의 표면 정보를 추출하고, 그로부터 제2 표면점 세트를 획득하는데 필요한 연산이 더욱 감소하므로, 정합의 속도 및 효율성을 한층 더 향상시킬 수 있다.
도 11은 정합 영역을 설정하기 위한 마스크형 사용자 인터페이스(UI)의 추가적인 실시예를 도시한다. 본 발명의 추가적인 실시예에 따르면, 정합 영역 설정부(420)에서, 마스크형 UI는 복수의 부분 마스크 영역들로 분할되고, 사용자 입력에 의해 각 부분 마스크 영역에 대하여 위치, 크기, 형태 및 두께 중 적어도 하나가 설정될 수 있다. 또한, 정합 영역은 각 부분 마스크 영역이 대상체 영상과 중첩되는 영역에 기초하여 설정될 수 있고, 복수의 부분 마스크 영역들 각각에 대응하는 복수의 부분 정합 영역들을 포함할 수 있다. 일 실시예로, 마스크형 UI(820)는 도 11에 도시된 바와 같이, 좌측 링형 영역(822), 우측 링형 영역(824) 및 막대형 영역(826)으로 분할되며, 이들 각 영역의 위치, 크기, 형태 및 두께가 개별적으로 설정될 수 있다. 또한, 정합 영역은 부분 마스크 영역(822, 824, 826)에 각각 대응하여 설정된 부분 정합 영역들을 포함한다.
예를 들어, 사람마다 안와 및 콧등의 해부학적 구조에는 차이가 있으며, 사람에 따라 좌측 및 우측 안와의 위치, 크기 또는 형태가 대칭을 이루지 않을 수 있다. 이러할 경우, 사용자는 환자의 안와 및 콧등의 해부학적 구조를 고려하여, 마스크형 UI(820)에서 좌측 링형 영역(822) 및 우측 링형 영역(824)의 위치, 크기 또는 형태를 서로 다르게 설정하므로, 영상 데이터로부터 환자로부터 획득된 제1 표면점 세트에 최적화된 제2 표면점 세트를 획득할 수 있을 것이다. 또한, 다른 예로서, 환자로부터 제1 표면점 세트를 획득함에 있어서, 사용자의 숙련도에 따라 좌측 안와와 우측 안와에서 센싱하는 안와 위치의 정확도가 상이할 수 있다. 좌측 안와에서는 안와의 위치를 정확하게 센싱한 반면, 우측 안와에서는 안와를 벗어난 위치를 센싱할 수 있다. 이러할 경우, 마스크형 UI(820)에서 좌측 링형 영역(822)보다 우측 링형 영역(824)의 두께를 두껍게 설정함으로써, 사용자의 낮은 숙련도를 보완하여 정합 오차 발생 가능성을 낮출 수 있다.
또한, 본 발명의 추가적인 실시예에 따르면, 정합부(440)는 제1 및 제2 좌표계를 정합한 결과를 기준으로, 각 부분 정합 영역에 대하여, 제1 및 제2 표면점 세트 사이의 정합 오차를 측정하고, 어느 하나의 부분 정합 영역에 대하여 측정된 정합 오차가 기 설정된 값 이상인 경우, 정합 오류 발생을 알리는 메시지를 제공한다. 구체적으로, 정합부(440)는 제1 및 제2 표면점 세트를 기초로, 제1 좌표계와 제2 좌표계간의 변환 관계인 정합 파라미터를 획득하고, 획득한 정합 파라미터에 기초하여 각 부분 정합 영역에서의 정합 오차를 측정할 수 있다. 정합 오차 측정 결과, 우측 링형 영역(824)에 대응하는 부분 정합 영역에서의 정합 오차가 기 설정된 값 이상인 경우, 정합부(440)는 우측 링형 영역(824)에 대응하는 부분 정합 영역에서 정합 오차가 발생했음을 사용자에게 알릴 수 있다. 예를 들어, 사용자에게 우측 링형 영역(824)에 대응하는 부분 정합 영역에서 정합 오차가 발생했음을 알리거나 우측 링형 영역(824)을 재설정하도록 알리는 메시지를 제공할 수 있다. 또는, 제2 좌표계 상에서 제1 및 제2 표면점 세트가 정합된 결과를 표시함으로써, 사용자가 정합 오차가 발생한 영역과 발생한 오차의 정도를 직관적으로 파악하도록 할 수 있다. 또한, 정합 영역 설정부(420)에서는, 정합부(440)의 정합 오류 발생에 대응하여, 사용자 입력에 의해 마스크형 UI(820)의 부분 마스크 영역들 중 어느 하나에 대한 위치, 크기, 형태 및 두께 중 적어도 하나를 재설정할 수 있다. 예를 들어, 우측 링형 영역(824)에 대응하는 부분 정합 영역에서 정합 오차가 발생한 경우, 마스크형 UI(820)에서 우측 링형 영역(812)의 위치를 조정하거나, 두께를 더 두껍게 설정할 수 있다.
이러한 본 발명의 추가적인 실시예에 따르면, 정합 오차가 발생한 영역을 세밀하게 파악할 수 있고, 또한, 정합 오차가 발생한 영역에 대해서만 정합 영역을 재설정하도록 할 수 있으므로, 제1 좌표계에서 제1 표면점 세트가 획득된 영역과 보다 세밀하게 대응되는 제2 표면점 세트를 획득할 수 있어, 정합의 정확도 및 신뢰성을 매우 향상시킬 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아는 것으로 해석해야 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (20)

  1. 수술용 네비게이션을 위한 영상 정합 장치에 있어서,
    대상체 상에서 센싱된 복수의 점들을 제1 좌표계(coordinate system)의 좌표로 정의하는 제1 표면점 세트(surface points set)를 획득하는 제1 표면점 획득부;
    상기 대상체에 대응하는 영상 데이터는 제2 좌표계에서 정의되고, 상기 영상 데이터로부터 렌더링된 대상체 영상에 마스크형 유저인터페이스(UI)가 제공되며, 상기 마스크형 UI의 위치, 크기 및 형태(shape) 중 적어도 하나가 사용자 입력에 의해 설정되고, 설정된 상기 마스크형 UI가 상기 대상체 영상과 중첩되는 영역에 기초하여 상기 제2 좌표계 상에서의 정합 영역을 설정하는 정합 영역 설정부;
    상기 영상 데이터로부터 대상체의 표면 정보를 추출하고, 상기 추출된 표면 정보로부터 상기 정합 영역 내에서 상기 대상체의 표면에 대응하는 복수의 점들을 상기 제2 좌표계의 좌표로 정의하는 제2 표면점 세트를 획득하는 제2 표면점 획득부; 및
    상기 제1 표면점 세트와 상기 제2 표면점 세트를 기초로, 상기 제1 좌표계와 상기 제2 좌표계를 정합하는 정합부를 포함하는, 영상 정합 장치.
  2. 제 1항에 있어서,
    상기 마스크형 UI는, 2개의 링형(ring-shaped) 영역을 포함하는 마스크 형태 또는 상기 2개의 링형 영역과 그 사이의 막대형(bar-shaped) 영역을 포함하는 마스크 형태를 갖는 것인, 영상 정합 장치.
  3. 제1항에 있어서, 상기 정합 영역 설정부에서,
    상기 마스크형 UI는 상기 대상체 영상에서 대상체의 안와(orbit) 및 콧등에 대응하는 영역에 위치하도록 자동 설정되는 것인, 영상 정합 장치.
  4. 제1항에 있어서, 상기 영상 데이터는 상기 대상체에 대한 의료 영상을 이용하여 생성된 복셀들이며,
    상기 제2 표면점 획득부는, 상기 영상 데이터로부터 상기 대상체 영상이 렌더링된 시점(viewpoint)과 동일한 시점에서 상기 영상 데이터에 광선을 투사하여 상기 대상체의 표면에 대응하는 복셀의 좌표를 상기 대상체의 표면 정보로서 추출하는 것인, 영상 정합 장치.
  5. 제4항에 있어서,
    상기 제2 표면점 획득부는, 광선 투사 경로상의 복셀들 중 최초로 기 설정된 범위의 값을 갖는 복셀의 좌표를 상기 대상체의 표면에 대응하는 복셀의 좌표로 추출하는 것인, 영상 정합 장치.
  6. 제5항에 있어서,
    상기 기 설정된 범위는 상기 대상체의 특정 조직(tissue)의 HU(Hounsfield Unit) 수치를 참조하여 설정되는 것인, 영상 정합 장치.
  7. 제4항에 있어서,
    상기 제2 표면점 획득부는, 상기 복셀의 기울기(gradient)를 참조하여 상기 대상체의 표면에 대응하는 복셀의 좌표를 추출하는 것인, 영상 정합 장치.
  8. 제1항에 있어서,
    상기 제2 표면점 획득부는, 상기 정합 영역 내에서 상기 영상 데이터로부터 상기 대상체의 표면 정보를 추출하고, 상기 추출된 표면 정보로부터 상기 제2 표면점 세트를 획득하는 것인, 영상 정합 장치.
  9. 제1항에 있어서,
    상기 정합 영역 설정부에서,
    상기 마스크형 UI는 복수의 부분 마스크 영역들로 분할되고, 각 부분 마스크 영역에 대하여 위치, 크기, 형태 및 두께 중 적어도 하나가 설정가능하며,
    상기 정합 영역은 상기 각 부분 마스크 영역이 상기 대상체 영상과 중첩되는 영역에 기초하여 설정되고, 설정된 상기 정합 영역은 상기 복수의 부분 마스크 영역들 각각에 대응하는 복수의 부분 정합 영역들을 포함하는 것인, 영상 정합 장치.
  10. 제9항에 있어서,
    상기 정합부는,
    각 부분 정합 영역에 대하여, 상기 제1 및 제2 좌표계의 정합 결과를 기준으로, 상기 제1 표면점 세트와 상기 제2 표면점 세트 사이의 정합 오차를 측정하고,
    상기 복수의 부분 정합 영역들 중 어느 하나에 대하여 측정된 정합 오차가 기 설정된 값 이상인 경우, 정합 오류 발생을 알리는 메시지를 제공하며,
    상기 정합 영역 설정부에서는,
    상기 정합 오류 발생에 대응하여, 사용자 입력에 의해 상기 복수의 부분 마스크 영역들 중 어느 하나에 대한 위치, 크기, 형태 및 두께 중 적어도 하나가 재설정되는 것인, 영상 정합 장치.
  11. 수술용 네비게이션을 위한 영상 정합 방법에 있어서,
    대상체 상에서 센싱된 복수의 점들을 제1 좌표계(coordinate system)의 좌표로 정의하는 제1 표면점 세트(surface points set)를 획득하는 제1 표면점 획득 단계;
    상기 대상체에 대응하는 영상 데이터는 제2 좌표계에서 정의되고, 상기 영상 데이터로부터 렌더링된 대상체 영상에 마스크형 유저인터페이스(UI)가 제공되며, 상기 마스크형 UI의 위치, 크기 및 형태(shape) 중 적어도 하나가 사용자 입력에 의해 설정되고, 설정된 상기 마스크형 UI가 상기 대상체 영상과 중첩되는 영역에 기초하여 상기 제2 좌표계 상에서의 정합 영역을 설정하는 정합 영역 설정 단계;
    상기 영상 데이터로부터 대상체의 표면 정보를 추출하고, 상기 추출된 표면 정보로부터 상기 정합 영역 내에서 상기 대상체의 표면에 대응하는 복수의 점들을 상기 제2 좌표계의 좌표로 정의하는 제2 표면점 세트를 획득하는 제2 표면점 획득 단계; 및
    상기 제1 표면점 세트와 상기 제2 표면점 세트를 기초로, 상기 제1 좌표계와 상기 제2 좌표계를 정합하는 정합 단계를 포함하는, 영상 정합 방법.
  12. 제 11항에 있어서,
    상기 마스크형 UI는 2개의 링형(ring-shaped) 영역을 포함하는 마스크 형태 또는 상기 2개의 링형 영역과 그 사이의 막대형(bar-shaped) 영역을 포함하는 마스크 형태를 갖는 것인, 영상 정합 방법.
  13. 제11항에 있어서, 상기 정합 영역 설정 단계에서,
    상기 마스크형 UI는 상기 대상체 영상에서 대상체의 안와(orbit) 및 콧등에 대응하는 영역과 중첩되도록 자동 설정되는 것인, 영상 정합 방법.
  14. 제11항에 있어서, 상기 영상 데이터는 상기 대상체에 대한 의료 영상을 이용하여 생성된 복셀들이며,
    상기 제2 표면점 획득 단계는, 상기 영상 데이터로부터 상기 대상체 영상이 렌더링된 시점(viewpoint)과 동일한 시점에서 상기 영상 데이터에 광선을 투사하여 상기 대상체의 표면에 대응하는 복셀의 좌표를 상기 대상체의 표면 정보로서 추출하는 것인, 영상 정합 방법.
  15. 제14항에 있어서,
    상기 제2 표면점 획득 단계는, 광선 투사 경로상의 복셀들 중 최초로 기 설정된 범위의 값을 갖는 복셀의 좌표를 상기 대상체의 표면에 대응하는 복셀의 좌표로 추출하는 것인, 영상 정합 방법.
  16. 제15항에 있어서,
    상기 기 설정된 범위는 상기 대상체의 특정 조직(tissue)의 HU(Hounsfield Unit) 수치를 참조하여 설정되는 것인, 영상 정합 방법.
  17. 제14항에 있어서,
    상기 제2 표면점 획득 단계는, 상기 복셀의 기울기(gradient)를 참조하여 상기 대상체의 표면에 대응하는 복셀의 좌표를 추출하는 것인, 영상 정합 방법.
  18. 제11항에 있어서,
    상기 제2 표면점 획득 단계는, 상기 정합 영역 내에서 상기 영상 데이터로부터 상기 대상체의 표면 정보를 추출하고, 상기 추출된 표면 정보로부터 상기 제2 표면점 세트를 획득하는 것인, 영상 정합 방법.
  19. 제11항에 있어서,
    상기 정합 영역 설정 단계에서,
    상기 마스크형 UI는 복수의 부분 마스크 영역들로 분할되고, 각 부분 마스크 영역에 대하여 위치, 크기, 형태 및 두께 중 적어도 하나가 설정가능하며,
    상기 정합 영역은 상기 각 부분 마스크 영역이 상기 대상체 영상과 중첩되는 영역에 기초하여 설정되고, 설정된 상기 정합 영역은 상기 복수의 부분 마스크 영역들 각각에 대응하는 복수의 부분 정합 영역들을 포함하는 것인, 영상 정합 방법.
  20. 제19항에 있어서,
    각 부분 정합 영역에 대하여, 상기 제1 및 제2 좌표계의 정합 결과를 기준으로, 상기 제1 표면점 세트와 상기 제2 표면점 세트 사이의 정합 오차를 측정하는 정합 오차 측정 단계;
    상기 복수의 부분 정합 영역들 중 어느 하나에 대하여 측정된 정합 오차가 기 설정된 값 이상인 경우, 정합 오류 발생을 알리는 메시지를 제공하는 정합 오류 발생 알림 단계; 및
    상기 정합 오류 발생에 대응하여, 사용자 입력에 의해 상기 복수의 부분 마스크 영역들 중 어느 하나에 대한 위치, 크기, 형태 및 두께 중 적어도 하나가 재설정되는 정합 영역 재설정 단계를 더 포함하는 영상 정합 방법.
KR1020190032178A 2019-03-21 2019-03-21 수술용 네비게이션을 위한 영상 정합 장치 및 영상 정합 방법 KR102184001B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190032178A KR102184001B1 (ko) 2019-03-21 2019-03-21 수술용 네비게이션을 위한 영상 정합 장치 및 영상 정합 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190032178A KR102184001B1 (ko) 2019-03-21 2019-03-21 수술용 네비게이션을 위한 영상 정합 장치 및 영상 정합 방법

Publications (2)

Publication Number Publication Date
KR20200113075A KR20200113075A (ko) 2020-10-06
KR102184001B1 true KR102184001B1 (ko) 2020-11-30

Family

ID=72826355

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190032178A KR102184001B1 (ko) 2019-03-21 2019-03-21 수술용 네비게이션을 위한 영상 정합 장치 및 영상 정합 방법

Country Status (1)

Country Link
KR (1) KR102184001B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230027471A (ko) * 2021-08-19 2023-02-28 인제대학교 산학협력단 포인트 클라우드와 ct 영상의 정합을 위한 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017196129A (ja) 2016-04-27 2017-11-02 ゼネラル・エレクトリック・カンパニイ 超音波画像表示装置及びその制御プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101239294B1 (ko) * 2011-05-23 2013-03-05 한양대학교 산학협력단 좌표공간 상에서의 영상정합장치 및 영상정합방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017196129A (ja) 2016-04-27 2017-11-02 ゼネラル・エレクトリック・カンパニイ 超音波画像表示装置及びその制御プログラム

Also Published As

Publication number Publication date
KR20200113075A (ko) 2020-10-06

Similar Documents

Publication Publication Date Title
US10881353B2 (en) Machine-guided imaging techniques
KR101572487B1 (ko) 환자와 3차원 의료영상의 비침습 정합 시스템 및 방법
US9218664B2 (en) Apparatus and method for image guided accuracy verification
US20190046272A1 (en) ENT Image Registration
KR102233585B1 (ko) 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법
EP2506215B1 (en) Information processing apparatus, imaging system, information processing method, and program causing computer to execute information processing
KR101993384B1 (ko) 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템
CN111093505B (zh) 放射线拍摄装置以及图像处理方法
KR102056436B1 (ko) 의료용 네비게이션 시스템 및 그 방법
EP3501398B1 (en) Ent bone distance color coded face maps
EP3292835B1 (en) Ent image registration
KR102184001B1 (ko) 수술용 네비게이션을 위한 영상 정합 장치 및 영상 정합 방법
KR20160057024A (ko) 마커리스 3차원 객체추적 장치 및 그 방법
KR102084256B1 (ko) 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법
US20220022964A1 (en) System for displaying an augmented reality and method for generating an augmented reality
KR20160031794A (ko) 병변 검출 장치 및 그 방법
US10849696B2 (en) Map of body cavity
CN111028326A (zh) 用于使3d对象的空间表面曲率可视化的方法、系统和介质
EP4128145B1 (en) Combining angiographic information with fluoroscopic images
EP3975120B1 (en) Technique for guiding acquisition of one or more registration points on a patient's body
KR102247545B1 (ko) 수술위치 정보제공방법 및 수술위치 정보제공장치
US20230237711A1 (en) Augmenting a medical image with an intelligent ruler
US20220096165A1 (en) Interventional device tracking
CN117677358A (zh) 用于手术期间现场x射线荧光透视和c形臂计算机断层扫描成像的立体投影和交叉参考的增强现实系统和方法
CN115176283A (zh) 增强现实定位医学视图

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant