KR20160034104A - 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법 - Google Patents

옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법 Download PDF

Info

Publication number
KR20160034104A
KR20160034104A KR1020140125204A KR20140125204A KR20160034104A KR 20160034104 A KR20160034104 A KR 20160034104A KR 1020140125204 A KR1020140125204 A KR 1020140125204A KR 20140125204 A KR20140125204 A KR 20140125204A KR 20160034104 A KR20160034104 A KR 20160034104A
Authority
KR
South Korea
Prior art keywords
patient
unit
coordinate
marker
coordinate system
Prior art date
Application number
KR1020140125204A
Other languages
English (en)
Other versions
KR101638477B1 (ko
Inventor
이현기
Original Assignee
주식회사 고영테크놀러지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to KR1020140125204A priority Critical patent/KR101638477B1/ko
Application filed by 주식회사 고영테크놀러지 filed Critical 주식회사 고영테크놀러지
Priority to CN201580050352.0A priority patent/CN107072720B/zh
Priority to JP2017515177A priority patent/JP6475324B2/ja
Priority to US15/512,273 priority patent/US11206998B2/en
Priority to EP15843042.1A priority patent/EP3195823B1/en
Priority to PCT/KR2015/009842 priority patent/WO2016043560A1/ko
Priority to EP21211617.2A priority patent/EP3998035A3/en
Priority to CN202011202615.4A priority patent/CN112562094A/zh
Publication of KR20160034104A publication Critical patent/KR20160034104A/ko
Application granted granted Critical
Publication of KR101638477B1 publication Critical patent/KR101638477B1/ko
Priority to US17/534,696 priority patent/US20220079465A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners

Abstract

옵티컬 트래킹 시스템은 기준 마커부, 형상 측정부, 트래킹 센서부 및 처리부를 포함한다. 기준 마커부는 환자에 상대적으로 고정 배치된다. 형상 측정부는 3차원 영상에 대응하는 환자의 소정 부위에 대하여 3차원 형상을 측정한다. 트래킹 센서부는 기준 마커부 및 형상 측정부를 센싱한다. 처리부는 트래킹 센서부에서 센싱된 결과를 기초로 기준 마커부와 트래킹 센서부 사이의 좌표변환관계 및 형상 측정부와 트래킹 센서부 사이의 좌표변환관계를 획득하고, 형상 측정부에서 측정된 결과를 기초로 환자의 소정 부위와 형상 측정부 사이의 좌표변환관계를 획득하여, 획득된 좌표변환관계들로부터 기준 마커부에 대해 상대적인 환자의 좌표계를 정의한다. 이에 따라, 보다 짧은 시간에 적은 비용으로 정확하고 용이하게 환자나 시술도구를 트래킹할 수 있다.

Description

옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법{OPTICAL TRACKING SYSTEM AND REGISTRATION METHOD FOR COORDINATE SYSTEM IN OPTICAL TRACKING SYSTEM}
본 발명은 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법에 관한 것으로, 더욱 상세하게는 환자나 시술도구를 트래킹하기 위한 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법에 관한 것이다.
최근 환자의 환부를 치료하는 수술에 있어서 기 촬영된 영상을 이용한 영상유도 수술(image-guided surgery)이 많이 활용되고 있다. 특히, 환자 신체내의 중요한 신경과 주요 장기들을 회피하면서 수술을 진행하여야 하는 경우에는, 기 촬영된 영상을 기반으로 하여 높은 정확도를 갖는 수술을 진행할 것이 요구된다.
일반적으로, 기 촬영된 영상은 MRI 촬영, CT 촬영 등에 의해 획득된 3차원 영상을 포함하며, 수술 시작 시에는 이러한 기 촬영된 3차원 영상의 좌표계와 환자의 좌표계를 서로 일치시키는 정합(registration)이 필요하고, 수술 진행 중에는 환자나 수술도구의 움직임에 따른 위치 및 자세 변화를 실시간으로 파악하는 것이 필요하다. 또한, 수술 중에 환자의 자세가 변하는 경우, 환자의 좌표계를 재정합(re-registration)하여 환자 혹은 환부를 지속적으로 추적하는 것이 필요하다.
종래에는 이러한 정합 및 트래킹을 위하여 동적참조 장치(dynamic reference base, DRB)가 활용되어 왔다. 즉, 사전에 상기 동적참조 장치를 환자에 부착한 후 CT와 같은 3차원 영상을 촬영하고, 수술 시작 시에 상기 3차원 영상의 좌표계와 환자의 좌표계를 서로 정합한 후, 수술 진행 중에는 상기 동적참조 장치를 기초로 수술도구를 트래킹함으로써 환자의 환부에 대한 상대적인 수술도구의 위치 등을 트래킹한다. 이 경우, 정합을 위해서 상기 동적참조 장치가 환자에 고정된 채로 사전에 3차원 영상이 촬영될 필요가 있고, 정확한 트래킹을 위해서 엄격하게 환자에 고정될 필요가 있다.
이를 위해 종래에는, 예를 들면, 환자의 뼈 부분에 마커(marker)를 박은 후 이를 센싱하여 트래킹하는 방법, 환자의 치아에 마커가 부착된 템플릿(template)를 물린 후 이를 센싱하여 트래킹하는 방법 등이 채용되거나, 인공 구조물을 생성하여 가공된 스탬프(STAMP, Surface Template-Assisted Marker Position)를 이용하는 방법 등이 채용되어 왔다.
그러나, 상기와 같은 종래의 방법들은, 마커 부착의 어려움과 뼈에 박음으로써 생기는 부작용, 치아에 물림으로써 발생할 수 있는 마커 위치 변화에 따른 정확성 및 신뢰성 감소, 수술 전에 고가의 스탬프를 제작하여야 하는 번거로움과 제작에 소요되는 많은 시간과 비용 등과 같은 여러 가지 문제점들이 있다. 또한, 종래의 방법들의 경우, 동적참조 장치가 엄격하게 환자에게 고정된다고 하더라도, 환자가 움직일 경우에는 상기 동적참조 장치와 환자의 환부 사이의 거리, 자세 등이 변할 수 있으므로, 정확한 트래킹이 이루어지지 않고 재정합도 할 수 없어 이를 사용할 수 없는 문제가 있다. 따라서, 종래의 방법들의 경우, 환자가 움직이지 않는다는 가정을 하고 수술을 진행하지만, 현실적으로 수술 중에 환자가 움직이는 경우가 많으므로, 실질적으로 정확한 트래킹이 이루어지기에는 어려움이 있다.
따라서, 보다 짧은 시간에 적은 비용으로 정확한 정합 결과를 획득할 수 있는 정합 방법의 개발이 요청되고, 수술 중에 환자가 움직이거나 자세가 변하는 경우에도 트래킹이 비교적 정확하고 용이한 트래킹 시스템 및 트래킹 방법의 개발이 요청된다.
따라서, 본 발명이 해결하고자 하는 과제는, 보다 짧은 시간에 적은 비용으로 정확하고 용이하게 환자나 시술도구를 트래킹할 수 있는 옵티컬 트래킹 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 다른 과제는, 보다 짧은 시간에 적은 비용으로 정확하고 용이하게 환자나 시술도구를 트래킹할 수 있는 옵티컬 트래킹 시스템의 정합 방법을 제공하는 것이다.
본 발명의 예시적인 일 실시예에 따른 옵티컬 트래킹 시스템(optical tracking system)은 환자에 대한 시술 이전에 미리 획득된 3차원 영상을 이용하여 환자나 상기 환자를 시술하기 위한 시술도구를 트래킹하기 위해 제공된다. 상기 옵티컬 트래킹 시스템은, 기준 마커(marker)부, 형상 측정부, 트래킹 센서부 및 처리부를 포함한다. 상기 기준 마커부는 상기 환자에 상대적으로 고정 배치된다. 상기 형상 측정부는 상기 3차원 영상에 대응하는 상기 환자의 소정 부위에 대하여 3차원 형상을 측정한다. 상기 트래킹 센서부는 상기 기준 마커부 및 상기 형상 측정부를 각각 트래킹할 수 있도록 상기 기준 마커부 및 상기 형상 측정부를 센싱(sensing)한다. 상기 처리부는 상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 소정 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하여, 상기 획득된 좌표변환관계들로부터 상기 기준 마커부에 대해 상대적인 상기 환자의 좌표계를 정의한다.
일 실시예로, 상기 형상 측정부는, 상기 3차원 영상에 대응하는 상기 환자의 소정 부위에 대하여 3차원 형상을 측정하는 측정장치 및 상기 측정장치에 설치된 마커를 포함할 수 있고, 상기 트래킹 센서부는 상기 형상 측정부의 마커를 센싱할 수 있다. 상기 처리부는, 상기 형상 측정부의 마커와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부의 상기 측정장치와 상기 마커 사이의 좌표변환관계를 획득할 수 있다.
예를 들면, 상기 좌표변환관계들은 좌표변환행렬로 표현될 수 있고, 상기 처리부는 하기 수학식에 의해 상기 기준 마커부에 대해 상대적인 상기 환자의 좌표계를 정의할 수 있다.
Figure pat00001
(PR은 상기 기준 마커부에 대한 상기 환자의 좌표변환행렬, T1은 상기 트래킹 센서부에 대한 상기 기준 마커부의 좌표변환행렬, T2는 상기 트래킹 센서부에 대한 상기 형상 측정부의 마커의 좌표변환행렬, T3는 상기 형상 측정부의 마커에 대한 측정장치의 좌표변환행렬, T4는 상기 형상 측정부의 측정장치에 대한 상기 환자의 좌표변환행렬)
예를 들면, 상기 트래킹 센서부는 상기 트래킹 센서부에 대한 상기 기준 마커부의 좌표변환행렬(T1) 및 상기 트래킹 센서부에 대한 상기 형상 측정부의 마커의 좌표변환행렬(T2)을 획득하기 위한 정보를 측정할 수 있고, 상기 형상 측정부는 상기 형상 측정부의 측정장치에 대한 상기 환자의 좌표변환행렬(T4)을 획득하기 위한 정보를 측정할 수 있다. 상기 처리부는 상기 측정된 정보들을 이용하여 상기 좌표변환행렬들(T1, T2, T4)을 획득하고, 상기 획득된 좌표변환행렬들(T1, T2, T4)로부터 상기 형상측정부의 마커에 대한 측정장치의 좌표변환행렬(T3) 및 상기 기준 마커부에 대한 상기 환자의 좌표변환행렬(PR)을 산출할 수 있다. 상기 트래킹 센서부 및 상기 형상 측정부의 측정은 2회 이상 수행될 수 있다.
일 실시예로, 상기 처리부는 상기 환자에 대한 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 기준 마커부에 대해 상대적으로 정의된 상기 환자의 좌표계를 상기 형상 측정부에서 측정된 3차원 형상을 기초로 정합할 수 있다.
상기 옵티컬 트래킹 시스템은, 마커를 포함하고, 상기 환자를 시술하기 위한 시술도구를 더 포함할 수 있다. 상기 트래킹 센서부는 상기 시술도구의 마커를 트래킹할 수 있도록 상기 시술도구의 마커를 센싱할 수 있으며, 상기 처리부는 상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 시술도구의 마커와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 획득된 좌표변환관계들 및 상기 기준 마커부에 대해 상대적으로 정의된 상기 환자의 좌표계를 이용하여 상기 환자에 대해 상대적인 상기 시술도구의 좌표계를 정의할 수 있다.
일 실시예로, 상기 처리부는, 상기 환자에 대한 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 환자에 대해 상대적으로 정의된 상기 시술도구의 좌표계를, 상기 3차원 영상의 좌표계 및 상기 환자의 좌표계의 정합 결과를 기초로 정합할 수 있다.
상기 처리부는, 상기 환자가 움직이는 경우 자동 또는 수동으로 상기 환자의 좌표계를 재정의할 수 있다.
본 발명의 예시적인 다른 실시예에 따른 옵티컬 트래킹 시스템의 좌표계 정합 방법은, 환자에 대한 시술 이전에 상기 환자의 3차원 영상을 획득하는 단계, 상기 환자에 상대적으로 고정 배치된 기준 마커부 및 상기 3차원 영상에 대응하는 상기 환자의 소정 부위에 대하여 3차원 형상을 측정하는 형상 측정부를 트래킹 센서부에 의해 센싱하는 단계, 상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 소정 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하는 단계 및 상기 획득된 좌표변환관계들로부터 상기 기준 마커부에 대해 상대적인 상기 환자의 좌표계를 정의하는 단계를 포함한다.
일 실시예로, 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 환자의 소정 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하는 단계는, 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부의 마커와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하는 단계, 상기 형상 측정부의 상기 측정장치와 상기 마커 사이의 좌표변환관계를 획득하는 단계 및 상기 환자와 상기 형상 측정부의 상기 측정장치 사이의 좌표변환관계를 획득하는 단계를 포함할 수 있다.
상기 트래킹 시스템의 좌표계 정합 방법은, 상기 획득된 좌표변환관계들로부터 상기 기준 마커부에 대해 상대적인 상기 환자의 좌표계를 정의하는 단계 이후에, 상기 획득된 3차원 영상의 좌표계 및 상기 정의된 상기 환자의 좌표계를 상기 형상 측정부에서 측정된 3차원 형상을 기초로 정합하는 단계를 더 포함할 수 있다.
상기 트래킹 시스템의 좌표계 정합 방법은, 상기 획득된 3차원 영상의 좌표계 및 상기 정의된 상기 환자의 좌표계를 정합하는 단계 이후에, 상기 환자를 시술하기 위한 시술도구의 마커를 센싱하는 단계, 상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 시술도구의 마커와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하는 단계 및 상기 획득된 좌표변환관계들 및 상기 기준 마커부에 대해 상대적으로 정의된 상기 환자의 좌표계를 이용하여 상기 환자에 대해 상대적인 상기 시술도구의 좌표계를 정의하는 단계를 더 포함할 수 있다.
상기 트래킹 시스템의 좌표계 정합 방법은, 상기 환자에 대해 상대적인 상기 시술도구의 좌표계를 정의하는 단계 이후에, 상기 획득된 3차원 영상의 좌표계 및 상기 정의된 상기 시술도구의 좌표계를 상기 3차원 영상의 좌표계 및 상기 환자의 좌표계의 정합 결과를 기초로 정합하는 단계를 더 포함할 수 있다.
상기 환자가 움직이는 경우, 상기 환자에 상대적으로 고정 배치된 기준 마커부 및 상기 3차원 영상에 대응하는 상기 환자의 소정 부위에 대하여 3차원 형상을 측정하는 형상 측정부를 트래킹 센서부에 의해 센싱하는 단계 이하는 반복 수행될 수 있다.
본 발명에 따르면, 옵티컬 트래킹 시스템이 형상 측정부를 구비하여 환자의 소정 부위에 대하여 3차원 형상을 측정하고, 트래킹 센서부에서 상기 형상 측정부와 기준 마커부를 센싱함으로써, 이들 사이의 좌표변환관계들로부터 상기 기준 마커부에 대해 상대적인 상기 환자의 좌표계를 정의할 수 있고, 시술 시에 실시간으로 상기 환자 및 시술도구를 트래킹할 수 있다.
또한, 상기 기준 마커부에 대해 상대적인 상기 환자의 좌표계를 정의하는 과정이 용이하게 재수행될 수 있으므로, 상기 환자가 움직이거나 자세가 변하는 경우에도 정확하게 좌표계를 재설정할 수 있고, 상기 환자 및 상기 시술도구를 실시간으로 정확하게 트래킹할 수 있다.
또한, 시술 시에 측정된 상기 환자의 3차원 형상 자체를 표지로 정합이 가능하므로, 동적 참조장치(DRB)를 환자에 직접 부착하지 않고도 시술 전에 미리 획득된 3차원 영상의 좌표계와 시술 시에 실시간으로 이동될 수 있는 환자의 좌표계 및 시술도구의 좌표계를 서로 정합할 수 있다. 아울러, 사전에 상기 3차원 영상을 획득할 때에도 상기 동적 참조장치를 부착할 필요가 없고, 언제든지 좌표계의 재설정 및 재정합이 가능하므로 상기 기준 마커부는 상기 환자에 대해 엄격하게 고정되어야 할 필요도 없다.
따라서, 마커를 환자에 직접 부착함으로 야기되는 환자의 고통과 오차, 수술 전에 스탬프를 제작하여야 하는 등의 작업의 번거로움과 많은 소요 시간 및 비용 등과 같은 종래기술의 문제점들을 해결할 수 있다.
즉, 별도의 준비과정 없이 수술실 내에서 신속히 환자의 좌표계를 설정하고 영상 정합을 수행할 수 있으므로, 보다 짧은 시간 및 적은 비용으로 정확하고 용이하게 환자의 좌표계 및 시술도구의 좌표계 설정 및 영상 정합이 가능하며, 환자에 직접 부착되는 동적 참조장치(DRB)를 생략하여 환자에 직접 조작을 가하지 않아도 되로 환자의 고통 및 부작용을 경감할 수 있다.
도 1은 본 발명의 일 실시예에 의한 옵티컬 트래킹 시스템을 나타낸 개념도이다.
도 2는 도 1의 옵티컬 트래킹 시스템의 모델링 과정을 설명하기 위한 개념도이다.
도 3은 도 1의 옵티컬 트래킹 시스템에서 시술도구의 트래킹 및 정합을 설명하기 위한 개념도이다.
도 4는 본 발명의 일 실시예에 의한 옵티컬 트래킹 시스템의 좌표계 정합 방법을 나타낸 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 의한 옵티컬 트래킹 시스템을 나타낸 개념도이다.
본 발명의 일 실시예에 의한 옵티컬 트래킹 시스템(optical tracking system)은 환자에 대한 시술 이전에 미리 획득된 3차원 영상을 이용하여 환자나 상기 환자를 시술하기 위한 시술도구를 트래킹하기 위해 제공된다.
상기 3차원 영상은 상기 환자(10)에 대한 시술 이전에 미리 획득된 영상으로서, 상기 환자(10)에 대한 시술 시에 기준 영상으로 활용될 수 있다. 여기서, 상기 시술은 수술을 포함하는 환자에 대한 의료적 치료 행위 전체를 포함한다. 예를 들면, 상기 3차원 영상은 진단 및 치료를 위하여 병원에서 일반적으로 획득하는 CT(컴퓨터 단층촬영, computed tomography) 영상을 포함할 수 있다. 이와는 다르게, 상기 3차원 영상은 MRI(자기공명영상, magnetic resonance imaging) 등과 같은 다른 3차원 영상을 포함할 수 있다. 또한, 여기서 상기 3차원 영상은 CT 영상과 같이 직접 촬영된 영상을 조작하거나 재구성한 영상도 포함하는 개념으로서, 실제 시술 시에 널리 활용되는 다평면 재구성 영상 및 3차원 재구성 영상도 모두 포함하는 개념이다.
도 1을 참조하면, 상기 옵티컬 트래킹 시스템(100)은, 기준 마커(marker)부(110), 형상 측정부(120), 트래킹 센서부(130) 및 처리부(140)를 포함한다.
상기 기준 마커부(110)는 환자(10)에 상대적으로 고정 배치된다.
상기 기준 마커부(110)에는 마커(112)가 설치되며, 상기 마커(112)는 후술되는 트래킹 센서부(130)에서 센싱이 가능하도록 에너지 또는 신호를 발생시킬 수 있다. 예를 들면, 상기 기준 마커부(110)에는 복수의 마커들이 설치될 수 있으며, 소정의 패턴이 형성된 하나의 마커가 설치될 수도 있다.
상기 기준 마커부(110)는 종래의 동적 참조장치(DBR)와 대응되지만, 상기 기준 마커부(110)는 종래의 동적 참조장치와 다르게 정합의 기준이 되지 않으므로, CT, MRI와 같은 상기 3차원 영상을 촬영할 때 이를 상기 환자(10)에 부착할 필요가 없다. 또한, 종래의 동적 참조장치는 반드시 상기 환자(10)에 직접 부착되어야 하고, 상기 환자(10)에 대해 엄격하게 고정되어야 하는 반면, 상기 기준 마커부(110)는 상기 환자(10)에 직접 부착되어도 되지만, 상기 환자(10)에 대해 상대적으로 고정되기만 하면 되므로 수술실의 침대 등 다른 고정물체에 부착될 수 있으며, 상기 환자(10)에 대해 엄격하게 고정되어야 할 필요가 없다.
상기 형상 측정부(120)는 상기 3차원 영상에 대응하는 상기 환자(10)의 소정 부위에 대하여 3차원 형상을 측정한다.
일 실시예로, 상기 형상 측정부(120)는 측정장치(122) 및 마커(124)를 포함할 수 있다.
상기 측정장치(122)는 상기 3차원 영상에 대응하는 상기 환자(10)의 소정 부위에 대하여 3차원 형상을 측정한다. 일 실시예로, 상기 측정장치(122)는 격자패턴광을 상기 환자(10)의 소정 부위에 조사하고, 상기 격자패턴광에 따른 상기 환자(10)의 소정 부위에 대한 반사이미지를 획득한 후, 상기 획득된 반사이미지에 버킷 알고리즘(bucket algorithm)을 적용하여 3차원 형상을 측정할 수 있다. 또한, 상기 측정된 3차원 형상으로부터 3차원 영상을 획득할 수도 있다.
상기 마커(124)는 상기 측정장치(122)에 설치된다. 상기 마커(124)는 후술되는 트래킹 센서부(130)에서 센싱이 가능하도록 에너지 또는 신호를 발생시킬 수 있다. 예를 들면, 상기 형상 측정부(120)에는 복수의 마커들이 설치될 수 있으며, 소정의 패턴이 형성된 하나의 마커가 설치될 수도 있다.
상기 트래킹 센서부(130)는 상기 기준 마커부(110) 및 상기 형상 측정부(120)를 각각 트래킹할 수 있도록 상기 기준 마커부(110) 및 상기 형상 측정부(120)를 센싱(sensing)한다.
예를 들면, 상기 트래킹 센서부(130)는 상기 기준 마커부(110)의 마커(112)를 센싱할 수 있고, 상기 형상 측정부(120)의 마커(124)를 센싱할 수 있다. 이에 따라, 상기 기준 마커부(110)의 위치 및/또는 자세를 알 수 있고, 상기 형상 측정부(120)의 위치 및/또는 자세를 알 수 있다.
상기 처리부(140)는, 예를 들면, 컴퓨터 또는 컴퓨터의 중앙처리장치를 포함할 수 있다.
상기 처리부(140)는 상기 트래킹 센서부(130)에서 센싱된 결과를 기초로 상기 기준 마커부(110)와 상기 트래킹 센서부(130) 사이의 좌표변환관계 및 상기 형상 측정부(120)와 상기 트래킹 센서부(130) 사이의 좌표변환관계를 획득한다. 또한, 상기 처리부(140)는 상기 형상 측정부(120)에서 측정된 결과를 기초로 상기 환자(10)의 소정 부위와 상기 형상 측정부(120) 사이의 좌표변환관계를 획득한다. 여기서, 상기 좌표변환관계들은, 예를 들면, 행렬 형태로 정의될 수 있다.
상기 처리부(140)는 상기 획득된 좌표변환관계들로부터 상기 기준 마커부(110)에 대해 상대적인 상기 환자(10)의 좌표계를 정의한다. 예를 들면, 상기 좌표계는 행렬 형태로 정의될 수 있다.
한편, 상기 형상 측정부(120)의 상기 측정장치(122)의 측정위치와 상기 형상 측정부(120)의 마커(124)의 위치는 다소 차이가 나므로, 정확한 좌표계의 정의를 위하여 상기 측정장치(122)와 상기 마커(124) 사이의 위치 차이에 따른 오차를 캘리브레이션(calibration)할 수도 있다. 이에 따라, 상기 처리부(140)는, 상기 형상 측정부(120)의 마커(124)와 상기 트래킹 센서부(130) 사이의 좌표변환관계 및 상기 형상 측정부(120)의 상기 측정장치(120)와 상기 마커(124) 사이의 좌표변환관계를 별개로 획득할 수 있다.
예를 들면, 상기 좌표변환관계들은 좌표변환행렬로 표현될 수 있다.
이하, 상기 좌표변환관계들을 이용하여 상기 환자(10)의 좌표계를 정의하기 위한 상기 옵티컬 트래킹 시스템(100)의 모델링 설정 및 해결 과정을 도면을 참조로 보다 상세하게 설명한다.
도 2는 도 1의 옵티컬 트래킹 시스템의 모델링 과정을 설명하기 위한 개념도이다.
도 2를 참조하면, 상기 옵티컬 트래킹 시스템(100)은 상기 좌표변환관계들을 좌표변환행렬들 T1, T2, T3, T4 및 PR로 각각 나타낼 수 있다.
여기서, PR은 상기 기준 마커부(110)에 대한 상기 환자(10)의 좌표변환행렬, T1은 상기 트래킹 센서부(130)에 대한 상기 기준 마커부(110)의 좌표변환행렬, T2는 상기 트래킹 센서부(130)에 대한 상기 형상 측정부(120)의 마커(124)의 좌표변환행렬, T3는 상기 형상 측정부(120)의 마커(124)에 대한 측정장치(122)의 좌표변환행렬, T4는 상기 형상 측정부(120)의 측정장치(122)에 대한 상기 환자(10)의 좌표변환행렬을 의미한다.
상기 기준 마커부(110)에 대한 상기 환자(10)의 좌표변환행렬(PR)을 도 2에 도시된 화살표 방향을 기초로 폐루프(closed loop)를 형성하도록 T1, T2, T3 및 T4로 나타내면 수학식 1을 얻을 수 있다.
Figure pat00002
한편, 상기 트래킹 센서부(130)로부터 상기 환자(10)까지 서로 다른 두 개의 경로를 폐루프가 되도록 형성하여 수학식 2를 얻은 후, 이를 변형하여도 동일한 결과인 수학식 1을 얻을 수 있다.
Figure pat00003
상기 처리부(140)는 수학식 1(또는 수학식 2)에 의해 좌표변환행렬 PR을 획득함으로써, 상기 기준 마커부(110)에 대해 상대적인 상기 환자(10)의 좌표계를 정의할 수 있다.
예를 들면, 상기 트래킹 센서부(130)는 상기 트래킹 센서부(130)에 대한 상기 기준 마커부(110)의 좌표변환행렬(T1) 및 상기 트래킹 센서부(130)에 대한 상기 형상 측정부(120)의 마커의 좌표변환행렬(T2)을 획득하기 위한 정보를 측정할 수 있고, 상기 형상 측정부(120)는 상기 형상 측정부(120)의 측정장치에 대한 상기 환자(10)의 좌표변환행렬(T4)을 획득하기 위한 정보를 측정할 수 있다. 상기 처리부(140)는 상기 측정된 정보들을 이용하여 좌표변환행렬들(T1, T2, T4)을 획득할 수 있고, 상기 획득된 좌표변환행렬들(T1, T2, T4)로부터 상기 형상측정부(120)의 마커(122)에 대한 측정장치(124)의 좌표변환행렬(T3) 및 상기 기준 마커부(110)에 대한 상기 환자(10)의 좌표변환행렬(PR)을 산출할 수 있다.
구체적으로, 상기 좌표변환행렬들(T3, PR)은 아래와 같은 수학적 방식을 적용하여 획득될 수 있으며, 상기 처리부(140)는 이러한 수학적 방식을 구현하여 상기 좌표변환행렬들(T3, PR)을 산출할 수 있다.
먼저, 상기 좌표변환행렬들을 회전변환 부분(R)과 위치변환 부분(t)을 포함하도록 구성한 후, 이를 수학식 2에 대입하여 정리하면 수학식 3을 얻을 수 있다.
Figure pat00004
수학식 3을 정리하면 수학식 4를 얻을 수 있다.
Figure pat00005
수학식 4의 각 성분을 등식으로 표현하면 수학식 5 및 수학식 6을 얻을 수 있다.
Figure pat00006
Figure pat00007
수학식 5에서, RTT를 정의하여 수학식 5를 정리하면 수학식 7을 얻을 수 있다.
Figure pat00008
또한, 수학식 6에서, tTT를 추가로 정의하여 수학식 6을 정리하면 수학식 8을 얻을 수 있다.
Figure pat00009
수학식 7 및 수학식 8에서, 회전변환행렬(R)은 3×3 형태를 갖고, 위치변환행렬(t)은 3×1 형태를 가지므로, 수학식 7로부터 3×3 행렬의 각 성분에 대한 식인 9개의 방정식을 얻을 수 있고, 수학식 8로부터 3×1 행렬의 각 성분에 대한 식인 3개의 방정식을 얻을 수 있다.
수학식 7에서 RTT의 모든 성분(즉, RT1 및 RT2의 모든 성분) 및 RT4의 모든 성분을 앞서 설명된 측정으로부터 알 수 있고, 수학식 8에서 이에 더하여 tT4의 모든 성분을 알 수 있으므로, 미지수는 RPR과 RT3 각각의 9개 성분과 tPR과 tT4의 각각의 3개 성분 등 모두 24개이다.
수학식 7 및 수학식 8은 모두 24개의 미지수들을 포함하는 12개의 방정식들이므로, 2회 이상의 측정으로 보다 정확한 해를 구할 수 있으며, 이에 따라, 상기 트래킹 센서부(130) 및 상기 형상 측정부(120)의 측정은 2회 이상 수행될 수 있다.
따라서, 상기와 같이 측정된 좌표변환관계들을 이용하여 상기 환자(10)의 좌표계를 정의할 수 있다.
상기 좌표변환행렬들(T3, PR)을 획득하기 위해 상술한 수학적 방식은 다른 방식에 의해 대체될 수도 있다. 예를 들면, 상기 처리부(140)는 듀얼 쿼터니언(dual quaternion) 방식을 응용하여 상기 좌표변환행렬들(T3, PR)을 산출할 수 있다.
구체적으로, 먼저 앞서 기술한 수학식 1로부터 하기 수학식 9를 얻을 수 있고, 수학식 9를 변형하여 하기 수학식 10을 얻을 수 있다.
Figure pat00010
Figure pat00011
수학식 10을 전개하여 고차항을 제거하면 수학식 11을 얻을 수 있다.
Figure pat00012
수학식 9와 수학식 11을 각각 듀얼 쿼터니언 방식을 응용하여 변형하면 하기 수학식 12와 하기 수학식 13을 얻을 수 있다.
Figure pat00013
Figure pat00014
수학식 12 및 수학식 13을 행렬방정식 형태로 변형하면 하기 수학식 14를 얻을 수 있으며, 수학식 14로부터 상기 좌표변환행렬들(T3, PR)을 산출할 수 있다.
Figure pat00015
한편, 상기 처리부(140)는 상기 환자(10)에 대한 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 기준 마커부(110)에 대해 상대적으로 정의된 상기 환자(10)의 좌표계를 상기 형상 측정부(120)에서 측정된 3차원 형상을 기초로 정합할 수 있다.
구체적으로, 상기 환자(10)에 직접 마커 또는 마커에 상응하는 구조물을 부착하여 이를 기초로 3차원 영상의 좌표계와 환자의 좌표계를 정합하는 대신, 상기와 같이 획득된 3차원 형상(또는 이로부터 얻어지는 3차원 영상)의 좌표계와 상기 3차원 영상의 좌표계를 상기 3차원 형상 자체를 표지로 하여 정합한다(natural landmark).
이와 같이, 상기 처리부(140)는 상기 좌표변환관계들로부터 상기 기준 마커부(110)에 대해 상대적인 상기 환자(10)의 좌표계를 정의할 수 있고 시술 시에 실시간으로 상기 환자(10)를 트래킹할 수 있다.
한편, 상기 기준 마커부(110)에 대해 상대적인 상기 환자(10)의 좌표계를 정의하는 과정은 자동으로 혹은 사용자에 의해 수동으로 용이하게 재수행될 수 있다. 즉, 상기 처리부(140)는 상기 환자(10)가 움직이는 경우 자동 또는 수동으로 상기 환자의 좌표계를 재정의할 수 있다. 이때, 상기 환자(10)가 직접 움직이는 경우가 아니더라도, 상기 환자(10)와 상기 기준 마커부(110) 사이의 거리가 변하는 경우에는 상기 환자(10)가 움직이는 경우로 간주할 수 있다.
상기 처리부(140)가 상기 기준 마커부(110)에 대해 상대적인 상기 환자(10)의 좌표계를 정의하는 과정은 자동으로 혹은 사용자에 의해 수동으로 용이하게 재수행될 수 있다.
따라서, 상기 환자(10)가 움직이거나 자세가 변하는 경우, 상기 좌표계를 정의하는 과정을 재수행함으로써, 정확하게 좌표계를 재설정할 수 있다(변화된 PR의 획득).
일 실시예로, 상기 옵티컬 트래킹 시스템(100)은, 상기 환자(10)의 움직임을 감지하는 움직임 감지부(도시되지 않음)를 포함할 수 있고, 이를 별도로 포함하는 대신 상기 트래킹 센서부(130)에서 상기 환자(10)의 움직임을 감지할 수도 있다. 상기 움직임 감지부 또는 상기 트래킹 센서부(130)에서 상기 환자(10)의 움직임을 감지하면, 상기 처리부(140)는 상기 좌표계를 정의하는 과정을 재수행함으로써, 상기 좌표계를 재설정할 수 있다.
이에 따라, 상기 기준 마커부(110)에 대해 상대적인 상기 환자(10)의 좌표계를 실시간으로 정의할 수 있으므로, 시술 중에 환자가 움직이거나 자세가 변하는 경우에도 실시간으로 상기 환자(10)를 정확하게 트래킹할 수 있다.
또한, 시술 시에 측정된 3차원 형상 자체를 표지로 정합이 가능하므로, 상기 환자(10)에 마커 또는 마커에 상응하는 구조물과 같은 동적 참조장치(DRB)를 환자에 직접 부착하지 않고도, 시술 전에 미리 획득된 3차원 영상의 좌표계와 시술 시에 실시간으로 이동될 수 있는 환자(10)의 좌표계를 서로 정합할 수 있다. 아울러, 사전에 상기 3차원 영상을 획득할 때에도, 상기 동적 참조장치를 부착할 필요가 없고, 언제든지 좌표계의 재설정 및 재정합이 가능하므로 상기 기준 마커부(110)는 상기 환자(10)에 대해 엄격하게 고정되어야 할 필요도 없다.
따라서, 마커를 환자에 직접 부착함으로 야기되는 환자의 고통과 오차, 수술 전에 스탬프를 제작하여야 하는 등의 작업의 번거로움과 많은 소요 시간 및 비용 등과 같은 종래기술의 문제점들을 해결할 수 있다. 즉, 별도의 준비과정 없이 수술실 내에서 신속히 환자의 좌표계를 설정하고 영상 정합을 수행할 수 있으므로, 보다 짧은 시간 및 적은 비용으로 정확하고 용이하게 환자의 좌표계 설정 및 영상 정합이 가능하며, 환자에 직접 부착되는 동적 참조장치(DRB)를 생략하여 환자에 직접 조작을 가하지 않아도 되므로 환자의 고통 및 부작용을 경감할 수 있다.
도 3은 도 1의 옵티컬 트래킹 시스템에서 시술도구의 트래킹 및 정합을 설명하기 위한 개념도이다.
도 3을 참조하면, 상기 옵티컬 트래킹 시스템(100)은 시술도구(150)를 더 포함할 수 있다.
상기 시술도구(150)는 상기 환자(10)를 시술하기 위한 도구로서, 마커(152)를 포함한다. 상기 마커(152)는 상기 마커(112)는 상기 트래킹 센서부(130)에서 센싱이 가능하도록 에너지 또는 신호를 발생시킬 수 있다. 예를 들면, 상기 마커(152)는 복수로 형성될 수 있으며, 패턴정보를 포함할 수도 있다.
상기 트래킹 센서부(130)는 상기 시술도구(150)의 마커(152)를 센싱하여 상기 시술도구(150)를 트래킹할 수 있다.
상기 처리부(140)는 상기 트래킹 센서부(130)에서 센싱된 결과를 기초로 상기 기준 마커부(110)와 상기 트래킹 센서부(130) 사이의 좌표변환관계 및 상기 시술도구(150)의 마커(152)와 상기 트래킹 센서부(130) 사이의 좌표변환관계를 획득한다. 여기서, 상기 좌표변환관계들은, 예를 들면, 행렬 형태로 정의될 수 있으며, 좌표변환행렬로 표현될 수 있다.
상기 처리부(140)는 상기 획득된 좌표변환관계들 및 상기 기준 마커부(110)에 대해 상대적으로 정의된 상기 환자(10)의 좌표계를 이용하여 상기 환자(10)에 대해 상대적인 상기 시술도구(150)의 좌표계를 정의할 수 있다. 예를 들면, 상기 좌표계는 행렬 형태로 정의될 수 있다.
상기 기준 마커부(110)는 상기 환자(10)에 상대적으로 고정 배치되어 있으므로, 앞서 도 1 및 도 2에서 설명된 상기 기준 마커부(110)에 대해 상대적으로 정의된 상기 환자(10)의 좌표계를 이용할 수 있다. 즉, 상기 기준 마커부(110)에 대한 상기 환자(10)의 좌표변환행렬 PR을 이용하고, 상기 트래킹 센서(130)에서 센싱하여 산출되는 좌표변환행렬들 T1' 및 T2'를 이용하면, 수학식 1 및 수학식 2에서 변형된 하기 수학식 15에 따라 상기 환자(10)에 대해 상대적으로 정의된 상기 시술도구(150)의 좌표변환행렬 T5를 알 수 있다.
Figure pat00016
따라서, 상기와 같이 측정된 좌표변환관계들을 이용하여 상기 환자(10)에 대해 상대적인 상기 시술도구(150)의 좌표계를 정의할 수 있다.
도 3 및 수학식 15에서, 상기 시술도구(150)의 좌표변환행렬 T5는 상기 마커(152)를 기초로 도시되어 있지만, 트래킹이 필요한 지점, 예를 들면, 상기 시술도구(150)의 단부(154)를 기초로 좌표변환행렬을 정의할 수도 있다. 즉, 상기 좌표변환행렬 T5를 상기 트래킹 센서부(130)에 대한 상기 시술도구(150)의 마커(152)의 좌표변환행렬 T3' 및 상기 시술도구(150)의 마커(152)에 대한 단부(154)의 좌표변환행렬 T4'을 이용하여 정의할 수 있으며(T5=T3'T4'), 이 경우 T3'은 상기 시술도구(150)의 기하학적 형상으로부터 알 수 있으므로, 상기 환자(10)에 대해 상대적인 상기 시술도구(150)의 좌표계를 상기 단부(154)를 기초로 정의할 수 있다.
한편, 상기 처리부(140)는 상기 환자(10)에 대한 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 환자(10)에 대해 상대적으로 정의된 상기 시술도구(150)의 좌표계를 상기 3차원 영상의 좌표계 및 상기 환자의 좌표계의 정합 결과를 기초로 정합할 수 있다.
즉, 도 1 및 도 2에서 설명된 바와 같이 상기 환자(10)에 대한 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 기준 마커부(110)에 대해 상대적으로 정의된 상기 환자(10)의 좌표계를 상기 형상 측정부(120)에서 측정된 3차원 형상을 기초로 정합할 수 있고, 위에서 설명된 바와 같이 상기 환자(10)에 대해 상대적인 시술도구(150)의 좌표계를 정의할 수 있으므로, 이에 따라 상기 환자(10)에 대한 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 환자(10)에 대해 상대적으로 정의된 상기 시술도구(150)의 좌표계를 서로 정합할 수 있다.
상기 옵티컬 트래킹 시스템(100)은 상기 처리부(140)와 연결된 디스플레이부(도시되지 않음)를 더 포함할 수 있다. 상기 디스플레이부는 상기 시술 이전에 미리 획득된 3차원 영상, 상기 형상 측정부(120)에서 측정된 3차원 형상에 대한 영상, 상기 시술도구(150)에 대한 영상, 상기 영상들이 정합된 오버랩 영상 등이 디스플레이될 수 있다.
이와 같이, 상기 처리부(140)는 상기 좌표변환관계들로부터 상기 환자(10)에 대해 상대적인 상기 시술도구(150)의 좌표계를 정의할 수 있고 시술 시에 실시간으로 상기 시술도구(150)를 트래킹할 수 있다.
한편, 상기 기준 마커부(110)에 대해 상대적인 상기 환자(10)의 좌표계를 정의하는 과정은 자동으로 혹은 사용자에 의해 수동으로 용이하게 재수행될 수 있다. 즉, 상기 처리부(140)는 상기 환자(10)가 움직이는 경우 자동 또는 수동으로 상기 환자의 좌표계를 재정의할 수 있다. 이때, 상기 환자(10)가 직접 움직이는 경우가 아니더라도, 상기 환자(10)와 상기 기준 마커부(110) 사이의 거리가 변하는 경우에는 상기 환자(10)가 움직이는 경우로 간주할 수 있다.
따라서, 상기 환자(10)가 움직이거나 자세가 변하는 경우, 상기 좌표계를 정의하는 과정을 재수행함으로써, 정확하게 좌표계를 재설정할 수 있다(변화된 PR의 획득). 또한, 상기 처리부(140)는 상기 환자(10)에 대해 상대적인 상기 시술도구(150)의 좌표계도 재설정할 수 있고, 시술 시에 실시간으로 상기 시술도구(150)를 트래킹할 수 있다.
이에 따라, 상기 기준 마커부(110)에 대해 상대적인 상기 환자(10)의 좌표계를 실시간으로 정의할 수 있으므로, 시술 중에 환자가 움직이거나 자세가 변하는 경우에도 실시간으로 상기 시술도구(150)를 정확하게 트래킹할 수 있다.
또한, 상기 환자(10)에 마커 또는 마커에 상응하는 구조물과 같은 동적 참조장치(DRB)를 환자에 직접 부착하지 않고도, 시술 전에 미리 획득된 3차원 영상의 좌표계와 시술 시에 실시간으로 이동하는 시술도구(150)의 좌표계를 서로 정합할 수 있다. 아울러, 사전에 상기 3차원 영상을 획득할 때에도, 상기 동적 참조장치를 부착할 필요가 없고, 언제든지 좌표계의 재설정 및 재정합이 가능하므로 상기 기준 마커부(110)는 상기 환자(10)에 대해 엄격하게 고정되어야 할 필요도 없다.
따라서, 마커를 환자에 직접 부착함으로 야기되는 환자의 고통과 오차, 수술 전에 스탬프를 제작하여야 하는 등의 작업의 번거로움과 많은 소요 시간 및 비용 등과 같은 종래기술의 문제점들을 해결할 수 있다. 즉, 별도의 준비과정 없이 수술실 내에서 신속히 시술도구의 좌표계를 설정하고 영상 정합을 수행할 수 있으므로, 보다 짧은 시간 및 적은 비용으로 정확하고 용이하게 시술도구의 좌표계 설정 및 영상 정합이 가능하며, 환자에 직접 부착되는 동적 참조장치(DRB)를 생략하여 환자에 직접 조작을 가하지 않아도 되므로 환자의 고통 및 부작용을 경감할 수 있다.
이하, 상기한 옵티컬 트래킹 시스템(100)을 이용하여 시술 이전에 미리 촬영되는 3차원 영상의 좌표계와 환자의 환부와 시술 기구가 위치하는 시술 시의 실제 세계의 좌표계를 정합하는 과정을 도면을 참조로 설명한다.
도 4는 본 발명의 일 실시예에 의한 옵티컬 트래킹 시스템의 좌표계 정합 방법을 나타낸 흐름도이다.
도 1 내지 도 4를 참조하면, 먼저 환자(10)에 대한 시술 이전에 상기 환자(10)의 3차원 영상, 예를 들면, CT 영상을 획득한다(S110).
상기와 같이 시술 이전에 미리 획득한 CT 영상과 같은 3차원 영상(이를 재구성한 영상 포함)을, 예를 들면, 컴퓨터에 저장할 수 있다.
이어서, 다음과 같이 시술 시의 과정들이 수행된다.
먼저, 상기 환자(10)에 상대적으로 고정 배치된 기준 마커부(110) 및 상기 3차원 영상에 대응하는 상기 환자(10)의 소정 부위에 대하여 3차원 형상을 측정하는 형상 측정부(120)를 트래킹 센서부(130)에 의해 센싱한다(S120).
다음으로, 상기 트래킹 센서부(130)에서 센싱된 결과를 기초로 상기 기준 마커부(110)와 상기 트래킹 센서부(130) 사이의 좌표변환관계 및 상기 형상 측정부(120)와 상기 트래킹 센서부(130) 사이의 좌표변환관계를 획득하고, 상기 형상 측정부(120)에서 측정된 결과를 기초로 상기 환자(10)의 소정 부위와 상기 형상 측정부(120) 사이의 좌표변환관계를 획득한다(S130).
이때, 상기 기준 마커부(110)와 상기 트래킹 센서부(130) 사이의 좌표변환관계 및 상기 형상 측정부(120)의 마커와 상기 트래킹 센서부(130) 사이의 좌표변환관계를 획득하고, 상기 형상 측정부(120)의 상기 측정장치(122)와 상기 마커(124) 사이의 좌표변환관계를 획득하며, 상기 환자(10)와 상기 형상 측정부(120)의 상기 측정장치(122) 사이의 좌표변환관계를 획득할 수 있다.
이어서, 상기 획득된 좌표변환관계들로부터 상기 기준 마커부(110)에 대해 상대적인 상기 환자(10)의 좌표계를 정의한다(S140).
다음으로, 상기 획득된 3차원 영상의 좌표계 및 상기 정의된 상기 환자(10)의 좌표계를 상기 형상 측정부(120)에서 측정된 3차원 형상을 기초로 정합할 수 있다(S150).
이와 같이, 상기 환자(10)의 좌표계를 상기 기준 마커부(110)에 대해 상대적으로 정의하고, 미리 획득된 CT 영상과 같은 3차원 영상의 좌표계와 상기 환자(10)의 좌표계를 정합할 수 있다.
의사와 같은 시술자에게 마커(152)가 부착된 시술도구(150)가 제공되며, 상기 시술자는 상기 환자(10)를 시술하기 위한 상기 시술도구(150)를 직접 혹은 수술로봇 등의 장비를 이용하여 운용한다. 상기 시술도구(150)에 대해서는, 다음과 같이 트래킹을 위한 과정들이 수행된다.
상기 트래킹 센서부(130)는 상기 시술도구(150)의 마커(152)를 센싱한다(S160).
이어서, 상기 트래킹 센서부(130)에서 센싱된 결과를 기초로 상기 기준 마커부(110)와 상기 트래킹 센서부(130) 사이의 좌표변환관계 및 상기 시술도구(150)의 마커(152)와 상기 트래킹 센서부(130) 사이의 좌표변환관계를 획득한다(S170).
다음으로, 상기 획득된 좌표변환관계들 및 상기 기준 마커부(110)에 대해 상대적으로 정의된 상기 환자(10)의 좌표계를 이용하여 상기 환자(10)에 대해 상대적인 상기 시술도구(150)의 좌표계를 정의한다(S180).
이어서, 상기 획득된 3차원 영상의 좌표계 및 상기 정의된 상기 시술도구(150)의 좌표계를 상기 3차원 영상의 좌표계 및 상기 환자의 좌표계의 정합 결과를 기초로 정합한다(S190).
이와 같이, 상기 환자(10)를 시술하기 위한 시술도구(150)의 좌표계를 상기 환자(10)에 대해 상대적으로 정의하고, 미리 획득된 CT 영상과 같은 3차원 영상의 좌표계와 상기 시술도구(10)의 좌표계를 정합할 수 있다.
한편, 상기 환자(10)가 움직이는 경우 자동 또는 수동으로 상기 환자의 좌표계를 재정의할 수 있으므로, 앞선 상기 형상 측정부(120)를 트래킹 센서부(130)에 의해 센싱하는 과정(S120) 이하를 반복할 수 있다. 이때, 상기 환자(10)가 직접 움직이는 경우가 아니더라도, 상기 환자(10)와 상기 기준 마커부(110) 사이의 거리가 변하는 경우에는 상기 환자(10)가 움직이는 경우로 간주할 수 있다.
본 실시예에서는, 상기 옵티컬 트래킹 시스템(100)의 좌표계 정합 방법을 도 4의 흐름도를 참조로 간략히 설명하고 있지만, 상기 옵티컬 트래킹 시스템(100)의 구체적인 동작은 앞서 도 1 내지 도 3에서 설명된 내용과 실질적으로 동일하므로 중복되는 상세한 설명은 생략한다.
본 발명에 따르면, 옵티컬 트래킹 시스템이 형상 측정부를 구비하여 환자의 소정 부위에 대하여 3차원 형상을 측정하고, 트래킹 센서부에서 상기 형상 측정부와 기준 마커부를 센싱함으로써, 이들 사이의 좌표변환관계들로부터 상기 기준 마커부에 대해 상대적인 상기 환자의 좌표계를 정의할 수 있고, 시술 시에 실시간으로 상기 환자 및 시술도구를 트래킹할 수 있다.
또한, 상기 기준 마커부에 대해 상대적인 상기 환자의 좌표계를 정의하는 과정이 용이하게 재수행될 수 있으므로, 상기 환자가 움직이거나 자세가 변하는 경우에도 정확하게 좌표계를 재설정할 수 있고, 상기 환자 및 상기 시술도구를 실시간으로 정확하게 트래킹할 수 있다.
또한, 시술 시에 측정된 상기 환자의 3차원 형상 자체를 표지로 정합이 가능하므로, 동적 참조장치(DRB)를 환자에 직접 부착하지 않고도 시술 전에 미리 획득된 3차원 영상의 좌표계와 시술 시에 실시간으로 이동될 수 있는 환자의 좌표계 및 시술도구의 좌표계를 서로 정합할 수 있다. 아울러, 사전에 상기 3차원 영상을 획득할 때에도 상기 동적 참조장치를 부착할 필요가 없고, 언제든지 좌표계의 재설정 및 재정합이 가능하므로 상기 기준 마커부는 상기 환자에 대해 엄격하게 고정되어야 할 필요도 없다.
따라서, 마커를 환자에 직접 부착함으로 야기되는 환자의 고통과 오차, 수술 전에 스탬프를 제작하여야 하는 등의 작업의 번거로움과 많은 소요 시간 및 비용 등과 같은 종래기술의 문제점들을 해결할 수 있다.
즉, 별도의 준비과정 없이 수술실 내에서 신속히 환자의 좌표계를 설정하고 영상 정합을 수행할 수 있으므로, 보다 짧은 시간 및 적은 비용으로 정확하고 용이하게 환자의 좌표계 및 시술도구의 좌표계 설정 및 영상 정합이 가능하며, 환자에 직접 부착되는 동적 참조장치(DRB)를 생략하여 환자에 직접 조작을 가하지 않아도 되므로 환자의 고통 및 부작용을 경감할 수 있다.
앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이다.  따라서, 전술한 설명 및 아래의 도면은 본 발명의 기술사상을 한정하는 것이 아닌 본 발명을 예시하는 것으로 해석되어야 한다.
100 : 옵티컬 트래킹 시스템 110 : 기준 마커부
120 : 형상 측정부 130 : 트래킹 센서부
140 : 처리부 150 : 시술도구

Claims (15)

  1. 환자에 대한 시술 이전에 미리 획득된 3차원 영상을 이용하여 환자나 상기 환자를 시술하기 위한 시술도구를 트래킹하기 위한 옵티컬 트래킹 시스템(optical tracking system)에 있어서,
    상기 환자에 상대적으로 고정 배치된 기준 마커(marker)부;
    상기 3차원 영상에 대응하는 상기 환자의 소정 부위에 대하여 3차원 형상을 측정하는 형상 측정부;
    상기 기준 마커부 및 상기 형상 측정부를 각각 트래킹할 수 있도록 상기 기준 마커부 및 상기 형상 측정부를 센싱(sensing)하는 트래킹 센서부; 및
    상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 소정 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하여, 상기 획득된 좌표변환관계들로부터 상기 기준 마커부에 대해 상대적인 상기 환자의 좌표계를 정의하는 처리부를 포함하는 옵티컬 트래킹 시스템.
  2. 제1항에 있어서,
    상기 형상 측정부는, 상기 3차원 영상에 대응하는 상기 환자의 소정 부위에 대하여 3차원 형상을 측정하는 측정장치 및 상기 측정장치에 설치된 마커를 포함하고,
    상기 트래킹 센서부는 상기 형상 측정부의 마커를 센싱하며,
    상기 처리부는,
    상기 형상 측정부의 마커와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부의 상기 측정장치와 상기 마커 사이의 좌표변환관계를 획득하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  3. 제2항에 있어서,
    상기 좌표변환관계들은 좌표변환행렬로 표현되고,
    상기 처리부는 하기 수학식에 의해 상기 기준 마커부에 대해 상대적인 상기 환자의 좌표계를 정의하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
    Figure pat00017

    (PR은 상기 기준 마커부에 대한 상기 환자의 좌표변환행렬, T1은 상기 트래킹 센서부에 대한 상기 기준 마커부의 좌표변환행렬, T2는 상기 트래킹 센서부에 대한 상기 형상 측정부의 마커의 좌표변환행렬, T3는 상기 형상 측정부의 마커에 대한 측정장치의 좌표변환행렬, T4는 상기 형상 측정부의 측정장치에 대한 상기 환자의 좌표변환행렬)
  4. 제3항에 있어서,
    상기 트래킹 센서부는 상기 트래킹 센서부에 대한 상기 기준 마커부의 좌표변환행렬(T1) 및 상기 트래킹 센서부에 대한 상기 형상 측정부의 마커의 좌표변환행렬(T2)을 획득하기 위한 정보를 측정하고,
    상기 형상 측정부는 상기 형상 측정부의 측정장치에 대한 상기 환자의 좌표변환행렬(T4)을 획득하기 위한 정보를 측정하며,
    상기 처리부는 상기 측정된 정보들을 이용하여 상기 좌표변환행렬들(T1, T2, T4)을 획득하고, 상기 획득된 좌표변환행렬들(T1, T2, T4)로부터 상기 형상측정부의 마커에 대한 측정장치의 좌표변환행렬(T3) 및 상기 기준 마커부에 대한 상기 환자의 좌표변환행렬(PR)을 산출하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  5. 제4항에 있어서,
    상기 트래킹 센서부 및 상기 형상 측정부의 측정은 2회 이상 수행되는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  6. 제1항에 있어서,
    상기 처리부는 상기 환자에 대한 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 기준 마커부에 대해 상대적으로 정의된 상기 환자의 좌표계를 상기 형상 측정부에서 측정된 3차원 형상을 기초로 정합하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  7. 제6항에 있어서,
    마커를 포함하고, 상기 환자를 시술하기 위한 시술도구를 더 포함하고,
    상기 트래킹 센서부는 상기 시술도구의 마커를 트래킹할 수 있도록 상기 시술도구의 마커를 센싱하며,
    상기 처리부는 상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 시술도구의 마커와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 획득된 좌표변환관계들 및 상기 기준 마커부에 대해 상대적으로 정의된 상기 환자의 좌표계를 이용하여 상기 환자에 대해 상대적인 상기 시술도구의 좌표계를 정의하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  8. 제7항에 있어서,
    상기 처리부는, 상기 환자에 대한 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 환자에 대해 상대적으로 정의된 상기 시술도구의 좌표계를, 상기 3차원 영상의 좌표계 및 상기 환자의 좌표계의 정합 결과를 기초로 정합하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  9. 제1항에 있어서,
    상기 처리부는, 상기 환자가 움직이는 경우 자동 또는 수동으로 상기 환자의 좌표계를 재정의하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  10. 환자에 대한 시술 이전에 상기 환자의 3차원 영상을 획득하는 단계;
    상기 환자에 상대적으로 고정 배치된 기준 마커부 및 상기 3차원 영상에 대응하는 상기 환자의 소정 부위에 대하여 3차원 형상을 측정하는 형상 측정부를 트래킹 센서부에 의해 센싱하는 단계; 및
    상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 소정 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하는 단계; 및
    상기 획득된 좌표변환관계들로부터 상기 기준 마커부에 대해 상대적인 상기 환자의 좌표계를 정의하는 단계를 포함하는 옵티컬 트래킹 시스템의 좌표계 정합 방법.
  11. 제10항에 있어서,
    상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 환자의 소정 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하는 단계는,
    상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부의 마커와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하는 단계;
    상기 형상 측정부의 상기 측정장치와 상기 마커 사이의 좌표변환관계를 획득하는 단계; 및
    상기 환자와 상기 형상 측정부의 상기 측정장치 사이의 좌표변환관계를 획득하는 단계를 포함하는 것을 특징으로 하는 옵티컬 트래킹 시스템의 좌표계 정합 방법.
  12. 제10항에 있어서,
    상기 획득된 좌표변환관계들로부터 상기 기준 마커부에 대해 상대적인 상기 환자의 좌표계를 정의하는 단계 이후에,
    상기 획득된 3차원 영상의 좌표계 및 상기 정의된 상기 환자의 좌표계를 상기 형상 측정부에서 측정된 3차원 형상을 기초로 정합하는 단계를 더 포함하는 것을 특징으로 하는 옵티컬 트래킹 시스템의 좌표계 정합 방법.
  13. 제12항에 있어서,
    상기 획득된 3차원 영상의 좌표계 및 상기 정의된 상기 환자의 좌표계를 정합하는 단계 이후에,
    상기 환자를 시술하기 위한 시술도구의 마커를 센싱하는 단계;
    상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 시술도구의 마커와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하는 단계; 및
    상기 획득된 좌표변환관계들 및 상기 기준 마커부에 대해 상대적으로 정의된 상기 환자의 좌표계를 이용하여 상기 환자에 대해 상대적인 상기 시술도구의 좌표계를 정의하는 단계를 더 포함하는 것을 특징으로 하는 옵티컬 트래킹 시스템의 좌표계 정합 방법.
  14. 제13항에 있어서,
    상기 환자에 대해 상대적인 상기 시술도구의 좌표계를 정의하는 단계 이후에,
    상기 획득된 3차원 영상의 좌표계 및 상기 정의된 상기 시술도구의 좌표계를 상기 3차원 영상의 좌표계 및 상기 환자의 좌표계의 정합 결과를 기초로 정합하는 단계를 더 포함하는 것을 특징으로 하는 옵티컬 트래킹 시스템의 좌표계 정합 방법.
  15. 제10항에 있어서,
    상기 환자가 움직이는 경우,
    상기 환자에 상대적으로 고정 배치된 기준 마커부 및 상기 3차원 영상에 대응하는 상기 환자의 소정 부위에 대하여 3차원 형상을 측정하는 형상 측정부를 트래킹 센서부에 의해 센싱하는 단계 이하는 반복 수행되는 것을 특징으로 하는 옵티컬 트래킹 시스템의 좌표계 정합 방법.
KR1020140125204A 2014-09-19 2014-09-19 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법 KR101638477B1 (ko)

Priority Applications (9)

Application Number Priority Date Filing Date Title
KR1020140125204A KR101638477B1 (ko) 2014-09-19 2014-09-19 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법
JP2017515177A JP6475324B2 (ja) 2014-09-19 2015-09-18 オプティカルトラッキングシステム及びオプティカルトラッキングシステムの座標系整合方法
US15/512,273 US11206998B2 (en) 2014-09-19 2015-09-18 Optical tracking system for tracking a patient and a surgical instrument with a reference marker and shape measurement device via coordinate transformation
EP15843042.1A EP3195823B1 (en) 2014-09-19 2015-09-18 Optical tracking system
CN201580050352.0A CN107072720B (zh) 2014-09-19 2015-09-18 光学跟踪系统及光学跟踪系统的坐标系整合方法
PCT/KR2015/009842 WO2016043560A1 (ko) 2014-09-19 2015-09-18 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법
EP21211617.2A EP3998035A3 (en) 2014-09-19 2015-09-18 Optical tracking system and coordinate registration method for optical tracking system
CN202011202615.4A CN112562094A (zh) 2014-09-19 2015-09-18 光学跟踪系统及光学跟踪系统的坐标系整合方法
US17/534,696 US20220079465A1 (en) 2014-09-19 2021-11-24 Optical tracking system and coordinate registration method for optical tracking system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140125204A KR101638477B1 (ko) 2014-09-19 2014-09-19 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법

Publications (2)

Publication Number Publication Date
KR20160034104A true KR20160034104A (ko) 2016-03-29
KR101638477B1 KR101638477B1 (ko) 2016-07-11

Family

ID=55533522

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140125204A KR101638477B1 (ko) 2014-09-19 2014-09-19 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법

Country Status (6)

Country Link
US (2) US11206998B2 (ko)
EP (2) EP3195823B1 (ko)
JP (1) JP6475324B2 (ko)
KR (1) KR101638477B1 (ko)
CN (2) CN112562094A (ko)
WO (1) WO2016043560A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018030781A1 (ko) * 2016-08-10 2018-02-15 주식회사 고영테크놀러지 3차원 데이터 정합 장치 및 방법
KR20180044241A (ko) * 2018-04-04 2018-05-02 주식회사 고영테크놀러지 정위수술용 수술로봇 시스템
KR101843992B1 (ko) * 2017-11-30 2018-05-14 재단법인 구미전자정보기술원 중재적 심장 수술을 위한 증강 현실 기반의 캐뉼라 가이드 시스템 및 그 방법
US10548681B2 (en) 2016-08-16 2020-02-04 Koh Young Technology Inc. Surgical robot system for stereotactic surgery and method for controlling stereotactic surgery robot
KR20200109489A (ko) * 2019-03-13 2020-09-23 큐렉소 주식회사 C-arm 기반의 의료영상 시스템 및 2D 이미지와 3D 공간의 정합방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11596369B2 (en) * 2016-05-03 2023-03-07 Daegu Gyeongbuk Institute Of Science And Technology Navigation system for vascular intervention and method for generating virtual x-ray image
CN107714060B (zh) * 2016-08-11 2020-09-22 上海联影医疗科技有限公司 X射线成像设备
JP7001371B2 (ja) 2016-06-13 2022-01-19 シャンハイ ユナイティッド イメージング ヘルスケア カンパニー リミティッド X線スキャナの位置決めシステム及び方法
CN112641512B (zh) * 2020-12-08 2023-11-10 北京信息科技大学 一种应用于手术机器人前规划的空间配准方法
CN117323007A (zh) * 2021-11-11 2024-01-02 北京歌锐科技有限公司 一种患者手术位置的跟踪方法、设备及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100961661B1 (ko) * 2009-02-12 2010-06-09 주식회사 래보 수술용 항법 장치 및 그 방법
KR101049507B1 (ko) * 2009-02-27 2011-07-15 한국과학기술원 영상유도수술시스템 및 그 제어방법
KR20120035021A (ko) * 2010-10-04 2012-04-13 한국과학기술연구원 수술 도구의 3차원 추적 시스템 및 이를 이용한 위치 감지 방법
KR20140088167A (ko) * 2011-10-28 2014-07-09 내비게이트 써지컬 테크놀로지, 인크. 수술 위치 모니터링 시스템 및 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7831295B2 (en) * 2003-06-05 2010-11-09 Aesculap Ag & Co. Kg Localization device cross check
US7463823B2 (en) * 2003-07-24 2008-12-09 Brainlab Ag Stereoscopic visualization device for patient image data and video images
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
ES2388930T3 (es) * 2005-08-01 2012-10-19 Resonant Medical Inc. Sistema y método para detectar desviaciones en los sistemas de localización calibrados
JP4836122B2 (ja) * 2006-02-09 2011-12-14 国立大学法人浜松医科大学 手術支援装置、方法及びプログラム
EP1857070A1 (de) * 2006-05-18 2007-11-21 BrainLAB AG Kontaktfreie medizintechnische Registrierung mit Distanzmessung
CN100536792C (zh) 2007-03-28 2009-09-09 新奥博为技术有限公司 一种支持多种模式的导航系统及导航方法
WO2011134083A1 (en) * 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
US8900126B2 (en) 2011-03-23 2014-12-02 United Sciences, Llc Optical scanning device
US9554763B2 (en) 2011-10-28 2017-01-31 Navigate Surgical Technologies, Inc. Soft body automatic registration and surgical monitoring system
US8938282B2 (en) 2011-10-28 2015-01-20 Navigate Surgical Technologies, Inc. Surgical location monitoring system and method with automatic registration
US20140228675A1 (en) 2011-10-28 2014-08-14 Navigate Surgical Technologies, Inc. Surgical location monitoring system and method
US20130131505A1 (en) 2011-10-28 2013-05-23 Navident Technologies, Inc. Surgical location monitoring system and method using skin applied fiducial reference
DE102012220115A1 (de) 2012-11-05 2014-05-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildgebendes System, Operationsvorrichtung mit dem bildgebenden System und Verfahren zur Bildgebung
CN102999902B (zh) * 2012-11-13 2016-12-21 上海交通大学医学院附属瑞金医院 基于ct配准结果的光学导航定位导航方法
KR101371384B1 (ko) 2013-01-10 2014-03-07 경북대학교 산학협력단 트랙킹 시스템 및 이를 이용한 트랙킹 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100961661B1 (ko) * 2009-02-12 2010-06-09 주식회사 래보 수술용 항법 장치 및 그 방법
KR101049507B1 (ko) * 2009-02-27 2011-07-15 한국과학기술원 영상유도수술시스템 및 그 제어방법
KR20120035021A (ko) * 2010-10-04 2012-04-13 한국과학기술연구원 수술 도구의 3차원 추적 시스템 및 이를 이용한 위치 감지 방법
KR20140088167A (ko) * 2011-10-28 2014-07-09 내비게이트 써지컬 테크놀로지, 인크. 수술 위치 모니터링 시스템 및 방법

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018030781A1 (ko) * 2016-08-10 2018-02-15 주식회사 고영테크놀러지 3차원 데이터 정합 장치 및 방법
US11481867B2 (en) 2016-08-10 2022-10-25 Koh Young Technology Inc. Device and method for registering three-dimensional data
US10548681B2 (en) 2016-08-16 2020-02-04 Koh Young Technology Inc. Surgical robot system for stereotactic surgery and method for controlling stereotactic surgery robot
US11179219B2 (en) 2016-08-16 2021-11-23 Koh Young Technology Inc. Surgical robot system for stereotactic surgery and method for controlling stereotactic surgery robot
KR101843992B1 (ko) * 2017-11-30 2018-05-14 재단법인 구미전자정보기술원 중재적 심장 수술을 위한 증강 현실 기반의 캐뉼라 가이드 시스템 및 그 방법
KR20180044241A (ko) * 2018-04-04 2018-05-02 주식회사 고영테크놀러지 정위수술용 수술로봇 시스템
KR20200109489A (ko) * 2019-03-13 2020-09-23 큐렉소 주식회사 C-arm 기반의 의료영상 시스템 및 2D 이미지와 3D 공간의 정합방법
WO2020185048A3 (ko) * 2019-03-13 2020-10-29 큐렉소 주식회사 C-arm 기반의 의료영상 시스템 및 2d 이미지와 3d 공간의 정합방법
US11337763B2 (en) 2019-03-13 2022-05-24 Curexo, Inc. C-arm-based medical imaging system, and method for matching 2D image and 3D space

Also Published As

Publication number Publication date
US20170273595A1 (en) 2017-09-28
JP6475324B2 (ja) 2019-02-27
US20220079465A1 (en) 2022-03-17
WO2016043560A1 (ko) 2016-03-24
EP3195823A4 (en) 2017-09-20
US11206998B2 (en) 2021-12-28
EP3998035A2 (en) 2022-05-18
EP3998035A3 (en) 2022-07-27
JP2017535308A (ja) 2017-11-30
KR101638477B1 (ko) 2016-07-11
CN107072720A (zh) 2017-08-18
CN107072720B (zh) 2020-11-20
EP3195823A1 (en) 2017-07-26
EP3195823B1 (en) 2022-01-12
CN112562094A (zh) 2021-03-26

Similar Documents

Publication Publication Date Title
KR101638477B1 (ko) 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법
EP2953569B1 (en) Tracking apparatus for tracking an object with respect to a body
CN110325141B (zh) 影像整合装置及影像整合方法
JP6828047B2 (ja) 画像誘導手術における透視撮像システムの姿勢推定及び較正のシステム及び方法
KR101650821B1 (ko) 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법
US6259943B1 (en) Frameless to frame-based registration system
DK2061556T3 (en) PROCEDURE AND APPARATUS TO CORRECT A ERROR IN THE CO-REGISTRATION OF COORDINATE SYSTEMS USED TO REPRESENT OBJECTS UNDER NAVIGATED BRAIN STIMULATION
US8131031B2 (en) Systems and methods for inferred patient annotation
US20080119725A1 (en) Systems and Methods for Visual Verification of CT Registration and Feedback
JP6740316B2 (ja) X線透視装置の放射線フリー位置較正
US20190117317A1 (en) Organ motion compensation
JP2021510107A (ja) 超音波画像データの三次元撮像およびモデリング
JP4717683B2 (ja) 医用画像表示装置
CN105105846B (zh) 一种用来精确引导对一病患进行外科手术的系统
CN117425447A (zh) 用于超声引导置针的医疗机器人
CN114732518A (zh) 用于单个图像配准更新的系统和方法
KR101592444B1 (ko) 투명디스플레이를 이용한 의료용 영상증강 장치 및 구현 방법
JP2009279209A (ja) 術具誘導手術支援装置
CN113164206A (zh) 用于成像装置的空间配准方法
JP2005312698A (ja) 核磁気共鳴撮像装置
CN115861163A (zh) 结果图像数据的提供
Schermeier et al. Medicine Meets Virtual Reality 02/10 461 JD Westwood et al.(Eds.) IOS Press, 2002

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant