KR101371387B1 - 트랙킹 시스템 및 이를 이용한 트랙킹 방법 - Google Patents

트랙킹 시스템 및 이를 이용한 트랙킹 방법 Download PDF

Info

Publication number
KR101371387B1
KR101371387B1 KR1020130005807A KR20130005807A KR101371387B1 KR 101371387 B1 KR101371387 B1 KR 101371387B1 KR 1020130005807 A KR1020130005807 A KR 1020130005807A KR 20130005807 A KR20130005807 A KR 20130005807A KR 101371387 B1 KR101371387 B1 KR 101371387B1
Authority
KR
South Korea
Prior art keywords
markers
lens array
array unit
marker
lenses
Prior art date
Application number
KR1020130005807A
Other languages
English (en)
Inventor
홍종규
이현기
정재헌
김민영
Original Assignee
경북대학교 산학협력단
주식회사 고영테크놀러지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단, 주식회사 고영테크놀러지 filed Critical 경북대학교 산학협력단
Priority to KR1020130005807A priority Critical patent/KR101371387B1/ko
Priority to CN201480004953.3A priority patent/CN104936547A/zh
Priority to PCT/KR2014/000426 priority patent/WO2014112782A1/ko
Priority to JP2015553651A priority patent/JP2016515837A/ja
Priority to EP14740207.7A priority patent/EP2946741A4/en
Priority to US14/372,307 priority patent/US20160270860A1/en
Application granted granted Critical
Publication of KR101371387B1 publication Critical patent/KR101371387B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition

Abstract

한 대의 결상 유닛만으로도 각각의 마커들의 3차원 좌표를 산출할 수 있도록 하여 제작비용의 감소와 더불어 장비의 컴팩트화를 실현하여 수술 공간의 제약을 최소화할 수 있는 트랙킹 시스템 및 이를 이용한 트랙킹 방법이 개시된다. 상기 트랙킹 시스템 및 이를 이용한 트랙킹 방법은 각각의 마커들로부터 방출되는 광이 적어도 한 쌍의 렌즈를 구비한 렌즈 어레이 유닛을 통과하여 결상 유닛에 각 마커 당 상기 렌즈 어레이 유닛에 구비된 렌즈의 개수와 상응하는 수의 마커 영상이 결상됨으로써 한 대의 결상 유닛만으로도 삼각법을 통해 상기 마커들의 3차원 좌표를 산출하여 목적물의 공간 위치와 방향을 산출하여 확인할 수 있으므로 트랙킹 시스템의 제작비용의 절감과 더불어 소형 경량화를 이룰 수 있으므로 종래의 트랙킹 시스템에 비하여 수술 공간의 제약을 상대적으로 덜 받는다는 효과가 있다.

Description

트랙킹 시스템 및 이를 이용한 트랙킹 방법{TRACKING SYSTEM AND METHOD FOR TRACKING USING THE SAME}
본 발명은 트랙킹 시스템 및 이를 이용한 트랙킹 방법에 관한 것으로, 보다 상세하게는 환부의 수술도구와 같은 목적물에 부착된 마커들의 좌표를 추적하여 목적물의 공간 위치 정보와 방향 정보를 검출하는 수술용 트랙킹 시스템 및 이를 이용한 트랙킹 방법에 관한 것이다.
최근에는 복강경 수술이나 이비인후과 수술을 할 시 보다 환자의 고통을 덜어주고 보다 빠르게 환자가 회복할 수 있도록 하기 위한 로봇 수술이 연구 및 도입되고 있는 실정이다.
이러한, 로봇 수술 시에는 수술의 위험을 최소화하고 보다 정밀한 수술을 진행할 수 있도록 하기 위하여 환부나 수술도구와 같은 목적물의 공간 위치와 방향을 정확히 추적하여 검출한 후 상기 수술도구를 환자의 환부로 정확히 조종(NAVIGATE)할 수 있는 내비게이션이 사용된다.
상기와 같은 수술용 내비게이션에는 상술한 바와 같이 환부나 수술도구와 같은 목적물의 공간 위치와 방향을 정확히 추적하여 검출할 수 있는 트랙킹 시스템이 포함된다.
상기와 같은 트랙킹 시스템은 통상 환부나 수술도구와 같은 목적물에 부착되는 마커들과, 상기 마커들에 의해 방출되는 광을 결상시키는 제1, 2 결상 유닛과, 상기 제1, 2 결상 유닛과 연결되어 상기 마커들의 3차와 좌표를 산출한 후 기 저장된 상기 서로 이웃하는 마커들을 연결하는 직선들의 정보와 서로 이웃하는 한 쌍의 직선이 이루는 각도 정보를 상기 마커들의 3차원 좌표와 비교하여 상기 목적물의 공간 위치와 방향을 산출하는 프로세서를 포함한다.
여기서, 상기 마커들의 3차원 좌표를 프로세서를 통해 산출하기 위해서는 통상적으로 하나의 마커로부터 방출되어 제1 결상 유닛에 결상된 상기 마커의 좌표와 상기 제2 결상 유닛에 결상된 상기 마커의 좌표가 동일하다는 가정 하에 삼각법을 통해 상기 프로세서에 의해 검출됨으로써 각각의 마커의 3차원 좌표가 프로세서를 통해 산출되기 위해서는 반드시 2대의 디텍터가 필요하였다.
따라서, 종래의 일반적인 트랙킹 시스템은 서로 다른 위치에서 각각의 마커들로부터 방출되는 광을 결상시키기 위한 2대의 결상 유닛을 구비해야만 함으로써 제작비용의 상승과 더불어 시스템 전체 사이즈가 커지게 됨으로써 수술 공간의 제약을 많이 받는다는 문제점이 있었다.
따라서, 본 발명의 목적은 한 대의 결상 유닛만으로도 각각의 마커들의 3차원 좌표를 산출할 수 있도록 하여 제작비용의 감소와 더불어 장비의 컴팩트화를 실현하여 수술 공간의 제약을 최소화할 수 있는 트랙킹 시스템 및 이를 이용한 트랙킹 방법에 관한 것이다.
본 발명의 일실시예에 의한 트랙킹 시스템은 목적물에 부착되어 광을 방출하는 적어도 3개의 마커와, 상기 마커들로부터 방출되는 광을 통과시키는 적어도 두개의 렌즈가 소정 간격으로 배열된 렌즈 어레이 유닛과, 상기 마커들로부터 방출되어 상기 렌즈 어레이 유닛의 각 렌즈를 통과한 광을 받아 들여 마커 당 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 수의 상을 결상시키는 결상 유닛 및, 상기 결상 유닛에 마커 당 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 수만큼 결상된 마커 영상을 이용하여 상기 각각의 마커들의 3차원 좌표를 산출한 후 상기 마커들의 3차원 좌표와 기 저장된 서로 이웃하는 마커들 간의 기하학적 정보를 비교하여 상기 목적물의 공간 위치와 방향을 산출하는 프로세서를 포함한다.
일예를 들면, 상기 마커들은 자체에서 광을 방출하는 액티브 마커일 수 있다.
한편, 상기 렌즈 어레이 유닛 측에서부터 상기 마커들로 광을 방출하는 적어도 하나의 광원을 더 포함할 수 있으며, 이 경우에 상기 마커들은 상기 광원으로부터 방출된 광을 상기 렌즈 어레이 유닛 측으로 반사시키는 패시브 마커일 수 있다.
일예를 들면, 상기 결상 유닛은 상기 마커들로부터 방출되어 상기 렌즈 어레이 유닛의 각각의 렌즈를 통과한 광을 받아 들여 마커 당 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 적어도 두 개의 상을 결상시키는 카메라일 수 있다.
일예를 들면, 상기 마커들 간의 기하학적 정보는 상기 서로 이웃하는 마커들을 연결하는 직선들의 길이 정보와, 상기 서로 이웃하는 한 쌍의 직선이 이루는 각도 정보일 수 있다.
본 발명의 일실시예에 의한 트랙킹 방법은 목적물에 부착된 적어도 3개의 마커들로부터 광을 방출하는 단계와, 상기 마커들로부터 방출된 광이 렌즈 어레이 유닛의 적어도 두 개의 렌즈를 통과하여 결상 유닛에 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 수의 상을 결상시키는 단계와, 상기 결상 유닛에 마커 당 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 수만큼 결상된 마커 영상을 이용하여 프로세서를 통해 상기 각각의 마커들의 3차원 좌표를 산출하는 단계 및, 상기 각각의 마커들의 3차원 좌표와 상기 프로세서에 기 저장된 서로 이웃하는 마커들 간의 기하학적 정보를 비교하여 상기 목적물의 공간 위치와 방향을 산출하는 단계를 포함할 수 있다.
일예를 들면, 상기 마커들 간의 기하학적 정보는 상기 서로 이웃하는 마커들을 연결하는 직선들의 길이 정보와, 상기 서로 이웃하는 한 쌍의 직선이 이루는 각도 정보일 수 있다.
한편, 상기 마커들의 3차원 좌표를 산출하는 단계는 상기 프로세서를 통해 상기 결상 유닛에 결상된 마커 당 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 수의 마커 영상의 2차원 좌표를 산출하는 단계 및, 상기 마커당 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 수의 마커 영상의 2차원 좌표를 이용하여 상기 프로세서를 통해 상기 마커들의 3차원 좌표를 산출하는 단계를 포함할 수 있다.
일예를 들면, 상기 광을 방출하는 단계는, 상기 마커들이 자체적으로 발생시키는 광을 상기 렌즈 어레이 유닛 측으로 방출할 수 있다.
이와는 다르게, 상기 광을 방출하는 단계는, 적어도 하나의 광원으로부터 방출되는 광을 상기 마커들을 통해 렌즈 어레이 유닛 측으로 반사시켜 방출할 수도 있다.
한편, 상기 광원의 공간 위치와 방향은 상기 프로세서에 기 저장된다.
이와 같이 본 발명의 일실시예에 의한 트랙킹 시스템 및 이를 이용한 트랙킹 방법은, 각각의 마커들로부터 방출되는 광이 적어도 한 쌍의 렌즈를 구비한 렌즈 어레이 유닛을 통과하여 결상 유닛에 각 마커 당 상기 렌즈 어레이 유닛에 구비된 렌즈의 개수와 상응하는 수의 마커 영상이 결상됨으로써 한 대의 결상 유닛만으로도 삼각법을 통해 상기 마커들의 3차원 좌표를 산출하여 목적물의 공간 위치와 방향을 산출하여 확인할 수 있다
또한, 렌즈의 배열 방법 및 배울에 영향을 받지 않으므로, 트랙킹 시스템의 제작비용의 절감과 더불어 소형 경량화를 이룰 수 있으며, 종래의 트랙킹 시스템에 비하여 수술 공간의 제약을 상대적으로 덜 받는다는 효과가 있다.
도 1은 본 발명의 일실시예에 의한 트랙킹 시스템의 개략도
도 2는 마커들이 목적물에 부착된 예시도
도 3은 렌즈의 동일 광 경로 상에서 마커의 위치가 바뀔 시 마커의 영상이 결상되는 위치의 변화를 설명하기 위한 예시도
도 4는 본 발명의 일실시예에 의한 트랙킹 방법을 설명하기 위한 블록도
도 5는 마커들의 3차원 좌표를 산출하는 과정을 설명하기 위한 블록도
도 6은 결상 유닛의 이미지 센서를 제1, 2 마커 영상의 좌표계로 가상 분할한 예시도
도 7은 영상에서의 2차원 좌표와 실제 마커의 3차원 좌표와의 관계를 설명하기 위한 도면
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하 도면을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명한다.
본 발명의 일실시예에 의한 트랙킹 시스템 및 이를 이용한 트랙킹 방법은 환부나 수술도구와 같은 목적물에 적어도 3개의 마커들을 부착한 후 상기 마커들의 3차원 좌표를 산출하여 프로세서에 기 저장된 서로 이웃하는 마커들 간의 기하학적 정보와 상기 마커들의 3차원 좌표를 프로세서를 통해 비교하여 상기 환부나 수술도구와 같은 목적물의 공간 위치와 방향을 산출할 수 있도록 하는 것으로서, 그 상세한 구성에 대해서는 도면을 참조하여 설명한다.
도 1은 본 발명의 일실시예에 의한 트랙킹 시스템의 개략도이며, 도 2는 마커들이 목적물에 부착된 예시도이며, 도 3은 렌즈의 동일 광 경로 상에서 마커의 위치가 바뀔 시 마커의 영상이 결상되는 위치의 변화를 설명하기 위한 예시도이다.
도 1 내지 도 3을 참조하면, 본 발명의 일실시예에 의한 트랙킹 시스템(100)은 적어도 3개의 마커들(110)(111)(112), 렌즈 어레이 유닛(lens array unit : 120), 결상 유닛(130) 및, 프로세서(140)를 포함할 수 있으며, 이때, 렌즈 어레이 유닛(120)은 결상 유닛(130)에 장착되어 포함될 수도 있다.
상기 적어도 3개의 마커들(110)(111)(112)은 환부나 수술도구와 같은 목적물(200)에 부착된다. 여기서, 상기 적어도 3개의 마커들(110)(111)(112)은 서로 이웃하는 마커들(110)(111)(112) 간에 일정 간격 이격되며, 서로 이웃하는 마커들(110)(111)(112)을 가상으로 연결하여 각 마커 마다 이웃하는 한 쌍의 직선들(L1)(L2)(L3)이 일정한 각도(A1)(A2)(A3)를 이루도록 배치되어 상기 환부나 수술도구와 같은 목적물(200)에 부착된다.
여기서, 상기 서로 이웃하는 마커들(110)(111)(112) 간의 기하학적 정보, 즉 서로 이웃하는 마커들(110)(111)(112)을 연결하는 직선들(L1)(L2)(L3)의 길이 정보와 서로 이웃하는 마커들(110)(111)(112)을 연결하는 이웃하는 한 쌍의 직선들이 이루는 각도(A1)(A2)(A3) 정보는 상기 프로세서(140)에 실장된 메모리(memory : 141)에 기 저장된다.
예를 들면, 상기 마커들(110)(111)(112)은 3개가 환부나 수술도구와 같은 목적물(200)에 삼각형 형태로 부착될 수 있으며, 상기 3개의 마커들(110)(111)(112)을 꼭지점으로 하는 삼각형의 변을 이루는 각각의 직선(L1)(L2)(L3)의 길이 정보와, 상기 마커들(110)(111)(112)을 연결하는 서로 이웃하는 한 쌍의 직선이 이루는 각도(A1)(A2)(A3) 정보는 상기 프로세서(140)에 포함된 메모리(141)에 기 저장될 수 있다.
한편, 상기 마커들(110)(111)(112)은 자체적으로 광을 방출하는 액티브(active) 마커일 수 있다. 상술한 바와 같이 상기 마커들(110)(111)(112)을 액티브 마커로 사용할 경우에는 별도의 광원을 사용할 필요가 없다.
이와는 다르게, 상기 마커들(110)(111)(112)은 적어도 하나의 광원(150)으로부터 방출되는 광을 반사시키는 패시브(passive) 마커일 수 있다.
상술한 바와 같이 상기 마커들(110)(111)(112)을 패시브 마커로 사용할 경우에는 상기 마커들(110)(111)(112)로 광을 방출하는 적어도 하나의 광원(150)을 상기 렌즈 어레이 유닛(120)의 주변에 배치할 수 있다. 예를 들면, 한 쌍의 광원(150)이 상기 렌즈 어레이 유닛(120)의 양측에 배치될 수 있다. 여기서, 상기 광원(150)의 공간 위치와 방향은 프로세서(140)에 실장된 메모리(141)에 기 저장된다.
상기 렌즈 어레이 유닛(120)은 결상 유닛(130)의 전방부에 배치된다. 이와 같은 상기 렌즈 어레이 유닛(120)은 상기 마커들(110)(111)(112)로부터 방출되는 광을 통과시키는 적어도 한 쌍의 렌즈(121)(122)가 소정 간격으로 배열되어 형성된다. 예를 들면, 상기 렌즈 어레이 유닛(120)은 제1 렌즈(121)와 제2 렌즈(122)가 소정 간격으로 배열되어 형성될 수 있다. 도면에는 상기 제1, 2 렌즈(121)(122)가 소정 간격으로 배열된 렌즈 어레이 유닛(120)이 도시되었으나, 상기 렌즈 어레이 유닛(120)은 3개 이상의 렌즈가 소정간격으로 배열되어 형성될 수도 있다.
상기 결상 유닛(130)은 상기 마커들(110)(111)(112)로부터 방출되어 상기 렌즈 어레이 유닛(120)의 각각의 렌즈(121)(122)를 통과한 광을 받아 들여 마커 당 상기 렌즈 어레이 유닛(120)의 렌즈 개수와 상응하는 수의 상을 결상시킨다.
보다 상세하게 설명하면, 상기 렌즈 어레이 유닛(120)에 제1, 2 렌즈(121)(122)가 소정간격으로 배치될 경우에는, 상기 결상 유닛(130)은 상기 마커들(110)(111)(112)로부터 방출되어 상기 제1, 2 렌즈(121)(122)를 통과한 광을 받아 들여 마커 당 한 쌍의 마커 영상을 결상시킨다.
예를 들면, 상기 결상 유닛(130)은 상기 마커들(110)(111)(112)로부터 방출되어 상기 렌즈 어레이 유닛(120)의 각각의 렌즈(121)(122)를 통과한 광을 받아 들여 마커 당 상기 렌즈 어레이 유닛(120)의 렌즈(121)(122) 개수와 상응하는 수의 상을 결상시키는 이미지 센서(131)가 실장된 카메라일 수 있다.
상기 프로세서(140)는 마커 당 상기 렌즈 어레이 유닛(120)의 렌즈(121)(122) 개수와 상응하는 수만큼 결상된 마커 영상을 이용하여 상기 각각의 마커들(110)(111)(112)의 3차원 좌표를 산출하며, 상기 마커들(110)(111)(112)의 3차원 좌표를 기 저장된 서로 이웃하는 마커들(110)(111)(112) 간의 기하학적 정보와 비교함으로써 마커들(110)(120)(130)이 부착된 환부나 수술도구와 같은 상기 목적물(200)의 공간 위치와 방향을 산출한다.
여기서, 상기 프로세서(140)에는 메모리(141)가 실장된다. 한편, 상기 프로세서(140)에 실장된 메모리(141)에는 상기 서로 이웃하는 마커들(110)(111)(112) 간의 기하학적 정보, 즉 서로 이웃하는 마커들(110)(111)(112)을 연결하는 직선들(L1)(L2)(L3)의 길이 정보와 서로 이웃하는 마커들(110)(111)(112)을 연결하는 이웃하는 한 쌍의 직선들이 이루는 각도(A1)(A2)(A3) 정보가 기 저장될 수 있다.
이에 더하여, 상기 마커들(110)(111)(112)이 패시브 마커일 경우에는 상기 프로세서(140)에 실장된 메모리(141)에는 상기 적어도 한 쌍의 광원(150)의 공간 위치와 방향이 기 저장될 수 있다.
상술한 바와 같이 본 발명의 일실시예에 의한 트랙킹 시스템(100)은 적어도 한 쌍의 렌즈(121)(122)가 소정간격으로 배열된 렌즈 어레이 유닛(120)을 사용하여 상기 마커들(110)(111)(112)로부터 방출되는 광이 적어도 한 쌍의 렌즈(121)(122)를 통과하여 마커 당 적어도 한 쌍의 마커 영상이 상기 결상 유닛에 결상되도록 함으로써 한 대의 결상 유닛(130)만을 사용하고도 각각의 마커들의 3차원 좌표를 산출할 수 있는 장점이 있다.
예를 들면, 도 3에 도시된 바와 같이 렌즈(131)의 동일 광 축(AX) 상에서 마커(110)(111)(112)의 위치가 바뀔 시에는 제2 렌즈(122) 영상이 결상되는 이미지 센서(133)의 위치는 변경되지 않지만 제1 렌즈(121) 영상이 이미지 센서(133)의 위치는 변경됨으로써 한 대의 결상 유닛만을 사용하고도 각각의 마커들(110)(111)(112)의 3차원 좌표를 삼각법을 이용하여 산출할 수 있다.
도 1 내지 도 7을 참조하여 본 발명의 일실시예에 의한 트랙킹 시스템을 이용하여 목적물의 공간 위치와 방향을 트랙킹하는 과정에 대하여 설명한다.
도 4는 본 발명의 일실시예에 의한 트랙킹 방법을 설명하기 위한 블록도이며, 도 5는 마커들의 3차원 좌표를 산출하는 과정을 설명하기 위한 블록도이고, 도 6은 결상 유닛의 이미지 센서를 제1, 2 마커 영상의 좌표계로 가상 분할한 예시도이며, 도 7은 영상에서의 2차원 좌표와 실제 마커의 3차원 좌표와의 관계를 설명하기 위한 도면이다.
도 1 내지 도 7을 참조하면, 본 발명의 일실시예에 의한 트랙킹 시스템을 이용하여 목적물(200)의 공간 위치와 방향을 트랙킹 하기 위해서는, 먼저 목적물(200)에 부착된 적어도 3개의 마커들(110)(111)(112)을 활성화시켜 상기 마커들(110)(111)(112)로부터 광이 방출되도록 하거나, 적어도 하나의 광원(150)을 작동시켜 상기 광원(150)으로부터 상기 목적물(200)에 부착된 적어도 3개의 마커들(110)(111)(112)에 광을 조사하여 상기 마커들(110)(111)(112)에 의해 광이 반사되어 방출되도록 한다.(S110)
보다 상세하게 설명하면, 상기 목적물(200) 자체에서 광을 방출하는 적어도 3개의 액티브 마커들(110)(111)(112)이 부착되었을 경우에는 상기 마커들(110)(111)(112)을 활성화시켜 상기 마커들(110)(111)(112)로부터 광이 방출되도록 한다. 이와는 다르게 상기 목적물(200)에 자체적으로 광을 방출하지 못하는 적어도 3개의 패시브 마커들(110)(111)(112)이 부착되었을 경우에는 적어도 하나의 광원(150)을 작동시켜 상기 광원(150)으로부터 상기 목적물(200)에 부착된 적어도 3개의 패시브 마커들(110)(111)(112)에 광을 조사하여 상기 패시브 마커들(110)(111)(112)에 의해 광이 반사되어 방출되도록 한다.
상기 적어도 3개의 마커들(110)(111)(112)로부터 방출된 광은 렌즈 어레이 유닛(120)의 각각의 렌즈(121)(122)를 통과하여 상기 렌즈 어레이 유닛(120)의 렌즈 개수와 상응하는 수의 상을 결상 유닛(130)에 결상시킨다.(S120)
예를 들면, 도 1에 도시된 바와 같이 한 쌍의 제1, 2 렌즈(121)(122)가 소정 간격으로 배치된 렌즈 어레이 유닛(120)을 사용하게 될 경우에는, 제1 마커(110)로부터 방출된 광은 제1 광축(AX1)과 제2 광축(AX2)을 통해 각각 제1 렌즈(121)와 제2 렌즈(122)를 통과하여 결상 유닛(130)에 한 쌍의 제1 마커 영상이 결상되며, 제2 마커(111)로부터 방출된 광은 제3 광축(AX3)과 제4 광축(AX4)을 통해 각각 제1 렌즈(121)와 제2 렌즈(122)를 통과하여 결상 유닛(130)에 한 쌍의 제2 마커 영상이 결상되고, 제3 마커(112)로부터 방출된 광은 제5 광축(AX5)과 제6 광축(AX6)을 통해 각각 제1 렌즈(121)와 제2 렌즈(122)를 통과하여 결상 유닛(130)에 한 쌍의 제3 마커 영상이 결상된다.
즉, 한 쌍의 제1, 2 렌즈(121)(122)가 소정 간격으로 배열된 렌즈 어레이 유닛(120)을 사용함으로써 상기 결상 유닛(130)에 각각의 마커(110)(111)(112) 당 한 쌍의 마커 영상이 결상되는 것이다.
상기 각각의 마커(110)(111)(112) 당 상기 렌즈 어레이 유닛(120)의 렌즈(121)(122) 개수와 상응하는 수의 마커 영상이 결상 유닛(130)에 결상되면, 상기 결상 유닛(130)에 마커 당 상기 렌즈 어레이 유닛(120)의 렌즈(121)(122) 개수와 상응하는 수만큼 결상된 마커 영상을 이용하여 프로세서(140)를 통해 상기 각각의 마커들(110)(111)(112)의 3차원 좌표를 산출한다.(S130)
상기 각각의 마커들(110)(111)(112)의 3차원 좌표를 산출하는 단계에 대하여 도 5에 도시한 블록도를 토대로 상세하게 설명하면 다음과 같다. 설명의 편의를 위하여 제1, 2 렌즈(121)(122)가 소정 간격으로 배열된 렌즈 어레이 유닛(120)을 사용할 경우를 예를 들어 설명한다.
상기 각각의 마커들(110)(111)(112)의 3차원 좌표를 산출하기 위해서는, 먼저 상기 프로세서(140)를 통해 상기 결상 유닛(130)에 결상된 각각의 마커들(110)(111)(112) 한 쌍의 마커 영상에 대한 2차원 좌표를 산출한다.(S131)
여기서, 상기 마커들(110)(111)(112)의 2차원 좌표를 산출한 다음에는, 각 좌표계 별(제1 렌즈 영상 FOV(FIELD OF VIEW)와 제2 렌즈 영상 FOV별)로 결상 유닛(130)의 카메라 캘리브레이션(calibration)을 수행하게 된다.(S132)
상기와 같이 각 좌표계 별로 상기 결상 유닛(130)의 카메라 캘리브레이션을 수행한 다음에는, 상기 각각의 마커(110)(111)(112) 당 한 쌍씩 결상된 마커 영상의 2차원 좌표를 이용하여 상기 프로세서(140)를 통해 상기 각각의 마커들(110)(111)(112)의 3차원 좌표를 산출한다.(S133)
상기 각각의 마커들(110)(111)(112)의 3차원 좌표를 산출하는 단계에 대하여 도 6 및 도 7을 참조하여 보다 상세하게 설명하면 다음과 같다.
도 6에 도시된 바와 같이 이미지 센서(133)의 일측을 제1 렌즈 영상의 FOV(FIELD OF VIEW), 타측을 제2 렌즈 영상의 FOV라고 가상으로 분할하고, 상기 이미지 센서(133)의 제1 렌즈 영상의 2차원 좌표를 (U,V) 좌표계로 표시하며, 상기 제2 렌즈 영상의 2차원 좌표를 (U', V')이라고 표시하고 도 7을 참조하면, 영상에서의 마커들(110)(111)(112)의 2차원 좌표와 실 공간에서의 마커들(110)(111)(112)의 3차원 좌표는 수학식 1과 같은 관계식으로 표현될 수 있다.
Figure 112013005128475-pat00001
여기서, m은 영상에서의 마커의 2차원 좌표이며, M은 실 공간에서의 마커의 3차원 좌표이고, A(R, t)는 카메라 매트릭스이다.
이를 보다 간략하게 설명하기 위하여, 실제 마커들(110)(111)(112)의 3차원 좌표를 X라 하면, 상기 실제 마커들(110)(111)(112)의 3차원 좌표(X)와 제1 렌즈를 통과한 영상에서 마커의 2차원 좌표(xL)의 관계식과, 상기 실제 마커들(110)(111)(112)의 3차원 좌표(X)와 제2 렌즈를 통과한 영상에서 마커의 2차원 좌표(xR)의 관계식은 수학식 2와 같이 표시할 수 있다.
Figure 112013005128475-pat00002
여기서, 상기 P1은 제1 렌즈를 통과한 영상의 카메라 매트릭스이며, P2는 제2 렌즈를 통과한 영상의 카메라 매트릭스이다.
그리고, 각각의 마커들(110)(111)(112)의 제1 렌즈를 통과한 영상과 제2 렌즈를 통과한 영상에 대해서 xL = P1X, xR = P2X 관계식은 AX = 0의 선형 방정식으로 표현이 가능하며, 이를 정리하면 수학식 3과 같이 나타낼 수 있다.
Figure 112013005128475-pat00003
여기서, PiT는 행렬 P의 행벡터이다.
위 식을 다시 정리하면, 수학식 4와 같이 나타낼 수 있다.
Figure 112013005128475-pat00004
여기서, W는 스케일 인자이다.
수학식 4와 같이 표현된 선형 방정식을 풀어 X, Y, Z를 구하면 그 해가 마커들(110)(111)(112)의 3차원 좌표가 된다.
도4 내지 도 5를 통해 상술한 바와 같이 프로세서(140)에 의해 각각의 마커들(110)(111)(112)의 실 공간에서의 3차원 좌표를 산출한 다음에는, 상기 각각의 마커들(110)(111)(112)의 실 공간에서의 3차원 좌표와 상기 프로세서(140)에 기 저장된 서로 이웃하는 마커들(110)(111)(112) 간의 기하학적 정보를 프로세서(140)를 통해 비교하여 상기 마커들(110)(111)(112)이 부착된 목적물(200)의 공간 위치와 방향을 산출한다.(S140)
여기서, 상기 서로 이웃하는 마커들(110)(111)(112) 간의 기하학적 정보는 상술한 바와 같이 서로 이웃하는 마커들(110)(111)(112)을 연결하는 직선들(L1)(L2)(L3)의 길이 정보와, 상기 마커들(110)(111)(112)을 연결하는 서로 이웃하는 한 쌍의 직선이 이루는 각도(A1)(A2)(A3) 정보일 수 있다.
즉, 상기 프로세서(140)를 통해 상기 각각의 마커들(110)(111)(112)의 실 공간에서의 3차원 좌표와 상기 프로세서(140)에 기 저장된 서로 이웃하는 마커들(110)(111)(112)을 연결하는 직선들(L1)(L2)(L3)의 길이 정보와, 각각의 마커들(110)(111)(112)을 서로 연결하는 서로 이웃하는 한 쌍의 직선이 이루는 각도(A1)(A2)(A3) 정보를 비교하여 상기 마커들(110)(111)(112)이 부착된 목적물(200)의 공간 위치와 방향을 산출하게 된다.
상술한 바와 같이 본 발명의 일실시예에 의한 트랙킹 시스템 및 이를 이용한 트랙킹 방법은 각각의 마커들(110)(111)(112)로부터 방출되는 광이 적어도 한 쌍의 렌즈(121)(122)를 구비한 렌즈 어레이 유닛(120)을 통과하여 결상 유닛(130)에 각 마커(110)(111)(112) 당 상기 렌즈 어레이 유닛(120)에 구비된 렌즈(121)(122)의 개수와 상응하는 수의 마커 영상이 결상된다.
즉, 한 쌍의 제1, 2 렌즈(121)(122)를 구비한 렌즈 어레이 유닛(120)을 사용할 경우에는 하나의 마커 당 두 개의 광축을 통해 결상 유닛(130)에 두 개의 상이 결상됨으로써 한 대의 결상 유닛(130)만으로도 삼각법을 통해 상기 마커들의 3차원 좌표를 산출할 수 있다.
따라서, 본 발명의 일실시예에 의한 트랙킹 시스템 및 이를 이용한 트랙킹 방법은 한 대의 결상 유닛(130)만으로도 목적물(200)에 부착된 마커들(110)(111)(112)의 공간 위치와 방향을 산출하여 확인할 수 있다
그러므로, 트랙킹 시스템의 제작비용의 절감과 더불어 소형 경량화를 이룰 수 있으므로 종래의 트랙킹 시스템에 비하여 수술 공간의 제약을 상대적으로 덜 받는다는 장점이 있다.
앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
(100) : 트랙킹 시스템 (110)(111)(112) : 마커
(120) : 렌즈 어레이 유닛 (130) : 결상 유닛
(140) : 프로세서 (150) : 광원

Claims (11)

  1. 목적물에 부착되어 광을 방출하는 적어도 3개의 마커;
    상기 마커들로부터 방출되는 광을 통과시키는 적어도 두 개의 렌즈가 소정 간격으로 배열된 렌즈 어레이 유닛;
    상기 마커들로부터 방출되어 상기 렌즈 어레이 유닛의 각 렌즈를 통과한 광을 받아 들여 마커 당 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 수의 상을 결상시키는 결상 유닛; 및
    상기 결상 유닛에 마커 당 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 수만큼 결상된 마커 영상을 이용하여 상기 각각의 마커들의 3차원 좌표를 산출한 후 상기 마커들의 3차원 좌표와 기 저장된 서로 이웃하는 마커들 간의 기하학적 정보를 비교하여 상기 목적물의 공간 위치와 방향을 산출하는 프로세서를 포함하는 트랙킹 시스템.
  2. 제 1 항에 있어서,
    상기 마커들은 자체에서 광을 방출하는 액티브 마커인 것을 특징으로 하는 트랙킹 시스템.
  3. 제 1 항에 있어서,
    상기 렌즈 어레이 유닛 측에서부터 상기 마커들로 광을 방출하는 적어도 하나의 광원을 더 포함하며,
    상기 마커들은 상기 광원으로부터 방출된 광을 상기 렌즈 어레이 유닛 측으로 반사시키는 패시브 마커인 것을 특징으로 하는 트랙킹 시스템.
  4. 제 1 항에 있어서,
    상기 결상 유닛은,
    상기 마커들로부터 방출되어 상기 렌즈 어레이 유닛의 각 렌즈를 통과한 광을 받아 들여 마커 당 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 적어도 두 개의 상을 결상시키는 카메라인 것을 특징으로 하는 트랙킹 시스템.
  5. 제 1 항에 있어서,
    상기 마커들 간의 기하학적 정보는,
    상기 서로 이웃하는 마커들을 연결하는 직선들의 길이 정보와,
    상기 서로 이웃하는 한 쌍의 직선이 이루는 각도 정보인 것을 특징으로 하는 트랙킹 시스템.
  6. 목적물에 부착된 적어도 3개의 마커들로부터 광을 방출하는 단계;
    상기 마커들로부터 방출된 광이 렌즈 어레이 유닛의 적어도 두 개의 렌즈를 통과하여 결상 유닛에 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 수의 상을 결상시키는 단계;
    상기 결상 유닛에 마커 당 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 수만큼 결상된 마커 영상을 이용하여 프로세서를 통해 상기 각각의 마커들의 3차원 좌표를 산출하는 단계; 및
    상기 각각의 마커들의 3차원 좌표와 상기 프로세서에 기 저장된 서로 이웃하는 마커들 간의 기하학적 정보를 비교하여 상기 목적물의 공간 위치와 방향을 산출하는 단계를 포함하는 트랙킹 방법.
  7. 제 6 항에 있어서,
    상기 마커들 간의 기하학적 정보는,
    상기 서로 이웃하는 마커들을 연결하는 직선들의 길이 정보와,
    상기 서로 이웃하는 한 쌍의 직선이 이루는 각도 정보인 것을 특징으로 하는 트랙킹 방법.
  8. 제 6 항에 있어서,
    상기 마커들의 3차원 좌표를 산출하는 단계는,
    상기 프로세서를 통해 상기 결상 유닛에 결상된 마커 당 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 수의 마커 영상의 2차원 좌표를 산출하는 단계; 및
    상기 마커당 상기 렌즈 어레이 유닛의 렌즈 개수와 상응하는 수의 마커 영상의 2차원 좌표를 이용하여 상기 프로세서를 통해 상기 마커들의 3차원 좌표를 산출하는 단계를 포함하는 트랙킹 방법.
  9. 제 6 항에 있어서,
    상기 광을 방출하는 단계는,
    상기 마커들이 자체적으로 발생시키는 광을 상기 렌즈 어레이 유닛 측으로 방출하는 것을 특징으로 하는 트랙킹 방법.
  10. 제 6 항에 있어서,
    상기 광을 방출하는 단계는,
    적어도 하나의 광원으로부터 방출되는 광을 상기 마커들을 통해 렌즈 어레이 유닛 측으로 반사시켜 방출하는 것을 특징으로 하는 트랙킹 방법.
  11. 제 10 항에 있어서,
    상기 광원의 공간 위치와 방향은 상기 프로세서에 기 저장되는 것을 특징으로 하는 트랙킹 방법.
KR1020130005807A 2013-01-18 2013-01-18 트랙킹 시스템 및 이를 이용한 트랙킹 방법 KR101371387B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020130005807A KR101371387B1 (ko) 2013-01-18 2013-01-18 트랙킹 시스템 및 이를 이용한 트랙킹 방법
CN201480004953.3A CN104936547A (zh) 2013-01-18 2014-01-15 跟踪系统及利用上述跟踪系统的跟踪方法
PCT/KR2014/000426 WO2014112782A1 (ko) 2013-01-18 2014-01-15 트랙킹 시스템 및 이를 이용한 트랙킹 방법
JP2015553651A JP2016515837A (ja) 2013-01-18 2014-01-15 トラッキングシステム及びこれを用いたトラッキング方法
EP14740207.7A EP2946741A4 (en) 2013-01-18 2014-01-15 TRACKING SYSTEM AND TRACKING METHOD USING THE SAME
US14/372,307 US20160270860A1 (en) 2013-01-18 2014-01-15 Tracking system and tracking method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130005807A KR101371387B1 (ko) 2013-01-18 2013-01-18 트랙킹 시스템 및 이를 이용한 트랙킹 방법

Publications (1)

Publication Number Publication Date
KR101371387B1 true KR101371387B1 (ko) 2014-03-10

Family

ID=50647855

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130005807A KR101371387B1 (ko) 2013-01-18 2013-01-18 트랙킹 시스템 및 이를 이용한 트랙킹 방법

Country Status (6)

Country Link
US (1) US20160270860A1 (ko)
EP (1) EP2946741A4 (ko)
JP (1) JP2016515837A (ko)
KR (1) KR101371387B1 (ko)
CN (1) CN104936547A (ko)
WO (1) WO2014112782A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105812775A (zh) * 2014-12-29 2016-07-27 广东省明医医疗慈善基金会 基于硬镜的立体显示系统及方法
CN105812776A (zh) * 2014-12-29 2016-07-27 广东省明医医疗慈善基金会 基于软镜的立体显示系统及方法
CN105812774B (zh) * 2014-12-29 2019-05-21 广东省明医医疗慈善基金会 基于插管镜的立体显示系统及方法
CN105809654B (zh) * 2014-12-29 2018-11-23 深圳超多维科技有限公司 目标对象跟踪方法、装置和立体显示设备及方法
CN105812772B (zh) * 2014-12-29 2019-06-18 深圳超多维科技有限公司 医疗图像立体显示系统及方法
CN205610834U (zh) * 2014-12-29 2016-09-28 深圳超多维光电子有限公司 立体显示系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002528168A (ja) 1998-10-23 2002-09-03 バリアン・メディカル・システムズ・インコーポレイテッド 患者を位置決めする方法とシステム
KR100669250B1 (ko) 2005-10-31 2007-01-16 한국전자통신연구원 인공표식 기반의 실시간 위치산출 시스템 및 방법
KR101136743B1 (ko) 2011-04-27 2012-04-19 목포대학교산학협력단 거리 및 각도측정 기능을 갖는 위치측정장치

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4396945A (en) * 1981-08-19 1983-08-02 Solid Photography Inc. Method of sensing the position and orientation of elements in space
US5923417A (en) * 1997-09-26 1999-07-13 Northern Digital Incorporated System for determining the spatial position of a target
US6061644A (en) * 1997-12-05 2000-05-09 Northern Digital Incorporated System for determining the spatial position and orientation of a body
EP1364183B1 (en) * 2001-01-30 2013-11-06 Mako Surgical Corp. Tool calibrator and tracker system
US20110015521A1 (en) * 2003-03-27 2011-01-20 Boulder Innovation Group, Inc. Means of Tracking Movement of Bodies During Medical Treatment
CA2523727A1 (en) * 2003-04-28 2005-01-06 Bracco Imaging Spa Surgical navigation imaging system
US8211094B2 (en) * 2004-10-26 2012-07-03 Brainlab Ag Pre-calibrated reusable instrument
US9867669B2 (en) * 2008-12-31 2018-01-16 Intuitive Surgical Operations, Inc. Configuration marker design and detection for instrument tracking
JP4459155B2 (ja) * 2005-11-14 2010-04-28 株式会社東芝 光学式位置計測装置
WO2007090288A1 (en) * 2006-02-09 2007-08-16 Northern Digital Inc. Retroreflective marker-tracking systems
EP1872735B1 (de) * 2006-06-23 2016-05-18 Brainlab AG Verfahren zum automatischen Identifizieren von Instrumenten bei der medizinischen Navigation
KR101371384B1 (ko) * 2013-01-10 2014-03-07 경북대학교 산학협력단 트랙킹 시스템 및 이를 이용한 트랙킹 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002528168A (ja) 1998-10-23 2002-09-03 バリアン・メディカル・システムズ・インコーポレイテッド 患者を位置決めする方法とシステム
KR100669250B1 (ko) 2005-10-31 2007-01-16 한국전자통신연구원 인공표식 기반의 실시간 위치산출 시스템 및 방법
KR101136743B1 (ko) 2011-04-27 2012-04-19 목포대학교산학협력단 거리 및 각도측정 기능을 갖는 위치측정장치

Also Published As

Publication number Publication date
JP2016515837A (ja) 2016-06-02
EP2946741A1 (en) 2015-11-25
WO2014112782A1 (ko) 2014-07-24
CN104936547A (zh) 2015-09-23
EP2946741A4 (en) 2016-09-07
US20160270860A1 (en) 2016-09-22

Similar Documents

Publication Publication Date Title
KR101371387B1 (ko) 트랙킹 시스템 및 이를 이용한 트랙킹 방법
EP3281600B1 (en) Marker for optical tracking, optical tracking system, and optical tracking method
US20200237449A1 (en) Redundant reciprocal tracking system
US8885177B2 (en) Medical wide field of view optical tracking system
JP4396564B2 (ja) 物体のモニタリング方法およびこれを用いたモーショントラッカ
US20220175464A1 (en) Tracker-Based Surgical Navigation
US20200129240A1 (en) Systems and methods for intraoperative planning and placement of implants
US9342887B2 (en) High accuracy image matching apparatus and high accuracy image matching method using a skin marker and a feature point in a body
KR101371384B1 (ko) 트랙킹 시스템 및 이를 이용한 트랙킹 방법
CN105190235A (zh) 以六自由度跟踪的结构光扫描仪的补偿
JP2011504769A (ja) 光学追跡casシステム
KR101446173B1 (ko) 트랙킹 시스템 및 이를 이용한 트랙킹 방법
US20240115325A1 (en) Camera tracking system for computer assisted surgery navigation
KR20170056115A (ko) 정형외과 수술로봇 시스템의 트래커 및 마커 위치 가이드 장치 및 그 방법

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161206

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171204

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20191210

Year of fee payment: 7