WO2013162221A1 - 환부 및 수술도구의 트랙킹 방법 - Google Patents

환부 및 수술도구의 트랙킹 방법 Download PDF

Info

Publication number
WO2013162221A1
WO2013162221A1 PCT/KR2013/003355 KR2013003355W WO2013162221A1 WO 2013162221 A1 WO2013162221 A1 WO 2013162221A1 KR 2013003355 W KR2013003355 W KR 2013003355W WO 2013162221 A1 WO2013162221 A1 WO 2013162221A1
Authority
WO
WIPO (PCT)
Prior art keywords
tracking
surgical tool
surgical instrument
affected area
microscope
Prior art date
Application number
PCT/KR2013/003355
Other languages
English (en)
French (fr)
Inventor
김민영
이현기
정재헌
홍종규
Original Assignee
주식회사 고영테크놀러지
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 고영테크놀러지, 경북대학교 산학협력단 filed Critical 주식회사 고영테크놀러지
Priority to US14/241,959 priority Critical patent/US20150141793A1/en
Publication of WO2013162221A1 publication Critical patent/WO2013162221A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects

Definitions

  • the present invention relates to a method for tracking lesions and surgical instruments, and more particularly, to a tracking method capable of tracking the position of the lesions and surgical instruments using a tracking sensor, a marker, and a stereo microscope.
  • a tracking device is used to detect the location of an invasive device, such as a catheter or surgical tool, adjacent to or within a human body and a lesion in the patient's body during surgery.
  • an invasive device such as a catheter or surgical tool
  • Such a tracking device includes a plurality of markers attached to a surgical tool and an affected part, a tracking sensor for detecting the markers, and a processor connected to the tracking sensor to determine the positions of the markers.
  • the energy emitted from the plurality of markers is detected by the tracking sensor, and then a position of energy generated from the markers detected by the tracking sensor by the processor is detected. After the determination, the predetermined markers corresponding to the position of the energy of the detected markers are matched to track the identified markers to track the position of the surgical tool and the affected part.
  • Such a general tracking method for tracking surgical instruments and lesions can detect energy generated from the markers and can only track the position of the surgical instruments and lesions in a macroscopic manner so that the surgical instruments and lesions can be tracked more precisely. Tracking method is required.
  • Tracking method is a macro tracking step of tracking the location of the affected area and the surgical tool through a processor by detecting the energy generated from the plurality of markers attached to the affected area and the surgical tool by a processor; And taking an image of the affected part and the surgical tool tracked in the macro tracking step through the tracking sensor, and inputting an image of the affected part and the surgical tool captured by the tracking sensor through the processor into the stereo display unit of the microscope. And a micro tracking step of tracking the position of the affected part and the surgical tool based on the microscope coordinate system through a macro image input into the stereo display unit of the microscope.
  • the tracking method of the affected part and the surgical tool detects the energy generated from the plurality of markers attached to the affected part and the surgical tool through a tracking sensor to macroscopically locate the affected part and the surgical tool.
  • the macroscopically tracked image of the affected part and the surgical tool is photographed through the tracking sensor and input into the stereo display unit of the microscope and the macro through the stereo microscope based on the coordinate system of the stereo microscope.
  • FIG. 1 is a view for explaining a tracking method according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a tracking method according to an embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating a macro tracking step
  • FIG. 4 is a block diagram for explaining an image input step.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • FIG. 1 is a view for explaining a tracking method according to an embodiment of the present invention
  • Figure 2 is a block diagram illustrating a tracking method according to an embodiment of the present invention
  • Figure 3 is a macro tracking step to explain 4 is a block diagram illustrating an image input step.
  • a tracking method includes a macro tracking step S110, an image input step S120, and a micro tracking step S130.
  • the macro tracking step S110 detects energy generated from the plurality of markers 111 and 101 attached to the affected part 100 and the surgical tool 110 by the tracking sensor 120 to detect a processor (not shown). Step of tracking the position of the affected part 100 and the surgical tool 110 through.
  • the macro tracking step S110 will be described in more detail with reference to FIG. 3.
  • the macro tracking step S110 includes a marker activation step S111, an energy detection step S112, an energy location determination step S113, and a marker checking step S114.
  • the marker activation step S111 is a step of activating a plurality of markers 111 and 101 attached to the affected part 100 and the surgical tool 110 through a processor.
  • the plurality of markers 111 and 101 attached to the affected part 100 and the surgical tool 110 may be markers 111 and 101 that emit light or reflect external lighting by themselves.
  • the plurality of markers 111 and 101 may be markers 111 and 101 generating a magnetic field.
  • the energy detection step S112 is a step of detecting energy generated from the activated markers 111 and 101 through the tracking sensor 120 when the markers 111 and 101 are activated as described above.
  • the energy position determining step (S113) is performed when the energy is detected by the tracking sensor 120, as described above, of the energy generated from the markers 111 and 101 detected by the tracking sensor 120 through the processor. This is the step of determining the location.
  • the marker checking step S114 may be performed by matching the positions of the markers 111 and 101 preset in the processor corresponding to the energy positions of the detected markers 111 and 101. By tracking 101, the position of the surgical tool 110 and the affected part 100 is macroscopically tracked.
  • the image input step S120 includes an image of the affected part 100 and the surgical tool 110 tracked in the macro tracking step S110 through the tracking sensor 120.
  • the image of the affected part 100 and the surgical tool 110 photographed by the tracking sensor 120 through the processor is input into the stereo display unit 130 of the microscope.
  • the image input step S120 will be described in more detail with reference to FIG. 4 as follows.
  • the image input step S120 includes an image capturing step S121 and a microscope transmitting step S122.
  • the image capturing step (S121) operates the tracking sensor 120 by the processor, and the affected part 100 and the surgical tool 110 tracked through the macro tracking step (S110) through the tracking sensor 120. After taking the image of the) is the step of transmitting the image of the affected part 100 and the surgical tool 110 to the processor.
  • the step of transmitting the microscope (S122) is to process the image of the affected part 100 and the surgical tool 110 taken by the tracking sensor 120 through the processor after the processor is processed the image of the stereo microscope
  • the step of inputting into the stereo display unit 130 is performed.
  • the micro tracking step (S130) is a macro image of the affected part 100 and the surgical tool 110 that are macroscopically traced into the stereo display unit 130 of the microscope.
  • Step 140 is to accurately track the position of the affected part 100 and the surgical tool 110 based on the microscope coordinate system. That is, when the image of the affected part 100 and the surgical tool 110 captured by the tracking sensor 120 is input into the stereo display unit 130 of the microscope, the binocular eyepiece of the microscope Since the image of the affected part 100 and the surgical tool 110 as shown in FIG. 1 can be observed, the affected part 100 and the surgical tool 110 based on the coordinate system of the microscope using the stereo microscope. Can be tracked more accurately and precisely.
  • Tracking method of the affected part 100 and the surgical tool 110 according to an embodiment of the present invention as described above, first, a plurality of attached to the affected part 100 and the surgical tool 110 through the tracking sensor 120 After detecting the energy generated from the markers 111 and 101 to macroscopically track the position of the affected part 100 and the surgical tool 110, the macroscopically tracked location of the affected part 100 and surgery
  • the affected part where the macroscopic position is tracked through the stereo microscope based on the coordinate system of the stereo microscope by inputting the image of the tool 110 through the tracking sensor 120 and entering the stereo display 130 of the microscope.
  • the location of the affected part 100 and the surgical tool 110 can be tracked more precisely using the macro image 140 of the surgical tool 110 and the surgical tool 110.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

트랙킹 센서 및 마커들을 이용하여 환부와 수술도구의 위치를 매크로적으로 추적한 후 상기 매크로적으로 추적된 환부와 수술도구의 영상을 가지고 스테레오 현미경을 이용하여 환부와 수술도구의 위치를 마이크로적으로 보다 정확하고 정밀하게 추적할 수 있는 환부 및 수술도구의 트랙킹 방법이 개시된다. 상기 환부 및 수술도구의 트랙킹 방법은 환부와 수술도구에 부착된 복수개의 마커들로부터 발생되는 에너지를 트랙킹 센서에 의해 탐지하여 프로세서를 통해 상기 환부와 수술도구의 위치를 추적하는 매크로 트랙킹 단계와, 상기 트랙킹 센서를 통해 상기 매크로 트랙킹 단계에서 추적된 상기 환부와 수술도구의 영상을 촬영하여 상기 프로세서를 통해 상기 트랙킹 센서에 의해 촬영된 환부와 수술도구의 영상을 현미경의 스테레오 디스플레이부 내에 입력하는 영상입력 단계 및, 상기 현미경의 스테레오 디스플레이부 내에 입력된 영상을 통해 상기 현미경 좌표계를 기준으로 상기 환부와 수술도구의 위치를 추적하는 마이크로 트랙킹 단계를 포함한다.

Description

환부 및 수술도구의 트랙킹 방법
본 발명은 환부 및 수술도구의 트랙킹 방법에 관한 것으로, 보다 상세하게는 트랙킹 센서와 마커 및 스테레오 현미경을 이용하여 환부 및 수술도구의 위치를 추적할 수 있는 트랙킹 방법에 관한 것이다.
일반적으로 수술시 인체에 인접하거나 인체 내에 있는 카테터나 수술도구와 같은 침입성 디바이스 및 환자 인체에 있는 환부의 위치를 검출하는데 트랙킹 장치가 사용된다.
이와 같은 트랙킹 장치는 수술도구와 환부에 부착되는 복수개의 마커들과, 상기 마커들을 탐지하는 트랙킹 센서, 상기 트랙킹 센서와 연결되어 상기 마커들의 위치를 결정하는 프로세서로 구성된다.
상기와 같은 트랙킹 장치를 이용한 종래의 일반적인 트랙킹 방법은 상기 복수개의 마커들로부터 발산되는 에너지를 상기 트랙킹 센서로 탐지한 후, 프로세서에 의해 상기 트랙킹 센서에 의해 탐지된 마커들로부터 발생되는 에너지의 위치를 결정한 다음, 상기 탐지된 마커들의 에너지의 포지션과 대응되는 기 설정된 마커들을 매칭시켜 확인된 마커들을 추적하여 상기 수술도구와 환부의 위치를 추적한다.
이와 같은 수술도구 및 환부를 추적하는 일반적인 트랙킹 방법은 상기 마커들로부터 발생되는 에너지를 탐지하여 상기 수술도구와 환부의 위치를 매크로적 밖에 추적할 수 없으므로 보다 정밀하게 수술도구 및 환부를 추적할 수 있는 트랙킹 방법이 요구되고 있는 실정이다.
따라서, 본 발명의 목적은 수술도구 및 환부의 위치를 보다 정확하고 정밀하게 추적할 수 있는 환부 및 수술도구의 트랙킹 방법을 제공하는 것이다.
본 발명의 일실시예에 의한 트랙킹 방법은 환부와 수술도구에 부착된 복수개의 마커들로부터 발생되는 에너지를 트랙킹 센서에 의해 탐지하여 프로세서를 통해 상기 환부와 수술도구의 위치를 추적하는 매크로 트랙킹 단계와, 상기 트랙킹 센서를 통해 상기 매크로 트랙킹 단계에서 추적된 상기 환부와 수술도구의 영상을 촬영하여 상기 프로세서를 통해 상기 트랙킹 센서에 의해 촬영된 환부와 수술도구의 영상을 현미경의 스테레오 디스플레이부 내에 입력하는 영상입력 단계 및, 상기 현미경의 스테레오 디스플레이부 내에 입력된 매크로 영상을 통해 상기 현미경 좌표계를 기준으로 상기 환부와 수술도구의 위치를 추적하는 마이크로 트랙킹 단계를 포함한다.
이와 같이 본 발명의 일실시예에 의한 환부 및 수술도구의 트랙킹 방법은 트랙킹 센서를 통해 환부와 수술도구에 부착된 복수개의 마커들로부터 발생되는 에너지를 탐지하여 상기 환부와 수술도구의 위치를 매크로적으로 추적한 후, 상기 매크로적으로 위치를 추적한 환부와 수술도구의 영상을 상기 트랙킹 센서를 통해 촬영하여 현미경의 스테레오 디스플레이부 내로 입력하여 상기 스테레오 현미경의 좌표계를 기준으로 상기 스테레오 현미경을 통해 상기 매크로적으로 위치가 추적된 환부와 수술도구의 영상을 이용하여 상기 환부와 수술도구의 위치를 보다 정밀하게 추적할 수 있어 보다 안전하고 정밀한 수술을 행할 수 있는 효과가 있다.
도 1은 본 발명의 일실시예에 의한 트랙킹 방법을 설명하기 위한 도면
도 2는 본 발명의 일실시예에 의한 트랙킹 방법을 설명하기 위한 블록도
도 3은 매크로 트랙킹 단계를 설명하기 위한 블록도
도 4는 영상입력 단계를 설명하기 위한 블록도
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하 도면을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명한다.
도 1은 본 발명의 일실시예에 의한 트랙킹 방법을 설명하기 위한 도면이며, 도 2는 본 발명의 일실시예에 의한 트랙킹 방법을 설명하기 위한 블록도이고, 도 3은 매크로 트랙킹 단계를 설명하기 위한 블록도이며, 도 4는 영상입력 단계를 설명하기 위한 블록도이다.
도 1 및 도 2를 참조하면, 본 발명의 일실시예에 의한 트랙킹 방법은 매크로 트랙킹 단계(S110), 영상입력 단계(S120), 마이크로 트랙킹 단계(S130)를 포함한다.
상기 매크로 트랙킹 단계(S110)는 환부(100)와 수술도구(110)에 부착된 복수개의 마커들(111)(101)로부터 발생되는 에너지를 트랙킹 센서(120)에 의해 탐지하여 프로세서(도시되지 않음)를 통해 상기 환부(100)와 수술도구(110)의 위치를 추적하는 단계이다.
도 3을 참조하여 매크로 트랙킹 단계(S110)에 대하여 보다 상세하게 설명하면 다음과 같다.
도 3을 참조하면, 상기 매크로 트랙킹 단계(S110)는 마커 활성화단계(S111), 에너지 탐지단계(S112), 에너지 위치 결정단계(S113), 마커 확인단계(S114)를 포함한다.
상기 마커 활성화 단계(S111)는 프로세서를 통해 환부(100)와 수술도구(110)에 부착된 복수개의 마커들(111)(101)을 활성화시키는 단계이다. 여기서, 상기 환부(100)와 수술도구(110)에 부착된 복수개의 마커들(111)(101)은 스스로 빛을 발산하거나 외부 조명을 반사시키는 마커들(111)(101)일 수 있다. 한편, 상기 복수개의 마커들(111)(101)을 자기장을 발생하는 마커들(111)(101)일 수도 있다.
상기 에너지 탐지단계(S112)는 상기와 같이 마커들(111)(101)이 활성화되면 트랙킹 센서(120)를 통해 상기 활성화된 마커들(111)(101)로부터 발생되는 에너지를 탐지하는 단계이다.
상기 에너지 위치 결정단계(S113)는 상기와 같이 트랙킹 센서(120)에 의해 에너지가 탐지되면 상기 프로세서를 통해 상기 트랙킹 센서(120)에 의해 탐지된 마커들(111)(101)로부터 발생되는 에너지의 위치를 결정하는 단계이다.
상기 마커 확인단계(S114)는 상기 탐지된 마커들(111)(101)의 에너지 포지션과 대응되는 상기 프로세서에 기 설정된 마커들(111)(101)의 위치를 매칭시켜 확인된 마커들(111)(101)을 추적함으로써 상기 수술도구(110)와 환부(100)의 위치를 매크로적으로 추적하는 단계이다.
다시, 도 1 및 도 2를 참조하면, 상기 영상 입력단계(S120)는 상기 트랙킹 센서(120)를 통해 상기 매크로 트랙킹 단계(S110)에서 추적된 상기 환부(100)와 수술도구(110)의 영상을 촬영하여 상기 프로세서를 통해 상기 트랙킹 센서(120)에 의해 촬영된 환부(100)와 수술도구(110)의 영상을 현미경의 스테레오 디스플레이부(130) 내에 입력하는 단계이다.
도 4를 참조하여 상기 영상 입력단계(S120)에 대하여 보다 상세하게 설명하면 다음과 같다.
도 4를 참조하면, 상기 영상 입력단계(S120)는 영상 촬영단계(S121)와 현미경 전송단계(S122)를 포함한다.
상기 영상 촬영단계(S121)는 상기 프로세서에 의해 트랙킹 센서(120)를 작동시켜 상기 트랙킹 센서(120)를 통해 상기 매크로 트랙킹 단계(S110)를 통해 위치 추적된 상기 환부(100)와 수술도구(110)의 영상을 촬영한 후 상기 환부(100)와 수술도구(110)의 영상을 프로세서로 전송하는 단계이다.
상기 현미경 전송단계(S122)는 상기 트랙킹 센서(120)에 의해 촬영된 환부(100)와 수술도구(110)의 영상을 프로세서를 통해 이미지 처리한 후 상기 프로세서가 상기 이미지 처리된 영상을 스테레오 현미경의 스테레오 디스플레이부(130) 내로 입력하는 단계이다.
다시, 도 1 및 도 2를 참조하면, 상기 마이크로 트랙킹 단계(S130)는 상기 현미경의 스테레오 디스플레이부(130) 내에 입력된 매크로적으로 추적된 상기 환부(100)와 수술도구(110)의 매크로 영상(140)을 통해 상기 현미경 좌표계를 기준으로 상기 환부(100)와 수술도구(110)의 위치를 보다 정밀하게 추적하는 단계이다. 즉, 상기 현미경의 스테레오 디스플레이부(130) 내에 상기 트랙킹 센서(120)에 의해 촬영된 매크로적으로 추적된 상기 환부(100)와 수술도구(110)의 영상을 입력하게 되면 상기 현미경의 양안 접안렌즈를 통해 도 1에서 도시된 바와 같은 환부(100)와 수술도구(110)의 영상을 관찰할 수 있으므로, 상기 스테레오 현미경을 이용하여 상기 현미경의 좌표계를 기준으로 상기 환부(100)와 수술도구(110)의 위치를 더욱 정확하고 정밀하게 추적할 수 있다.
상술한 바와 같은 본 발명의 일실시예에 의한 환부(100) 및 수술도구(110)의 트랙킹 방법은, 먼저 트랙킹 센서(120)를 통해 환부(100)와 수술도구(110)에 부착된 복수개의 마커들(111)(101)로부터 발생되는 에너지를 탐지하여 상기 환부(100)와 수술도구(110)의 위치를 매크로적으로 추적한 후, 상기 매크로적으로 위치를 추적한 환부(100)와 수술도구(110)의 영상을 상기 트랙킹 센서(120)를 통해 촬영하여 현미경의 스테레오 디스플레이부(130) 내로 입력하여 상기 스테레오 현미경의 좌표계를 기준으로 상기 스테레오 현미경을 통해 상기 매크로적으로 위치가 추적된 환부(100)와 수술도구(110)의 매크로 영상(140)을 이용하여 상기 환부(100)와 수술도구(110)의 위치를 보다 정밀하게 추적할 수 있다.
앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (1)

  1. 환부와 수술도구에 부착된 복수개의 마커들로부터 발생되는 에너지를 트랙킹 센서에 의해 탐지하여 프로세서를 통해 상기 환부와 수술도구의 위치를 추적하는 매크로 트랙킹 단계;
    상기 트랙킹 센서를 통해 상기 매크로 트랙킹 단계에서 추적된 상기 환부와 수술도구의 영상을 촬영하여 상기 프로세서를 통해 상기 트랙킹 센서에 의해 촬영된 환부와 수술도구의 영상을 현미경의 스테레오 디스플레이부 내에 입력하는 영상입력 단계; 및
    상기 현미경의 스테레오 디스플레이부 내에 입력된 매크로 영상을 통해 상기현미경 좌표계를 기준으로 상기 환부와 수술도구의 위치를 추적하는 마이크로 트랙킹 단계를 포함하는 환부 및 수술도구의 트랙킹 방법.
PCT/KR2013/003355 2012-04-27 2013-04-19 환부 및 수술도구의 트랙킹 방법 WO2013162221A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/241,959 US20150141793A1 (en) 2012-04-27 2013-04-19 Method of tracking an affected area and a surgical equipment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0044787 2012-04-27
KR1020120044787A KR20130121521A (ko) 2012-04-27 2012-04-27 환부 및 수술도구의 트랙킹 방법

Publications (1)

Publication Number Publication Date
WO2013162221A1 true WO2013162221A1 (ko) 2013-10-31

Family

ID=49483454

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/003355 WO2013162221A1 (ko) 2012-04-27 2013-04-19 환부 및 수술도구의 트랙킹 방법

Country Status (3)

Country Link
US (1) US20150141793A1 (ko)
KR (1) KR20130121521A (ko)
WO (1) WO2013162221A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9662000B2 (en) * 2013-08-28 2017-05-30 Hankookin, Inc. Visualization apparatus and system for enhanced hand-eye coordination
KR20160022705A (ko) * 2014-08-20 2016-03-02 재단법인 아산사회복지재단 도구의 위치 추적장치
SG10201807900SA (en) * 2018-09-12 2020-04-29 Techssisted Surgical Pte Ltd System and method for monitoring a device
JP2024516135A (ja) * 2021-04-14 2024-04-12 アースレックス インコーポレイテッド 手術における検出可能な放射線を使用するためのシステム及び方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050015005A1 (en) * 2003-04-28 2005-01-20 Kockro Ralf Alfons Computer enhanced surgical navigation imaging system (camera probe)
US20060293557A1 (en) * 2005-03-11 2006-12-28 Bracco Imaging, S.P.A. Methods and apparati for surgical navigation and visualization with microscope ("Micro Dex-Ray")
KR20100098055A (ko) * 2009-02-27 2010-09-06 한국과학기술원 영상유도수술시스템 및 그 제어방법
KR20110118640A (ko) * 2008-12-31 2011-10-31 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 기기 트래킹을 위한 컨피규레이션 마커 디자인 및 탐지
KR20110118639A (ko) * 2008-12-31 2011-10-31 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 이미지 내에서 수술기기를 찾기 위한 기준 마커 디자인 및 탐지

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6006126A (en) * 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
US6381485B1 (en) * 1999-10-28 2002-04-30 Surgical Navigation Technologies, Inc. Registration of human anatomy integrated for electromagnetic localization
US20010055062A1 (en) * 2000-04-20 2001-12-27 Keiji Shioda Operation microscope
US7912532B2 (en) * 2002-06-13 2011-03-22 Moeller-Wedel Gmbh Method and instrument for surgical navigation
US7835785B2 (en) * 2005-10-04 2010-11-16 Ascension Technology Corporation DC magnetic-based position and orientation monitoring system for tracking medical instruments

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050015005A1 (en) * 2003-04-28 2005-01-20 Kockro Ralf Alfons Computer enhanced surgical navigation imaging system (camera probe)
US20060293557A1 (en) * 2005-03-11 2006-12-28 Bracco Imaging, S.P.A. Methods and apparati for surgical navigation and visualization with microscope ("Micro Dex-Ray")
KR20110118640A (ko) * 2008-12-31 2011-10-31 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 기기 트래킹을 위한 컨피규레이션 마커 디자인 및 탐지
KR20110118639A (ko) * 2008-12-31 2011-10-31 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 이미지 내에서 수술기기를 찾기 위한 기준 마커 디자인 및 탐지
KR20100098055A (ko) * 2009-02-27 2010-09-06 한국과학기술원 영상유도수술시스템 및 그 제어방법

Also Published As

Publication number Publication date
KR20130121521A (ko) 2013-11-06
US20150141793A1 (en) 2015-05-21

Similar Documents

Publication Publication Date Title
WO2013162221A1 (ko) 환부 및 수술도구의 트랙킹 방법
US20150065875A1 (en) Navigation attachment and utilization procedure
CN103479510B (zh) 一种穴位定位方法和系统
WO2009045827A3 (en) Methods and systems for tool locating and tool tracking robotic instruments in robotic surgical systems
EP3116401B1 (en) Anatomical image projection system
WO2012151172A3 (en) Image-processor-controlled misalignment-reduction for ophthalmic systems
EP3603510A1 (en) Efficient and interactive bleeding detection in a surgical system
EP2626029A3 (en) Robotic instrument systems and methods utilizing optical fiber sensors
WO2007067323A3 (en) Image-guidance in medical image processing
JP2017512554A5 (ko)
JP2016512073A5 (ko)
DE60212658D1 (de) Computerunterstützes, automatisches System zum Abgleich von vitalen Akupunkturpunkten
RU2013112866A (ru) Система и способ картографирования для медицинских процедур
WO2008079580A3 (en) System and method for surgical navigation
EP3412215A3 (en) Systems and methods for tracking and imaging a treatment probe having an integrated sensor
JP2017528220A5 (ko)
US11540706B2 (en) Method of using a manually-operated light plane generating module to make accurate measurements of the dimensions of an object seen in an image taken by an endoscopic camera
WO2021084320A3 (en) System and method for computer-aided surgical navigation implementing 3d scans
JP2016538014A5 (ko)
WO2014112782A1 (ko) 트랙킹 시스템 및 이를 이용한 트랙킹 방법
US20170343470A1 (en) Wearable device for testing biological information of user and testing system having the same
WO2018021703A1 (ko) 환부 위치 파악을 위한 감지 장치 및 방법
Marinetto et al. Multicamera optical tracker assessment for computer aided surgery applications
Kwartowitz et al. Update: Toward image-guided robotic surgery: determining the intrinsic accuracy of the daVinci-S robot
US11430114B2 (en) Landmark estimating method, processor, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13781065

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14241959

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13781065

Country of ref document: EP

Kind code of ref document: A1