WO2016099212A1 - 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법 - Google Patents

옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법 Download PDF

Info

Publication number
WO2016099212A1
WO2016099212A1 PCT/KR2015/013967 KR2015013967W WO2016099212A1 WO 2016099212 A1 WO2016099212 A1 WO 2016099212A1 KR 2015013967 W KR2015013967 W KR 2015013967W WO 2016099212 A1 WO2016099212 A1 WO 2016099212A1
Authority
WO
WIPO (PCT)
Prior art keywords
patient
unit
coordinate transformation
shape measuring
tracking
Prior art date
Application number
PCT/KR2015/013967
Other languages
English (en)
French (fr)
Inventor
김상용
Original Assignee
주식회사 고영테크놀러지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 고영테크놀러지 filed Critical 주식회사 고영테크놀러지
Priority to US15/537,582 priority Critical patent/US10271908B2/en
Priority to JP2017533319A priority patent/JP6450849B2/ja
Priority to EP15870379.3A priority patent/EP3235460B1/en
Priority to CN201580068912.5A priority patent/CN107106243B/zh
Publication of WO2016099212A1 publication Critical patent/WO2016099212A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • A61B2090/3735Optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3904Markers, e.g. radio-opaque or breast lesions markers specially adapted for marking specified tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present invention relates to a tracking method of an optical tracking system and an optical tracking system, and more particularly, to an optical tracking system and an optical tracking system for tracking a patient or a treatment tool.
  • the pre-recorded image includes a three-dimensional image obtained by MRI, CT scan, etc., and at the start of surgery, a registration that matches the coordinate system of the pre-recorded three-dimensional image and the patient's coordinate system is During the operation, it is necessary to grasp the position and posture change according to the movement of the patient or the surgical tool in real time. In addition, if the patient's posture changes during surgery, it is necessary to re-registrate the patient's coordinate system to continuously track the patient or the affected area.
  • a dynamic reference base has been utilized for such matching and tracking. That is, after attaching the dynamic reference device to the patient in advance, taking a 3D image such as CT, matching the coordinate system of the 3D image and the patient's coordinate system at the start of surgery, and then performing the dynamic reference during the operation. By tracking the surgical instrument based on the device, the position of the surgical instrument relative to the affected part of the patient is tracked. In this case, the 3D image needs to be taken in advance with the dynamic reference device fixed to the patient for registration, and strictly fixed to the patient for accurate tracking.
  • a 3D image such as CT
  • the conventional methods such as the difficulty of attaching the marker and the side effects caused by the nailing, the accuracy and reliability of the marker position change that may occur due to the bite of the teeth, the hassle of having to manufacture expensive stamps before surgery
  • problems such as the time and cost involved in the production and production.
  • the conventional methods even if the dynamic reference device is strictly fixed to the patient, when the patient moves, the distance, posture, etc. between the dynamic reference device and the affected part of the patient may change, so that accurate tracking is not achieved.
  • the surgery is performed under the assumption that the patient is not moving, but in reality, since the patient is often moved during the operation, it is difficult to achieve substantially accurate tracking.
  • the problem to be solved by the present invention is to provide an optical tracking system that can accurately and easily track a patient or a surgical tool at a lower cost in a shorter time and can improve the convenience of the patient and the operator.
  • Another object of the present invention is to provide a tracking method of an optical tracking system that can accurately and easily track a patient or a surgical tool at a lower cost in a shorter time and can improve the convenience of the patient and the operator. .
  • An optical tracking system is a patient or the above using a three-dimensional image that is obtained before the procedure for the patient and includes a first portion corresponding to the affected part of the patient. It is provided for tracking a treatment tool for treating a patient.
  • the optical tracking system includes a reference marker unit, a sticker marker unit, a shape measuring unit, a tracking sensor unit, and a processing unit.
  • the fiducial marker portion is fixedly positioned relative to the first portion of the patient.
  • the sticker marker portion is attached in a sticker form to a second portion of the position where rigid registration is possible with respect to the first portion.
  • the shape measuring unit measures a three-dimensional shape with respect to the first portion and the second portion.
  • the tracking sensor unit senses the reference marker unit and the shape measuring unit to track the reference marker unit and the shape measuring unit, respectively.
  • the processor may further include a first between the reference marker unit, the tracking sensor unit, the shape measuring unit, and the first portion of the patient based on a result detected by the tracking sensor unit and a result measured by the shape measuring unit. Acquire a coordinate transformation relationship, obtain a second coordinate transformation relationship between the reference marker unit, the tracking sensor unit, the shape measurement unit, and the second portion of the patient, and obtain the coordinate transformation relationship from the first and second coordinate transformation relationships A third coordinate transformation relationship between the first portion and the second portion is extracted to track the first portion relative to the tracking sensor unit.
  • the processing unit when the shape measuring unit is disposed in the first position, the coordinate transformation relationship and the shape measurement between the reference marker unit and the tracking sensor unit based on the result detected by the tracking sensor unit Acquire a coordinate transformation relationship between the unit and the tracking sensor unit, obtain a coordinate transformation relationship between the first portion of the patient and the shape measuring unit based on the result measured by the shape measuring unit, the first coordinate A transformation relationship can be obtained.
  • the processor may further include a coordinate transformation relationship between the reference marker unit and the tracking sensor unit based on a result detected by the tracking sensor unit when the shape measuring unit is disposed at a second position different from the first position. Acquiring a coordinate transformation relationship between the shape measuring unit and the tracking sensor unit, and obtaining a coordinate transformation relationship between the second portion of the patient and the shape measuring unit based on the result measured by the shape measuring unit. Two coordinate transformation relations can be obtained.
  • the shape measuring unit may include a measuring device for measuring a three-dimensional shape and a marker installed in the measuring device, the tracking sensor unit may sense a marker of the shape measuring unit, and the processing unit may include the The coordinate conversion relationship between the marker of the shape measuring unit and the tracking sensor unit and the coordinate conversion relationship between the measuring device and the marker of the shape measuring unit may be obtained.
  • the coordinate transformation relationships may be represented by a coordinate transformation matrix
  • the processor may define the first coordinate transformation relationship and the second coordinate transformation relationship by the following equation.
  • PR is a coordinate transformation matrix of the first or second portion of the patient with respect to the reference marker portion
  • T1 is a coordinate transformation matrix of the reference marker portion with respect to the tracking sensor portion
  • T2 is the shape with respect to the tracking sensor portion.
  • T3 is the coordinate transformation matrix of the measuring device of the shape measuring unit with respect to the marker of the shape measuring unit
  • T4 is the coordinate of the first or second portion of the patient with respect to the measuring device of the shape measuring unit Conversion matrix
  • the tracking sensor unit may obtain information for obtaining a coordinate transformation matrix T1 of the reference marker unit for the tracking sensor unit and a coordinate transformation matrix T2 of the marker of the shape measuring unit for the tracking sensor unit.
  • the shape measuring unit may measure information for obtaining a coordinate transformation matrix T4 of the first or second portion of the patient with respect to the measuring device of the shape measuring unit, and the processing unit measures the measurement.
  • the coordinate transformation matrices T1, T2, and T4 are obtained using the obtained information, and from the obtained coordinate transformation matrices T1, T2, and T4, the shape measuring unit of the measuring device of the shape measuring unit is determined.
  • the coordinate transformation matrix T3 and the coordinate transformation matrix PR of the first region or the second region of the patient with respect to the reference marker unit may be calculated.
  • the tracking sensor unit and the shape measuring unit may be measured two or more times for each of the first and second portions of the patient.
  • the third coordinate transformation matrix PRX defined by the following equation.
  • the processor may track the first portion relative to the tracking sensor unit by using the coordinate transformation matrix PRX.
  • the processor may match the coordinate system of the 3D image obtained before the procedure with respect to the patient and the coordinate system of the first portion of the patient based on the 3D shape measured by the shape measuring unit.
  • the processor may further include a coordinate system of a three-dimensional image obtained before the procedure with respect to the patient and a coordinate system of the first portion of the patient, measured by the shape measuring unit, and the three-dimensional shape of the second portion of the patient. 3 can be reconciled based on coordinate transformation relationship.
  • the optical tracking system may further include a surgical tool provided for treating the patient and including a marker.
  • the tracking sensor unit senses a marker of the surgical tool to track the surgical tool
  • the processing unit is configured to track the tracking result of the surgical tool tracked by the tracking sensor unit and the tracking of the patient relative to the tracking sensor unit. From the tracking result of one site, the procedure tool can be tracked relative to the first site of the patient.
  • the sticker marker part may include a marker having a three-dimensional shape, and may be formed in plural and attached to different portions, respectively.
  • the processor may include a coordinate system of a three-dimensional image previously obtained before the procedure for the patient and a coordinate system of the treatment tool defined relative to the patient, and a matching result of the coordinate system of the three-dimensional image and the coordinate system of the patient. Can match on the basis.
  • a method of tracking an optical tracking system includes: acquiring a three-dimensional image including a first portion corresponding to an affected part of a patient before performing a procedure on the patient; Sensing by a tracking sensor unit a reference marker unit fixedly disposed relative to a site and a shape measurement unit disposed at a first position to measure a three-dimensional shape with respect to the first site, a result sensed by the tracking sensor unit, and Acquiring a first coordinate transformation relationship between the reference marker unit, the tracking sensor unit, the shape measuring unit, and the first portion of the patient based on the result measured by the shape measuring unit disposed at the first position.
  • the sticker marker portion is attached to the second portion of the position where the rigid registration with respect to the first portion in the form of a sticker and the three-dimensional shape with respect to the second portion Sensing the shape measuring unit disposed at the second position to measure by the tracking sensor unit, based on the result detected by the tracking sensor unit and the result measured by the shape measuring unit disposed at the second position, the reference Acquiring a second coordinate transformation relationship between a marker portion, the tracking sensor unit, the shape measuring unit, and a second portion of the patient; and the first portion and the second portion from the first and second coordinate transformation relations. Extracting a third coordinate transformation relationship between the parts and tracking the first part relative to the tracking sensor unit.
  • the acquiring of the first coordinate transformation relationship may include: a coordinate transformation relationship between the reference marker unit and the tracking sensor unit and the shape measurement unit and the tracking unit based on a result detected by the tracking sensor unit. Acquire a coordinate transformation relationship between a sensor unit, obtain a coordinate transformation relationship between the first portion of the patient and the shape measurement unit based on the result measured by the shape measuring unit, and obtain the first coordinate transformation relationship. It may include the step.
  • the acquiring of the second coordinate transformation relationship may include: a coordinate transformation relationship between the reference marker unit and the tracking sensor unit and between the shape measuring unit and the tracking sensor unit based on a result detected by the tracking sensor unit. Acquiring a coordinate transformation relationship of, acquiring a coordinate transformation relationship between the second portion of the patient and the shape measuring unit based on the result measured by the shape measuring unit, and obtaining the second coordinate transformation relationship It may include.
  • the tracking method of the optical tracking system matches the coordinate system of the three-dimensional image obtained before the procedure for the patient and the coordinate system of the first portion of the patient based on the three-dimensional shape measured by the shape measuring unit. It may further comprise the step.
  • the tracking method of the optical tracking system includes the steps of sensing a marker of the surgical tool to track the surgical tool for treating the patient, and a tracking result of the surgical tool tracked by the tracking sensor unit and the tracking sensor unit. Tracking the procedure tool relative to the first site of the patient from the tracking result of the first site of the patient tracked relative to the patient.
  • the method of tracking the optical tracking system includes: a first system of the patient according to the coordinate system of the acquired 3D image and the tracking of the surgical tool; The method may further include matching a coordinate system of the treatment tool defined relative to the site based on a result of matching of the coordinate system of the 3D image and the coordinate system of the first part of the patient.
  • An optical tracking system is a method for treating a patient or the patient using a three-dimensional image which is obtained before the procedure for the patient and includes a first portion corresponding to the affected part of the patient. It is provided to track the instrument.
  • the optical tracking system includes a sticker marker unit, a shape measuring unit, a tracking sensor unit, and a processing unit.
  • the sticker marker portion is attached in a sticker form to a second portion of the position where rigid registration is possible with respect to the first portion.
  • the shape measuring unit measures a three-dimensional shape with respect to the first portion and the second portion.
  • the tracking sensor unit senses the sticker marker unit and the shape measuring unit to track the sticker marker unit and the shape measuring unit, respectively.
  • the processor acquires a coordinate transformation relationship between the sticker marker unit and the tracking sensor unit and a coordinate transformation relationship between the shape measuring unit and the tracking sensor unit based on a result sensed by the tracking sensor unit, and measures the shape.
  • a coordinate transformation relationship between the first portion of the patient and the shape measuring unit is acquired based on the result measured by the unit, and the coordinate system of the patient relative to the sticker marker unit is defined from the acquired coordinate transformation relationships. .
  • the optical tracking system is provided with a sticker marker at a position where rigid registration is possible with respect to the affected part, the shape measuring part measures the three-dimensional shape with respect to the affected part and the sticker marker part, and the shape of the tracking sensor part.
  • the shape measuring unit By sensing the measurement unit and the reference marker unit, and extracting the coordinate transformation relationship between the annular portion and the sticker marker unit from the coordinate transformation relationship therebetween, the shape measuring unit to track the sticker marker unit using the coordinate transformation relationship It is possible to track the position and posture of the affected part with respect to the tracking sensor unit only by the operation.
  • the shape measuring unit may easily be re-measured to measure the sticker marker unit, even when the patient moves or posture changes, when the procedure using the coordinate transformation relationship between the affected part and the sticker marker unit In order to easily track the affected area and the treatment tool in real time.
  • the shape measuring unit may track the affected part by measuring the sticker marker part without measuring the affected part after the procedure is started, there is no need to move the shaped measuring part to measure the affected part during the procedure, Since the shape measuring unit is positioned around the affected part during the procedure, a problem that may interfere with the procedure can be prevented. Furthermore, since the position at which the sticker marker portion is attached can be selected relatively freely, the position of the shape measuring portion during the procedure can be arranged at a position that does not interfere with the procedure. In addition, the sticker marker portion is attached to the sticker, it can be formed in a form that does not interfere with the procedure, may be attached to a position that does not interfere with the procedure, by employing a number of sticker markers do not interfere with the procedure It can also be used.
  • the sticker marker part when the sticker marker part is manufactured in a three-dimensional form, registration may be made easier by adding feature points, and the reference marker part may be omitted by directly tracking the sticker marker part in the tracking sensor part.
  • the angle when employing two or more sticker markers and two or more shape measuring units corresponding thereto, the angle can be measured by using the coordinate transformation relationship between the sticker markers. The procedure may be possible.
  • the coordinate system of the three-dimensional image obtained before the procedure and the real time during the procedure without attaching the dynamic reference device (DRB) directly to the patient.
  • the coordinate system of the patient and the procedure tool which can be moved to each other may be matched with each other.
  • it is not necessary to attach the dynamic reference device and it may be possible to reset and realign the coordinate system at any time.
  • optical tracking device and the tracking method using the same according to the present invention it is possible to greatly improve the convenience of both the patient and the operator.
  • FIG. 1 is a conceptual diagram illustrating an optical tracking system according to an embodiment of the present invention.
  • FIG. 2 to 4 are conceptual views illustrating a modeling process of the optical tracking system of FIG. 1.
  • FIG. 5 is a conceptual diagram illustrating tracking and registration of a surgical tool in the optical tracking system of FIG. 1.
  • FIG. 6 is a flowchart illustrating a coordinate system matching method and a tracking method of an optical tracking system according to an exemplary embodiment of the present invention.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • FIG. 1 is a conceptual diagram illustrating an optical tracking system according to an embodiment of the present invention.
  • an optical tracking system is obtained before a procedure for a patient 10 and includes a first portion 12 corresponding to an affected part of the patient 10. It is provided to track a patient 10 or a surgical tool for treating the patient 10 using a three-dimensional image including a).
  • the 3D image is an image previously acquired before the procedure for the patient 10, and may be used as a reference image during the procedure for the patient 10.
  • the procedure includes the entire medical treatment for the patient including surgery.
  • the 3D image may include a computed tomography (CT) image which is generally obtained in a hospital for diagnosis and treatment.
  • the three-dimensional image may include another three-dimensional image, such as magnetic resonance imaging (MRI).
  • CT computed tomography
  • MRI magnetic resonance imaging
  • the three-dimensional image is a concept including a manipulation or reconstruction of the image directly taken, such as a CT image, a concept that includes both a multi-plane reconstruction image and a three-dimensional reconstruction image that is widely used during the actual procedure .
  • the optical tracking system 100 includes a reference marker unit 110, a shape measuring unit 120, a tracking sensor unit 130, a processing unit 140, and a sticker marker unit STK.
  • the optical tracking system 100 is obtained before the procedure for the patient 10 and uses the three-dimensional image including the first portion 12 corresponding to the affected part of the patient 10. It is provided for tracking a treatment tool for treating the patient 10.
  • the fiducial marker part 110 is fixedly disposed relative to the first portion 12 of the patient 10.
  • the first part 12 is a part corresponding to the affected part of the patient 10 and is a part to be subjected to the procedure.
  • a marker 112 is installed at the reference marker unit 110, and the marker 112 may generate energy or a signal to enable sensing in the tracking sensor unit 130 described later.
  • the marker 112 may generate energy or a signal to enable sensing in the tracking sensor unit 130 described later.
  • a plurality of markers may be installed in the reference marker unit 110, and one marker having a predetermined pattern may be installed.
  • the reference marker unit 110 corresponds to a conventional dynamic reference device (DBR), but the reference marker unit 110 does not become a matching standard unlike the conventional dynamic reference device, and thus, the 3D such as CT and MRI. It is not necessary to attach it to the patient 10 when taking an image.
  • the conventional dynamic reference device must be directly attached to the patient 10 and strictly fixed to the patient 10, while the reference marker portion 110 is directly attached to the patient 10. Although it may be, it may be attached to another fixed object such as a bed of the operating room because it only needs to be fixed relative to the patient 10, it does not need to be strictly fixed to the patient (10).
  • the sticker marker part STK is attached in the form of a sticker to the second portion 14 at a position where rigid registration is possible with respect to the first portion 12.
  • the second portion 14 may be formed at any position as long as rigid registration is possible with respect to the first portion 12.
  • the rigid matching does not need to be rigid matching in the strict sense, and may be flexibly interpreted according to the precision and accuracy of the procedure for the patient 10.
  • the sticker marker part STK may include a marker having a three-dimensional shape, and may be formed in plural and attached to different portions, respectively.
  • the shape measuring unit 120 measures a three-dimensional shape with respect to the first portion 12 and the second portion 14.
  • the shape measuring unit 120 may include a measuring device 122 and a marker 124.
  • the measuring device 122 measures a three-dimensional shape with respect to the first portion 12 of the patient 10 included in the three-dimensional image, and at a position where rigid registration is possible with respect to the first portion 12.
  • a three-dimensional shape is measured for the second portion 14 of the patient 10 present.
  • the shape measuring unit 120 may be disposed at a first position corresponding to the first portion 12, and may be disposed at a second position corresponding to the second portion 14. Since the first position and the second position are respectively disposed corresponding to the first portion 12 and the second portion 14, the first position and the second position may be different positions, but may be the same position.
  • the measuring device 122 irradiates the grid patterned light to the first portion 12 or the second portion 14 of the patient 10, the patient (according to the grid patterned light ( After acquiring a reflection image of the first portion 12 or the second portion 14 of 10), a three-dimensional shape may be measured by applying a bucket algorithm to the acquired reflection image. . In addition, a 3D image may be obtained from the measured 3D shape.
  • the measuring device 122 may include an optical coherence tomography (OCT) device.
  • OCT optical coherence tomography
  • the optical coherence tomography apparatus is a high resolution imaging apparatus capable of three-dimensional imaging of microstructures inside biological tissues by combining the interference phenomenon of light and the principle of confocal microscopy, for example, near infrared (wavelength 0.6 ⁇ m to 1.3
  • An optical tomography apparatus for imaging a cross section of a living tissue in a non-contact and non-invasive manner using a light source in the ( ⁇ m) region may be operated based on a Michelson interferometer.
  • the optical signal generated from the light source is divided into two optical signals in the optical coupler and incident on the reference stage and the sample stage, the reference light returned from the reference stage and the sample light scattered back from the sample stage meet again to cause optical interference.
  • the cross section of the object to be photographed may be imaged using the optical interference signal.
  • the marker 124 is installed in the measuring device 122.
  • the marker 124 may generate energy or a signal to enable sensing in the tracking sensor unit 130 described later.
  • a plurality of markers may be installed in the shape measuring unit 120, and one marker having a predetermined pattern may be installed.
  • the tracking sensor unit 130 senses the reference marker unit 110 and the shape measuring unit 120 to track the reference marker unit 110 and the shape measuring unit 120, respectively. .
  • the tracking sensor unit 130 may sense the marker 112 of the reference marker unit 110 and may sense the marker 124 of the shape measuring unit 120. Accordingly, the position and / or posture of the reference marker unit 110 may be known, and the position and / or posture of the shape measuring unit 120 may be known.
  • the processing unit 140 may include, for example, a computer or a central processing unit of a computer.
  • the processing unit 140 is based on the results sensed by the tracking sensor unit 130 and the results measured by the shape measuring unit 120, the reference marker unit 110, the tracking sensor unit 130, the Acquire a first coordinate transformation relationship between the shape measuring unit 120 and the first portion 12 of the patient, and the reference marker unit 110, the tracking sensor unit 130, and the shape measuring unit 120. And a second coordinate transformation relationship between the second portion 14 of the patient.
  • the processing unit 140 extracts a third coordinate transformation relationship between the first portion 12 and the second portion 14 from the first and second coordinate transformation relations to the tracking sensor unit 130. Track the first portion 12 relative to.
  • the processing unit 140 when the shape measurement unit 120 is disposed in the first position, the reference marker unit 110 and the reference marker unit 110 are based on the sensing result of the tracking sensor unit 130.
  • the coordinate transformation relationship between the tracking sensor unit 130 and the coordinate transformation relationship between the shape measuring unit 120 and the tracking sensor unit 130 are obtained.
  • the processor 140 acquires a coordinate transformation relationship between the first portion 12 of the patient 10 and the shape measurer 120 based on the result measured by the shape measurer 120. do.
  • the first coordinate transformation relationship may be obtained from the coordinate transformation relationships thus obtained.
  • the coordinate transformation relations may be defined, for example, in a matrix form.
  • the processing unit 140 when the shape measuring unit 120 is disposed in the second position, the reference marker unit 110 and the tracking sensor based on the result detected by the tracking sensor unit 130. Coordinate transformation relationship between the unit 130 and the coordinate transformation relationship between the shape measuring unit 120 and the tracking sensor unit 130 is obtained. Accordingly, the processing unit 140 obtains the coordinate transformation relationship between the second portion 14 of the patient 10 and the shape measuring unit 120 based on the result measured by the shape measuring unit 120. do.
  • the second coordinate transformation relationship may be obtained from the coordinate transformation relationships thus obtained.
  • the coordinate transformation relations may be defined, for example, in a matrix form.
  • the processing unit 140 extracts a third coordinate transformation relationship between the first portion 12 and the second portion 14 from the obtained first and second coordinate transformation relations, and the tracking sensor unit ( Track the first portion 12 relative to 130).
  • the processing unit 140 is a coordinate transformation relationship between the marker 124 of the shape measuring unit 120 and the tracking sensor unit 130 and the measuring device 122 of the shape measuring unit 120.
  • the coordinate transformation relationship between the marker 124 may be separately obtained.
  • the coordinate transformation relationships may be represented by a coordinate transformation matrix.
  • FIG. 2 to 4 are conceptual views illustrating a modeling process of the optical tracking system of FIG. 1.
  • the optical tracking system 100 may represent the coordinate transformation relationships as coordinate transformation matrices T1, T2, T3, T4, and PR, respectively.
  • PR is the coordinate transformation matrix of the predetermined portion 16 of the patient 10 with respect to the reference marker unit 110
  • T1 is the coordinate transformation of the reference marker unit 110 with respect to the tracking sensor unit 130
  • Matrix is the coordinate transformation matrix of the marker 124 of the shape measuring unit 120 with respect to the tracking sensor unit 130
  • T3 is the measuring device 122 for the marker 124 of the shape measuring unit 120
  • the coordinate transformation matrix, T4 denotes the coordinate transformation matrix of the predetermined portion 16 of the patient 10 with respect to the measuring device 122 of the shape measuring unit 120.
  • the predetermined portion 16 means a specific portion of the patient 10 including the first portion 12 and the second portion 14.
  • the coordinate transformation matrix PR of the predetermined region 16 of the patient 10 with respect to the reference marker unit 110 is formed so as to form a closed loop based on the arrow direction shown in FIG. 2.
  • T3 and T4 can be obtained by equation (1).
  • Equation 2 After forming two different paths from the tracking sensor unit 130 to the patient 10 so as to be a closed loop, Equation 2 can be obtained, and the same result can be obtained by Equation 1 being modified.
  • the processor 140 obtains a coordinate transformation matrix PR by Equation 1 (or Equation 2) to define a coordinate system of a predetermined portion 16 of the patient 10 relative to the reference marker unit 110. can do.
  • the tracking sensor unit 130 may include a coordinate transformation matrix T1 of the reference marker unit 110 with respect to the tracking sensor unit 130 and the shape measuring unit with respect to the tracking sensor unit 130.
  • Information for obtaining the coordinate transformation matrix T2 of the marker 124 of 120 may be measured, and the shape measuring unit 120 may measure the patient with respect to the measuring device 122 of the shape measuring unit 120.
  • Information for obtaining the coordinate transformation matrix T4 of the predetermined portion 16 of (10) may be measured.
  • the processor 140 may obtain coordinate transformation matrices T1, T2, and T4 by using the measured information, and form the shape measuring unit from the obtained coordinate transformation matrices T1, T2, and T4.
  • the coordinate transformation matrix T3 of the measuring device 122 with respect to the marker 124 of 120 and the coordinate transformation matrix PR of the predetermined region 16 of the patient 10 with respect to the reference marker unit 110 are determined. Can be calculated.
  • the coordinate transformation matrices T3 and PR may be obtained by applying the following mathematical scheme, and the processor 140 may implement the mathematical scheme to calculate the coordinate transformation matrices T3 and PR. can do.
  • the coordinate transformation matrices are configured to include the rotation transformation portion R and the position transformation portion t, and then substituted by Equation 2 to obtain Equation 3.
  • Equation 4 By arranging Equation 3, Equation 4 can be obtained.
  • Equation 5 When each component of Equation 4 is expressed by an equation, Equations 5 and 6 can be obtained.
  • Equation 5 can be obtained by arranging Equation 5 by defining R TT .
  • Equation 8 can be obtained by arranging Equation 6 by further defining t TT .
  • Equation 7 the rotation transformation matrix R has a 3 ⁇ 3 form
  • the position transformation matrix t has a 3 ⁇ 1 form.
  • Equation 7 all components of R TT (ie, all components of R T1 and R T2 ) and all components of R T4 can be known from the measurements described above, and in addition to Equation 8 all components of t T4 are known.
  • the number of unknowns is 24, including nine components of R PR and R T3 and three components of t PR and t T4 .
  • Equations 7 and 8 are all 12 equations including 24 unknowns, more accurate solutions can be obtained by two or more measurements. Accordingly, the tracking sensor unit 130 and the shape measuring unit ( The measurement of 120 may be performed two or more times.
  • the coordinate system of the predetermined portion 16 of the patient 10 may be defined using the coordinate transformation relations measured as described above.
  • the above-described mathematical method may be replaced by another method to obtain the coordinate transformation matrices T3 and PR.
  • the processor 140 may calculate the coordinate transformation matrices T3 and PR by applying a dual quaternion scheme.
  • Equation 9 can be obtained from Equation 1 described above, and Equation 9 can be obtained by modifying Equation 9 below.
  • Equation 11 By developing Equation 10 to remove the higher order term, Equation 11 can be obtained.
  • Equations 9 and 11 can be modified by applying the dual quaternion method, respectively, to obtain Equation 12 and Equation 13 below.
  • Equation 14 By converting Equations 12 and 13 into a matrix equation form, Equation 14 can be obtained, and the coordinate transformation matrices T3 and PR can be calculated from Equation 14.
  • the processing unit 140 in the shape measuring unit 120 to the coordinate system of the three-dimensional image and the coordinate system of the first portion 12 of the patient 10 previously obtained before the procedure for the patient 10 Matching can be based on the measured three-dimensional shape.
  • the three-dimensional shape obtained as described above.
  • the coordinate system (or the three-dimensional image obtained therefrom) and the coordinate system of the three-dimensional image are matched using the three-dimensional shape itself as a cover (natural landmark).
  • the predetermined part 16 is the first part 12
  • the three-dimensional shape becomes a three-dimensional shape corresponding to the affected part of the patient 10.
  • the coordinate transformation matrix of the first portion 12 of the patient 10 with respect to the reference marker portion 110 is PR1. It can be represented as In addition, when the predetermined portion 16 is the second portion 14, the coordinate transformation matrix of the second portion 14 of the patient 10 with respect to the reference marker portion 110 may be represented by PR2. .
  • Equation 1 may be represented by Equation 15 in the case of the first portion 12 and Equation 16 in the case of the second portion 14, and Equation 2 to Equation 14 Equations shown in Equation 15 may be modified and expressed according to Equation 15 and Equation 16.
  • PR1 and PR2 mean coordinate transformation matrices of the first portion 12 and the second portion 14 of the patient 10 with respect to the reference marker portion 110, respectively.
  • T1 is The coordinate transformation matrix, T2, and T2 'of the reference marker unit 110 with respect to the tracking sensor unit 130 are the tracking sensor unit 130 at the first position L1 and the second position L2, respectively.
  • the coordinate transformation matrices T4 and T4 'of the measuring device 122 with respect to the marker 124 are the measuring device of the shape measuring unit 120 at the first position L1 and the second position L2, respectively.
  • the first position (L1) and the second position (L2) is only a formal representation of the position of the shape measuring unit 120 does not mean a specifically quantified position.
  • Equation 15 the coordinate transformation matrix PRX of the first portion 12 with respect to the second portion 14 can be obtained, and can be expressed by Equation 17.
  • Equation 17 The coordinate transformation matrix PRS of the first portion 12 with respect to the tracking sensor unit 130 may be defined as in Equation 18.
  • Equation 18 the reference marker unit 110 and the first position are defined. All coordinate transformation matrices T1, T2, T3, and T4 associated with the shape measuring unit 120 at L1 are excluded.
  • the coordinate transformation matrix PRX can be obtained from Equation 17. Since the second portion 14 has a rigid registration relationship with respect to the first portion 12, the coordinate transformation matrix PRX may be recognized as a fixed invariant matrix.
  • the tracking sensor unit 130 senses the shape measuring unit 120, and the shape measuring unit 120 measures the sticker marker unit STK, thereby continuously maintaining the affected part of the patient 10.
  • the corresponding first portion 12 can be tracked.
  • the tracking sensor 130 senses the shape measuring unit 120 to obtain a coordinate transformation matrix T2 'again, and the shape measuring unit 120, after obtaining the coordinate transformation matrix T4 ′ by measuring the sticker marker part STK, Equation 18 may be applied. Accordingly, when the equations 2 to 14 are applied by substituting the coordinate transformation matrices T2 ', T4' and PRX in Equation 18, the coordinate transformation matrices PRS and T3 'are applied. Since it can be obtained, the first portion 12 of the patient 10 can be easily tracked in real time using the coordinate transformation matrix PRS.
  • the processor 140 measures the coordinate system of the 3D image obtained before the procedure of the patient 10 and the coordinate system of the first portion 12 of the patient 10 by the shape measuring unit 120.
  • the second dimension 14 of the patient 10 may be realigned based on the three-dimensional shape and the third coordinate transformation relationship. That is, the coordinate system of the second part 14 may be defined using the three-dimensional shape of the second part 14 of the patient 10 measured by the shape measuring part 120, and the third transformation may be performed. Since the coordinate transformation matrix PRX corresponding to the relationship may be converted into the first portion 12, the coordinate system and the first portion of the three-dimensional image obtained before the procedure with respect to the patient 10 accordingly.
  • the coordinate system of (12) can be re-aligned.
  • the sticker marker (STK) is easy to detach, even when the position is modified at any time to attach to other parts of the patient 10, by repeating the above process the first part of the patient 10 (12) can be tracked.
  • the sticker marker part STK may be easily attached, and even when the additional sticker marker part is attached to another part of the patient 10 at any time, the above-described process may be performed again.
  • the first portion 12 can be tracked.
  • the tracking process as described above may be automatically or manually performed by a user.
  • the optical tracking system 100 may include a motion detector (not shown) for detecting the movement of the patient 10, and instead of including the tracking sensor unit 130 separately In addition, the movement of the patient 10 may be detected.
  • the processing unit 140 may re-perform the tracking process by re-executing the above process.
  • the reference marker part 110 is the sticker marker part STK in the tracking sensor part 130. May be omitted by directly tracking.
  • FIG. 5 is a conceptual diagram illustrating tracking and registration of a surgical tool in the optical tracking system of FIG. 1.
  • the optical tracking system 100 may further include a surgical tool 150.
  • the surgical tool 150 is a tool for treating the patient 10 and includes a marker 152.
  • the marker 152 may generate energy or a signal to enable sensing in the tracking sensor unit 130.
  • the marker 152 may be formed in plural and may include pattern information.
  • the tracking sensor unit 130 may track the surgical tool 150 by sensing the marker 152 of the surgical tool 150.
  • the processor 140 tracks the first tracking result of the surgical tool 150 tracked by the tracking sensor unit 130 and a first portion of the patient 10 that is relatively tracked with respect to the tracking sensor unit 130. From the second tracking result of (12), the surgical tool 150 can be tracked relative to the first portion 12 of the patient 10.
  • a coordinate transformation relationship between the marker 152 of the surgical tool 150 and the tracking sensor unit 130 is obtained based on the first tracking result, and the patient (based on the second tracking result). Acquisition of the coordinate transformation relationship between the first portion 12 of the 10 and the tracking sensor unit 130.
  • the coordinate transformation relations may be defined, for example, in a matrix form, and may be represented by a coordinate transformation matrix.
  • the processor 140 may define a coordinate system of the surgical tool 150 relative to the patient 10 using the obtained coordinate transformation relationships.
  • the coordinate system may be defined in the form of a matrix.
  • the coordinate transformation matrix T5 of the surgical tool 150 defined relative to the first portion 12 of the patient 10 may be known according to Equation 19 below.
  • the procedure tool 150 may be tracked relative to the first portion 12 of the patient 10 using the coordinate transformation relations measured as described above, and the first portion of the patient 10 may be tracked.
  • the coordinate system of the surgical tool 150 relative to (12) may be defined.
  • the coordinate transformation matrix T5 of the surgical tool 150 is shown based on the marker 152, a point where tracking is required, for example, an end portion of the surgical tool 150 (
  • the processing unit 140 is the treatment tool 150 defined relative to the coordinate system of the three-dimensional image previously obtained before the procedure for the patient 10 and the first portion 12 of the patient 10. ) Can be matched based on a matching result of the coordinate system of the 3D image and the coordinate system of the first portion 12 of the patient 10.
  • the coordinate system of the three-dimensional image obtained before the procedure for the first portion 12 of the patient 10 and the first portion 12 of the patient 10. Can be matched based on the three-dimensional shape measured by the shape measuring unit 120, and the surgical tool 150 relative to the first portion 12 of the patient 10 as described above. Since the coordinate system of the present invention can be defined, the coordinate system of the three-dimensional image and the first region 12 of the patient 10 obtained before the procedure for the first region 12 of the patient 10 are Coordinate systems of the surgical tool 150 defined relative to each other may be matched with each other.
  • the optical tracking system 100 may further include a display unit (not shown) connected to the processing unit 140.
  • the display unit may include a three-dimensional image previously obtained before the procedure, an image of the three-dimensional shape measured by the shape measuring unit 120, an image of the treatment tool 150, and an overlap image in which the images are matched. Can be displayed.
  • the processing unit 140 may define a coordinate system of the surgical tool 150 relative to the first portion 12 of the patient 10 from the coordinate transformation relations and perform the procedure in real time at the time of the procedure.
  • the tool 150 can be tracked.
  • FIG. 6 is a flowchart illustrating a coordinate system matching method and a tracking method of an optical tracking system according to an exemplary embodiment of the present invention.
  • a three-dimensional image such as a CT image obtained before the procedure may be stored in, for example, a computer.
  • the reference marker portion 110 fixed to the patient 10 and the first portion 12 of the patient 10 are disposed at a first position L1 to measure a three-dimensional shape.
  • the shape measuring unit 120 is sensed by the tracking sensor unit 130 (S120).
  • the reference marker unit 110 and the tracking are based on the results sensed by the tracking sensor unit 130 and the results measured by the shape measuring unit 120 disposed at the first position L1.
  • a first coordinate transformation relationship between the sensor unit 130, the shape measuring unit 120, and the first portion 12 of the patient 10 is obtained (S130).
  • the coordinate transformation relationship between the reference marker unit 110 and the tracking sensor unit 130 and the shape measuring unit 120 and the tracking sensor unit (based on the result detected by the tracking sensor unit 130) Acquisition of the coordinate transformation relationship between 130, and the coordinate transformation relationship between the first portion 12 of the patient 10 and the shape measuring unit 120 based on the result measured by the shape measuring unit 120. May be obtained to obtain the first coordinate transformation relationship.
  • a three-dimensional shape is measured with respect to the sticker marker portion STK and the second portion 14 attached to the second portion 14 at a position where rigid registration is possible with respect to the first portion 12.
  • the shape measuring unit 120 disposed at the second position L2 is sensed by the tracking sensor unit 130 (S140).
  • a second coordinate transformation relationship between the sensor unit 130, the shape measuring unit 120, and the second portion 14 of the patient 10 is obtained (S150).
  • the coordinate transformation relationship between the reference marker unit 110 and the tracking sensor unit 130 and the shape measuring unit 120 and the tracking sensor unit (based on the result detected by the tracking sensor unit 130) Acquisition of the coordinate transformation relationship between the 130 and the coordinate transformation relationship between the second portion 14 of the patient 10 and the shape measuring unit 120 based on the result measured by the shape measuring unit 120. May be obtained to obtain the second coordinate transformation relationship.
  • a third coordinate transformation relationship between the first portion 12 and the second portion 14 is extracted from the first and second coordinate transformation relations, and the first relative relative to the tracking sensor unit 130 is obtained.
  • One part 12, ie, the affected part is tracked (S160).
  • a coordinate system of the first portion 12 relative to the tracking sensor unit 130 may be defined.
  • the coordinate system of the 3D image obtained before the procedure for the patient 10 and the coordinate system of the first portion 12 of the patient 10 are based on the 3D shape measured by the shape measuring unit 120. Can be matched to (S170).
  • the coordinate system of the first portion 12 of the patient 10 is defined relative to the tracking sensor unit 130, and the coordinate system of the three-dimensional image such as a CT image obtained in advance and the patient 10.
  • the coordinate system of the first portion 12 of may be matched.
  • the surgical tool 150 is provided with a marker 152 attached to an operator such as a doctor, and the operator uses the surgical tool 150 for directly operating the patient 10 or using equipment such as a surgical robot. Operate. With respect to the surgical tool 150, the following steps for tracking are performed.
  • the tracking sensor unit 130 senses the marker 152 of the surgical tool 150 (S180).
  • the tracking result of the tracking tool 150 and the tracking result of the first portion 12 of the patient 10 tracked relative to the tracking sensor unit 130 are determined.
  • the surgical tool 150 is tracked relative to the first portion 12 (S190).
  • the coordinate system of the surgical tool 150 defined relative to the first portion 12 of the patient 10 according to the acquired coordinate system of the 3D image and the tracking of the surgical tool 150 is 3 Matching is performed based on a matching result of the coordinate system of the 3D image and the coordinate system of the first portion 12 of the patient 10 (S200).
  • the coordinate system of the surgical tool 150 for treating the patient 10 is relatively defined with respect to the first portion 12 of the patient 10, and a three-dimensional image such as a previously obtained CT image is obtained.
  • a coordinate system and the coordinate system of the surgical tool 150 may be matched.
  • a coordinate system matching method of the optical tracking system 100 is briefly described with reference to the flowchart of FIG. 6, but the detailed operation of the optical tracking system 100 is described above with reference to FIGS. 1 to 5. Duplicate detailed description is omitted since it is substantially the same as.
  • a sticker marker part is provided at a position where rigid registration is possible with respect to the affected part, and a shape measuring part measures a three-dimensional shape with respect to the affected part and the sticker marker part, and a tracking sensor part.
  • the shape measuring unit and the reference marker unit are sensed by extracting the coordinate transformation relationship between the affected part and the sticker marker unit from the coordinate transformation relations therebetween, so that the shape measuring unit uses the coordinate transformation relationship to determine the sticker marker.
  • the position and posture of the affected part with respect to the tracking sensor part may be tracked only by the tracking of the part.
  • the shape measuring unit may easily be re-measured to measure the sticker marker unit, even when the patient moves or posture changes, when the procedure using the coordinate transformation relationship between the affected part and the sticker marker unit In order to easily track the affected area and the treatment tool in real time.
  • the shape measuring unit may track the affected part by measuring the sticker marker part without measuring the affected part after the procedure is started, there is no need to move the shaped measuring part to measure the affected part during the procedure, Since the shape measuring unit is positioned around the affected part during the procedure, a problem that may interfere with the procedure can be prevented. Furthermore, since the position at which the sticker marker portion is attached can be selected relatively freely, the position of the shape measuring portion during the procedure can be arranged at a position that does not interfere with the procedure. In addition, the sticker marker portion is attached to the sticker, it can be formed in a form that does not interfere with the procedure, may be attached to a position that does not interfere with the procedure, by employing a number of sticker markers do not interfere with the procedure It can also be used.
  • the sticker marker part when the sticker marker part is manufactured in a three-dimensional form, registration may be made easier by adding feature points, and the reference marker part may be omitted by directly tracking the sticker marker part in the tracking sensor part.
  • the angle when employing two or more sticker markers and two or more shape measuring units corresponding thereto, the angle can be measured by using the coordinate transformation relationship between the sticker markers. The procedure may be possible.
  • the coordinate system of the three-dimensional image obtained before the procedure and the real time during the procedure without attaching the dynamic reference device (DRB) directly to the patient.
  • the coordinate system of the patient and the procedure tool which can be moved to each other may be matched with each other.
  • it is not necessary to attach the dynamic reference device and it may be possible to reset and realign the coordinate system at any time.
  • optical tracking device and the tracking method using the same according to the present invention it is possible to greatly improve the convenience of both the patient and the operator.

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

옵티컬 트래킹 시스템은 기준 마커부, 스티커 마커부, 형상 측정부, 트래킹 센서부 및 처리부를 포함한다. 기준 마커부는 환자의 제1 부위에 상대적으로 고정 배치된다. 스티커 마커부는 제1 부위에 대해서 강체 정합이 가능한 위치의 제2 부위에 스티커 형태로 부착된다. 형상 측정부는 제1 부위 및 제2 부위에 대하여 3차원 형상을 측정한다. 트래킹 센서부는 기준 마커부 및 형상 측정부를 센싱한다. 처리부는, 기준 마커부, 트래킹 센서부, 형상 측정부 및 환자의 제1 부위 사이의 제1 좌표변환관계 및 기준 마커부, 트래킹 센서부, 형상 측정부 및 환자의 제2 부위 사이의 제2 좌표변환관계를 획득하고, 제1 부위 및 제2 부위 사이의 제3 좌표변환관계를 추출하여, 제1 부위를 트래킹한다.

Description

옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법
본 발명은 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법에 관한 것으로, 더욱 상세하게는 환자나 시술도구를 트래킹하기 위한 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법에 관한 것이다.
최근 환자의 환부를 치료하는 수술에 있어서 기 촬영된 영상을 이용한 영상유도 수술(image-guided surgery)이 많이 활용되고 있다. 특히, 환자 신체내의 중요한 신경과 주요 장기들을 회피하면서 수술을 진행하여야 하는 경우에는, 기 촬영된 영상을 기반으로 하여 높은 정확도를 갖는 수술을 진행할 것이 요구된다.
일반적으로, 기 촬영된 영상은 MRI 촬영, CT 촬영 등에 의해 획득된 3차원 영상을 포함하며, 수술 시작 시에는 이러한 기 촬영된 3차원 영상의 좌표계와 환자의 좌표계를 서로 일치시키는 정합(registration)이 필요하고, 수술 진행 중에는 환자나 수술도구의 움직임에 따른 위치 및 자세 변화를 실시간으로 파악하는 것이 필요하다. 또한, 수술 중에 환자의 자세가 변하는 경우, 환자의 좌표계를 재정합(re-registration)하여 환자 혹은 환부를 지속적으로 추적하는 것이 필요하다.
종래에는 이러한 정합 및 트래킹을 위하여 동적참조 장치(dynamic reference base, DRB)가 활용되어 왔다. 즉, 사전에 상기 동적참조 장치를 환자에 부착한 후 CT와 같은 3차원 영상을 촬영하고, 수술 시작 시에 상기 3차원 영상의 좌표계와 환자의 좌표계를 서로 정합한 후, 수술 진행 중에는 상기 동적참조 장치를 기초로 수술도구를 트래킹함으로써 환자의 환부에 대한 상대적인 수술도구의 위치 등을 트래킹한다. 이 경우, 정합을 위해서 상기 동적참조 장치가 환자에 고정된 채로 사전에 3차원 영상이 촬영될 필요가 있고, 정확한 트래킹을 위해서 엄격하게 환자에 고정될 필요가 있다.
이를 위해 종래에는, 예를 들면, 환자의 뼈 부분에 마커(marker)를 박은 후 이를 센싱하여 트래킹하는 방법, 환자의 치아에 마커가 부착된 템플릿(template)를 물린 후 이를 센싱하여 트래킹하는 방법 등이 채용되거나, 인공 구조물을 생성하여 가공된 스탬프(STAMP, Surface Template-Assisted Marker Position)를 이용하는 방법 등이 채용되어 왔다.
그러나, 상기와 같은 종래의 방법들은, 마커 부착의 어려움과 뼈에 박음으로써 생기는 부작용, 치아에 물림으로써 발생할 수 있는 마커 위치 변화에 따른 정확성 및 신뢰성 감소, 수술 전에 고가의 스탬프를 제작하여야 하는 번거로움과 제작에 소요되는 많은 시간과 비용 등과 같은 여러 가지 문제점들이 있다. 또한, 종래의 방법들의 경우, 동적참조 장치가 엄격하게 환자에게 고정된다고 하더라도, 환자가 움직일 경우에는 상기 동적참조 장치와 환자의 환부 사이의 거리, 자세 등이 변할 수 있으므로, 정확한 트래킹이 이루어지지 않고 재정합도 할 수 없어 이를 사용할 수 없는 문제가 있다. 따라서, 종래의 방법들의 경우, 환자가 움직이지 않는다는 가정을 하고 수술을 진행하지만, 현실적으로 수술 중에 환자가 움직이는 경우가 많으므로, 실질적으로 정확한 트래킹이 이루어지기에는 어려움이 있다.
따라서, 보다 짧은 시간에 적은 비용으로 정확한 정합 결과를 획득할 수 있는 정합 방법의 개발이 요청되고, 수술 중에 환자가 움직이거나 자세가 변하는 경우에도 트래킹이 비교적 정확하고 용이한 트래킹 시스템 및 트래킹 방법의 개발이 요청된다.
따라서, 본 발명이 해결하고자 하는 과제는, 보다 짧은 시간에 적은 비용으로 정확하고 용이하게 환자나 시술도구를 트래킹할 수 있고 환자와 시술자의 편의성을 향상시킬 수 있는 옵티컬 트래킹 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 다른 과제는, 보다 짧은 시간에 적은 비용으로 정확하고 용이하게 환자나 시술도구를 트래킹할 수 있고 환자와 시술자의 편의성을 향상시킬 수 있는 옵티컬 트래킹 시스템의 트래킹 방법을 제공하는 것이다.
본 발명의 예시적인 일 실시예에 따른 옵티컬 트래킹 시스템(optical tracking system)은 환자에 대한 시술 이전에 미리 획득되며 상기 환자의 환부에 대응하는 제1 부위를 포함하는 3차원 영상을 이용하여 환자나 상기 환자를 시술하기 위한 시술도구를 트래킹하기 위하여 제공된다. 상기 옵티컬 트래킹 시스템은 기준 마커(marker)부, 스티커 마커부, 형상 측정부, 트래킹 센서부 및 처리부를 포함한다. 상기 기준 마커부는 상기 환자의 제1 부위에 상대적으로 고정 배치된다. 상기 스티커 마커부는 상기 제1 부위에 대해서 강체 정합이 가능한 위치의 제2 부위에 스티커 형태로 부착된다. 상기 형상 측정부는 상기 제1 부위 및 상기 제2 부위에 대하여 3차원 형상을 측정한다. 상기 트래킹 센서부는 상기 기준 마커부 및 상기 형상 측정부를 각각 트래킹하도록 상기 기준 마커부 및 상기 형상 측정부를 센싱(sensing)한다. 상기 처리부는, 상기 트래킹 센서부에서 센싱된 결과 및 상기 형상 측정부에서 측정된 결과를 기초로, 상기 기준 마커부, 상기 트래킹 센서부, 상기 형상 측정부 및 상기 환자의 제1 부위 사이의 제1 좌표변환관계를 획득하고, 상기 기준 마커부, 상기 트래킹 센서부, 상기 형상 측정부 및 상기 환자의 제2 부위 사이의 제2 좌표변환관계를 획득하며, 상기 제1 및 제2 좌표변환관계들로부터 상기 제1 부위 및 상기 제2 부위 사이의 제3 좌표변환관계를 추출하여 상기 트래킹 센서부에 대해 상대적인 상기 제1 부위를 트래킹한다.
일 실시예로, 상기 처리부는, 상기 형상 측정부가 제1 위치에 배치될 때, 상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 제1 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하여, 상기 제1 좌표변환관계를 획득할 수 있다. 또한 상기 처리부는, 상기 형상 측정부가 상기 제1 위치와 다른 제2 위치에 배치될 때, 상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 제2 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하여, 상기 제2 좌표변환관계를 획득할 수 있다.
예를 들면, 상기 형상 측정부는, 3차원 형상을 측정하는 측정장치 및 상기 측정장치에 설치된 마커를 포함할 수 있고, 상기 트래킹 센서부는 상기 형상 측정부의 마커를 센싱할 수 있으며, 상기 처리부는, 상기 형상 측정부의 마커와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부의 상기 측정장치와 상기 마커 사이의 좌표변환관계를 획득할 수 있다.
예를 들면, 상기 좌표변환관계들은 좌표변환행렬로 표현될 수 있고, 상기 처리부는 하기 수학식에 의해 상기 제1 좌표변환관계 및 상기 제2 좌표변환관계를 정의할 수 있다.
Figure PCTKR2015013967-appb-I000001
(PR은 상기 기준 마커부에 대한 상기 환자의 제1 부위 또는 제2 부위의 좌표변환행렬, T1은 상기 트래킹 센서부에 대한 상기 기준 마커부의 좌표변환행렬, T2는 상기 트래킹 센서부에 대한 상기 형상 측정부의 마커의 좌표변환행렬, T3는 상기 형상 측정부의 마커에 대한 상기 형상 측정부의 측정장치의 좌표변환행렬, T4는 상기 형상 측정부의 측정장치에 대한 상기 환자의 제1 부위 또는 제2 부위의 좌표변환행렬)
일 실시예로, 상기 트래킹 센서부는 상기 트래킹 센서부에 대한 상기 기준 마커부의 좌표변환행렬(T1) 및 상기 트래킹 센서부에 대한 상기 형상 측정부의 마커의 좌표변환행렬(T2)을 획득하기 위한 정보를 측정할 수 있고, 상기 형상 측정부는 상기 형상 측정부의 측정장치에 대한 상기 환자의 제1 부위 또는 제2 부위의 좌표변환행렬(T4)을 획득하기 위한 정보를 측정할 수 있으며, 상기 처리부는 상기 측정된 정보들을 이용하여 상기 좌표변환행렬들(T1, T2, T4)을 획득하고, 상기 획득된 좌표변환행렬들(T1, T2, T4)로부터 상기 형상측정부의 마커에 대한 상기 형상측정부의 측정장치의 좌표변환행렬(T3) 및 상기 기준 마커부에 대한 상기 환자의 제1 부위 또는 제2 부위의 좌표변환행렬(PR)을 산출할 수 있다.
예를 들면, 상기 트래킹 센서부 및 상기 형상 측정부의 측정은 상기 환자의 제1 부위 및 제2 부위 각각에 대해서 2회 이상 수행될 수 있다.
상기 기준 마커부에 대한 상기 환자의 제1 부위의 좌표변환행렬을 PR1이라 정의하고, 상기 기준 마커부에 대한 상기 환자의 제2 부위의 좌표변환행렬을 PR2라 정의할 때, 상기 제3 좌표변환관계는 하기 수학식에 의해 정의되는 좌표변환행렬 PRX로 표현될 수 있다.
Figure PCTKR2015013967-appb-I000002
이때, 상기 처리부는 상기 좌표변환행렬 PRX를 이용하여 상기 제1 부위를 상기 트래킹 센서부에 대해 상대적으로 트래킹할 수 있다.
상기 처리부는 상기 환자에 대하여 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 환자의 제1 부위의 좌표계를 상기 형상 측정부에서 측정된 3차원 형상을 기초로 정합할 수 있다. 또한, 상기 처리부는 상기 환자에 대하여 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 환자의 제1 부위의 좌표계를 상기 형상 측정부에서 측정된 상기 환자의 제2 부위의 3차원 형상 및 상기 제3 좌표변환관계를 기초로 재정합할 수 있다.
상기 옵티컬 트래킹 시스템은, 상기 환자를 시술하기 위해 제공되며 마커를 포함하는 시술도구를 더 포함할 수 있다. 상기 트래킹 센서부는 상기 시술도구를 트래킹하도록 상기 시술도구의 마커를 센싱하며, 상기 처리부는 상기 트래킹 센서부에서 트래킹된 상기 시술도구의 트래킹 결과 및 상기 트래킹 센서부에 대해 상대적으로 트래킹된 상기 환자의 제1 부위의 트래킹 결과로부터, 상기 환자의 제1 부위에 대해 상대적으로 상기 시술도구를 트래킹할 수 있다.
예를 들면, 상기 스티커 마커부는 3차원 형태의 마커를 포함할 수 있고, 복수로 형성되어 서로 다른 부위에 각각 부착될 수 있다.
상기 처리부는, 상기 환자에 대한 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 환자에 대해 상대적으로 정의된 상기 시술도구의 좌표계를, 상기 3차원 영상의 좌표계 및 상기 환자의 좌표계의 정합 결과를 기초로 정합할 수 있다.
본 발명의 예시적인 일 실시예에 따른 옵티컬 트래킹 시스템의 트래킹 방법은, 환자에 대한 시술 이전에 상기 환자의 환부에 대응하는 제1 부위를 포함하는 3차원 영상을 획득하는 단계, 상기 환자의 제1 부위에 상대적으로 고정 배치된 기준 마커부 및 상기 제1 부위에 대하여 3차원 형상을 측정하도록 제1 위치에 배치되는 형상 측정부를 트래킹 센서부에 의해 센싱하는 단계, 상기 트래킹 센서부에서 센싱된 결과 및 상기 제1 위치에 배치된 상기 형상 측정부에서 측정된 결과를 기초로, 상기 기준 마커부, 상기 트래킹 센서부, 상기 형상 측정부 및 상기 환자의 제1 부위 사이의 제1 좌표변환관계를 획득하는 단계, 상기 제1 부위에 대해서 강체 정합이 가능한 위치의 제2 부위에 스티커 형태로 부착되는 스티커 마커부 및 상기 제2 부위에 대하여 3차원 형상을 측정하도록 제2 위치에 배치되는 형상 측정부를 트래킹 센서부에 의해 센싱하는 단계, 상기 트래킹 센서부에서 센싱된 결과 및 상기 제2 위치에 배치된 상기 형상 측정부에서 측정된 결과를 기초로, 상기 기준 마커부, 상기 트래킹 센서부, 상기 형상 측정부 및 상기 환자의 제2 부위 사이의 제2 좌표변환관계를 획득하는 단계 및 상기 제1 및 제2 좌표변환관계들로부터 상기 제1 부위 및 상기 제2 부위 사이의 제3 좌표변환관계를 추출하여 상기 트래킹 센서부에 대해 상대적인 상기 제1 부위를 트래킹하는 단계를 포함한다.
일 실시예로, 상기 제1 좌표변환관계를 획득하는 단계는, 상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 제1 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하여, 상기 제1 좌표변환관계를 획득하는 단계를 포함할 수 있다. 또한, 상기 제2 좌표변환관계를 획득하는 단계는, 상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 제2 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하여, 상기 제2 좌표변환관계를 획득하는 단계를 포함할 수 있다.
예를 들면, 상기 옵티컬 트래킹 시스템의 트래킹 방법은 상기 환자에 대하여 시술 이전에 획득된 3차원 영상의 좌표계 및 상기 환자의 제1 부위의 좌표계를 상기 형상 측정부에서 측정된 3차원 형상을 기초로 정합하는 단계를 더 포함할 수 있다.
상기 옵티컬 트래킹 시스템의 트래킹 방법은, 상기 환자를 시술하기 위한 시술도구를 트래킹하도록 상기 시술도구의 마커를 센싱하는 단계, 및 상기 트래킹 센서부에서 트래킹된 상기 시술도구의 트래킹 결과 및 상기 트래킹 센서부에 대해 상대적으로 트래킹된 상기 환자의 제1 부위의 트래킹 결과로부터, 상기 환자의 제1 부위에 대해 상대적으로 상기 시술도구를 트래킹하는 단계를 더 포함할 수 있다.
상기 환자의 제1 부위에 대해 상대적으로 상기 시술도구를 트래킹하는 단계 이후에, 상기 옵티컬 트래킹 시스템의 트래킹 방법은, 상기 획득된 3차원 영상의 좌표계 및 상기 시술도구의 트래킹에 따라 상기 환자의 제1 부위에 대해 상대적으로 정의되는 상기 시술도구의 좌표계를 상기 3차원 영상의 좌표계 및 상기 환자의 제1 부위의 좌표계의 정합 결과를 기초로 정합하는 단계를 더 포함할 수 있다.
본 발명의 예시적인 다른 실시예에 따른 옵티컬 트래킹 시스템은 환자에 대한 시술 이전에 미리 획득되며 상기 환자의 환부에 대응하는 제1 부위를 포함하는 3차원 영상을 이용하여 환자나 상기 환자를 시술하기 위한 시술도구를 트래킹하기 위하여 제공된다. 상기 옵티컬 트래킹 시스템은 스티커 마커부, 형상 측정부, 트래킹 센서부 및 처리부를 포함한다. 상기 스티커 마커부는 상기 제1 부위에 대해서 강체 정합이 가능한 위치의 제2 부위에 스티커 형태로 부착된다. 상기 형상 측정부는 상기 제1 부위 및 상기 제2 부위에 대하여 3차원 형상을 측정한다. 상기 트래킹 센서부는 상기 스티커 마커부 및 상기 형상 측정부를 각각 트래킹하도록 상기 스티커 마커부 및 상기 형상 측정부를 센싱한다. 상기 처리부는 상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 스티커 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 제1 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하여, 상기 획득된 좌표변환관계들로부터 상기 스티커 마커부에 대해 상대적인 상기 환자의 좌표계를 정의한다.
본 발명에 따르면, 옵티컬 트래킹 시스템이 환부에 대해서 강체 정합이 가능한 위치에 스티커 마커부를 구비하여, 형상 측정부에서 상기 환부와 상기 스티커 마커부에 대하여 3차원 형상을 측정하고, 트래킹 센서부에서 상기 형상 측정부와 기준 마커부를 센싱하여, 이들 사이의 좌표변환관계들로부터 상기 환부와 상기 스티커 마커부 사이의 좌표변환관계를 추출함으로써, 상기 좌표변환관계를 이용하여 상기 형상 측정부가 상기 스티커 마커부를 트래킹하는 작업만으로 상기 트래킹 센서부에 대한 상기 환부의 위치 및 자세 등을 트래킹할 수 있다.
또한, 상기 형상 측정부가 상기 스티커 마커부를 측정하는 과정이 용이하게 재수행될 수 있으므로, 상기 환자가 움직이거나 자세가 변하는 경우에도, 상기 환부와 상기 스티커 마커부 사이의 좌표변환관계를 이용하여 시술 시에 용이하게 상기 환부 및 상기 시술도구를 실시간으로 정확하게 트래킹할 수 있다.
또한, 시술이 개시된 이후에 상기 형상 측정부는 상기 환부를 측정할 필요 없이 상기 스티커 마커부를 측정하면 상기 환부를 트래킹할 수 있으므로, 시술 중에 상기 환부를 측정하기 위해 상기 형상 측정부를 이동시킬 필요가 없고, 시술 중에 상기 형상 측정부가 상기 환부 주위에 위치함으로써 시술에 방해가 되는 문제를 방지할 수 있다. 더욱이, 상기 스티커 마커부가 부착되는 위치는 비교적 자유롭게 선정될 수 있으므로, 시술 중의 상기 형상 측정부의 위치를 시술에 방해가 되지 않는 위치에 배치할 수 있다. 또한, 상기 스티커 마커부는 스티커 부착형이므로, 시술에 방해가 되지 않는 형태로 형성될 수 있고, 시술에 방해가 되지 않는 위치에 부착될 수도 있으며, 여러 개의 스티커 마커부들을 채용하여 시술에 방해가 되지 않도록 활용할 수도 있다.
또한, 상기 스티커 마커부를 3차원 형태로 제작하는 경우, 특징점 추가를 통하여 정합을 보다 용이하게 할 수 있고, 상기 트래킹 센서부에서 상기 스티커 마커부를 직접 트래킹함으로써 상기 기준 마커부를 생략할 수도 있다. 또한, 두 개 이상의 스티커 마커부들 및 이에 대응하는 두 개 이상의 형상 측정부들을 채용하는 경우, 상기 스티커 마커부들 사이의 좌표변환관계를 이용하여 각도 측정이 가능하므로, 무릎 수술과 같은 시술 시에도 각도 측정에 의해 시술이 가능할 수 있다.
또한, 시술 시에 측정된 상기 환자의 3차원 형상 자체를 표지로 정합이 가능하므로, 동적 참조장치(DRB)를 환자에 직접 부착하지 않고도 시술 전에 미리 획득된 3차원 영상의 좌표계와 시술 시에 실시간으로 이동될 수 있는 환자의 좌표계 및 시술도구의 좌표계를 서로 정합할 수 있다. 아울러, 사전에 상기 3차원 영상을 획득할 때에도 상기 동적 참조장치를 부착할 필요가 없고, 언제든지 좌표계의 재설정 및 재정합이 가능할 수 있다.
따라서, 마커를 환자에 직접 부착함으로 야기되는 환자의 고통과 오차, 수술 전에 스탬프를 제작하여야 하는 등의 작업의 번거로움과 많은 소요 시간 및 비용 등과 같은 종래기술의 문제점들을 해결할 수 있다.
즉, 별도의 준비과정 없이 수술실 내에서 신속히 환자의 좌표계를 설정하고 영상 정합을 수행할 수 있으므로, 보다 짧은 시간 및 적은 비용으로 정확하고 용이하게 환자의 좌표계 및 시술도구의 좌표계 설정 및 영상 정합이 가능하며, 환자에 직접 부착되는 동적 참조장치(DRB) 대신 스티커 형태의 스티커 마커부를 이용하여 환자의 고통 및 부작용을 경감할 수 있다.
따라서, 본 발명에 따른 옵티컬 트래킹 장치 및 이를 이용한 트래킹 방법에 따르면, 환자 및 시술자 모두의 편의성을 크게 향상시킬 수 있다.
도 1은 본 발명의 일 실시예에 의한 옵티컬 트래킹 시스템을 나타낸 개념도이다.
도 2 내지 도 4는 도 1의 옵티컬 트래킹 시스템의 모델링 과정을 설명하기 위한 개념도들이다.
도 5는 도 1의 옵티컬 트래킹 시스템에서 시술도구의 트래킹 및 정합을 설명하기 위한 개념도이다.
도 6은 본 발명의 일 실시예에 의한 옵티컬 트래킹 시스템의 좌표계 정합방법 및 트래킹 방법을 나타낸 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 의한 옵티컬 트래킹 시스템을 나타낸 개념도이다.
도 1을 참조하면, 본 발명의 일 실시예에 의한 옵티컬 트래킹 시스템(optical tracking system)은 환자(10)에 대한 시술 이전에 미리 획득되며 상기 환자(10)의 환부에 대응하는 제1 부위(12)를 포함하는 3차원 영상을 이용하여 환자(10)나 상기 환자(10)를 시술하기 위한 시술도구를 트래킹하기 위해 제공된다.
상기 3차원 영상은 상기 환자(10)에 대한 시술 이전에 미리 획득된 영상으로서, 상기 환자(10)에 대한 시술 시에 기준 영상으로 활용될 수 있다. 여기서, 상기 시술은 수술을 포함하는 환자에 대한 의료적 치료 행위 전체를 포함한다. 예를 들면, 상기 3차원 영상은 진단 및 치료를 위하여 병원에서 일반적으로 획득하는 CT(컴퓨터 단층촬영, computed tomography) 영상을 포함할 수 있다. 이와는 다르게, 상기 3차원 영상은 MRI(자기공명영상, magnetic resonance imaging) 등과 같은 다른 3차원 영상을 포함할 수 있다. 또한, 여기서 상기 3차원 영상은 CT 영상과 같이 직접 촬영된 영상을 조작하거나 재구성한 영상도 포함하는 개념으로서, 실제 시술 시에 널리 활용되는 다평면 재구성 영상 및 3차원 재구성 영상도 모두 포함하는 개념이다.
상기 옵티컬 트래킹 시스템(100)은, 기준 마커(marker)부(110), 형상 측정부(120), 트래킹 센서부(130), 처리부(140) 및 스티커 마커부(STK)를 포함한다. 상기 옵티컬 트래킹 시스템(100)은 환자(10)에 대한 시술 이전에 미리 획득되며 상기 환자(10)의 환부에 대응하는 제1 부위(12)를 포함하는 3차원 영상을 이용하여 환자(10)나 상기 환자(10)를 시술하기 위한 시술도구를 트래킹하기 위해 제공된다.
상기 기준 마커부(110)는 상기 환자(10)의 제1 부위(12)에 상대적으로 고정 배치된다. 상기 제1 부위(12)는 상기 환자(10)의 환부에 대응하는 부위로서, 시술의 대상이 되는 부위이다.
상기 기준 마커부(110)에는 마커(112)가 설치되며, 상기 마커(112)는 후술되는 트래킹 센서부(130)에서 센싱이 가능하도록 에너지 또는 신호를 발생시킬 수 있다. 예를 들면, 상기 기준 마커부(110)에는 복수의 마커들이 설치될 수 있으며, 소정의 패턴이 형성된 하나의 마커가 설치될 수도 있다.
상기 기준 마커부(110)는 종래의 동적 참조장치(DBR)와 대응되지만, 상기 기준 마커부(110)는 종래의 동적 참조장치와 다르게 정합의 기준이 되지 않으므로, CT, MRI와 같은 상기 3차원 영상을 촬영할 때 이를 상기 환자(10)에 부착할 필요가 없다. 또한, 종래의 동적 참조장치는 반드시 상기 환자(10)에 직접 부착되어야 하고, 상기 환자(10)에 대해 엄격하게 고정되어야 하는 반면, 상기 기준 마커부(110)는 상기 환자(10)에 직접 부착되어도 되지만, 상기 환자(10)에 대해 상대적으로 고정되기만 하면 되므로 수술실의 침대 등 다른 고정물체에 부착될 수 있으며, 상기 환자(10)에 대해 엄격하게 고정되어야 할 필요가 없다.
상기 스티커 마커부(STK)는 상기 제1 부위(12)에 대해서 강체 정합이 가능한 위치의 제2 부위(14)에 스티커 형태로 부착된다. 상기 제2 부위(14)는 상기 제1 부위(12)에 대해서 강체 정합이 가능하다면 어느 위치에 형성되어도 무방하다. 또한, 상기 강체 정합이란 엄밀한 의미의 강체 정합일 필요는 없으며, 상기 환자(10)에 대한 시술의 정밀성과 정확성 등에 따라 융통성 있게 해석될 수 있다.
예를 들면, 상기 스티커 마커부(STK)는 3차원 형태의 마커를 포함할 수 있고, 복수로 형성되어 서로 다른 부위에 각각 부착될 수도 있다.
상기 형상 측정부(120)는 상기 제1 부위(12) 및 상기 제2 부위(14)에 대하여 3차원 형상을 측정한다.
일 실시예로, 상기 형상 측정부(120)는 측정장치(122) 및 마커(124)를 포함할 수 있다.
상기 측정장치(122)는 상기 3차원 영상이 포함하는 상기 환자(10)의 제1 부위(12)에 대하여 3차원 형상을 측정하고, 상기 제1 부위(12)에 대해서 강체 정합이 가능한 위치에 존재하는 상기 환자(10)의 제2 부위(14)에 대하여 3차원 형상을 측정한다. 이때, 상기 형상 측정부(120)는 상기 제1 부위(12)에 대응하여 제1 위치에 배치될 수 있고, 상기 제2 부위(14)에 대응하여 제2 위치에 배치될 수 있다. 상기 제1 위치와 상기 제2 위치는 각각 상기 제1 부위(12) 및 상기 제2 부위(14)에 대응하여 배치되므로, 서로 다른 위치인 것이 바람직할 수 있으나, 동일한 위치여도 무방하다.
일 실시예로, 상기 측정장치(122)는 격자패턴광을 상기 환자(10)의 상기 제1 부위(12) 또는 상기 제2 부위(14)에 조사하고, 상기 격자패턴광에 따른 상기 환자(10)의 상기 제1 부위(12) 또는 상기 제2 부위(14)에 대한 반사이미지를 획득한 후, 상기 획득된 반사이미지에 버킷 알고리즘(bucket algorithm)을 적용하여 3차원 형상을 측정할 수 있다. 또한, 상기 측정된 3차원 형상으로부터 3차원 영상을 획득할 수도 있다.
다른 실시예로, 상기 측정장치(122)는 광간섭 단층 촬영(optical coherence tomography; OCT) 장치를 포함할 수도 있다. 상기 광간섭 단층 촬영 장치는 광의 간섭 현상과 공초점 현미경 원리를 조합하여 생체조직 내부의 미세 구조를 3차원 영상화할 수 있는 높은 분해능을 가진 영상 진단 장치로, 예를 들어 근적외선(파장 0.6㎛ ~ 1.3㎛) 영역의 광원을 사용하여 비접촉식 및 비침습적으로 생체 조직의 단면을 영상화하는 광학적 단층 촬영 장치이다. 구체적으로 예를 들면, 상기 광간섭 단층 촬영 장치는 마이켈슨(Michelson) 간섭계에 기반을 두고 동작될 수 있다. 즉, 광원으로부터 발생된 광 신호가 광 커플러에서 두 개의 광 신호로 나누어져 기준단과 샘플단으로 입사되면, 상기 기준단으로부터 되돌아온 기준광과 상기 샘플단에서 후방 산란된 샘플광이 다시 만나 광간섭을 일으키고, 이러한 광간섭 신호를 이용하여 촬영 대상의 단면이 영상화될 수 있다.
상기 마커(124)는 상기 측정장치(122)에 설치된다. 상기 마커(124)는 후술되는 트래킹 센서부(130)에서 센싱이 가능하도록 에너지 또는 신호를 발생시킬 수 있다. 예를 들면, 상기 형상 측정부(120)에는 복수의 마커들이 설치될 수 있으며, 소정의 패턴이 형성된 하나의 마커가 설치될 수도 있다.
상기 트래킹 센서부(130)는 상기 기준 마커부(110) 및 상기 형상 측정부(120)를 각각 트래킹할 수 있도록 상기 기준 마커부(110) 및 상기 형상 측정부(120)를 센싱(sensing)한다.
예를 들면, 상기 트래킹 센서부(130)는 상기 기준 마커부(110)의 마커(112)를 센싱할 수 있고, 상기 형상 측정부(120)의 마커(124)를 센싱할 수 있다. 이에 따라, 상기 기준 마커부(110)의 위치 및/또는 자세를 알 수 있고, 상기 형상 측정부(120)의 위치 및/또는 자세를 알 수 있다.
상기 처리부(140)는, 예를 들면, 컴퓨터 또는 컴퓨터의 중앙처리장치를 포함할 수 있다.
상기 처리부(140)는 상기 트래킹 센서부(130)에서 센싱된 결과 및 상기 형상 측정부(120)에서 측정된 결과를 기초로, 상기 기준 마커부(110), 상기 트래킹 센서부(130), 상기 형상 측정부(120) 및 상기 환자의 제1 부위(12) 사이의 제1 좌표변환관계를 획득하고, 상기 기준 마커부(110), 상기 트래킹 센서부(130), 상기 형상 측정부(120) 및 상기 환자의 제2 부위(14) 사이의 제2 좌표변환관계를 획득한다. 상기 처리부(140)는 상기 제1 및 제2 좌표변환관계들로부터 상기 제1 부위(12) 및 상기 제2 부위(14) 사이의 제3 좌표변환관계를 추출하여 상기 트래킹 센서부(130)에 대해 상대적인 상기 제1 부위(12)를 트래킹한다.
구체적으로, 상기 처리부(140)는, 상기 형상 측정부(120)가 상기 제1 위치에 배치될 때, 상기 트래킹 센서부(130)에서 센싱된 결과를 기초로 상기 기준 마커부(110)와 상기 트래킹 센서부(130) 사이의 좌표변환관계 및 상기 형상 측정부(120)와 상기 트래킹 센서부(130) 사이의 좌표변환관계를 획득한다. 이에 따라, 상기 처리부(140)는 상기 형상 측정부(120)에서 측정된 결과를 기초로 상기 환자(10)의 제1 부위(12)와 상기 형상 측정부(120) 사이의 좌표변환관계를 획득한다. 이와 같이 획득된 상기 좌표변환관계들로부터 상기 제1 좌표변환관계가 획득될 수 있다. 여기서, 상기 좌표변환관계들은, 예를 들면, 행렬 형태로 정의될 수 있다.
또한 상기 처리부(140)는, 상기 형상 측정부(120)가 상기 제2 위치에 배치될 때, 상기 트래킹 센서부(130)에서 센싱된 결과를 기초로 상기 기준 마커부(110)와 상기 트래킹 센서부(130) 사이의 좌표변환관계 및 상기 형상 측정부(120)와 상기 트래킹 센서부(130) 사이의 좌표변환관계를 획득한다. 이에 따라, 상기 처리부(140)는 상기 형상 측정부(120)에서 측정된 결과를 기초로 상기 환자(10)의 제2 부위(14)와 상기 형상 측정부(120) 사이의 좌표변환관계를 획득한다. 이와 같이 획득된 상기 좌표변환관계들로부터 상기 제2 좌표변환관계가 획득될 수 있다. 여기서, 상기 좌표변환관계들은, 예를 들면, 행렬 형태로 정의될 수 있다.
상기 처리부(140)는 획득된 상기 제1 및 제2 좌표변환관계들로부터 상기 제1 부위(12) 및 상기 제2 부위(14) 사이의 제3 좌표변환관계를 추출하고, 상기 트래킹 센서부(130)에 대해 상대적인 상기 제1 부위(12)를 트래킹한다
한편, 상기 형상 측정부(120)의 상기 측정장치(122)의 측정위치와 상기 형상 측정부(120)의 마커(124)의 위치는 다소 차이가 나므로, 정확한 좌표계의 정의를 위하여 상기 측정장치(122)와 상기 마커(124) 사이의 위치 차이에 따른 오차를 캘리브레이션(calibration)할 수도 있다. 이에 따라, 상기 처리부(140)는, 상기 형상 측정부(120)의 마커(124)와 상기 트래킹 센서부(130) 사이의 좌표변환관계 및 상기 형상 측정부(120)의 상기 측정장치(122)와 상기 마커(124) 사이의 좌표변환관계를 별개로 획득할 수 있다. 예를 들면, 상기 좌표변환관계들은 좌표변환행렬로 표현될 수 있다.
이하, 상기 좌표변환관계들을 이용하여 상기 환자(10)의 제1 부위(12)를 트래킹하기 위한 상기 옵티컬 트래킹 시스템(100)의 모델링 설정 및 해결 과정을 도면을 참조로 보다 상세하게 설명한다.
도 2 내지 도 4는 도 1의 옵티컬 트래킹 시스템의 모델링 과정을 설명하기 위한 개념도들이다.
도 2를 참조하면, 상기 옵티컬 트래킹 시스템(100)은 상기 좌표변환관계들을 좌표변환행렬들 T1, T2, T3, T4 및 PR로 각각 나타낼 수 있다.
여기서, PR은 상기 기준 마커부(110)에 대한 상기 환자(10)의 소정 부위(16)의 좌표변환행렬, T1은 상기 트래킹 센서부(130)에 대한 상기 기준 마커부(110)의 좌표변환행렬, T2는 상기 트래킹 센서부(130)에 대한 상기 형상 측정부(120)의 마커(124)의 좌표변환행렬, T3는 상기 형상 측정부(120)의 마커(124)에 대한 측정장치(122)의 좌표변환행렬, T4는 상기 형상 측정부(120)의 측정장치(122)에 대한 상기 환자(10)의 소정 부위(16)의 좌표변환행렬을 의미한다. 여기서, 상기 소정 부위(16)는 상기 제1 부위(12) 및 상기 제2 부위(14)를 포함하는 상기 환자(10)의 특정 부위를 의미한다.
상기 기준 마커부(110)에 대한 상기 환자(10)의 소정 부위(16)의 좌표변환행렬(PR)을 도 2에 도시된 화살표 방향을 기초로 폐루프(closed loop)가 형성되도록 T1, T2, T3 및 T4로 나타내면 수학식 1을 얻을 수 있다.
(수학식 1)
Figure PCTKR2015013967-appb-I000003
한편, 상기 트래킹 센서부(130)로부터 상기 환자(10)까지 서로 다른 두 개의 경로를 폐루프가 되도록 형성하여 수학식 2를 얻은 후, 이를 변형하여도 동일한 결과인 수학식 1을 얻을 수 있다.
(수학식 2)
Figure PCTKR2015013967-appb-I000004
상기 처리부(140)는 수학식 1(또는 수학식 2)에 의해 좌표변환행렬 PR을 획득함으로써, 상기 기준 마커부(110)에 대해 상대적인 상기 환자(10)의 소정 부위(16)의 좌표계를 정의할 수 있다.
예를 들면, 상기 트래킹 센서부(130)는 상기 트래킹 센서부(130)에 대한 상기 기준 마커부(110)의 좌표변환행렬(T1) 및 상기 트래킹 센서부(130)에 대한 상기 형상 측정부(120)의 마커(124)의 좌표변환행렬(T2)을 획득하기 위한 정보를 측정할 수 있고, 상기 형상 측정부(120)는 상기 형상 측정부(120)의 측정장치(122)에 대한 상기 환자(10)의 소정 부위(16)의 좌표변환행렬(T4)을 획득하기 위한 정보를 측정할 수 있다. 상기 처리부(140)는 상기 측정된 정보들을 이용하여 좌표변환행렬들(T1, T2, T4)을 획득할 수 있고, 상기 획득된 좌표변환행렬들(T1, T2, T4)로부터 상기 형상측정부(120)의 마커(124)에 대한 측정장치(122)의 좌표변환행렬(T3) 및 상기 기준 마커부(110)에 대한 상기 환자(10)의 소정 부위(16)의 좌표변환행렬(PR)을 산출할 수 있다.
구체적으로, 상기 좌표변환행렬들(T3, PR)은 아래와 같은 수학적 방식을 적용하여 획득될 수 있으며, 상기 처리부(140)는 이러한 수학적 방식을 구현하여 상기 좌표변환행렬들(T3, PR)을 산출할 수 있다.
먼저, 상기 좌표변환행렬들을 회전변환 부분(R)과 위치변환 부분(t)을 포함하도록 구성한 후, 이를 수학식 2에 대입하여 정리하면 수학식 3을 얻을 수 있다.
(수학식 3)
Figure PCTKR2015013967-appb-I000005
수학식 3을 정리하면 수학식 4를 얻을 수 있다.
(수학식 4)
Figure PCTKR2015013967-appb-I000006
수학식 4의 각 성분을 등식으로 표현하면 수학식 5 및 수학식 6을 얻을 수 있다.
(수학식 5)
Figure PCTKR2015013967-appb-I000007
(수학식 6)
Figure PCTKR2015013967-appb-I000008
수학식 5에서, RTT를 정의하여 수학식 5를 정리하면 수학식 7을 얻을 수 있다.
(수학식 7)
Figure PCTKR2015013967-appb-I000009
또한, 수학식 6에서, tTT를 추가로 정의하여 수학식 6을 정리하면 수학식 8을 얻을 수 있다.
(수학식 8)
Figure PCTKR2015013967-appb-I000010
수학식 7 및 수학식 8에서, 회전변환행렬(R)은 3×3 형태를 갖고, 위치변환행렬(t)은 3×1 형태를 가지므로, 수학식 7로부터 3×3 행렬의 각 성분에 대한 식인 9개의 방정식을 얻을 수 있고, 수학식 8로부터 3×1 행렬의 각 성분에 대한 식인 3개의 방정식을 얻을 수 있다.
수학식 7에서 RTT의 모든 성분(즉, RT1 및 RT2의 모든 성분) 및 RT4의 모든 성분을 앞서 설명된 측정으로부터 알 수 있고, 수학식 8에서 이에 더하여 tT4의 모든 성분을 알 수 있으므로, 미지수는 RPR과 RT3 각각의 9개 성분과 tPR과 tT4의 각각의 3개 성분 등 모두 24개이다.
수학식 7 및 수학식 8은 모두 24개의 미지수들을 포함하는 12개의 방정식들이므로, 2회 이상의 측정으로 보다 정확한 해를 구할 수 있으며, 이에 따라, 상기 트래킹 센서부(130) 및 상기 형상 측정부(120)의 측정은 2회 이상 수행될 수 있다.
따라서, 상기와 같이 측정된 좌표변환관계들을 이용하여 상기 환자(10)의 소정 부위(16)의 좌표계를 정의할 수 있다.
상기 좌표변환행렬들(T3, PR)을 획득하기 위해 상술한 수학적 방식은 다른 방식에 의해 대체될 수도 있다. 예를 들면, 상기 처리부(140)는 듀얼 쿼터니언(dual quaternion) 방식을 응용하여 상기 좌표변환행렬들(T3, PR)을 산출할 수 있다.
구체적으로, 먼저 앞서 기술한 수학식 1로부터 하기 수학식 9를 얻을 수 있고, 수학식 9를 변형하여 하기 수학식 10을 얻을 수 있다.
(수학식 9)
Figure PCTKR2015013967-appb-I000011
(수학식 10)
Figure PCTKR2015013967-appb-I000012
수학식 10을 전개하여 고차항을 제거하면 수학식 11을 얻을 수 있다.
(수학식 11)
Figure PCTKR2015013967-appb-I000013
수학식 9와 수학식 11을 각각 듀얼 쿼터니언 방식을 응용하여 변형하면 하기 수학식 12와 하기 수학식 13을 얻을 수 있다.
(수학식 12)
Figure PCTKR2015013967-appb-I000014
(수학식 13)
Figure PCTKR2015013967-appb-I000015
수학식 12 및 수학식 13을 행렬방정식 형태로 변형하면 하기 수학식 14를 얻을 수 있으며, 수학식 14로부터 상기 좌표변환행렬들(T3, PR)을 산출할 수 있다.
(수학식 14)
Figure PCTKR2015013967-appb-I000016
한편, 상기 처리부(140)는 상기 환자(10)에 대하여 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 환자(10)의 제1 부위(12)의 좌표계를 상기 형상 측정부(120)에서 측정된 3차원 형상을 기초로 정합할 수 있다.
구체적으로, 상기 환자(10)에 직접 마커 또는 마커에 상응하는 구조물을 부착하여 이를 기초로 상기 3차원 영상의 좌표계와 상기 환자(10)의 좌표계를 정합하는 대신, 상기와 같이 획득된 3차원 형상(또는 이로부터 얻어지는 3차원 영상)의 좌표계와 상기 3차원 영상의 좌표계를 상기 3차원 형상 자체를 표지로 하여 정합한다(natural landmark). 상기 소정 부위(16)가 상기 제1 부위(12)인 경우, 상기 3차원 형상은 상기 환자(10)의 환부에 대응하는 3차원 형상이 된다.
도 3을 참조하면, 상기 소정 부위(16)가 상기 제1 부위(12)인 경우, 상기 기준 마커부(110)에 대한 상기 환자(10)의 제1 부위(12)의 좌표변환행렬은 PR1으로 나타낼 수 있다. 또한, 상기 소정 부위(16)가 상기 제2 부위(14)인 경우, 상기 기준 마커부(110)에 대한 상기 환자(10)의 제2 부위(14)의 좌표변환행렬은 PR2로 나타낼 수 있다.
이 경우, 상기 수학식 1은, 상기 제1 부위(12)의 경우 수학식 15로, 그리고 상기 제2 부위(14)의 경우 수학식 16으로 나타낼 수 있으며, 상기 수학식 2 내지 상기 수학식 14에서 나타나는 수식들은 상기 수학식 15 및 상기 수학식 16에 따라 수정하여 표현될 수 있다.
(수학식 15)
Figure PCTKR2015013967-appb-I000017
(수학식 16)
Figure PCTKR2015013967-appb-I000018
여기서, PR1 및 PR2는 각각 상기 기준 마커부(110)에 대한 상기 환자(10)의 제1 부위(12) 및 제2 부위(14)의 좌표변환행렬들을 의미한다. 또한, 상기 형상측정부(120)가 상기 제1 부위(12) 및 상기 제2 부위(14)에 대응하는 위치를 각각 제1 위치(L1) 및 제2 위치(L2)라 할 때, T1은 상기 트래킹 센서부(130)에 대한 상기 기준 마커부(110)의 좌표변환행렬, T2 및 T2'는 각각 상기 제1 위치(L1) 및 상기 제2 위치(L2)에서 상기 트래킹 센서부(130)에 대한 상기 형상 측정부(120)의 마커(124)의 좌표변환행렬들, T3 및 T3'는 각각 상기 제1 위치(L1) 및 상기 제2 위치(L2)에서 상기 형상 측정부(120)의 마커(124)에 대한 측정장치(122)의 좌표변환행렬들, T4 및 T4'는 각각 상기 제1 위치(L1) 및 상기 제2 위치(L2)에서 상기 형상 측정부(120)의 측정장치(122)에 대한 상기 환자(10)의 제1 부위(12) 및 제2 부위(14)의 좌표변환행렬들을 의미한다. 한편, 상기 제1 위치(L1) 및 상기 제2 위치(L2)는 상기 형상측정부(120)의 위치를 형식적으로 나타낸 것일 뿐, 구체적으로 정량화된 위치를 의미하는 것은 아니다.
상기 수학식 15 및 상기 수학식 16으로부터, 상기 제2 부위(14)에 대한 상기 제1 부위(12)의 좌표변환행렬 PRX를 얻을 수 있으며, 수학식 17과 같이 나타낼 수 있다.
(수학식 17)
Figure PCTKR2015013967-appb-I000019
도 4를 참조하면, 상기 제2 위치(L2)에서의 상기 형상 측정부(120)와 관련된 좌표변환행렬들(T2', T3', T4' 및 상기 좌표변환행렬 PRX를 이용하여, 수학식 17로부터 상기 트래킹 센서부(130)에 대한 상기 제1 부위(12)의 좌표변환행렬 PRS를 수학식 18과 같이 정의할 수 있다. 상기 수학식 18에서는 상기 기준 마커부(110) 및 상기 제1 위치(L1)에서의 상기 형상 측정부(120)와 관련된 좌표변환행렬들(T1, T2, T3, T4)은 모두 배제되어 있다.
(수학식 18)
Figure PCTKR2015013967-appb-I000020
상기 수학식 15를 상기 수학식 2 내지 상기 수학식 14에 적용하면, 상기 좌표변환행렬들(T3, PR1)을 획득할 수 있고, 상기 수학식 16을 상기 수학식 2 내지 상기 수학식 14에 적용하면, 상기 좌표변환행렬들(T3', PR2)을 획득할 수 있으므로, 상기 수학식 17로부터 상기 좌표변환행렬 PRX를 획득할 수 있다. 상기 제1 부위(12)에 대하여 상기 제2 부위(14)는 강체 정합 관계에 있으므로, 상기 좌표변환행렬 PRX는 고정불변의 행렬로 인정될 수 있다.
따라서, 상기 트래킹 센서부(130)가 상기 형상 측정부(120)를 센싱하고, 상기 형상 측정부(120)는 상기 스티커 마커부(STK)를 측정하여, 지속적으로 상기 환자(10)의 환부에 대응하는 제1 부위(12)를 트래킹할 수 있다.
예를 들면, 상기 환자(10)가 움직이거나 자세가 변하는 경우에도, 상기 트래킹 센서부(130)가 상기 형상 측정부(120)를 센싱하여 좌표변환행렬 T2'을 다시 획득하고, 상기 형상 측정부(120)는 상기 스티커 마커부(STK)를 측정하여 좌표변환행렬 T4'를 획득한 후, 상기 수학식 18을 적용할 수 있다. 이에 따라, 상기 수학식 18에서 상기 좌표변환행렬들(T2', T4', PRX)을 대입하여 상기 수학식 2 내지 수학식 14의 방식을 적용하면, 상기 좌표변환행렬들(PRS, T3')을 획득할 수 있으므로, 상기 좌표변환행렬 PRS를 이용하여 상기 환자(10)의 제1 부위(12)를 용이하게 실시간으로 트래킹할 수 있다.
상기 처리부(140)는 상기 환자(10)에 대하여 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 환자(10)의 제1 부위(12)의 좌표계를 상기 형상 측정부(120)에서 측정된 상기 환자(10)의 제2 부위(14)의 3차원 형상 및 상기 제3 좌표변환관계를 기초로 재정합할 수 있다. 즉, 상기 형상 측정부(120)에서 측정된 상기 환자(10)의 제2 부위(14)의 3차원 형상을 이용하여 상기 제2 부위(14)의 좌표계를 정의할 수 있고, 상기 제3 변환관계에 대응하는 상기 좌표변환행렬 PRX를 이용하여 상기 제1 부위(12)로 변환할 수 있으므로, 이에 따라 상기 환자(10)에 대하여 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 제1 부위(12)의 좌표계를 재정합할 수 있다.
한편, 상기 스티커 마커부(STK)는 탈착이 용이하여, 언제든 위치를 수정하여 상기 환자(10)의 다른 부위에 부착하는 경우에도, 상술한 과정을 재수행함으로써 상기 환자(10)의 제1 부위(12)를 트래킹할 수 있다.
또한, 상기 스티커 마커부(STK)는 추가로 부착함이 용이하여, 언제든 추가적인 스티커 마커부를 상기 환자(10)의 다른 부위에 부착하는 경우에도, 상술한 과정을 재수행함으로써 상기 환자(10)의 제1 부위(12)를 트래킹할 수 있다.
한편, 상기와 같은 트래킹 과정은 자동으로 혹은 사용자에 의해 수동으로 재수행될 수 있다.
일 실시예로, 상기 옵티컬 트래킹 시스템(100)은, 상기 환자(10)의 움직임을 감지하는 움직임 감지부(도시되지 않음)를 포함할 수 있고, 이를 별도로 포함하는 대신 상기 트래킹 센서부(130)에서 상기 환자(10)의 움직임을 감지할 수도 있다. 상기 움직임 감지부 또는 상기 트래킹 센서부(130)에서 상기 환자(10)의 움직임을 감지하면, 상기 처리부(140)는 상기한 과정을 재수행함으로써, 상기 트래킹 과정을 재수행할 수 있다.
한편, 상기 스티커 마커부(STK)가 상기 트래킹 센서부(130)에 의해 직접 센싱 가능하도록 형성되는 경우, 상기 기준 마커부(110)는 상기 트래킹 센서부(130)에서 상기 스티커 마커부(STK)를 직접 트래킹함으로써 생략될 수도 있다. 이 경우, 상기 스티커 마커부(STK)와 상기 기준 마커부(110)는 동일하게 되므로, 상기 좌표변환행렬들 중 PR1=PR2=I(단위행렬)로 정의하여, 앞선 트래킹 과정을 수행할 수 있다.
이하, 상기한 옵티컬 트래킹 시스템(100)에서 시술도구를 트래킹하는 방법 및 시술도구의 좌표계와 환자의 좌표계를 정합하는 과정을 도면을 참조로 상세하게 설명한다.
도 5는 도 1의 옵티컬 트래킹 시스템에서 시술도구의 트래킹 및 정합을 설명하기 위한 개념도이다.
도 5를 참조하면, 상기 옵티컬 트래킹 시스템(100)은 시술도구(150)를 더 포함할 수 있다.
상기 시술도구(150)는 상기 환자(10)를 시술하기 위한 도구로서, 마커(152)를 포함한다. 상기 마커(152)는 상기 트래킹 센서부(130)에서 센싱이 가능하도록 에너지 또는 신호를 발생시킬 수 있다. 예를 들면, 상기 마커(152)는 복수로 형성될 수 있으며, 패턴정보를 포함할 수도 있다.
상기 트래킹 센서부(130)는 상기 시술도구(150)의 마커(152)를 센싱하여 상기 시술도구(150)를 트래킹할 수 있다.
상기 처리부(140)는 상기 트래킹 센서부(130)에서 트래킹된 상기 시술도구(150)의 제1 트래킹 결과 및 상기 트래킹 센서부(130)에 대해 상대적으로 트래킹된 상기 환자(10)의 제1 부위(12)의 제2 트래킹 결과로부터, 상기 환자(10)의 제1 부위(12)에 대해 상대적으로 상기 시술도구(150)를 트래킹할 수 있다.
구체적으로, 상기 제1 트래킹 결과를 기초로 상기 시술도구(150)의 마커(152)와 상기 트래킹 센서부(130) 사이의 좌표변환관계를 획득하고, 상기 제2 트래킹 결과를 기초로 상기 환자(10)의 제1 부위(12)와 상기 트래킹 센서부(130) 사이의 좌표변환관계를 획득한다. 여기서, 상기 좌표변환관계들은, 예를 들면, 행렬 형태로 정의될 수 있으며, 좌표변환행렬로 표현될 수 있다.
상기 처리부(140)는 상기 획득된 좌표변환관계들을 이용하여 상기 환자(10)에 대해 상대적인 상기 시술도구(150)의 좌표계를 정의할 수 있다. 예를 들면, 상기 좌표계는 행렬 형태로 정의될 수 있다.
즉, 상기 트래킹 센서부(130)에 대한 상기 환자(10)의 제1 부위(12)의 좌표변환행렬 PRS를 이용하고, 상기 트래킹 센서(130)에서 센싱하여 산출되는 좌표변환행렬 T2"를 이용하면, 하기 수학식 19에 따라 상기 환자(10)의 제1 부위(12)에 대해 상대적으로 정의된 상기 시술도구(150)의 좌표변환행렬 T5를 알 수 있다.
(수학식 19)
Figure PCTKR2015013967-appb-I000021
따라서, 상기와 같이 측정된 좌표변환관계들을 이용하여 상기 환자(10)의 제1 부위(12)에 대해 상대적으로 상기 시술도구(150)를 추적할 수 있고, 상기 환자(10)의 제1 부위(12)에 대해 상대적인 상기 시술도구(150)의 좌표계를 정의할 수 있다.
도 5 및 수학식 19에서, 상기 시술도구(150)의 좌표변환행렬 T5는 상기 마커(152)를 기초로 도시되어 있지만, 트래킹이 필요한 지점, 예를 들면, 상기 시술도구(150)의 단부(154)를 기초로 좌표변환행렬을 정의할 수도 있다. 즉, 상기 좌표변환행렬 T5를 상기 시술도구(150)의 마커(152)에 대한 상기 시술도구(150)의 단부(154)의 좌표변환행렬 T3" 및 상기 시술도구(150)의 단부(154)에 대한 상기 환자(10)의 제1 부위(12)의 좌표변환행렬 T4"을 이용하여 정의할 수 있으며(T5=T3"T4"), 이 경우 T3"은 상기 시술도구(150)의 기하학적 형상으로부터 알 수 있으므로, 상기 환자(10)에 대해 상대적인 상기 시술도구(150)의 좌표계를 상기 단부(154)를 기초로 정의할 수 있다.
한편, 상기 처리부(140)는 상기 환자(10)에 대한 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 환자(10)의 제1 부위(12)에 대해 상대적으로 정의된 상기 시술도구(150)의 좌표계를 상기 3차원 영상의 좌표계 및 상기 환자(10)의 제1 부위(12)의 좌표계의 정합 결과를 기초로 정합할 수 있다.
즉, 도 1 및 도 2에서 설명된 바와 같이 상기 환자(10)의 제1 부위(12)에 대한 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 상기 환자(10)의 제1 부위(12)의 좌표계를 상기 형상 측정부(120)에서 측정된 3차원 형상을 기초로 정합할 수 있고, 위에서 설명된 바와 같이 상기 환자(10)의 제1 부위(12)에 대해 상대적인 상기 시술도구(150)의 좌표계를 정의할 수 있으므로, 이에 따라 상기 환자(10)의 제1 부위(12)에 대한 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 환자(10)의 제1 부위(12)에 대해 상대적으로 정의된 상기 시술도구(150)의 좌표계를 서로 정합할 수 있다.
상기 옵티컬 트래킹 시스템(100)은 상기 처리부(140)와 연결된 디스플레이부(도시되지 않음)를 더 포함할 수 있다. 상기 디스플레이부는 상기 시술 이전에 미리 획득된 3차원 영상, 상기 형상 측정부(120)에서 측정된 3차원 형상에 대한 영상, 상기 시술도구(150)에 대한 영상, 상기 영상들이 정합된 오버랩 영상 등이 디스플레이될 수 있다.
이와 같이, 상기 처리부(140)는 상기 좌표변환관계들로부터 상기 환자(10)의 제1 부위(12)에 대해 상대적인 상기 시술도구(150)의 좌표계를 정의할 수 있고 시술 시에 실시간으로 상기 시술도구(150)를 트래킹할 수 있다.
이하, 상기한 옵티컬 트래킹 시스템(100)을 이용하여 시술 이전에 미리 촬영되는 3차원 영상의 좌표계와 환자의 환부와 시술도구가 위치하는 시술 시의 실제 세계의 좌표계를 정합하는 과정과 상기 환자의 환부와 상기 시술도구의 트래킹 방법을 도면을 참조로 설명한다.
도 6은 본 발명의 일 실시예에 의한 옵티컬 트래킹 시스템의 좌표계 정합방법 및 트래킹 방법을 나타낸 흐름도이다.
도 2 내지 도 6을 참조하면, 먼저 환자(10)에 대한 시술 이전에 상기 환자(10)의 환부에 대응하는 제1 부위(12)를 포함하는 3차원 영상, 예를 들면, CT 영상을 획득한다(S110).
상기와 같이 시술 이전에 미리 획득한 CT 영상과 같은 3차원 영상(이를 재구성한 영상 포함)을, 예를 들면, 컴퓨터에 저장할 수 있다.
이어서, 다음과 같이 시술 시의 과정들이 수행된다.
먼저, 상기 환자(10)에 상대적으로 고정 배치된 기준 마커부(110) 및 상기 상기 환자(10)의 제1 부위(12)에 대하여 3차원 형상을 측정하도록 제1 위치(L1)에 배치되는 형상 측정부(120)를 트래킹 센서부(130)에 의해 센싱한다(S120).
다음으로, 상기 트래킹 센서부(130)에서 센싱된 결과 및 상기 제1 위치(L1)에 배치된 상기 형상 측정부(120)에서 측정된 결과를 기초로, 상기 기준 마커부(110), 상기 트래킹 센서부(130), 상기 형상 측정부(120) 및 상기 환자(10)의 제1 부위(12) 사이의 제1 좌표변환관계를 획득한다(S130).
이때, 상기 트래킹 센서부(130)에서 센싱된 결과를 기초로 상기 기준 마커부(110)와 상기 트래킹 센서부(130) 사이의 좌표변환관계 및 상기 형상 측정부(120)와 상기 트래킹 센서부(130) 사이의 좌표변환관계를 획득하고, 상기 형상 측정부(120)에서 측정된 결과를 기초로 상기 환자(10)의 제1 부위(12)와 상기 형상 측정부(120) 사이의 좌표변환관계를 획득하여, 상기 제1 좌표변환관계를 획득할 수 있다.
이어서, 상기 제1 부위(12)에 대해서 강체 정합이 가능한 위치의 제2 부위(14)에 스티커 형태로 부착되는 스티커 마커부(STK) 및 상기 제2 부위(14)에 대하여 3차원 형상을 측정하도록 제2 위치(L2)에 배치되는 형상 측정부(120)를 트래킹 센서부(130)에 의해 센싱한다(S140).
다음으로, 상기 트래킹 센서부(130)에서 센싱된 결과 및 상기 제2 위치(L2)에 배치된 상기 형상 측정부(120)에서 측정된 결과를 기초로, 상기 기준 마커부(110), 상기 트래킹 센서부(130), 상기 형상 측정부(120) 및 상기 환자(10)의 제2 부위(14) 사이의 제2 좌표변환관계를 획득한다(S150).
이때, 상기 트래킹 센서부(130)에서 센싱된 결과를 기초로 상기 기준 마커부(110)와 상기 트래킹 센서부(130) 사이의 좌표변환관계 및 상기 형상 측정부(120)와 상기 트래킹 센서부(130) 사이의 좌표변환관계를 획득하고, 상기 형상 측정부(120)에서 측정된 결과를 기초로 상기 환자(10)의 제2 부위(14)와 상기 형상 측정부(120) 사이의 좌표변환관계를 획득하여, 상기 제2 좌표변환관계를 획득할 수 있다.
이어서, 상기 제1 및 제2 좌표변환관계들로부터 상기 제1 부위(12) 및 상기 제2 부위(14) 사이의 제3 좌표변환관계를 추출하여 상기 트래킹 센서부(130)에 대해 상대적인 상기 제1 부위(12), 즉 환부를 트래킹한다(S160).
이때, 상기 제1 부위(12)의 트래킹에 따라, 상기 트래킹 센서부(130)에 대해 상대적인 상기 제1 부위(12)의 좌표계를 정의할 수 있다.
한편, 상기 환자(10)에 대한 시술 이전에 획득된 3차원 영상의 좌표계 및 상기 환자(10)의 제1 부위(12)의 좌표계를 상기 형상 측정부(120)에서 측정된 3차원 형상을 기초로 정합할 수 있다(S170).
이와 같이, 상기 환자(10)의 제1 부위(12)의 좌표계를 상기 트래킹 센서부(130)에 대해 상대적으로 정의하고, 미리 획득된 CT 영상과 같은 3차원 영상의 좌표계와 상기 환자(10)의 제1 부위(12)의 좌표계를 정합할 수 있다.
의사와 같은 시술자에게 마커(152)가 부착된 시술도구(150)가 제공되며, 상기 시술자는 상기 환자(10)를 시술하기 위한 상기 시술도구(150)를 직접 혹은 수술로봇 등의 장비를 이용하여 운용한다. 상기 시술도구(150)에 대해서는, 다음과 같이 트래킹을 위한 과정들이 수행된다.
상기 트래킹 센서부(130)는 상기 시술도구(150)의 마커(152)를 센싱한다(S180).
이어서, 트래킹된 상기 시술도구(150)의 트래킹 결과 및 상기 트래킹 센서부(130)에 대해 상대적으로 트래킹된 상기 환자(10)의 제1 부위(12)의 트래킹 결과로부터, 상기 환자(10)의 제1 부위(12)에 대해 상대적으로 상기 시술도구(150)를 트래킹한다(S190).
이어서, 상기 획득된 3차원 영상의 좌표계 및 상기 시술도구(150)의 트래킹에 따라 상기 환자(10)의 제1 부위(12)에 대해 상대적으로 정의되는 상기 시술도구(150)의 좌표계를 상기 3차원 영상의 좌표계 및 상기 환자(10)의 제1 부위(12)의 좌표계의 정합 결과를 기초로 정합한다(S200).
이와 같이, 상기 환자(10)를 시술하기 위한 시술도구(150)의 좌표계를 상기 환자(10)의 제1 부위(12)에 대해 상대적으로 정의하고, 미리 획득된 CT 영상과 같은 3차원 영상의 좌표계와 상기 시술도구(150)의 좌표계를 정합할 수 있다.
본 실시예에서는, 상기 옵티컬 트래킹 시스템(100)의 좌표계 정합 방법을 도 6의 흐름도를 참조로 간략히 설명하고 있지만, 상기 옵티컬 트래킹 시스템(100)의 구체적인 동작은 앞서 도 1 내지 도 5에서 설명된 내용과 실질적으로 동일하므로 중복되는 상세한 설명은 생략한다.
본 발명의 옵티컬 트래킹 시스템 및 트래킹 방법에 따르면, 환부에 대해서 강체 정합이 가능한 위치에 스티커 마커부를 구비하여, 형상 측정부에서 상기 환부와 상기 스티커 마커부에 대하여 3차원 형상을 측정하고, 트래킹 센서부에서 상기 형상 측정부와 기준 마커부를 센싱하여, 이들 사이의 좌표변환관계들로부터 상기 환부와 상기 스티커 마커부 사이의 좌표변환관계를 추출함으로써, 상기 좌표변환관계를 이용하여 상기 형상 측정부가 상기 스티커 마커부를 트래킹하는 작업만으로 상기 트래킹 센서부에 대한 상기 환부의 위치 및 자세 등을 트래킹할 수 있다.
또한, 상기 형상 측정부가 상기 스티커 마커부를 측정하는 과정이 용이하게 재수행될 수 있으므로, 상기 환자가 움직이거나 자세가 변하는 경우에도, 상기 환부와 상기 스티커 마커부 사이의 좌표변환관계를 이용하여 시술 시에 용이하게 상기 환부 및 상기 시술도구를 실시간으로 정확하게 트래킹할 수 있다.
또한, 시술이 개시된 이후에 상기 형상 측정부는 상기 환부를 측정할 필요 없이 상기 스티커 마커부를 측정하면 상기 환부를 트래킹할 수 있으므로, 시술 중에 상기 환부를 측정하기 위해 상기 형상 측정부를 이동시킬 필요가 없고, 시술 중에 상기 형상 측정부가 상기 환부 주위에 위치함으로써 시술에 방해가 되는 문제를 방지할 수 있다. 더욱이, 상기 스티커 마커부가 부착되는 위치는 비교적 자유롭게 선정될 수 있으므로, 시술 중의 상기 형상 측정부의 위치를 시술에 방해가 되지 않는 위치에 배치할 수 있다. 또한, 상기 스티커 마커부는 스티커 부착형이므로, 시술에 방해가 되지 않는 형태로 형성될 수 있고, 시술에 방해가 되지 않는 위치에 부착될 수도 있으며, 여러 개의 스티커 마커부들을 채용하여 시술에 방해가 되지 않도록 활용할 수도 있다.
또한, 상기 스티커 마커부를 3차원 형태로 제작하는 경우, 특징점 추가를 통하여 정합을 보다 용이하게 할 수 있고, 상기 트래킹 센서부에서 상기 스티커 마커부를 직접 트래킹함으로써 상기 기준 마커부를 생략할 수도 있다. 또한, 두 개 이상의 스티커 마커부들 및 이에 대응하는 두 개 이상의 형상 측정부들을 채용하는 경우, 상기 스티커 마커부들 사이의 좌표변환관계를 이용하여 각도 측정이 가능하므로, 무릎 수술과 같은 시술 시에도 각도 측정에 의해 시술이 가능할 수 있다.
또한, 시술 시에 측정된 상기 환자의 3차원 형상 자체를 표지로 정합이 가능하므로, 동적 참조장치(DRB)를 환자에 직접 부착하지 않고도 시술 전에 미리 획득된 3차원 영상의 좌표계와 시술 시에 실시간으로 이동될 수 있는 환자의 좌표계 및 시술도구의 좌표계를 서로 정합할 수 있다. 아울러, 사전에 상기 3차원 영상을 획득할 때에도 상기 동적 참조장치를 부착할 필요가 없고, 언제든지 좌표계의 재설정 및 재정합이 가능할 수 있다.
따라서, 마커를 환자에 직접 부착함으로 야기되는 환자의 고통과 오차, 수술 전에 스탬프를 제작하여야 하는 등의 작업의 번거로움과 많은 소요 시간 및 비용 등과 같은 종래기술의 문제점들을 해결할 수 있다.
즉, 별도의 준비과정 없이 수술실 내에서 신속히 환자의 좌표계를 설정하고 영상 정합을 수행할 수 있으므로, 보다 짧은 시간 및 적은 비용으로 정확하고 용이하게 환자의 좌표계 및 시술도구의 좌표계 설정 및 영상 정합이 가능하며, 환자에 직접 부착되는 동적 참조장치(DRB) 대신 스티커 형태의 스티커 마커부를 이용하여 환자의 고통 및 부작용을 경감할 수 있다.
따라서, 본 발명에 따른 옵티컬 트래킹 장치 및 이를 이용한 트래킹 방법에 따르면, 환자 및 시술자 모두의 편의성을 크게 향상시킬 수 있다.
앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이다.  따라서, 전술한 설명 및 아래의 도면은 본 발명의 기술사상을 한정하는 것이 아닌 본 발명을 예시하는 것으로 해석되어야 한다.

Claims (18)

  1. 환자에 대한 시술 이전에 미리 획득되며 상기 환자의 환부에 대응하는 제1 부위를 포함하는 3차원 영상을 이용하여 환자나 상기 환자를 시술하기 위한 시술도구를 트래킹하기 위한 옵티컬 트래킹 시스템(optical tracking system)에 있어서,
    상기 환자의 제1 부위와 이격되어 배치된 기준 마커(marker)부;
    상기 제1 부위에 대해서 강체 정합이 가능한 위치의 제2 부위에 스티커 형태로 부착되는 스티커 마커부;
    상기 제1 부위 및 상기 제2 부위에 대하여 3차원 형상을 측정하는 형상 측정부;
    상기 기준 마커부 및 상기 형상 측정부를 각각 트래킹하도록 상기 기준 마커부 및 상기 형상 측정부를 센싱(sensing)하는 트래킹 센서부; 및
    상기 트래킹 센서부에서 센싱된 결과 및 상기 형상 측정부에서 측정된 결과를 기초로, 상기 기준 마커부, 상기 트래킹 센서부, 상기 형상 측정부 및 상기 환자의 제1 부위 사이의 제1 좌표변환관계를 획득하고, 상기 기준 마커부, 상기 트래킹 센서부, 상기 형상 측정부 및 상기 환자의 제2 부위 사이의 제2 좌표변환관계를 획득하며, 상기 제1 및 제2 좌표변환관계들로부터 상기 제1 부위 및 상기 제2 부위 사이의 제3 좌표변환관계를 추출하여 상기 트래킹 센서부에 대해 상대적인 상기 제1 부위를 트래킹하는 처리부를 포함하는 옵티컬 트래킹 시스템.
  2. 제1항에 있어서, 상기 처리부는,
    상기 형상 측정부가 제1 위치에 배치될 때, 상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 제1 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하여, 상기 제1 좌표변환관계를 획득하고,
    상기 형상 측정부가 상기 제1 위치와 다른 제2 위치에 배치될 때, 상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 제2 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하여, 상기 제2 좌표변환관계를 획득하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  3. 제1항에 있어서,
    상기 형상 측정부는, 3차원 형상을 측정하는 측정장치 및 상기 측정장치에 설치된 마커를 포함하고,
    상기 트래킹 센서부는 상기 형상 측정부의 마커를 센싱하며,
    상기 처리부는,
    상기 형상 측정부의 마커와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부의 상기 측정장치와 상기 마커 사이의 좌표변환관계를 획득하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  4. 제3항에 있어서,
    상기 좌표변환관계들은 좌표변환행렬로 표현되고,
    상기 처리부는 하기 수학식에 의해 상기 제1 좌표변환관계 및 상기 제2 좌표변환관계를 정의하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
    Figure PCTKR2015013967-appb-I000022
    (PR은 상기 기준 마커부에 대한 상기 환자의 제1 부위 또는 제2 부위의 좌표변환행렬, T1은 상기 트래킹 센서부에 대한 상기 기준 마커부의 좌표변환행렬, T2는 상기 트래킹 센서부에 대한 상기 형상 측정부의 마커의 좌표변환행렬, T3는 상기 형상 측정부의 마커에 대한 상기 형상 측정부의 측정장치의 좌표변환행렬, T4는 상기 형상 측정부의 측정장치에 대한 상기 환자의 제1 부위 또는 제2 부위의 좌표변환행렬)
  5. 제4항에 있어서,
    상기 트래킹 센서부는 상기 트래킹 센서부에 대한 상기 기준 마커부의 좌표변환행렬(T1) 및 상기 트래킹 센서부에 대한 상기 형상 측정부의 마커의 좌표변환행렬(T2)을 획득하기 위한 정보를 측정하고,
    상기 형상 측정부는 상기 형상 측정부의 측정장치에 대한 상기 환자의 제1 부위 또는 제2 부위의 좌표변환행렬(T4)을 획득하기 위한 정보를 측정하며,
    상기 처리부는 상기 측정된 정보들을 이용하여 상기 좌표변환행렬들(T1, T2, T4)을 획득하고, 상기 획득된 좌표변환행렬들(T1, T2, T4)로부터 상기 형상측정부의 마커에 대한 상기 형상 측정부의 측정장치의 좌표변환행렬(T3) 및 상기 기준 마커부에 대한 상기 환자의 제1 부위 또는 제2 부위의 좌표변환행렬(PR)을 산출하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  6. 제5항에 있어서,
    상기 트래킹 센서부 및 상기 형상 측정부의 측정은 상기 환자의 제1 부위 및 제2 부위 각각에 대해서 2회 이상 수행되는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  7. 제5항에 있어서,
    상기 기준 마커부에 대한 상기 환자의 제1 부위의 좌표변환행렬을 PR1이라 정의하고, 상기 기준 마커부에 대한 상기 환자의 제2 부위의 좌표변환행렬을 PR2라 정의할 때, 상기 제3 좌표변환관계는 하기 수학식에 의해 정의되는 좌표변환행렬 PRX로 표현되고,
    Figure PCTKR2015013967-appb-I000023
    상기 처리부는 상기 좌표변환행렬 PRX를 이용하여 상기 제1 부위를 상기 트래킹 센서부에 대해 상대적으로 트래킹하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  8. 제1항에 있어서,
    상기 처리부는 상기 환자에 대하여 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 환자의 제1 부위의 좌표계를 상기 형상 측정부에서 측정된 3차원 형상을 기초로 정합하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  9. 제8항에 있어서,
    상기 처리부는 상기 환자에 대하여 시술 이전에 미리 획득된 3차원 영상의 좌표계 및 상기 환자의 제1 부위의 좌표계를 상기 형상 측정부에서 측정된 상기 환자의 제2 부위의 3차원 형상 및 상기 제3 좌표변환관계를 기초로 재정합하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  10. 제1항에 있어서,
    상기 환자를 시술하기 위해 제공되며 마커를 포함하는 시술도구를 더 포함하고,
    상기 트래킹 센서부는 상기 시술도구를 트래킹하도록 상기 시술도구의 마커를 센싱하며,
    상기 처리부는 상기 트래킹 센서부에서 트래킹된 상기 시술도구의 트래킹 결과 및 상기 트래킹 센서부에 대해 상대적으로 트래킹된 상기 환자의 제1 부위의 트래킹 결과로부터, 상기 환자의 제1 부위에 대해 상대적으로 상기 시술도구를 트래킹하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  11. 제1항에 있어서,
    상기 스티커 마커부는 3차원 형태의 마커를 포함하는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  12. 제1항에 있어서,
    상기 스티커 마커부는 복수로 형성되어 서로 다른 부위에 각각 부착되는 것을 특징으로 하는 옵티컬 트래킹 시스템.
  13. 환자에 대한 시술 이전에 상기 환자의 환부에 대응하는 제1 부위를 포함하는 3차원 영상을 획득하는 단계;
    상기 환자의 제1 부위와 이격되어 배치된 기준 마커부 및 상기 제1 부위에 대하여 3차원 형상을 측정하도록 제1 위치에 배치되는 형상 측정부를 트래킹 센서부에 의해 센싱하는 단계;
    상기 트래킹 센서부에서 센싱된 결과 및 상기 제1 위치에 배치된 상기 형상 측정부에서 측정된 결과를 기초로, 상기 기준 마커부, 상기 트래킹 센서부, 상기 형상 측정부 및 상기 환자의 제1 부위 사이의 제1 좌표변환관계를 획득하는 단계;
    상기 제1 부위에 대해서 강체 정합이 가능한 위치의 제2 부위에 스티커 형태로 부착되는 스티커 마커부 및 상기 제2 부위에 대하여 3차원 형상을 측정하도록 제2 위치에 배치되는 형상 측정부를 트래킹 센서부에 의해 센싱하는 단계;
    상기 트래킹 센서부에서 센싱된 결과 및 상기 제2 위치에 배치된 상기 형상 측정부에서 측정된 결과를 기초로, 상기 기준 마커부, 상기 트래킹 센서부, 상기 형상 측정부 및 상기 환자의 제2 부위 사이의 제2 좌표변환관계를 획득하는 단계; 및
    상기 제1 및 제2 좌표변환관계들로부터 상기 제1 부위 및 상기 제2 부위 사이의 제3 좌표변환관계를 추출하여 상기 트래킹 센서부에 대해 상대적인 상기 제1 부위를 트래킹하는 단계를 포함하는 옵티컬 트래킹 시스템의 트래킹 방법.
  14. 제13항에 있어서,
    상기 제1 좌표변환관계를 획득하는 단계는,
    상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 제1 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하여, 상기 제1 좌표변환관계를 획득하는 단계를 포함하고,
    상기 제2 좌표변환관계를 획득하는 단계는,
    상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 기준 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 제2 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하여, 상기 제2 좌표변환관계를 획득하는 단계를 포함하는 것을 특징으로 하는 옵티컬 트래킹 시스템의 트래킹 방법.
  15. 제13항에 있어서,
    상기 환자에 대하여 시술 이전에 획득된 3차원 영상의 좌표계 및 상기 환자의 제1 부위의 좌표계를 상기 형상 측정부에서 측정된 3차원 형상을 기초로 정합하는 단계를 더 포함하는 것을 특징으로 하는 옵티컬 트래킹 시스템의 트래킹 방법.
  16. 제13항에 있어서,
    상기 환자를 시술하기 위한 시술도구를 트래킹하도록 상기 시술도구의 마커를 센싱하는 단계;
    상기 트래킹 센서부에서 트래킹된 상기 시술도구의 트래킹 결과 및 상기 트래킹 센서부에 대해 상대적으로 트래킹된 상기 환자의 제1 부위의 트래킹 결과로부터, 상기 환자의 제1 부위에 대해 상대적으로 상기 시술도구를 트래킹하는 단계를 더 포함하는 것을 특징으로 하는 옵티컬 트래킹 시스템의 트래킹 방법.
  17. 제16항에 있어서,
    상기 환자의 제1 부위에 대해 상대적으로 상기 시술도구를 트래킹하는 단계 이후에,
    상기 획득된 3차원 영상의 좌표계 및 상기 시술도구의 트래킹에 따라 상기 환자의 제1 부위에 대해 상대적으로 정의되는 상기 시술도구의 좌표계를 상기 3차원 영상의 좌표계 및 상기 환자의 제1 부위의 좌표계의 정합 결과를 기초로 정합하는 단계를 더 포함하는 것을 특징으로 하는 옵티컬 트래킹 시스템의 트래킹 방법.
  18. 환자에 대한 시술 이전에 미리 획득되며 상기 환자의 환부에 대응하는 제1 부위를 포함하는 3차원 영상을 이용하여 환자나 상기 환자를 시술하기 위한 시술도구를 트래킹하기 위한 옵티컬 트래킹 시스템(optical tracking system)에 있어서,
    상기 제1 부위에 대해서 강체 정합이 가능한 위치의 제2 부위에 스티커 형태로 부착되는 스티커 마커부;
    상기 제1 부위 및 상기 제2 부위에 대하여 3차원 형상을 측정하는 형상 측정부;
    상기 스티커 마커부 및 상기 형상 측정부를 각각 트래킹하도록 상기 스티커 마커부 및 상기 형상 측정부를 센싱(sensing)하는 트래킹 센서부; 및
    상기 트래킹 센서부에서 센싱된 결과를 기초로 상기 스티커 마커부와 상기 트래킹 센서부 사이의 좌표변환관계 및 상기 형상 측정부와 상기 트래킹 센서부 사이의 좌표변환관계를 획득하고, 상기 형상 측정부에서 측정된 결과를 기초로 상기 환자의 제1 부위와 상기 형상 측정부 사이의 좌표변환관계를 획득하여, 상기 획득된 좌표변환관계들로부터 상기 스티커 마커부에 대해 상대적인 상기 환자의 좌표계를 정의하는 처리부를 포함하는 옵티컬 트래킹 시스템.
PCT/KR2015/013967 2014-12-19 2015-12-18 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법 WO2016099212A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/537,582 US10271908B2 (en) 2014-12-19 2015-12-18 Optical tracking system and tracking method for optical tracking system
JP2017533319A JP6450849B2 (ja) 2014-12-19 2015-12-18 オプティカルトラッキングシステム及びオプティカルトラッキングシステムのトラッキング方法
EP15870379.3A EP3235460B1 (en) 2014-12-19 2015-12-18 Optical tracking system
CN201580068912.5A CN107106243B (zh) 2014-12-19 2015-12-18 光学跟踪系统及光学跟踪系统的跟踪方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140183829A KR101650821B1 (ko) 2014-12-19 2014-12-19 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법
KR10-2014-0183829 2014-12-19

Publications (1)

Publication Number Publication Date
WO2016099212A1 true WO2016099212A1 (ko) 2016-06-23

Family

ID=56126995

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/013967 WO2016099212A1 (ko) 2014-12-19 2015-12-18 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법

Country Status (6)

Country Link
US (1) US10271908B2 (ko)
EP (1) EP3235460B1 (ko)
JP (1) JP6450849B2 (ko)
KR (1) KR101650821B1 (ko)
CN (1) CN107106243B (ko)
WO (1) WO2016099212A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113813046A (zh) * 2017-12-20 2021-12-21 株式会社高迎科技 光学跟踪系统及光学跟踪方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2513884B (en) 2013-05-08 2015-06-17 Univ Bristol Method and apparatus for producing an acoustic field
AU2015249652B2 (en) 2014-04-23 2020-02-20 Applied Medical Resources Corporation Systems and methods for tissue removal
EP3217898B1 (en) 2014-11-13 2021-05-19 Applied Medical Resources Corporation Systems for tissue removal
EP4537768A3 (en) 2016-01-22 2025-06-18 Applied Medical Resources Corporation Systems for tissue removal
WO2019106882A1 (ja) * 2017-11-30 2019-06-06 テルモ株式会社 支援システム、支援方法、および支援プログラム
WO2019122916A1 (en) 2017-12-22 2019-06-27 Ultrahaptics Limited Minimizing unwanted responses in haptic systems
KR102274175B1 (ko) * 2019-09-18 2021-07-12 큐렉소 주식회사 수술 내비게이션 장치 및 그 방법
US20210303758A1 (en) * 2020-03-31 2021-09-30 Ultraleap Limited Accelerated Hardware Using Dual Quaternions
CN114366300B (zh) * 2021-12-24 2024-02-09 苏州国科康成医疗科技有限公司 一种手术图像空间映射装置、设备以及方法
WO2024058562A1 (ko) * 2022-09-16 2024-03-21 주식회사 필드큐어 전극 어레이 위치 및 방향 정보 제공 방법 및 장치
JP2025055846A (ja) * 2023-09-27 2025-04-08 リーグソリューションズ株式会社 検知方法およびコンピュータ

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100961661B1 (ko) * 2009-02-12 2010-06-09 주식회사 래보 수술용 항법 장치 및 그 방법
KR101049507B1 (ko) * 2009-02-27 2011-07-15 한국과학기술원 영상유도수술시스템 및 그 제어방법
KR20120035021A (ko) * 2010-10-04 2012-04-13 한국과학기술연구원 수술 도구의 3차원 추적 시스템 및 이를 이용한 위치 감지 방법
KR20130121753A (ko) * 2012-04-27 2013-11-06 재단법인대구경북과학기술원 피부마커와 체내 특징점을 이용한 고정확도 영상정합 장치 및 방법
KR20140088167A (ko) * 2011-10-28 2014-07-09 내비게이트 써지컬 테크놀로지, 인크. 수술 위치 모니터링 시스템 및 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6405072B1 (en) * 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
EP0915675B1 (en) 1997-02-14 2008-10-29 Biosense Webster, Inc. X-ray guided surgical location system with extended mapping volume
WO2005079492A2 (en) * 2004-02-17 2005-09-01 Traxtal Technologies Inc. Method and apparatus for registration, verification, and referencing of internal organs
DE102006008042A1 (de) * 2006-02-21 2007-07-19 Siemens Ag Medizinisches Gerät mit im medizinischen Gerät kombinierter Bilderfassungs- und Positionsbestimmungsvorrichtung
JP4968604B2 (ja) * 2006-06-21 2012-07-04 トヨタ自動車株式会社 姿勢角決定装置およびその決定方法
US20080013809A1 (en) * 2006-07-14 2008-01-17 Bracco Imaging, Spa Methods and apparatuses for registration in image guided surgery
US20110105895A1 (en) * 2009-10-01 2011-05-05 Giora Kornblau Guided surgery
WO2011050456A1 (en) * 2009-10-28 2011-05-05 Imris Inc. Automatic registration of images for image guided surgery
JP5629101B2 (ja) 2010-03-09 2014-11-19 株式会社日立メディコ 治療支援装置及び治療支援システム
CA2797302C (en) * 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US8938282B2 (en) 2011-10-28 2015-01-20 Navigate Surgical Technologies, Inc. Surgical location monitoring system and method with automatic registration
US9554763B2 (en) 2011-10-28 2017-01-31 Navigate Surgical Technologies, Inc. Soft body automatic registration and surgical monitoring system
US20140228675A1 (en) 2011-10-28 2014-08-14 Navigate Surgical Technologies, Inc. Surgical location monitoring system and method
WO2013162332A1 (ko) * 2012-04-27 2013-10-31 주식회사 고영테크놀러지 피부마커와 체내 특징점을 이용한 고정확도 영상정합 장치 및 방법
DE102012220115A1 (de) * 2012-11-05 2014-05-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildgebendes System, Operationsvorrichtung mit dem bildgebenden System und Verfahren zur Bildgebung
JP2016512973A (ja) * 2013-02-11 2016-05-12 ネオメドツ エスアーエールエル 身体に対して対象を追跡するための追跡装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100961661B1 (ko) * 2009-02-12 2010-06-09 주식회사 래보 수술용 항법 장치 및 그 방법
KR101049507B1 (ko) * 2009-02-27 2011-07-15 한국과학기술원 영상유도수술시스템 및 그 제어방법
KR20120035021A (ko) * 2010-10-04 2012-04-13 한국과학기술연구원 수술 도구의 3차원 추적 시스템 및 이를 이용한 위치 감지 방법
KR20140088167A (ko) * 2011-10-28 2014-07-09 내비게이트 써지컬 테크놀로지, 인크. 수술 위치 모니터링 시스템 및 방법
KR20130121753A (ko) * 2012-04-27 2013-11-06 재단법인대구경북과학기술원 피부마커와 체내 특징점을 이용한 고정확도 영상정합 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113813046A (zh) * 2017-12-20 2021-12-21 株式会社高迎科技 光学跟踪系统及光学跟踪方法

Also Published As

Publication number Publication date
EP3235460A4 (en) 2018-03-21
EP3235460B1 (en) 2020-05-20
CN107106243B (zh) 2020-03-20
KR20160074912A (ko) 2016-06-29
US20180263708A1 (en) 2018-09-20
US10271908B2 (en) 2019-04-30
JP6450849B2 (ja) 2019-01-09
KR101650821B1 (ko) 2016-08-24
JP2018505398A (ja) 2018-02-22
CN107106243A (zh) 2017-08-29
EP3235460A1 (en) 2017-10-25

Similar Documents

Publication Publication Date Title
WO2016099212A1 (ko) 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법
WO2016043560A1 (ko) 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법
WO2018155894A1 (ko) 영상 정합 장치 및 영상 정합 방법
WO2021145584A1 (ko) 증강현실 안경을 활용한 인공지능형 초음파 자가 진단을 위한 초음파 스캐너 자세 교정 장치 및 이를 이용한 원격 의료 진단 방법
WO2019039844A1 (en) X-RAY IMAGING APPARATUS AND CORRESPONDING CONTROL METHOD
WO2017048031A1 (ko) 스캔데이터 정합용 식별타겟 및 이를 이용한 치아모형 스캔데이터 획득 방법
US20100238271A1 (en) Sensing Apparatus and Method for Detecting a Three-Dimensional Physical Shape of a Body
WO2019050225A1 (ko) Tms 자극 내비게이션 방법 및 프로그램
WO2019132427A1 (ko) 레이저 표적 투영장치 및 그 제어방법, 레이저 표적 투영장치를 포함하는 레이저 수술 유도 시스템
JP2002528168A (ja) 患者を位置決めする方法とシステム
WO2018066764A1 (ko) 임플란트 진단용 영상 생성 시스템 및 그 생성방법
WO2021157851A1 (ko) 초음파 진단 장치 및 그 동작 방법
WO2015088277A1 (ko) 초음파 영상 표시 방법 및 장치
WO2011065697A2 (ko) 레이저 거리측정기를 이용한 맥파측정로봇장치 및 이를 이용한 맥파측정방법
WO2022065583A1 (ko) 유방암 진단 시스템
WO2018226050A1 (en) Method and system for stereo-visual localization of object
WO2018066763A1 (ko) 임플란트 진단용 영상 생성 시스템 및 그 생성방법
WO2015147380A1 (ko) 침 가이드용 경혈 탐측 초음파 프루브 장치
WO2022014977A1 (ko) 질병 예측 및 진단 방법 및 장치
WO2020209667A1 (ko) 방사선을 이용한 진단 및 치료 장치의 3차원 중심점의 품질 보증 시스템 및 방법
WO2021182726A1 (ko) 초음파 진단 장치 및 그 동작방법
JPH05126521A (ja) 遠隔操作マニピユレータ用位置測定装置
WO2018139707A1 (ko) 대상체에 관한 횡파 탄성 데이터를 표시하는 초음파 진단 장치 그 동작 방법
WO2018203590A1 (ko) 3차원 터치 인식을 위한 접촉 위치 및 깊이 측정 알고리즘
WO2023219282A1 (ko) 구강악안면 수술용 내비게이션 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15870379

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017533319

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15537582

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2015870379

Country of ref document: EP