CN107106243B - 光学跟踪系统及光学跟踪系统的跟踪方法 - Google Patents

光学跟踪系统及光学跟踪系统的跟踪方法 Download PDF

Info

Publication number
CN107106243B
CN107106243B CN201580068912.5A CN201580068912A CN107106243B CN 107106243 B CN107106243 B CN 107106243B CN 201580068912 A CN201580068912 A CN 201580068912A CN 107106243 B CN107106243 B CN 107106243B
Authority
CN
China
Prior art keywords
patient
unit
shape measuring
tracking sensor
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580068912.5A
Other languages
English (en)
Other versions
CN107106243A (zh
Inventor
金尚勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gaoying Technology Co ltd
Original Assignee
Koh Young Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koh Young Technology Inc filed Critical Koh Young Technology Inc
Publication of CN107106243A publication Critical patent/CN107106243A/zh
Application granted granted Critical
Publication of CN107106243B publication Critical patent/CN107106243B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • A61B2090/3735Optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3904Markers, e.g. radio-opaque or breast lesions markers specially adapted for marking specified tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

光学跟踪系统包括基准标记部、标签标记部、形状测量部、跟踪传感器部及处理部。基准标记部相对于患者的第一部位进行固定配置。标签标记部以标签形态,附着于针对第一部位而能够刚性整合的位置的第二部位。形状测量部针对第一部位及第二部位,测量三维形状。跟踪传感器部传感(sensing)基准标记部及形状测量部。处理部获得基准标记部、跟踪传感器部、形状测量部及患者的第一部位之间的第一坐标变换关系以及基准标记部、跟踪传感器部、形状测量部及患者的第二部位之间的第二坐标变换关系,提取第一部位及第二部位之间的第三坐标变换关系,跟踪第一部位。

Description

光学跟踪系统及光学跟踪系统的跟踪方法
技术领域
本发明涉及光学跟踪系统及光学跟踪系统的跟踪方法,更详细而言,涉及一种用于跟踪患者或手术工具的光学跟踪系统及光学跟踪系统的跟踪方法。
背景技术
最近,在治疗患者的患处的手术中,利用已拍摄的影像的影像引导手术(image-guided surgery)被大量地应用。特别是需要在避开患者身体内的重要神经和主要脏器的同时进行手术的情况下,要求以已拍摄的影像为基础,进行具有高准确度的手术。
一般而言,已拍摄的影像包括借助于MRI摄像、CT摄像等而获得的三维影像,在开始手术时,需要使这种已拍摄的三维影像的坐标系和患者的坐标系相互一致的整合(registration),在手术进行期间,需要实时掌握患者或手术工具移动导致的位置及姿势变化。另外,当在手术期间,患者的姿势变化时,需要对患者的坐标系进行重新整合(re-registration),持续跟踪患者或患处。
以往,为了这种整合及跟踪,一直使用动态参照装置(dynamic reference base,DRB)。即,事先把所述动态参照装置附着于患者后,拍摄诸如CT的三维影像,在开始手术时,把所述三维影像的坐标系和患者的坐标系相互整合后,在进行手术期间,以所述动态参照装置为基础,跟踪手术工具,从而跟踪针对于患者患处相对的手术工具的位置等。此时,为了整合,需要在所述动态参照装置固定于患者的状态下,事先拍摄三维影像,为了准确跟踪,需要严格固定于患者。
为此,以往,例如采用在患者的骨骼部分作下标记(marker)后对其进行传感并跟踪的方法、对在患者牙齿上附着了标记的模板(template)进行咬模后对其进行传感并跟踪的方法等,或者采用生成人造结构物来加工的STAMP(Surface Template-Assisted MarkerPosition)的方法等。
但是,就如上所述的以往方法而言,存在标记附着困难、因在骨骼作下标记而发生的副作用、因牙齿咬模而可能发生的标记位置变化导致的准确性及可靠性减小、手术前需制作昂贵的STAMP的麻烦和制作所需的大量时间和费用等各种问题。另外,就以往的方法而言,即使动态参照装置严格固定于患者,在患者移动的情况下,所述动态参照装置与患者患处之间的距离、姿势等可能会变化,因而无法实现准确的跟踪,也无法进行重新整合,存在无法使用的问题。因此,以往的方法是假定患者不动而进行手术,但实际上在手术中,患者往往移动,因而实际上在实现准确跟踪方面存在困难。
因此,要求开发一种能够在更短时间以更少费用获得准确的整合结果的整合方法,要求开发一种在手术中,即使在患者移动或姿势变化的情况下,跟踪也比较准确而容易的跟踪系统及跟踪方法。
发明内容
解决的技术问题
因此,本发明要解决的课题是提供一种能够在更短时间,以更少费用,准确而容易地跟踪患者或手术工具,能够提高患者和手术实施者的便利性的光学跟踪系统。
本发明要解决的另一课题是提供一种能够在更短时间,以更少费用,准确而容易地跟踪患者或手术工具,能够提高患者和手术实施者的便利性的光学跟踪系统的跟踪方法。
技术方案
本发明一个示例性实施例的光学跟踪系统(optical tracking system)提供用于利用在对患者实施手术之前预先获得并包括与所述患者的患处对应的第一部位的三维影像,跟踪患者或用于对所述患者实施手术的手术工具。所述光学跟踪系统包括基准标记(marker)部、标签标记部、形状测量部、跟踪传感器部及处理部。所述基准标记部相对于所述患者的第一部位进行固定配置。所述标签标记部以标签形态,附着于针对所述第一部位而能够刚性整合的位置的第二部位。所述形状测量部针对所述第一部位及所述第二部位,测量三维形状。所述跟踪传感器部传感(sensing)所述基准标记部及所述形状测量部,以便能够分别跟踪所述基准标记部及所述形状测量部。所述处理部以所述跟踪传感器部传感的结果及所述形状测量部测量的结果为基础,获得所述基准标记部、所述跟踪传感器部、所述形状测量部及所述患者的第一部位之间的第一坐标变换关系,获得所述基准标记部、所述跟踪传感器部、所述形状测量部及所述患者的第二部位之间的第二坐标变换关系,从所述第一及第二坐标变换关系提取所述第一部位及所述第二部位之间的第三坐标变换关系,针对所述跟踪传感器部而跟踪相对的所述第一部位。
作为一个实施例,所述处理部在所述形状测量部配置于第一位置时,可以以所述跟踪传感器部传感的结果为基础,获得所述基准标记部与所述跟踪传感器部之间的坐标变换关系及所述形状测量部与所述跟踪传感器部之间的坐标变换关系,以所述形状测量部测量的结果为基础,获得所述患者的第一部位与所述形状测量部之间的坐标变换关系,从而获得所述第一坐标变换关系。另外,所述处理部在所述形状测量部配置在不同于所述第一位置的第二位置时,以所述跟踪传感器部传感的结果为基础,获得所述基准标记部与所述跟踪传感器部之间的坐标变换关系及所述形状测量部与所述跟踪传感器部之间的坐标变换关系,可以以所述形状测量部测量的结果为基础,获得所述患者的第二部位与所述形状测量部之间的坐标变换关系,从而获得所述第二坐标变换关系。
例如,所述形状测量部可以包括测量三维形状的测量装置及安装于所述测量装置的标记,所述跟踪传感器部可以传感所述形状测量部的标记,所述处理部可以获得所述形状测量部的标记与所述跟踪传感器部之间的坐标变换关系及所述形状测量部的所述测量装置与所述标记之间的坐标变换关系。
例如,所述坐标变换关系可以以坐标变换矩阵表现,所述处理部可以根据下述数学式,定义所述第一坐标变换关系及所述第二坐标变换关系。
PR=T1-1T2T3T4
(PR为相对于所述基准标记部的所述患者的第一部位或第二部位的坐标变换矩阵,T1为相对于所述跟踪传感器部的所述基准标记部的坐标变换矩阵,T2为相对于所述跟踪传感器部的所述形状测量部的标记的坐标变换矩阵,T3为相对于所述形状测量部的标记的所述形状测量部的测量装置的坐标变换矩阵,T4为相对于所述形状测量部的测量装置的所述患者的第一部位或第二部位的坐标变换矩阵)
作为一个实施例,所述跟踪传感器部可以测量用于获得相对于所述跟踪传感器部的所述基准标记部的坐标变换矩阵T1及相对于所述跟踪传感器部的所述形状测量部的标记的坐标变换矩阵T2所需的信息,所述形状测量部可以测量用于获得相对于所述形状测量部的测量装置的所述患者的第一部位或第二部位的坐标变换矩阵T4所需的信息,所述处理部可以利用所述测量的信息,获得所述坐标变换矩阵T1、T2、T4,从所述获得的坐标变换矩阵T1、T2、T4,算出相对于所述形状测量部的标记的所述形状测量部的测量装置的坐标变换矩阵T3及相对于所述基准标记部的所述患者的第一部位或第二部位的坐标变换矩阵PR。
例如,所述跟踪传感器部及所述形状测量部的测量可以分别针对所述患者的第一部位及第二部位执行2次以上。
当将相对于所述基准标记部的所述患者的第一部位的坐标变换矩阵定义为PR1、将相对于所述基准标记部的所述患者的第二部位的坐标变换矩阵定义为PR2时,所述第三坐标变换关系可以以根据下述数学式定义的坐标变换矩阵PRX表现。
PRX=PR2-1PR1
此时,所述处理部可以利用所述坐标变换矩阵PRX,针对所述跟踪传感器部,相对地跟踪所述第一部位。
所述处理部可以以所述形状测量部测量的三维形状为基础,整合针对所述患者而在手术之前预先获得的三维影像的坐标系及所述患者的第一部位的坐标系。另外,所述处理部可以以所述形状测量部测量的所述患者的第二部位的三维形状及所述第三坐标变换关系为基础,重新整合针对所述患者而在手术之前预先获得的三维影像的坐标系及所述患者的第一部位的坐标系。
所述光学跟踪系统可以还包括手术工具,其包括标记,提供用于对所述患者实施手术。所述跟踪传感器部可以传感所述手术工具的标记,以便跟踪所述手术工具,所述处理部从所述跟踪传感器部跟踪的所述手术工具的跟踪结果及针对所述跟踪传感器部而相对跟踪的所述患者的第一部位的跟踪结果,针对所述患者的第一部位,相对地跟踪所述手术工具。
例如,所述标签标记部可以包括三维形态的标记,可以形成多个,分别附着于互不相同的部位。
所述处理部可以以所述三维影像的坐标系及所述患者的坐标系的整合结果为基础,整合在对所述患者实施手术之前预先获得的三维影像的坐标系及针对所述患者而相对地定义的所述手术工具的坐标系。
本发明示例性的一个实施例的光学跟踪系统的跟踪方法包括:在对患者实施手术之前,获得包括与所述患者的患处对应的第一部位的三维影像的步骤;借助于跟踪传感器部,传感相对于所述患者的第一部位固定配置的基准标记部及配置于第一位置以便针对所述第一部位而测量三维形状的形状测量部的步骤;以所述跟踪传感器部传感的结果及配置于所述第一位置的所述形状测量部测量的结果为基础,获得所述基准标记部、所述跟踪传感器部、所述形状测量部及所述患者的第一部位之间的第一坐标变换关系的步骤;借助于跟踪传感器部,传感以标签形态附着于针对所述第一部位而能够刚性整合的位置的第二部位的标签标记部及配置于第二位置以便针对所述第二部位而测量三维形状的形状测量部的步骤;以所述跟踪传感器部传感的结果及配置于所述第二位置的所述形状测量部测量的结果为基础,获得所述基准标记部、所述跟踪传感器部、所述形状测量部及所述患者的第二部位之间的第二坐标变换关系的步骤;及从所述第一及第二坐标变换关系,提取所述第一部位及所述第二部位之间的第三坐标变换关系,针对所述跟踪传感器部,跟踪相对的所述第一部位的步骤。
作为一个实施例,所述获得第一坐标变换关系的步骤可以包括:以所述跟踪传感器部传感的结果为基础,获得所述基准标记部与所述跟踪传感器部之间的坐标变换关系及所述形状测量部与所述跟踪传感器部之间的坐标变换关系,以所述形状测量部测量的结果为基础,获得所述患者的第一部位与所述形状测量部之间的坐标变换关系,从而获得所述第一坐标变换关系的步骤。另外,所述获得第二坐标变换关系的步骤可以包括:以所述跟踪传感器部传感的结果为基础,获得所述基准标记部与所述跟踪传感器部之间的坐标变换关系及所述形状测量部与所述跟踪传感器部之间的坐标变换关系,以所述形状测量部测量的结果为基础,获得所述患者的第二部位与所述形状测量部之间的坐标变换关系,从而获得所述第二坐标变换关系的步骤。
例如,所述光学跟踪系统的跟踪方法可以还包括:以所述形状测量部测量的三维形状为基础,整合在针对所述患者实施手术之前获得的三维影像的坐标系及所述患者的第一部位的坐标系的步骤。
所述光学跟踪系统的跟踪方法可以还包括:传感所述手术工具的标记,以便跟踪用于对所述患者实施手术的手术工具的步骤;及从所述跟踪传感器部跟踪的所述手术工具的跟踪结果及针对所述跟踪传感器部而相对地跟踪的所述患者的第一部位的跟踪结果,针对所述患者的第一部位,相对地跟踪所述手术工具的步骤。
在针对所述患者的第一部位而相对地跟踪所述手术工具的步骤之后,所述光学跟踪系统的跟踪方法可以还包括:以所述三维影像的坐标系及所述患者的第一部位的坐标系的整合结果为基础,整合所述获得的三维影像的坐标系及随着所述手术工具的跟踪而针对所述患者第一部位相对地定义的所述手术工具的坐标系。
本发明示例性的另一实施例的光学跟踪系统提供用于利用在对患者实施手术之前预先获得的、包括与所述患者的患处对应的第一部位的三维影像,跟踪患者或用于对所述患者实施手术的手术工具。所述光学跟踪系统包括标签标记部、形状测量部、跟踪传感器部及处理部。所述标签标记部以标签形态附着于针对所述第一部位而能够刚性整合的位置的第二部位。所述形状测量部针对所述第一部位及所述第二部位,测量三维形状。所述跟踪传感器部传感所述标签标记部及所述形状测量部,以便能够分别跟踪所述标签标记部及所述形状测量部。所述处理部以所述跟踪传感器部传感的结果为基础,获得所述标签标记部与所述跟踪传感器部之间的坐标变换关系及所述形状测量部与所述跟踪传感器部之间的坐标变换关系,以所述形状测量部测量的结果为基础,获得所述患者的第一部位与所述形状测量部之间的坐标变换关系,从所述获得的坐标变换关系,针对所述标签标记部,定义相对的所述患者的坐标系。
发明效果
根据本发明,光学跟踪系统在针对患处而能够刚性整合的位置配备标签标记部,形状测量部针对所述患处和所述标签标记部测量三维形状,跟踪传感器部传感所述形状测量部和基准标记部,从它们之间的坐标变换关系,提取所述患处与所述标签标记部之间的坐标变换关系,从而仅仅通过利用所述坐标变换关系使所述形状测量部跟踪所述标签标记部的作业,便能够跟踪所述患处相对于所述跟踪传感器部的位置及姿势等。
另外,所述形状测量部测量所述标签标记部的过程可以容易地重新执行,因而即使在所述患者移动或姿势变化的情况下,利用所述患处与所述标签标记部之间的坐标变换关系,在实施手术时,可以容易地实时准确跟踪所述患处及所述手术工具。
另外,在手术开始之后,所述形状测量部无需测量所述患处,如果测量所述标签标记部,便能够跟踪所述患处,因而在手术中,不需要为了测量所述患处而移动所述形状测量部,在手术中,所述形状测量部位于所述患处周围,从而能够防止对手术造成妨害的问题。进一步而言,所述标签标记部附着的位置可以比较自由地选定,因而可以将手术中的所述形状测量部的位置配置于不妨害手术的位置。另外,所述标签标记部是标签附着型,因而可以以不妨害手术的形态形成,既可以附着于不妨害手术的位置,又可以采用多个标签标记部,不妨害手术地加以利用。
另外,在将所述标签标记部制作成三维形态的情况下,通过追加特征点,可以更容易地进行整合,从所述跟踪传感器部直接跟踪所述标签标记部,从而也可以省略所述基准标记部。另外,当采用两个以上的标签标记部及与其对应的两个以上的形状测量部时,可以利用所述标签标记部之间的坐标变换关系进行角度测量,因而即使在诸如膝盖手术的手术时,也可以借助于角度测量而实施手术。
另外,可以以实施手术时测量的所述患者的三维形状本身为标记进行整合,因而即使不把动态参照装置(DRB)直接附着于患者,也可以相互整合在实施手术之前预先获得的三维影像的坐标系、在实施手术时会实时移动的患者的坐标系及手术工具的坐标系。而且,即使在预先获得所述三维影像时,也不需要附着所述动态参照装置,可以随时重新设置及重新整合坐标系。
因此,可以解决把标记直接附着于患者而引起的患者痛苦和误差、应在手术前制作STAMP等作业的麻烦和所需时间及费用较多等以往技术的问题。
即,无需另外的准备过程,便可以在手术室内迅速设置患者的坐标系并执行影像整合,因而能够以更短的时间及较少的费用,准确、容易地进行患者的坐标系及手术工具的坐标系设置及影像整合,利用标签形态的标签标记部,取代直接附着于患者的动态参照装置(DRB),能够减轻患者的痛苦及副作用。
因此,根据本发明的光学跟踪装置及利用其的跟踪方法,能够极大地提高患者及手术实施者双方的便利性。
附图说明
图1是显示本发明一个实施例的光学跟踪系统的概念图。
图2至图4是用于说明图1的光学跟踪系统的建模过程的概念图。
图5是用于说明图1的光学跟踪系统中手术工具的跟踪及整合的概念图。
图6是显示本发明一个实施例的光学跟踪系统的坐标系整合方法及跟踪方法的流程图。
具体实施方式
本发明可以施加多样的变更,可以具有多种形态,且在附图中示例性图示了特定实施例,在正文中进行了详细的说明。但是,这并非要针对特定的公开形态限定本发明,应理解为包括本发明的思想及技术范围包含的所有变更、等同物以及替代物。
第一、第二等术语可以用于说明多样的构成要素,但所述构成要素不得由所述术语所限定。所述术语只用于把一个构成要素区别于其它构成要素的目的。例如,在不超出本发明的权利范围的同时,第一构成要素可以命名为第二构成要素,类似地,第二构成要素也可以命名为第一构成要素。
本申请中使用的术语只是为了说明特定实施例而使用的,并非意图限定本发明。只要在文理上未明确表示不同,单数的表现包括复数的表现。在本申请中,“包括”或“具有”等术语应理解为要指定说明书中记载的特征、数字、步骤、动作、构成要素、部件或它们组合的存在,不预先排除一个或其以上的其它特征或数字、步骤、动作、构成要素、部件或它们的组合的存在或附加可能性。
只要未不同地定义,包括技术性或科学性术语在内,在此使用的所有术语具有与本发明所属技术领域的技术人员一般理解的内容相同的意义。
与一般使用的词典中定义的内容相同的术语,应解释为具有与相关技术的文理上具有的意义一致的意义,只要在本申请中未明确定义,不得解释为理想性的过度的形式上的意义。
下面参照附图,更详细地说明本发明的优选实施例。
图1是显示本发明一个实施例的光学跟踪系统的概念图。
如果参照图1,本发明一个实施例的光学跟踪系统(optical tracking system)提供用于利用在对患者10实施手术之前预先获得的包括与所述患者10的患处对应的第一部位12的三维影像,跟踪患者10或用于对所述患者10实施手术的手术工具。
所述三维影像作为在对所述患者10实施手术之前预先获得的影像,可以在所述患者10实施手术时用作基准影像。其中,所述实施手术包括包含手术在内的对患者的全部医疗性治疗行为。例如,所述三维影像可以包括为了诊断及治疗而在医院中一般获得的CT(计算机断层扫描,computed tomography)影像。不同于此,所述三维影像可以包括诸如MRI(磁共振成象,magnetic resonance imaging)等的其它三维影像。另外,其中,所述三维影像作为还包括对诸如CT影像的直接拍摄影像进行操作或再构成的影像的概念,是均包括实际实施手术时广泛使用的多平面再构成影像及三维再构成影像的概念。
所述光学跟踪系统100包括基准标记(marker)部110、形状测量部120、跟踪传感器部130、处理部140及标签标记部(STK)。所述光学跟踪系统100提供用于利用在对患者10实施手术之前预先获得并包括与所述患者10患处对应的第一部位12的三维影像,跟踪患者10或用于对所述患者10实施手术的手术工具。
所述基准标记部110相对于所述患者10的第一部位12进行固定配置。所述第一部位12作为与所述患者10的患处对应的部位,是成为手术实施对象的部位。
在所述基准标记部110安装有标记112,所述标记112能够发生能量或信号,以便后述的跟踪传感器部130能够传感。例如,可以在所述基准标记部110安装多个标记,也可以安装形成了预定图案的一个标记。
所述基准标记部110虽然与以往的动态参照装置(DRB)对应,但所述基准标记部110不同于以往的动态参照装置,并不成为整合的基准,因而当拍摄诸如CT、MRI的所述三维影像时,不需要将其附着于所述患者10。另外,以往的动态参照装置必须直接附着于所述患者10,需要针对所述患者10进行严格固定,相反,所述基准标记部110虽然也可以直接附着于所述患者10,但只需针对所述患者10而相对固定即可,因而可以附着于手术室的床等其它固定物体,不需要针对所述患者10进行严格固定。
所述标签标记部(STK)以标签形态附着于针对所述第一部位12而能够刚性整合的位置的第二部位14。如果针对所述第一部位12而能够刚性整合,则所述第二部位14在哪个位置形成均无妨。另外,所述所谓刚性整合,不需要是严密意义上的刚性整合,可以根据对所述患者10实施手术的精密性和准确性等而有融通性地解释。
例如,所述标签标记部(STK)可以包括三维形态的标记,也可以形成多个,分别附着于互不相同的部位。
所述形状测量部120针对所述第一部位12及所述第二部位14,测量三维形状。
作为一个实施例,所述形状测量部120可以包括测量装置122及标记124。
所述测量装置122针对所述三维影像包含的所述患者10的第一部位12,测量三维形状,针对存在于针对所述第一部位12而能够刚性整合的位置的所述患者10的第二部位14,测量三维形状。此时,所述形状测量部120可以与所述第一部位12对应地配置于第一位置,可以与所述第二部位14对应地配置于第二位置。所述第一位置和所述第二位置分别对应于所述第一部位12及所述第二部位14进行配置,因而可以优选是互不相同的位置,但即使是相同的位置也无妨。
作为一个实施例,所述测量装置122向所述患者10的所述第一部位12或所述第二部位14照射格子图案光,获得根据所述患者10的所述第一部位12或所述第二部位14的反射图后,可以对所述获得的反射图应用桶算法(bucket algorithm),测量三维形状。另外,也可以从所述测量的三维形状获得三维影像。
作为另一实施例,所述测量装置122也可以包括光学相干断层成像(opticalcoherence tomography;OCT)装置。所述光学相干断层成像装置是组合光的干涉现象与共聚焦显微镜原理而能够将生物体组织内部的细微结构实现三维影像化的具有高分辨率的影像诊断装置,例如,使用近红外线(波长0.6μm~1.3μm)区域的光源,以非接触式及无创式,将生物体组织的断层实现影像化的光学断层成像装置。具体而言,例如,所述光学相干断层成像装置可基于迈克尔逊(Michelson)干涉仪进行运转。即,从光源发生的光信号如果在光耦合器中分成两个光信号并入射到基准端和样本端,则从所述基准端返回的基准光与在所述样本端向后方散射的样本光再次相遇而引起光干涉,利用这种光干涉信号,可使拍摄对象的断面影像化。
所述标记124安装于所述测量装置122。所述标记124可以发生能量或信号,以便后述的跟踪传感器部130能够传感。例如,在所述形状测量部120可以安装有多个标记,也可以安装形成了预定图案的一个标记。
所述跟踪传感器部130传感(sensing)所述基准标记部110及所述形状测量部120,以便能够分别跟踪所述基准标记部110及所述形状测量部120。
例如,所述跟踪传感器部130可以传感所述基准标记部110的标记112,可以传感所述形状测量部120的标记124。因此,可以获知所述基准标记部110的位置和/或姿势,可以获知所述形状测量部120的位置和/或姿势。
所述处理部140例如可以包括计算机或计算机的中央处理装置。
所述处理部140以所述跟踪传感器部130传感的结果及所述形状测量部120测量的结果为基础,获得所述基准标记部110、所述跟踪传感器部130、所述形状测量部120及所述患者的第一部位12之间的第一坐标变换关系,获得所述基准标记部110、所述跟踪传感器部130、所述形状测量部120及所述患者的第二部位14之间的第二坐标变换关系。所述处理部140从所述第一及第二坐标变换关系,提取所述第一部位12及所述第二部位14之间的第三坐标变换关系,针对所述跟踪传感器部130,跟踪相对的所述第一部位12。
具体而言,所述处理部140在所述形状测量部120配置于所述第一位置时,以所述跟踪传感器部130传感的结果为基础,获得所述基准标记部110与所述跟踪传感器部130之间的坐标变换关系及所述形状测量部120与所述跟踪传感器部130之间的坐标变换关系。因此,所述处理部140以所述形状测量部120测量的结果为基础,获得所述患者10的第一部位12与所述形状测量部120之间的坐标变换关系。可以从如此获得的所述坐标变换关系,获得所述第一坐标变换关系。其中,所述坐标变换关系例如可以定义为矩阵形态。
另外,所述处理部140在所述形状测量部120配置于所述第二位置时,以所述跟踪传感器部130传感的结果为基础,获得所述基准标记部110与所述跟踪传感器部130之间的坐标变换关系及所述形状测量部120与所述跟踪传感器部130之间的坐标变换关系。因此,所述处理部140以所述形状测量部120测量的结果为基础,获得所述患者10的第二部位14与所述形状测量部120之间的坐标变换关系。可以从如此获得的所述坐标变换关系,获得所述第二坐标变换关系。其中,所述坐标变换关系例如可以定义为矩阵形态。
所述处理部140从获得的所述第一及第二坐标变换关系,提取所述第一部位12及所述第二部位14之间的第三坐标变换关系,针对所述跟踪传感器部130,跟踪相对的所述第一部位12。
另一方面,所述形状测量部120的所述测量装置122的测量位置和所述形状测量部120的标记124的位置稍有差异,因而为了准确定义坐标系,也可以对所述测量装置122与所述标记124之间的位置差异导致的误差进行校准(calibration)。因此,所述处理部140可以独立地获得所述形状测量部120的标记124与所述跟踪传感器部130之间的坐标变换关系及所述形状测量部120的所述测量装置122与所述标记124之间的坐标变换关系。例如,所述坐标变换关系可以表现为坐标变换矩阵。
下面以附图为参照,更详细地说明用于利用所述坐标变换关系跟踪所述患者10的第一部位12的所述光学跟踪系统100的建模设置及解决过程。
图2至图4是用于说明图1的光学跟踪系统的建模过程的概念图。
如果参照图2,所述光学跟踪系统100可以分别用坐标变换矩阵T1、T2、T3、T4及PR代表所述坐标变换关系。
其中,PR意味着相对于所述基准标记部110的所述患者10的预定部位16的坐标变换矩阵,T1意味着相对于所述跟踪传感器部130的所述基准标记部110的坐标变换矩阵,T2意味着相对于所述跟踪传感器部130的所述形状测量部120的标记124的坐标变换矩阵,T3意味着相对于所述形状测量部120的标记124的测量装置122的坐标变换矩阵,T4意味着相对于所述形状测量部120的测量装置122的所述患者10的预定部位16的坐标变换矩阵。其中,所述预定部位16意味着包括所述第一部位12及所述第二部位14的所述患者10的特定部位。
如果以图2所示的箭头方向为基础形成闭环(closed loop)的方式,将相对于所述基准标记部110的所述患者10的预定部位16的坐标变换矩阵PR以T1、T2、T3及T4进行表示,则可以获得数学式1。
(数学式1)
PR=T1-1T2T3T4
另一方面,从所述跟踪传感器部130至所述患者10,形成互不相同的两条路径且成为闭环,获得数学式2后,即使对其进行变形,也可以获得作为相同结果的数学式1。
(数学式2)
T1PR=T2T3T4
所述处理部140根据数学式1(或数学式2)而获得坐标变换矩阵PR,从而能够针对所述基准标记部110,定义相对的所述患者10的预定部位16的坐标系。
例如,所述跟踪传感器部130可以测量获得相对于所述跟踪传感器部130的所述基准标记部110的坐标变换矩阵T1及相对于所述跟踪传感器部130的所述形状测量部120的标记124的坐标变换矩阵T2所需的信息,所述形状测量部120可以测量用于获得相对于所述形状测量部120的测量装置122的所述患者10的预定部位16的坐标变换矩阵T4所需的信息。所述处理部140可以利用所述测量的信息,获得坐标变换矩阵T1、T2、T4,可以从所述获得的坐标变换矩阵T1、T2、T4,算出相对于所述形状测量部120的标记124的测量装置122的坐标变换矩阵T3及相对于所述基准标记部110的所述患者10的预定部位16的坐标变换矩阵PR。
具体而言,所述坐标变换矩阵T3、PR可以应用如下的数学方式而获得,所述处理部140可以体现这种数学方式,算出所述坐标变换矩阵T3、PR。
首先,如果构成所述坐标变换矩阵而使得包括旋转变换部分R和位置变换部分t后,将其代入数学式2并整理,则可以获得数学式3。
(数学式3)
Figure BDA0001323800710000151
如果整理数学式3,则可以获得数学式4。
(数学式4)
Figure BDA0001323800710000152
如果把数学式4的各成分表现为等式,则可以获得数学式5及数学式6。
(数学式5)
RT1RPR-RT2RT3RT4=0
(数学式6)
RT1tPR+tT1-RT2RT3tT4-RT2tT3-tT2=0
在数学式5中,如果定义RTT并整理数学式5,则可以获得数学式7。
(数学式7)
Figure BDA0001323800710000153
另外,在数学式6中,如果追加定义tTT并整理数学式6,则可以获得数学式8。
(数学式8)
Figure BDA0001323800710000154
在数学式7及数学式8中,旋转变换矩阵R具有3×3形态,位置变换矩阵t具有3×1形态,因而可以从数学式7,获得作为关于3×3矩阵的各成分的公式的9个方程式,可以从数学式8,获得作为关于3×1矩阵的各成分的公式的3个方程式。
在数学式7中,可以从前面说明的测量获知RTT的所有成分(即,RT1及RT2的所有成分)及RT4的所有成分,在数学式8中,在此基础上,还可以获知tT4的所有成分,因而未知数为RPR和RT3各自的9个成分与tPR和tT4各自的3个成分,共24个。
数学式7及数学式8是全部包括24个未知数的12个方程式,因而通过2次以上测量,可以求出更准确的解,因此,所述跟踪传感器部130及所述形状测量部120的测量可以执行2次以上。
因此,可以利用如上所述测量的坐标变换关系,定义所述患者10的预定部位16的坐标系。
为了获得所述坐标变换矩阵T3、PR,所述数学方式也可以借助于其它方式替代。例如,所述处理部140可以应用对偶四元数(dual quaternion)方式而算出所述坐标变换矩阵T3、PR。
具体而言,首先,可以从前面记述的数学式1获得如下数学式9,可以变形数学式9而获得如下数学式10。
(数学式9)
T1PR-T2T3T4=0
(数学式10)
(T1+εT1′)(PR+εPR′)-(T2+εT2′)(T3+εT3′)(T4+εT4′)=0
如果展开数学式10并去除高次项,则可以获得数学式11。
(数学式11)
T1PR′+T1′PR-T2T3T4′-T2T3′T4-T2′T3T4=0
如果分别应用对偶四元数方式,变形数学式9和数学式11,则可以获得如下数学式12和如下数学式13。
(数学式12)
Figure BDA0001323800710000171
(数学式13)
Figure BDA0001323800710000172
如果把数学式12及数学式13变形为矩阵方程式形态,则可以获得如下数学式14,可以从数学式14算出所述坐标变换矩阵T3、PR。
(数学式14)
Figure BDA0001323800710000173
另一方面,所述处理部140可以以所述形状测量部120测量的三维形状为基础,整合针对所述患者10而在实施手术之前获得的三维影像的坐标系及所述患者10的第一部位12的坐标系。
具体而言,取代直接将标记或与标记相应的结构物附着于所述患者10并以此为基础整合所述三维影像的坐标系和所述患者10的坐标系,而是以所述三维形状自身为标志,整合如上所述获得的三维形状(或由此获得的三维影像)的坐标系和所述三维影像的坐标系(natural landmark)。当所述预定部位16为所述第一部位12时,所述三维形状成为与所述患者10的患处对应的三维形状。
如果参照图3,当所述预定部位16为所述第一部位12时,相对于所述基准标记部110的所述患者10的第一部位12的坐标变换矩阵可以用PR1代表。另外,当所述预定部位16为所述第二部位14时,相对于所述基准标记部110的所述患者10的第二部位14的坐标变换矩阵可以用PR2代表。
此时,所述数学式1在所述第一部位12时可以显示为数学式15,而且,在所述第二部位14时可以显示为数学式16,所述数学式2至所述数学式14中显示的数学式可以根据所述数学式15及所述数学式16而修订并表现。
(数学式15)
PR1=T1-1T2T3T4
(数学式16)
PR2=T1-1T2′T3′T4′
其中,PR1及PR2分别意味着相对于所述基准标记部110的所述患者10的第一部位12及第二部位14的坐标变换矩阵。另外,在所述形状测量部120将与所述第一部位12及所述第二部位14对应的位置分别称为第一位置L1及第二位置L2时,T1意味着相对于所述跟踪传感器部130的所述基准标记部110的坐标变换矩阵,T2及T2'分别意味着在所述第一位置L1及所述第二位置L2中的相对于所述跟踪传感器部130的所述形状测量部120的标记124的坐标变换矩阵,T3及T3'分别意味着在所述第一位置L1及所述第二位置L2中的相对于所述形状测量部120的标记124的测量装置122的坐标变换矩阵,T4及T4'分别意味着在所述第一位置L1及所述第二位置L2中的相对于所述形状测量部120的测量装置122的所述患者10的第一部位12及第二部位14的坐标变换矩阵。另一方面,所述第一位置L1及所述第二位置L2只是在形式上显示出所述形状测量部120的位置,并非意味着具体量化的位置。
从所述数学式15及所述数学式16,可以获得相对于所述第二部位14的所述第一部位12的坐标变换矩阵PRX,可以如数学式17所示显示。
(数学式17)
PRX=PR2-1PR1
如果参照图4,可以利用所述第二位置L2中的与所述形状测量部120相关的坐标变换矩阵T2'、T3'、T4'及所述坐标变换矩阵PRX,可从数学式17,如数学式18所示地定义相对于所述跟踪传感器部130的所述第一部位12的坐标变换矩阵PRS。在所述数学式18中,与所述基准标记部110及所述第一位置L1中的所述形状测量部120相关的坐标变换矩阵T1、T2、T3、T4均被排除。
(数学式18)
PRS=T2′T3′T4′PRX
如果将所述数学式15应用于所述数学式2至所述数学式14,则可以获得所述坐标变换矩阵T3、PR1,如果将所述数学式16应用于所述数学式2至所述数学式14,则可以获得所述坐标变换矩阵T3'、PR2,因而可以从所述数学式17获得所述坐标变换矩阵PRX。相对于所述第一部位12,所述第二部位14处于刚性整合关系中,因此,可以认定为所述坐标变换矩阵PRX为固定不变的矩阵。
因此,所述跟踪传感器部130传感所述形状测量部120,所述形状测量部120测量所述标签标记部(STK),可以持续地跟踪与所述患者10的患处对应的第一部位12。
例如,在所述患者10移动或变换姿势的情况下,所述跟踪传感器部130传感所述形状测量部120,重新获得坐标变换矩阵T2',所述形状测量部120测量所述标签标记部(STK),获得坐标变换矩阵T4'后,可以应用所述数学式18。因此,如果在所述数学式18中,代入所述坐标变换矩阵T2'、T4'、PRX,应用所述数学式2至数学式14的方式,则可以获得所述坐标变换矩阵PRS、T3',因此,利用所述坐标变换矩阵PRS,可以容易地实时跟踪所述患者10的第一部位12。
所述处理部140可以以所述形状测量部120测量的所述患者10的第二部位14的三维形状及所述第三坐标变换关系为基础,重新整合在针对所述患者10实施手术之前预先获得的三维影像的坐标系及所述患者10的第一部位12的坐标系。即,可以利用所述形状测量部120测量的所述患者10的第二部位14的三维形状,定义所述第二部位14的坐标系,可以利用与所述第三变换关系对应的所述坐标变换矩阵PRX,变换为所述第一部位12,因此,可以重新整合在针对所述患者10实施手术之前预先获得的三维影像的坐标系及所述第一部位12的坐标系。
另一方面,所述标签标记部(STK)容易拆装,即使在随时修订位置而附着于所述患者10的其它部位的情况下,重新执行所述过程,从而能够跟踪所述患者10的第一部位12。
另外,所述标签标记部(STK)容易追加附着,即使在随时将追加的标签标记部附着于所述患者10的其它部位的情况下,重新执行所述过程,从而能够跟踪所述患者10的第一部位12。
另一方面,如上所述的跟踪过程可以自动或由使用者手动重新执行。
作为一个实施例,所述光学跟踪系统100既可以包括感知所述患者10的移动的移动感知部(图中未示出),也可以不另行包含移动感知部,而是由所述跟踪传感器部130感知所述患者10的移动。如果所述移动感知部或所述跟踪传感器部130感知所述患者10的移动,则所述处理部140重新执行所述过程,从而可以重新执行所述跟踪过程。
另一方面,当所述标签标记部(STK)形成得可直接被所述跟踪传感器部130传感时,所述跟踪传感器部130直接跟踪所述标签标记部(STK),因而所述基准标记部110也可以省略。此时,所述标签标记部(STK)和所述基准标记部110相同,因而可以在所述坐标变换矩阵中定义为PR1=PR2=I(单位矩阵),执行前面的跟踪过程。
下面以附图为参照,详细说明所述光学跟踪系统100跟踪手术工具的方法及整合手术工具的坐标系与患者的坐标系的过程。
图5是用于说明图1的光学跟踪系统进行手术工具的跟踪及整合的概念图。
如果参照图5,所述光学跟踪系统100可以还包括手术工具150。
所述手术工具150作为用于对所述患者10实施手术的工具,包含标记152。所述标记152可以发生能量或信号,以便所述跟踪传感器部130能够传感。例如,所述标记152可以形成多个,也可以包括图案信息。
所述跟踪传感器部130可以传感所述手术工具150的标记152,跟踪所述手术工具150。
所述处理部140可以从所述跟踪传感器部130跟踪的所述手术工具150的第一跟踪结果及针对所述跟踪传感器部130而相对地跟踪的所述患者10的第一部位12的第二跟踪结果,针对所述患者10的第一部位12,相对地跟踪所述手术工具150。
具体而言,以所述第一跟踪结果为基础,获得所述手术工具150的标记152和所述跟踪传感器部130之间的坐标变换关系,以所述第二跟踪结果为基础,获得所述患者10的第一部位12与所述跟踪传感器部130之间的坐标变换关系。其中,所述坐标变换关系例如可以定义为矩阵形态,可以以坐标变换矩阵表现。
所述处理部140可以利用所述获得的坐标变换关系,针对所述患者10,定义相对的所述手术工具150的坐标系。例如,所述坐标系可以定义为矩阵形态。
即,如果利用相对于所述跟踪传感器部130的所述患者10的第一部位12的坐标变换矩阵PRS,利用所述跟踪传感器部130传感并算出的坐标变换矩阵T2",则根据下述数学式19,可知相对于所述患者10的第一部位12而相对地定义的所述手术工具150的坐标变换矩阵T5。
(数学式19)
PRS=T2″T5=T2″T3″T4″
因此,可以利用如上所述测量的坐标变换关系,针对所述患者10的第一部位12,相对地跟踪所述手术工具150,针对所述患者10的第一部位12,定义相对的所述手术工具150的坐标系。
在图5及数学式19中,所述手术工具150的坐标变换矩阵T5以所述标记152为基础进行了图示,但是,也可以以需要跟踪的地点,例如以所述手术工具150的端部154为基础,定义坐标变换矩阵。即,可以利用相对于所述手术工具150的标记152的所述手术工具150的端部154的坐标变换矩阵T3"及相对于所述手术工具150的端部154的所述患者10的第一部位12的坐标变换矩阵T4",定义所述坐标变换矩阵T5(T5=T3"T4"),此时,T3"可从所述手术工具150的几何学形状而获知,因此,可以以所述端部154为基础,针对所述患者10,定义相对的所述手术工具150的坐标系。
另一方面,所述处理部140可以以所述三维影像的坐标系及所述患者10的第一部位12的坐标系的整合结果为基础,整合在对所述患者10实施手术之前预先获得的三维影像的坐标系及针对所述患者10的第一部位12而相对地定义的所述手术工具150的坐标系。
即,如图1及图2中所作的说明,可以以所述形状测量部120测量的三维形状为基础,整合在对所述患者10的第一部位12实施手术之前获得的三维影像的坐标系及所述所述患者10的第一部位12的坐标系,正如上面所作的说明,可以针对所述患者10的第一部位12,定义相对的所述手术工具150的坐标系,因此,可以相互整合在对所述患者10的第一部位12实施手术之前预先获得的三维影像的坐标系及针对所述患者10的第一部位12而相对地定义的所述手术工具150的坐标系。
所述光学跟踪系统100可以还包括与所述处理部140连接的显示部(图中未示出)。所述显示部可以显示所述在实施手术之前预先获得的三维影像、所述形状测量部120测量的对于三维形状的影像、对于所述手术工具150的影像、所述影像整合后的重叠影像等。
如上所述,所述处理部140可以从所述坐标变换关系,针对所述患者10的第一部位12,定义相对的所述手术工具150的坐标系,可以在实施手术时,实时跟踪所述手术工具150。
下面以附图为参照,说明利用所述光学跟踪系统100,整合在手术之前预先拍摄的三维影像的坐标系与患者患处和手术工具所在的手术时的实际世界的坐标系的过程、所述患者的患处和所述手术工具的跟踪方法。
图6是显示本发明一个实施例的光学跟踪系统的坐标系整合方法及跟踪方法的流程图。
如果参照图2至图6,首先,在对患者10实施手术之前,获得包含与所述患者10的患处对应的第一部位12在内的三维影像,例如,CT影像(S110)。
可以把如上所述在实施手术之前预先获得的诸如CT影像的三维影像(包括对此进行再构成的影像),例如存储于计算机。
接着,如下执行所述实施手术时的过程。
首先,借助于跟踪传感器部130,传感相对于所述患者10而进行固定配置的基准标记部110及配置于第一位置L1以便针对所述所述患者10的第一部位12测量三维形状的形状测量部120(S120)。
然后,以所述跟踪传感器部130传感的结果及配置于所述第一位置L1的所述形状测量部120测量的结果为基础,获得所述基准标记部110、所述跟踪传感器部130、所述形状测量部120及所述患者10的第一部位12之间的第一坐标变换关系(S130)。
此时,以所述跟踪传感器部130传感的结果为基础,获得所述基准标记部110与所述跟踪传感器部130之间的坐标变换关系及所述形状测量部120与所述跟踪传感器部130之间的坐标变换关系,以所述形状测量部120测量的结果为基础,获得所述患者10的第一部位12与所述形状测量部120之间的坐标变换关系,可以获得所述第一坐标变换关系。
接着,借助于跟踪传感器部130,传感以标签形态附着于针对所述第一部位12而能够刚性整合的位置的第二部位14的标签标记部(STK),及配置于第二位置L2以便针对所述第二部位14测量三维形状的形状测量部120(S140)。
然后,以所述跟踪传感器部130传感的结果及配置于所述第二位置L2的所述形状测量部120测量的结果为基础,获得所述基准标记部110、所述跟踪传感器部130、所述形状测量部120及所述患者10的第二部位14之间的第二坐标变换关系(S150)。
此时,以所述跟踪传感器部130传感的结果为基础,获得所述基准标记部110与所述跟踪传感器部130之间的坐标变换关系及所述形状测量部120与所述跟踪传感器部130之间的坐标变换关系,以所述形状测量部120测量的结果为基础,获得所述患者10的第二部位14与所述形状测量部120之间的坐标变换关系,可以获得所述第二坐标变换关系。
接着,从所述第一及第二坐标变换关系,提取所述第一部位12及所述第二部位14之间的第三坐标变换关系,针对所述跟踪传感器部130,跟踪相对的所述第一部位12,即,跟踪患处(S160)。
此时,随着所述第一部位12的跟踪,可以定义针对所述跟踪传感器部130相对的所述第一部位12的坐标系。
另一方面,可以以所述形状测量部120测量的三维形状为基础,整合在对所述患者10实施手术之前获得的三维影像的坐标系及所述患者10的第一部位12的坐标系(S170)。
如上所述,可以针对所述跟踪传感器部130,相对地定义所述患者10的第一部位12的坐标系,整合预先获得的诸如CT影像的三维影像的坐标系与所述患者10的第一部位12的坐标系。
向诸如医师的实施手术者提供附着了标记152的手术工具150,所述手术实施者可以直接或利用手术机器人等设备,运用对所述患者10实施手术所需的所述手术工具150。对于所述手术工具150,执行如下所述跟踪所需的过程。
所述跟踪传感器部130传感所述手术工具150的标记152(S180)。
接着,从跟踪的所述手术工具150的跟踪结果及针对所述跟踪传感器部130而相对地跟踪的所述患者10的第一部位12的跟踪结果,针对所述患者10的第一部位12,相对地跟踪所述手术工具150(S190)。
接着,以所述三维影像的坐标系及所述患者10的第一部位12的坐标系的整合结果为基础,整合所述获得的三维影像的坐标系及随着所述手术工具150的跟踪而针对所述患者10的第一部位12相对地定义的所述手术工具150的坐标系(S200)。
如上所述,可以针对所述患者10的第一部位12,相对地定义用于对所述患者10实施手术的手术工具150的坐标系,整合预先获得的诸如CT影像的三维影像的坐标系与所述手术工具150的坐标系。
在本实施例中,以图6的流程图为参照,简略地说明了所述光学跟踪系统100的坐标系整合方法,所述光学跟踪系统100的具体运转实质上与前面图1至图5说明的内容相同,因而省略重复的详细说明。
根据本发明的光学跟踪系统及跟踪方法,在针对患处而能够刚性整合的位置配备标签标记部,形状测量部针对所述患处和所述标签标记部测量三维形状,跟踪传感器部传感所述形状测量部和基准标记部,从它们之间的坐标变换关系,提取所述患处与所述标签标记部之间的坐标变换关系,从而仅仅通过利用所述坐标变换关系使所述形状测量部跟踪所述标签标记部的作业,便能够跟踪相对于所述跟踪传感器部的所述患处的位置及姿势等。
另外,所述形状测量部测量所述标签标记部的过程可以容易地重新执行,因而即使在所述患者移动或姿势变化的情况下,也能够利用所述患处与所述标签标记部之间的坐标变换关系,在实施手术时容易地实时准确跟踪所述患处及所述手术工具。
另外,在手术开始之后,所述形状测量部无需测量所述患处,如果测量所述标签标记部,则可以跟踪所述患处,因此,无需在手术中为了测量所述患处而移动所述形状测量部,能够防止在手术中因所述形状测量部位于所述患处周围而对手术造成妨害的问题。进一步而言,所述标签标记部附着的位置可以比较自由地选定,因而可以将手术中的所述形状测量部位置配置于不妨害手术的位置。另外,所述标签标记部是标签附着型,因而可以以不妨害手术的形态形成,既可以附着于不妨害手术的位置,也可以采用多个标签标记部,从而能够不妨害手术地加以利用。
另外,在将所述标签标记部制作成三维形态的情况下,通过追加特征点,可以更容易地进行整合,所述跟踪传感器部直接跟踪所述标签标记部,从而也可以省略所述基准标记部。另外,当采用两个以上的标签标记部及与其对应的两个以上的形状测量部时,可以利用所述标签标记部之间的坐标变换关系进行角度测量,因而即使在诸如膝盖手术的手术时,也可以借助于角度测量而实施手术。
另外,可以以实施手术时测量的所述患者的三维形状本身为标志进行整合,因而即使不把动态参照装置(DRB)直接附着于患者,也可以相互整合在实施手术之前预先获得的三维影像的坐标系与在实施手术时会实时移动的患者的坐标系及手术工具的坐标系。而且,即使在预先获得所述三维影像时,也不需要附着所述动态参照装置,可以随时重新设置及重新整合坐标系。
因此,可以解决把标记直接附着于患者而引起的患者痛苦和误差、需要在手术前制作STAMP等作业的麻烦和所需时间及费用较多等以往技术的问题。
即,无需另外的准备过程,便可以在手术室内迅速设置患者的坐标系并执行影像整合,因而能够以更短的时间及较少的费用,准确、容易地进行患者的坐标系及手术工具的坐标系设置及影像整合,利用标签形态的标签标记部,取代直接附着于患者的动态参照装置(DRB),能够减轻患者的痛苦及副作用。
因此,根据本发明的光学跟踪装置及利用其的跟踪方法,能够极大提高患者及手术实施者双方的便利性。
在前面说明的本发明的详细说明中,参照本发明的优选实施例进行了说明,但只要是相应技术领域的熟练从业人员或相应领域的普通技术人员便会理解,在不超出后述的专利权利要求书记载的本发明的思想及技术领域的范围内,可以多样地修订及变更本发明。因此,前述说明以及以下附图应解释为是对本发明进行的示例而非用于限定本发明的技术思想。

Claims (16)

1.一种光学跟踪系统,所述光学跟踪系统用于利用在对患者实施手术之前预先获得并包括与所述患者的患处对应的第一部位的三维影像,跟踪患者或用于对所述患者实施手术的手术工具,其中,包括:
基准标记部,其与所述患者的第一部位隔开配置;
标签标记部,其以标签形态附着于针对所述第一部位而能够刚性整合的位置的第二部位;
形状测量部,其针对所述第一部位及所述第二部位,测量三维形状;
跟踪传感器部,其传感所述基准标记部及所述形状测量部,以便能够分别跟踪所述基准标记部及所述形状测量部;及
处理部,其以所述跟踪传感器部传感的结果及所述形状测量部测量的结果为基础,获得所述基准标记部、所述跟踪传感器部、所述形状测量部及所述患者的第一部位之间的第一坐标变换关系,获得所述基准标记部、所述跟踪传感器部、所述形状测量部及所述患者的第二部位之间的第二坐标变换关系,从所述第一坐标变换关系及所述第二坐标变换关系提取所述第一部位及所述第二部位之间的第三坐标变换关系,针对所述跟踪传感器部而跟踪相对的所述第一部位。
2.根据权利要求1所述的光学跟踪系统,其中,
所述处理部在所述形状测量部配置于第一位置时,以所述跟踪传感器部传感的结果为基础,获得所述基准标记部与所述跟踪传感器部之间的坐标变换关系及所述形状测量部与所述跟踪传感器部之间的坐标变换关系,以所述形状测量部测量的结果为基础,获得所述患者的第一部位与所述形状测量部之间的坐标变换关系,从而获得所述第一坐标变换关系,
在所述形状测量部配置在不同于所述第一位置的第二位置时,以所述跟踪传感器部传感的结果为基础,获得所述基准标记部与所述跟踪传感器部之间的坐标变换关系及所述形状测量部与所述跟踪传感器部之间的坐标变换关系,以所述形状测量部测量的结果为基础,获得所述患者的第二部位与所述形状测量部之间的坐标变换关系,从而获得所述第二坐标变换关系。
3.根据权利要求1所述的光学跟踪系统,其中,
所述形状测量部包括测量三维形状的测量装置及安装于所述测量装置的标记,
所述跟踪传感器部传感所述形状测量部的标记,
所述处理部获得所述形状测量部的标记与所述跟踪传感器部之间的坐标变换关系及所述形状测量部的所述测量装置与所述标记之间的坐标变换关系。
4.根据权利要求3所述的光学跟踪系统,其中,
所述坐标变换关系以坐标变换矩阵表现,
所述处理部根据如下数学式,定义所述第一坐标变换关系及所述第二坐标变换关系:
PR=T1-1T2T3T4
PR为相对于所述基准标记部的所述患者的第一部位或第二部位的坐标变换矩阵,T1为相对于所述跟踪传感器部的所述基准标记部的坐标变换矩阵,T2为相对于所述跟踪传感器部的所述形状测量部的标记的坐标变换矩阵,T3为相对于所述形状测量部的标记的所述形状测量部的测量装置的坐标变换矩阵,T4为相对于所述形状测量部的测量装置的所述患者的第一部位或第二部位的坐标变换矩阵。
5.根据权利要求4所述的光学跟踪系统,其中,
所述跟踪传感器部测量用于获得相对于所述跟踪传感器部的所述基准标记部的坐标变换矩阵(T1)及相对于所述跟踪传感器部的所述形状测量部的标记的坐标变换矩阵(T2)所需的信息,所述形状测量部测量用于获得相对于所述形状测量部的测量装置的所述患者的第一部位或第二部位的坐标变换矩阵(T4)所需的信息,
所述处理部利用所述测量的信息,获得所述坐标变换矩阵T1、T2、T4,从所述获得的坐标变换矩阵T1、T2、T4,算出相对于所述形状测量部的标记的所述形状测量部的测量装置的坐标变换矩阵(T3)及相对于所述基准标记部的所述患者的第一部位或第二部位的坐标变换矩阵(PR)。
6.根据权利要求5所述的光学跟踪系统,其中,
所述跟踪传感器部及所述形状测量部的测量分别针对所述患者的第一部位及第二部位执行,并各执行2次以上。
7.根据权利要求5所述的光学跟踪系统,其中,
当将相对于所述基准标记部的所述患者的第一部位的坐标变换矩阵定义为PR1,将相对于所述基准标记部的所述患者的第二部位的坐标变换矩阵定义为PR2时,所述第三坐标变换关系以根据如下数学式定义的坐标变换矩阵PRX表现,
PRX=PR2-1PR1
所述处理部利用所述坐标变换矩阵PRX,针对所述跟踪传感器部,相对地跟踪所述第一部位。
8.根据权利要求1所述的光学跟踪系统,其中,
所述处理部以所述形状测量部测量的三维形状为基础,整合针对所述患者而在手术之前预先获得的三维影像的坐标系及所述患者的第一部位的坐标系。
9.根据权利要求8所述的光学跟踪系统,其中,
所述处理部以所述形状测量部测量的所述患者的第二部位的三维形状及所述第三坐标变换关系为基础,重新整合针对所述患者而在手术之前预先获得的三维影像的坐标系及所述患者的第一部位的坐标系。
10.根据权利要求1所述的光学跟踪系统,其中,
还包括手术工具,其包括标记,用于对所述患者实施手术;
所述跟踪传感器部传感所述手术工具的标记,以便跟踪所述手术工具,
所述处理部从所述跟踪传感器部跟踪的所述手术工具的跟踪结果及针对所述跟踪传感器部而相对跟踪的所述患者的第一部位的跟踪结果,针对所述患者的第一部位,相对地跟踪所述手术工具。
11.根据权利要求1所述的光学跟踪系统,其中,
所述标签标记部包括三维形态的标记。
12.根据权利要求1所述的光学跟踪系统,其中,
所述标签标记部形成多个,分别附着于互不相同的部位。
13.一种光学跟踪系统的跟踪方法,其中,包括:
在对患者实施手术之前,获得包括与所述患者的患处对应的第一部位的三维影像的步骤;
借助于跟踪传感器部,传感与所述患者的第一部位隔开配置的基准标记部及配置于第一位置以便针对所述第一部位而测量三维形状的形状测量部的步骤;
以所述跟踪传感器部传感的结果及配置于所述第一位置的所述形状测量部测量的结果为基础,获得所述基准标记部、所述跟踪传感器部、所述形状测量部及所述患者的第一部位之间的第一坐标变换关系的步骤;
借助于跟踪传感器部,传感以标签形态附着于针对所述第一部位而能够刚性整合的位置的第二部位的标签标记部及配置于第二位置以便针对所述第二部位而测量三维形状的形状测量部的步骤;
以所述跟踪传感器部传感的结果及配置于所述第二位置的所述形状测量部测量的结果为基础,获得所述基准标记部、所述跟踪传感器部、所述形状测量部及所述患者的第二部位之间的第二坐标变换关系的步骤;及
从所述第一坐标变换关系及所述第二坐标变换关系,提取所述第一部位及所述第二部位之间的第三坐标变换关系,针对所述跟踪传感器部,跟踪相对的所述第一部位的步骤。
14.根据权利要求13所述的光学跟踪系统的跟踪方法,其中,
获得第一坐标变换关系的步骤包括:
以所述跟踪传感器部传感的结果为基础,获得所述基准标记部与所述跟踪传感器部之间的坐标变换关系及所述形状测量部与所述跟踪传感器部之间的坐标变换关系,以所述形状测量部测量的结果为基础,获得所述患者的第一部位与所述形状测量部之间的坐标变换关系,从而获得所述第一坐标变换关系的步骤;
获得第二坐标变换关系的步骤包括:
以所述跟踪传感器部传感的结果为基础,获得所述基准标记部与所述跟踪传感器部之间的坐标变换关系及所述形状测量部与所述跟踪传感器部之间的坐标变换关系,以所述形状测量部测量的结果为基础,获得所述患者的第二部位与所述形状测量部之间的坐标变换关系,从而获得所述第二坐标变换关系的步骤。
15.根据权利要求13所述的光学跟踪系统的跟踪方法,其中,
还包括:以所述形状测量部测量的三维形状为基础,整合在针对所述患者实施手术之前获得的三维影像的坐标系及所述患者的第一部位的坐标系的步骤。
16.一种光学跟踪系统,所述光学跟踪系统用于利用在对患者实施手术之前预先获得并包括与所述患者的患处对应的第一部位的三维影像,跟踪患者或用于对所述患者实施手术的手术工具,其中,包括:
标签标记部,其以标签形态附着于针对所述第一部位而能够刚性整合的位置的第二部位;
形状测量部,其针对所述第一部位及所述第二部位,测量三维形状;
跟踪传感器部,其传感所述标签标记部及所述形状测量部,以便能够分别跟踪所述标签标记部及所述形状测量部;及
处理部,其以所述跟踪传感器部传感的结果为基础,获得所述标签标记部与所述跟踪传感器部之间的坐标变换关系及所述形状测量部与所述跟踪传感器部之间的坐标变换关系,以所述形状测量部测量的结果为基础,获得所述患者的第一部位与所述形状测量部之间的坐标变换关系,从所述获得的坐标变换关系,针对所述标签标记部,定义相对的所述患者的坐标系。
CN201580068912.5A 2014-12-19 2015-12-18 光学跟踪系统及光学跟踪系统的跟踪方法 Active CN107106243B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020140183829A KR101650821B1 (ko) 2014-12-19 2014-12-19 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법
KR10-2014-0183829 2014-12-19
PCT/KR2015/013967 WO2016099212A1 (ko) 2014-12-19 2015-12-18 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법

Publications (2)

Publication Number Publication Date
CN107106243A CN107106243A (zh) 2017-08-29
CN107106243B true CN107106243B (zh) 2020-03-20

Family

ID=56126995

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580068912.5A Active CN107106243B (zh) 2014-12-19 2015-12-18 光学跟踪系统及光学跟踪系统的跟踪方法

Country Status (6)

Country Link
US (1) US10271908B2 (zh)
EP (1) EP3235460B1 (zh)
JP (1) JP6450849B2 (zh)
KR (1) KR101650821B1 (zh)
CN (1) CN107106243B (zh)
WO (1) WO2016099212A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015164591A1 (en) 2014-04-23 2015-10-29 Applied Medical Resources Corporation Systems and methods for tissue removal
JP6820258B2 (ja) 2014-11-13 2021-01-27 アプライド メディカル リソーシーズ コーポレイション 組織取り出しシステムおよび方法
WO2017127725A1 (en) 2016-01-22 2017-07-27 Applied Medical Resources Corporaton Systems and methods for tissue removal
JP7216662B2 (ja) * 2017-11-30 2023-02-01 テルモ株式会社 支援システム、支援方法、および支援プログラム
KR102166372B1 (ko) * 2017-12-20 2020-10-15 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법
KR102274175B1 (ko) * 2019-09-18 2021-07-12 큐렉소 주식회사 수술 내비게이션 장치 및 그 방법
US20210303758A1 (en) * 2020-03-31 2021-09-30 Ultraleap Limited Accelerated Hardware Using Dual Quaternions
CN114366300B (zh) * 2021-12-24 2024-02-09 苏州国科康成医疗科技有限公司 一种手术图像空间映射装置、设备以及方法
WO2024058562A1 (ko) * 2022-09-16 2024-03-21 주식회사 필드큐어 전극 어레이 위치 및 방향 정보 제공 방법 및 장치

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6405072B1 (en) * 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
WO1998035720A2 (en) 1997-02-14 1998-08-20 Biosense Inc. X-ray guided surgical location system with extended mapping volume
EP1715788B1 (en) * 2004-02-17 2011-09-07 Philips Electronics LTD Method and apparatus for registration, verification, and referencing of internal organs
DE102006008042A1 (de) * 2006-02-21 2007-07-19 Siemens Ag Medizinisches Gerät mit im medizinischen Gerät kombinierter Bilderfassungs- und Positionsbestimmungsvorrichtung
JP4968604B2 (ja) 2006-06-21 2012-07-04 トヨタ自動車株式会社 姿勢角決定装置およびその決定方法
US20080013809A1 (en) * 2006-07-14 2008-01-17 Bracco Imaging, Spa Methods and apparatuses for registration in image guided surgery
KR100961661B1 (ko) * 2009-02-12 2010-06-09 주식회사 래보 수술용 항법 장치 및 그 방법
KR101049507B1 (ko) 2009-02-27 2011-07-15 한국과학기술원 영상유도수술시스템 및 그 제어방법
US20110105895A1 (en) * 2009-10-01 2011-05-05 Giora Kornblau Guided surgery
JP2013508103A (ja) * 2009-10-28 2013-03-07 イムリス インク. 画像誘導手術のための画像の自動登録
JP5629101B2 (ja) 2010-03-09 2014-11-19 株式会社日立メディコ 治療支援装置及び治療支援システム
CA2797302C (en) * 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
KR101188715B1 (ko) 2010-10-04 2012-10-09 한국과학기술연구원 수술 도구의 3차원 추적 시스템 및 이를 이용한 위치 감지 방법
US20140228675A1 (en) 2011-10-28 2014-08-14 Navigate Surgical Technologies, Inc. Surgical location monitoring system and method
US9554763B2 (en) 2011-10-28 2017-01-31 Navigate Surgical Technologies, Inc. Soft body automatic registration and surgical monitoring system
US8938282B2 (en) 2011-10-28 2015-01-20 Navigate Surgical Technologies, Inc. Surgical location monitoring system and method with automatic registration
JP2015508293A (ja) * 2011-10-28 2015-03-19 ナビゲート サージカル テクノロジーズ インク 手術位置モニタリングシステム及びその方法
KR101492940B1 (ko) * 2012-04-27 2015-02-12 재단법인대구경북과학기술원 피부마커와 체내 특징점을 이용한 고정확도 영상정합 장치 및 방법
WO2013162332A1 (ko) 2012-04-27 2013-10-31 주식회사 고영테크놀러지 피부마커와 체내 특징점을 이용한 고정확도 영상정합 장치 및 방법
DE102012220115A1 (de) 2012-11-05 2014-05-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildgebendes System, Operationsvorrichtung mit dem bildgebenden System und Verfahren zur Bildgebung
JP2016512973A (ja) * 2013-02-11 2016-05-12 ネオメドツ エスアーエールエル 身体に対して対象を追跡するための追跡装置

Also Published As

Publication number Publication date
EP3235460B1 (en) 2020-05-20
EP3235460A1 (en) 2017-10-25
US20180263708A1 (en) 2018-09-20
JP6450849B2 (ja) 2019-01-09
JP2018505398A (ja) 2018-02-22
EP3235460A4 (en) 2018-03-21
WO2016099212A1 (ko) 2016-06-23
CN107106243A (zh) 2017-08-29
US10271908B2 (en) 2019-04-30
KR20160074912A (ko) 2016-06-29
KR101650821B1 (ko) 2016-08-24

Similar Documents

Publication Publication Date Title
CN107106243B (zh) 光学跟踪系统及光学跟踪系统的跟踪方法
CN107072720B (zh) 光学跟踪系统及光学跟踪系统的坐标系整合方法
KR101848027B1 (ko) 정위수술용 수술로봇 시스템 및 정위수술용 로봇의 제어방법
KR101572487B1 (ko) 환자와 3차원 의료영상의 비침습 정합 시스템 및 방법
JP6740316B2 (ja) X線透視装置の放射線フリー位置較正
US20190117317A1 (en) Organ motion compensation
CN107124867A (zh) 用于骨科导航的形状感测
KR102105974B1 (ko) 의료 영상 시스템
KR20160069180A (ko) 중재시술 로봇용 공간정합 시스템
CN105105846B (zh) 一种用来精确引导对一病患进行外科手术的系统
US10624764B2 (en) System and method for the registration of an anatomical feature
Martelli New method for simultaneous anatomical and functional studies of articular joints and its application to the human knee
AU2023211675A1 (en) Augmented reality systems and methods for surgical planning and guidance
EP2139391B1 (en) Recognizing a real world fiducial in patient image data
US20210035274A1 (en) Method and system for generating an enriched image of a target object and corresponding computer program and computer-readable storage medium
CA2949939C (en) System and method for the registration of an anatomical feature
Bagheri et al. End-to-End assessment of AR-assisted neurosurgery systems
KR20160074885A (ko) 수술 결과 표시 방법 및 이를 이용한 수술 결과 표시 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 15 / F, 14 / F, No.53, Jiashan digital 2 Road, Jinchuan District, Seoul, Korea

Patentee after: Gaoying Technology Co.,Ltd.

Address before: 15 / F, 14 / F, No.53, Jiashan digital 2 Road, Jinchuan District, Seoul, Korea

Patentee before: KOH YOUNG TECHNOLOGY Inc.

CP02 Change in the address of a patent holder
CP02 Change in the address of a patent holder

Address after: Han Guoshouershi

Patentee after: Gaoying Technology Co.,Ltd.

Address before: 15 / F, 14 / F, No.53, Jiashan digital 2 Road, Jinchuan District, Seoul, Korea

Patentee before: Gaoying Technology Co.,Ltd.