CN113347937B - 参照系的配准 - Google Patents
参照系的配准 Download PDFInfo
- Publication number
- CN113347937B CN113347937B CN202080010717.8A CN202080010717A CN113347937B CN 113347937 B CN113347937 B CN 113347937B CN 202080010717 A CN202080010717 A CN 202080010717A CN 113347937 B CN113347937 B CN 113347937B
- Authority
- CN
- China
- Prior art keywords
- frame
- face
- subject
- camera
- optical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 65
- 230000009466 transformation Effects 0.000 claims abstract description 29
- 238000013507 mapping Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims abstract description 4
- 239000003550 marker Substances 0.000 claims description 38
- 238000000034 method Methods 0.000 claims description 28
- 230000003068 static effect Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 5
- 230000001815 facial effect Effects 0.000 abstract 1
- 210000003128 head Anatomy 0.000 description 39
- 238000002591 computed tomography Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 239000000523 sample Substances 0.000 description 5
- 239000000853 adhesive Substances 0.000 description 3
- 230000001070 adhesive effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001085205 Prenanthella exigua Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000011810 insulating material Substances 0.000 description 1
- 238000012977 invasive surgical procedure Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002324 minimally invasive surgery Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/24—Surgical instruments, devices or methods, e.g. tourniquets for use in the oral cavity, larynx, bronchial passages or nose; Tongue scrapers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/32—Surgical robots operating autonomously
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/73—Manipulators for magnetic surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/062—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01F—MAGNETS; INDUCTANCES; TRANSFORMERS; SELECTION OF MATERIALS FOR THEIR MAGNETIC PROPERTIES
- H01F27/00—Details of transformers or inductances, in general
- H01F27/28—Coils; Windings; Conductive connections
- H01F27/2804—Printed windings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/302—Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/73—Manipulators for magnetic surgery
- A61B2034/731—Arrangement of the coils or magnets
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3954—Markers, e.g. radio-opaque or breast lesions markers magnetic, e.g. NMR or MRI
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Power Engineering (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Dentistry (AREA)
- Otolaryngology (AREA)
- Pulmonology (AREA)
- Vascular Medicine (AREA)
- Geometry (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Endoscopes (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Studio Devices (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种设备,该设备包括患者跟踪器,该患者跟踪器附接到受试者、具有彼此具有已知空间关系的磁场传感器和光学界标。相机获取受试者的面部在第一参照系(FOR)中的3D光学图像。磁辐射器组件在受试者的头部处生成磁场,从而限定第二FOR。处理器:处理场传感器信号以获取传感器在第二FOR中的位置坐标;将受试者的具有第三FOR的断层摄影图像分段,以标识第三FOR中的受试者的面部;计算第三FOR和第一FOR之间的第一变换,以将断层摄影面部图像映射到3D光学图像;将光学界标映射到第三FOR;将传感器的相应位置坐标映射到第一FOR;并且计算第二FOR和第三FOR之间的第二变换。
Description
相关申请的交叉引用
本申请要求2019年1月25日提交的名称为″Registration of Frames ofReference″的美国临时申请62/79,,091的权益,其公开内容以引用方式并入本文,并且还要求2019年1月25日提交的名称为″Flexible Multi-Coil Tracking Sensor″的美国临时申请62/797,118、现为2019年12月28日提交的美国申请号16/729,313的权益,其公开内容以引用方式并入本文。
技术领域
本发明整体涉及配准不同模态的参照系,并且具体地,涉及配准外科手术中所用的不同参照系。
背景技术
在侵入式外科手术包括微创手术中,通常需要跟踪患者体内对执行手术的医师而言并不直接可见的元件诸如导管。通常,患者的诸如来自荧光镜透视检查或磁共振成像(MRI)的计算机断层摄影(CT)图像对医师可用,但无论用于跟踪元件的方法如何,方法的参照系都必须与图像的参照系配准,以便使跟踪准确。
一种用于跟踪患者体内的元件的方法是由33Technology Drive,Irvine,CA92618USA的Acclarent有限公司生产的TrudiTM电磁图像引导的导航系统。在此系统中,从患者体外的固定发射器发射交变磁场,以便穿过患者。传感器(通常为单轴线圈或多轴线圈)附接到插入患者体内的元件,并且处理器记录场穿越传感器所生成的电流。处理器能够分析电流,以便确定传感器在由固定发射器限定的电磁参照系中的位置和取向两者。
发明内容
本发明的一个实施方案提供了设备,其由以下组成:
患者跟踪器,该患者跟踪器被配置成附接到受试者的头部并且包括一个或多个磁场传感器;
多个光学界标,该多个光学界标与一个或多个磁场传感器具有相应的已知空间关系;
相机,该相机被配置成获取受试者的面部在第一参照系中的三维(3D)光学图像,其中患者跟踪器附接到头部;
磁辐射器组件,该磁辐射器组件在受试者的头部附近生成一个或多个磁场,从而限定第二参照系;和
处理器,该处理器被配置成:
接收并且处理由一个或多个磁场传感器响应于一个或多个磁场输出的信号,以便获取磁场传感器在第二参照系中的相应位置坐标,
将受试者的具有第三参照系的断层摄影图像分段,以便标识第三参照系中的受试者的面部,
计算第三参照系和第一参照系之间的第一变换,以便将分段断层摄影图像中的面部映射到面部的3D光学图像,
使用第一变换,将这些光学界标映射到第三参照系,
使用磁场传感器和光学界标之间的这些已知空间关系,将这些传感器的这些相应位置坐标映射到第一参照系,以及
使用这些所映射位置坐标和第一变换,计算第二参照系和第三参照系之间的第二变换。
在所公开实施方案中,患者跟踪器还包括平面跟踪器的多个光学界标。即,光学界标与患者跟踪器成为整体。
在所公开实施方案中,平面跟踪器的一个或多个磁场传感器和多个光学界标形成在平面柔性片材上。
在另一所公开实施方案中,相机由使用两个镜头来形成受试者的面部的3D光学图像的3D相机组成。
另选地,相机由使用单个镜头的2D相机组成,设备还具有照片配准装置,2D相机连接到照片配准装置,并且照片配准装置操作以使得2D相机能够获取受试者的面部的多个2D图像的。通常,存在至少一个标记物,该至少一个标记物被配置成附接到受试者的面部。照片配准装置可被配置成使得2D相机能够从相对于面部具有静态取向的相应不同位置获取受试者的面部的多个2D图像。另选地,照片配准装置可被配置成使得2D相机能够从相对于面部具有不同取向的相应不同位置获取受试者的面部的多个2D图像。
在再一所公开实施方案中,计算第一变换包括:将患者跟踪器的图像添加到第三参照系中的受试者的所标识面部。
在另选实施方案中,计算第一变换包括:选择第三参照系中的受试者的所标识面部的不包括对应于患者跟踪器的区域的部分。
根据本发明的实施方案,还提供了一种方法,该方法由以下项组成:
将患者跟踪器附接到受试者的头部,患者跟踪器具有一个或多个磁场传感器和多个光学界标,多个光学界标与一个或多个磁场传感器具有相应的已知空间关系;
使用相机来获取受试者的面部在第一参照系中的三维(3D)光学图像,其中患者跟踪器附接到头部;
利用磁辐射器组件在受试者的头部附近生成一个或多个磁场,从而限定第二参照系;
接收并且处理由一个或多个磁场传感器响应于一个或多个磁场输出的信号,以便获取这些磁场传感器在第二参照系中的相应位置坐标;
将受试者的具有第三参照系的断层摄影图像分段,以便标识第三参照系中的受试者的面部;
计算第三参照系和第一参照系之间的第一变换,以便将分段断层摄影图像中的面部映射到面部的3D光学图像;
使用第一变换,将这些光学界标映射到第三参照系;
使用这些磁场传感器和这些光学界标之间的已知空间关系,将这些传感器的这些相应位置坐标映射到第一参照系;以及
使用所映射位置坐标和第一变换,计算第二参照系和第三参照系之间的第二变换。
结合附图,通过以下对本公开的实施方案的详细描述,将更全面地理解本公开,其中:
附图说明
图1为根据本发明的实施方案的配准系统的示意图;
图2为根据本发明的另选实施方案的配准系统的示意图;
图3A和图3B示出了根据本发明的实施方案的旋转或轨道运行路径的示意图;
图4A至图4C示出了根据本发明的实施方案的示例性标记物;
图5为根据本发明的实施方案的其上可放置图4A至图4C的标记物的患者头部的示意图;
图6A和图6B是示出根据本发明的实施方案的图1和图2的系统中所用的患者跟踪器的示意图;并且
图7为根据本发明的实施方案的执行算法时的步骤的流程图。
具体实施方式
概述
在对患者头部的外科手术诸如ENT(耳、鼻和喉)手术中,可能需要跟踪手术中所用的元件。为了跟踪此类元件,可将磁传感器附接到元件,并且可将固定磁场发射器围绕头部放置。来自传感器的信号提供元件在发射器的参照系内的位置。为了将发射器参照系与CT图像参照系配准,当前系统通常使用可附接到″探测棒″末端的外部传感器。医师用探测棒末端触碰患者皮肤的各种区域,诸如鼻尖、眼睛之间的点以及眼睛两侧上的点。在触碰到这些区域时,处理器从探测棒传感器获取信号以查找传感器在发射器参照系中的位置。处理器将找到的位置与患者皮肤在CT图像中的位置关联,以便配准两个参照系。
然而,用探测棒传感器触碰患者皮肤通常导致″盖孔″,即皮肤的凹陷或变形,使得探测棒传感器的位置并不对应于(未盖孔)皮肤的位置。这导致参照系的配准出现误差。
对于上述头部手术,本发明的实施方案在避免患者皮肤可能变形的问题的同时将电磁系与CT系配准。在所公开的实施方案中,将可呈平面片材形式的配准元件(在本文中也称为患者跟踪器)附接到患者,通常附接到患者的前额。患者跟踪器包括电磁传感器以及光学界标,并且传感器和界标相对于彼此处于固定的已知空间关系。在另选的实施方案中,不是使用包括多个传感器和界标的患者跟踪器,而是可使用以已知空间关系附接到相应磁传感器的单独光学标记物。
患者被定位成使得固定磁场发射器围绕患者的头部,并且处理器获取由患者跟踪器的电磁传感器生成的信号。处理器分析所获取的信号以确定电磁传感器在发射器的参照系中的位置。
三维(3D)相机用于捕获患者头部的3D光学图像。由相机形成的3D图像包括对应于患者面部的光学体素集,并且每个体素具有三个笛卡尔坐标(以及色值)。该光学体素集被提供给处理器。
患者头部的CT扫描也被提供给处理器,并且处理器将CT扫描分段以确定对应于患者面部的CT体素。处理器将CT体素与来自3D相机图像的光学体素关联,以便将3D光学图像参照系与CT参照系配准。
3D光学图像内是患者跟踪器的图像,包括跟踪器的界标的光学图像。由于界标与电磁传感器的空间关系是已知的,因此处理器能够使用此关系来将3D光学图像参照系与磁场发射器的参照系配准。
然后,处理器组合两个配准,即,3D光学图像参照系与CT参照系以及3D光学图像参照系与磁场发射器的参照系,以形成CT参照系与磁场发射器的参照系的配准。
详细描述
现在参考图1,其为根据本发明的实施方案的配准系统20的示意图。在以下描述中,假设系统20用于在患者22经历侵入式医疗手术之前配准患者22上所用的两个参照系。以举例的方式,在本文的描述中,假设患者22坐在椅子上,诸如某些ENT(耳、鼻和喉)手术可能出现的情况。然而,本发明的实施方案不限于患者处于特定姿势,使得患者22可位于任何方便的姿势,例如,在床上。
假设患者经历的医疗手术包括跟踪由医疗专业人员25插入患者体内的对象,诸如导管。跟踪由下文更详细描述的磁跟踪系统24提供。
磁跟踪系统包括围绕患者头部定位的磁辐射器组件26。组件26包括磁场辐射器28,这些磁场辐射器固定在适当位置并将交变正弦磁场发射到患者22的头部所在的区域30内。以举例的方式,组件24的辐射器26被布置成在患者22的头部周围的大致马蹄形状。然而,组件26的辐射器的另选构型对于本领域的普通技术人员将是显而易见的,并且假设所有此类构型包括在本发明的范围内。
本文中假设包括线圈的磁传感器附接到在患者22体内被跟踪的对象。附接的线圈响应于交变磁场穿越线圈而生成电信号,并且这些信号被传输到系统处理器40。处理器被配置成处理信号以便导出传感器的位置和取向值。系统20的其它元件(包括辐射器28)由系统处理器40控制。
上文提及的TruDi系统使用与本文所述的跟踪系统类似的跟踪系统来寻找线圈在由磁场照射的区域中的位置和取向。
处理器40使用存储在存储器42中的软件来操作系统20。该软件可例如通过网络以电子形式下载到处理器40,或者另选地或除此之外,该软件可被提供和/或存储在非临时性有形介质诸如磁存储器、光学存储器或电子存储器上。处理器40特别地使用该软件来分析从磁传感器接收的信号。用于配准算法60(包括由处理器在实现配准系统20中执行的步骤)的软件也存储在存储器42中。下文更详细地描述配准算法60。
处理器40可安装在控制台50中,该控制台50包括操作控件58,该操作控件58通常包括小键盘和/或指向装置,诸如鼠标或轨迹球。控制台50经由缆线92和/或无线地连接到辐射器。专业人员25可在执行上文所提及的医疗手术时使用操作控件58来与处理器交互。在执行该手术时,处理器可在屏幕56上呈现该手术的结果。
如上所述,磁跟踪系统24能够凭借从辐射器28发射到区域中的磁场来跟踪磁传感器在区域30中的位置和取向。应当理解,针对系统24导出的位置和取向是参考如由辐射器28的位置限定的磁系统的参照系(FOR)的。然而,为了跟踪传感器是有用的,需要将磁系统FOR与患者22的图像的FOR配准。在以下描述中,假设使用系统20的算法60来将磁跟踪系统24的FOR与存储在存储器42中的患者22的CT(计算机断层摄影)图像64的FOR配准。下文进一步描述的图像64的子集66和68也存储在存储器42中。
虽然CT图像通常可包括磁共振成像(MRI)图像或荧光透视图像,但是在本文的描述中,以举例的方式,图像被假设为包括荧光透视CT图像。
如下文更详细描述的,专业人员25使用3D(三维)相机70来捕获患者22的面部的3D光学图像。在一个实施方案中,相机70是由Santa Clara,California的英特尔公司生产的RealSense 3D相机。3D相机通常使用两个镜头。3D光学图像包括光学体素集,每个体素具有三个笛卡尔坐标以及色值,通常为RGB(红色、绿色、蓝色)值。该光学体素集在本文中也称为3D散点图74,并且散点图74的光学体素存储在存储器42中。
为了由系统20实现的配准,将患者跟踪器78定位在患者22身上。下文参考图6A和图6B描述患者跟踪器78。
图2为根据本发明的另选实施方案的配准系统170的示意图。除了下文所述的不同之外,系统170的操作大体类似于系统20(图1)的操作,并且在两个系统中由相同附图标号指示的元件在功能上大体类似。代替系统20的相机70,系统170包括照片配准装置200,该照片配准装置可用于从不同位置和取向捕获患者的面部或其它手术部位的多个图像,并且可将这多个图像组合成具有深度的一组3D建模数据(例如,3D模型、点云、深度图等)。
照片配准装置200包括具有多个关节运动式支撑构件的臂201。图2所示的臂201包括通过一组接头203(例如,回转接头、球形接头、铰链接头或允许围绕一个或多个轴线旋转的其它接头)互连的竖直延伸构件202、水平延伸构件204和定位构件206。接头203可以是可手动关节运动的,或者可以是自动的,使得每个接头203可基于来自装置诸如处理器40或照片配准装置200的专用处理器的控制信号独立地旋转。在接头203允许手动定位的一些具体实施中,接头可支持宽范围的移动,但可适于仅在处于某些位置时锁定或固定。这在从预定位置可仅需要少量图像的情况下可能是有利的,因为用户可手动地操纵臂201直到接头203中的每个接头到达期望位置并锁定直到操作释放机构诸如销或按钮以释放接头。
竖直延伸构件202定位成靠近患者座椅的头枕212,并且可旋转(例如,围绕其竖直轴线滚动)以使臂201围绕患者22的头部210旋转。竖直延伸构件202可手动地旋转,或可类似于接头203诸如通过来自处理器40或另一装置的控制信号自动地旋转。定位构件206通过关节203连接到相机208,并且可旋转以根据需要相对于患者头部210定位相机。通过围绕竖直延伸构件202的竖直轴线旋转竖直延伸构件,并且围绕接头203旋转水平延伸构件204、定位构件206和相机208,可在使相机向朝头部210取向的同时将相机定位在宽范围的位置中。
相机208本身是二维(2D)相机,即,使用单个镜头来获取由相机观察的场景的2D图像的相机。相机208可以是臂201的一体化部件,诸如与接头203永久性地接合的数字成像装置,或者它可以是放置在本身与接头耦接的保持器中的数字成像装置或具有数字成像能力的其它装置。例如,相机208可为放置到保持器中的手持式数字相机、包括数字相机的智能电话或包括数字相机的平板电脑,该保持器隔离其移动并且允许其在处于适当位置时围绕接头203旋转。在此类具体实施中,相机208本身可产生控制臂201的接头203和竖直延伸构件202的旋转的控制信号。
例如,在相机208为智能电话的情况下,智能电话可配置有软件应用程序,该软件应用程序经由蓝牙、Wi-Fi或其它通信手段将智能电话连接到臂201的控制装置(未图示),并且产生在多个位置处捕获图像的同时自动地将相机朝向患者头部210取向(例如,从下方、从上方和从相等高度围绕患者头部210进行180度旋转)的一组控制信号。另选地,在相机208为智能电话或平板电脑的情况下,其可类似地连接到处理器40,该处理器本身向臂201提供控制信号并且接收由相机在各种位置处捕获的图像。又如,在相机208为永久性地一体化的数字相机的情况下,其可无线地或经由物理连接诸如延伸穿过臂201的数据缆线与处理器40或另一装置耦接,并且可经由该连接提供所捕获图像数据。
相机208的能力可根据具体实施而变化,但可包括例如高分辨率照片和视频、图像稳定、高速图像捕获、红外光投影和捕获、光投影、图像的本地存储、经由无线通信装置进行的图像传输、内部电池和其它特征结构。根据本公开,存在相机208的其它变型,并且这些变型对于本领域的普通技术人员而言将是显而易见的。
图3A和图3B示出了根据本发明的实施方案的图2的照片配准装置200围绕患者头部210的旋转或轨道运行路径的示意图。如图3A所示,竖直延伸构件202安装在头枕212正后方,并且当旋转时,将使水平延伸构件204围绕患者头部210旋转。在竖直延伸构件202作为旋转轴线的情况下,相机208可围绕路径214旋转或轨道运行,同时从围绕路径的不同位置捕获患者头部210的图像。相机取向可贯穿路径214保持静止,这将产生具有变化的相对取向的患者头部210的一系列图像,因为旋转轴线(即竖直延伸构件202)从目标(即患者头部210)偏移,因此相机208相对于头部210的相对取向将贯穿路径214改变。另选地,相机208可在贯穿路径214旋转或轨道运行的同时通过其关节203重新定位,以便相对于头部210维持静态取向,以便围绕路径从静态取向生成患者头部的一系列图像。虽然不需要相对于患者头部210的静态取向来将图像集组合成3D数据,但在一些具体实施中,这可提高产生此类3D数据的速度和准确性。
作为提供具有相对于患者头部210的静态相对取向的图像集的另一具体实施的示例,图3B示出了图2的照片配准装置的另选旋转或轨道运行路径的示意图。在图3B中,可看出,居中构件216从头枕212向外延伸并使竖直延伸构件202在患者头部210上方居中。实际上,这使臂201的旋转轴线移位,使得竖直延伸构件202现在基本上在患者头部210上方居中,而不是如图3A那样偏移。因此,相机208所行进的旋转或轨道运行路径218具有更短长度(即,所行进的圆周路径更短),相机208和患者头部210之间的距离(即,距旋转轴线的半径)减小,从而产生更详细的图像,并且相机208相对于患者头部210的静态取向始终得以维持。
图4A至图4C示出了根据本发明的实施方案的示例性标记物,并且图5为根据本发明的实施方案的其上可放置标记物的患者头部的示意图。标记物可与图2的照片配准装置200一起使用,这些标记物可如图5所示放置在患者头部210上,以辅助从所捕获图像产生3D图像数据。图4A示出了具有粘合背表面和反射前表面的反射标记物300。反射标记物300的前表面可为例如具有使得能够使用图像分析或对象识别技术在图像内标识反射标记物的颜色或其它反射特性的光泽或暗淡表面。例如,反射标记300可为具有银色或镜像前表面、亮白色前表面或高对比度着色表面诸如亮黄色、绿色或红色的标贴。当诸如图5所示那样放置在患者的面部上时,反射标记物300将在数字图像中与患者皮肤形成鲜明对比,从而允许通过应用于图像的对象识别技术更容易地标识反射标记物(300)的位置、尺寸、轮廓、形状和其它特性。
图4B示出了图案化标记物302,其可与反射标记物300类似地使用并且放置在患者的面部上,以便提供用于照片识别的高对比度的可容易标识的对象。图案化标记物302既可在前表面上具有高反射部分(例如,诸如棋盘图案的白色正方形)又可在前表面上具有低或较低反射部分(例如,诸如棋盘图案的黑色正方形)。在不同的具体实施中,所放置的图案化标记物302中的每个标记物可具有相同或不同图案。例如,在一些具体实施中,图案化标记物302可具有图案,该图案既允许在图像内更容易地标识标记物又识别该标记物在患者面部上的位置,诸如图5中放置在第一位置308处的标记物可具有与″左脸颊″相关联的图案而放置在第二位置306处的标记物可具有与″右脸颊″相关联的图案的情况。图6C示出了可为例如QR码、条形码或其它光学编码图案的编码标记物304。编码标记物304可与图案化标记物302类似地使用。
通过如图5所示那样将一个或多个标记物放置在患者面部上,可改善从2D图像数据进行的3D图像数据的产生。例如,图像内的标记物的存在可用于确定图像的比例(其可包括所捕获对象的深度),因为标记物诸如反射标记物300具有已知尺寸(例如,一平方英寸)。标记物的已知尺寸可与各种深度处的多个被成像像素相关联(例如,从十二英寸深度成像的一英寸长度的标记物被捕获为300像素,而从六英寸深度成像的相同标记物长度被捕获为600像素)。因此,通过标识标记物在图像数据内的位置和像素尺寸,可确定距被成像对象的深度或距离,以及与图像相关联的其它距离。
图像内的具有已知形状(例如,正方形)的标记物的存在可用于确定图像捕获装置相对于其上放置标记物的表面的取向。当放置在表面上的正方形标记物由正对标记物取向的成像装置捕获时,该正方形标记物在所捕获图像中将呈现为正方形。然而,当从偏移取向捕获时,正方形标记物可替代地呈现为具有由图像捕获装置相对于正方形标记物的取向确定的形状和其它特性的非正方形四边形。利用已知的实际形状以及取决于取向的视觉外观的可预测变化,可使用在2D对象内标识的正方形标记物的视觉外观来确定成像装置相对于标记物的取向。然后可将成像装置相对于标记物的取向用于多个2D图像,以使它们在3D空间中彼此相关。
图6A和图6B是示出根据本发明的实施方案的患者跟踪器78的示意图。患者跟踪器78被形成为基本上平面片材,并且图6A示出了如相机70或相机208所见(即在跟踪器已定位在患者22身上之后)的跟踪器的视图。图6B是跟踪器的分解图。
在一个实施方案中,跟踪器78由五个层状片材80A、80B、80C、80D和80E构成,所有片材具有基本上相同的形状并且结合在一起。片材80A为上部片材,也在图2A中示出,并且多个可光学标识界标82结合在该片材中。在本文中,以举例的方式,片材80A包括三个光学界标82,但其它实施方案可包括其它数量的界标。如上所述,在另选的实施方案中,不是使用包括多个传感器和界标的患者跟踪器,而是可使用以已知空间关系附接到相应磁传感器的单独光学标记物(即,界标)。在一个优选的实施方案中,光学标记物是如本文所述的患者跟踪器的整体部分。
片材80C为通常由柔性绝缘材料形成的中间层状片材,其上通常通过打印形成呈导电螺旋形式的平面导电线圈84。线圈84充当电磁传感器。存在与界标82相同数量的线圈84,并且每个线圈在片材80C上定位成使得其与相应界标82处于已知空间关系。在本文中,以举例的方式,每个线圈84被定位成当跟踪器的片材结合在一起时与相应界标82直接对准。然而,其它实施方案可被形成为在线圈和界标之间具有不同的已知空间关系。例如,线圈和界标可偏移已知空间量。
缆线90(图1和图2)将线圈84连接到处理器40,但是为了简单起见,图6A和图6B中未示出线圈84与缆线的连接。
片材80E为由生物相容性粘合剂形成的下部层状片材,并且正是该片材在系统20的操作期间接触患者22。
片材80B和80D为中间层状片材,其由导电材料形成,以便充当线圈84的电屏蔽件。片材80B内为与线圈84对准的非导电区域86(通常为开口),非导电区域的存在使得线圈能够正确地操作。
图7为根据本发明的实施方案的在执行算法60时由处理器40和专业人员25执行的步骤的流程图。流程图描述假设使用配准系统20,但如果使用配准系统170,则可以必要的变更来更改描述。
在初始步骤500中,启动磁跟踪系统24,并且将患者22的头部放置在系统的区域30内。使用生物相容性粘合剂片80E将患者跟踪器78附接到患者的前额,并且使得光学界标82在最上方并且可见。缆线90连接在患者跟踪器和处理器40之间,并且处理器可被启动以从线圈84获取由缆线传送的信号。处理器分析信号以计算线圈在由磁发射器28限定的参照系中的位置。如果发现所计算的位置在区域30的预期部分内,则处理器40可例如通过将通知置于屏幕56上来向专业人员25提供磁跟踪系统正在正确地操作的指示。
在CT图像步骤502中,将患者22的头部的CT图像存储在存储器42中。处理器40对图像进行分段以标识所存储图像的对应于患者面部的表面特征的CT体素的子集,并且将子集存储为表面子集66。
在光学图像获取步骤504中,专业人员25启动相机70以获取患者22的面部的3D光学图像,并且将所获取图像作为散点图74存储在存储器42中。应当理解,由相机70获取的图像包括在患者面部上的患者跟踪器78的图像。
本发明的实施方案使用任何合适的算法诸如迭代最近点(ICP)算法来查找将CT体素66的表面子集最佳映射到3D散点图74的光学体素的变换。然而,一直到步骤504,两个体素集中都存在已知差异,因为患者跟踪器的图像存在于散点图74中,但不存在于CT体素子集66中。
在调整步骤106中,通过将患者跟踪器的图像添加到CT体素子集来补偿CT体素子集66中患者跟踪器的图像的缺乏。添加可通过以下方式来实现:在屏幕56上将CT体素子集的图像呈现给专业人员25,从而允许专业人员将患者跟踪器的图像叠加在所呈现图像上,并且将组合图像存储为调整后CT体素子集68。
另选地,在步骤506中,通过专业人员25选择子集66中的不包括对应于患者跟踪器图像的区域的部分来从CT体素子集66导出调整后子集68。专业人员25可对呈现在屏幕56上的子集66的图像执行选择,并且所选部分被存储为调整后CT体素子集68。
在映射步骤508中,处理器40将调整后CT体素子集68映射到散点图74的体素。如果在步骤106中调整后CT子集包括患者跟踪器的图像,则针对两个集合的所有体素执行映射。另选地,如果通过选择子集66的不包括患者跟踪器图像的部分来实现步骤506,则处理器40在散点图74的体素中作出对应选择,并且在所选择体素集之间执行映射。
映射提供患者22的CT图像的FOR与患者的光学图像的FOR之间的配准。处理器40可将配准量化为第一变换矩阵M[CT-OPT],该第一变换矩阵可用于将参照系中的一个参照系中的实体变换到另一参照系。
在另一配准步骤510中,处理器使用第一变换将光学界标82映射到CT图像FOR。然后,处理器40使用光学界标82和线圈84之间的已知空间关系来执行线圈的位置到光学图像的FOR的映射。
在最终配准步骤512中,处理器40使用在步骤508中产生的第一变换和在步骤510中产生的所映射位置来产生磁跟踪系统的FOR和CT图像的FOR之间的配准。可将所得配准量化为第二变换矩阵M[CT-MAGN]。
应当理解,上述实施方案以举例的方式被引用,并且本发明不限于上文具体示出和描述的内容。相反,本发明的范围包括上述各种特征的组合和子组合以及它们的变型和修改,本领域的技术人员在阅读上述说明时应当想到所述变型和修改,并且所述变型和修改并未在现有技术中公开。
Claims (20)
1.一种设备,包括:
患者跟踪器,所述患者跟踪器被配置成附接到受试者的头部并且包括一个或多个磁场传感器;
多个光学界标,所述多个光学界标与所述一个或多个磁场传感器具有相应的已知空间关系;
相机,所述相机被配置成获取所述受试者的面部在第一参照系中的三维3D光学图像,其中所述患者跟踪器附接到所述头部;
磁辐射器组件,所述磁辐射器组件在所述受试者的所述头部附近生成一个或多个磁场,从而限定第二参照系;和
处理器,所述处理器被配置成:
接收并且处理由所述一个或多个磁场传感器响应于所述一个或多个磁场输出的信号,以便获取所述磁场传感器在所述第二参照系中的相应位置坐标,
将所述受试者的具有第三参照系的断层摄影图像分段,以便标识所述第三参照系中的所述受试者的所述面部,
计算所述第三参照系和所述第一参照系之间的第一变换,以便将所分段断层摄影图像中的所述面部映射到所述面部的所述3D光学图像,
使用所述第一变换,将所述光学界标映射到所述第三参照系,
使用所述磁场传感器和所述光学界标之间的所述已知空间关系,将所述传感器的所述相应位置坐标映射到所述第一参照系,以及
使用所映射位置坐标和所述第一变换,计算所述第二参照系和所述第三参照系之间的第二变换。
2.根据权利要求1所述的设备,其中,所述患者跟踪器还包括所述多个光学界标。
3.根据权利要求2所述的设备,其中,平面跟踪器的所述一个或多个磁场传感器和所述多个光学界标形成在平面柔性片材上。
4.根据权利要求1所述的设备,其中,所述相机包括使用两个镜头来形成所述受试者的所述面部的所述3D光学图像的3D相机。
5.根据权利要求1所述的设备,其中,所述相机包括使用单个镜头的2D相机,所述设备还包括照片配准装置,所述2D相机连接到所述照片配准装置,并且所述照片配准装置操作以使得所述2D相机能够获取所述受试者的所述面部的多个2D图像。
6.根据权利要求5所述的设备,并且包括至少一个标记物,所述至少一个标记物被配置成附接到所述受试者的所述面部。
7.根据权利要求5所述的设备,其中,所述照片配准装置被配置成使得所述2D相机能够从相对于所述面部具有静态取向的相应不同位置获取所述受试者的所述面部的多个2D图像。
8.根据权利要求5所述的设备,其中,所述照片配准装置被配置成使得所述2D相机能够从相对于所述面部具有不同取向的相应不同位置获取所述受试者的所述面部的多个2D图像。
9.根据权利要求1所述的设备,其中,计算所述第一变换包括:将所述患者跟踪器的图像添加到所述第三参照系中的所述受试者的所标识面部。
10.根据权利要求1所述的设备,其中,计算所述第一变换包括:选择所述第三参照系中的所述受试者的所标识面部的不包括对应于所述患者跟踪器的区域的部分。
11.一种方法,包括:
将患者跟踪器附接到受试者的头部,所述患者跟踪器包括一个或多个磁场传感器;
附接多个光学界标,所述多个光学界标与所述一个或多个磁场传感器具有相应的已知空间关系;
使用相机来获取所述受试者的面部在第一参照系中的三维3D光学图像,其中所述患者跟踪器附接到所述头部;
利用磁辐射器组件在所述受试者的所述头部附近生成一个或多个磁场,从而限定第二参照系;
接收并且处理由所述一个或多个磁场传感器响应于所述一个或多个磁场输出的信号,以便获取所述磁场传感器在所述第二参照系中的相应位置坐标;
将所述受试者的具有第三参照系的断层摄影图像分段,以便标识所述第三参照系中的所述受试者的所述面部;
计算所述第三参照系和所述第一参照系之间的第一变换,以便将所分段断层摄影图像中的所述面部映射到所述面部的所述3D光学图像;
使用所述第一变换,将所述光学界标映射到所述第三参照系;
使用所述磁场传感器和所述光学界标之间的所述已知空间关系,将所述传感器的所述相应位置坐标映射到所述第一参照系;以及
使用所映射位置坐标和所述第一变换,计算所述第二参照系和所述第三参照系之间的第二变换。
12.根据权利要求11所述的方法,其中,所述患者跟踪器还包括平面跟踪器的所述多个光学界标。
13.根据权利要求12所述的方法,其中,所述平面跟踪器的所述一个或多个磁场传感器和所述多个光学界标形成在平面柔性片材上。
14.根据权利要求11所述的方法,其中,所述相机包括使用两个镜头来形成所述受试者的所述面部的所述3D光学图像的3D相机。
15.根据权利要求11所述的方法,其中,所述相机包括使用单个镜头的2D相机,所述方法还包括将照片配准装置连接到所述2D相机,所述照片配准装置操作以使得所述2D相机能够获取所述受试者的所述面部的多个2D图像。
16.根据权利要求15所述的方法,并且包括将至少一个标记物附接到所述受试者的所述面部。
17.根据权利要求15所述的方法,其中,所述照片配准装置被配置成使得所述2D相机能够从相对于所述面部具有静态取向的相应不同位置获取所述受试者的所述面部的多个2D图像。
18.根据权利要求15所述的方法,其中,所述照片配准装置被配置成使得所述2D相机能够从相对于所述面部具有不同取向的相应不同位置获取所述受试者的所述面部的多个2D图像。
19.根据权利要求11所述的方法,其中,计算所述第一变换包括:将所述患者跟踪器的图像添加到所述第三参照系中的所述受试者的所标识面部。
20.根据权利要求11所述的方法,其中,计算所述第一变换包括:选择所述第三参照系中的所述受试者的所标识面部的不包括对应于所述患者跟踪器的区域的部分。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962797118P | 2019-01-25 | 2019-01-25 | |
US201962797091P | 2019-01-25 | 2019-01-25 | |
US62/797091 | 2019-01-25 | ||
US62/797118 | 2019-01-25 | ||
US16/748,993 US11123144B2 (en) | 2019-01-25 | 2020-01-22 | Registration of frames of reference |
US16/748993 | 2020-01-22 | ||
PCT/IB2020/050545 WO2020152630A1 (en) | 2019-01-25 | 2020-01-23 | Registration of frames of reference |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113347937A CN113347937A (zh) | 2021-09-03 |
CN113347937B true CN113347937B (zh) | 2024-07-19 |
Family
ID=71732461
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080010659.9A Active CN113347936B (zh) | 2019-01-25 | 2020-01-14 | 柔性多线圈跟踪传感器 |
CN202080010717.8A Active CN113347937B (zh) | 2019-01-25 | 2020-01-23 | 参照系的配准 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080010659.9A Active CN113347936B (zh) | 2019-01-25 | 2020-01-14 | 柔性多线圈跟踪传感器 |
Country Status (6)
Country | Link |
---|---|
US (2) | US20200237459A1 (zh) |
EP (2) | EP3914182B1 (zh) |
JP (2) | JP7395596B2 (zh) |
CN (2) | CN113347936B (zh) |
IL (2) | IL284596B2 (zh) |
WO (2) | WO2020152543A1 (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013222230A1 (de) | 2013-10-31 | 2015-04-30 | Fiagon Gmbh | Chirurgisches Instrument |
GB2536650A (en) | 2015-03-24 | 2016-09-28 | Augmedics Ltd | Method and system for combining video-based and optic-based augmented reality in a near eye display |
WO2019211741A1 (en) | 2018-05-02 | 2019-11-07 | Augmedics Ltd. | Registration of a fiducial marker for an augmented reality system |
US11766296B2 (en) | 2018-11-26 | 2023-09-26 | Augmedics Ltd. | Tracking system for image-guided surgery |
EP3719749A1 (en) | 2019-04-03 | 2020-10-07 | Fiagon AG Medical Technologies | Registration method and setup |
US11980506B2 (en) | 2019-07-29 | 2024-05-14 | Augmedics Ltd. | Fiducial marker |
US11382712B2 (en) | 2019-12-22 | 2022-07-12 | Augmedics Ltd. | Mirroring in image guided surgery |
CA3121670A1 (en) * | 2020-06-12 | 2021-12-12 | Ascension Technology Corporation | Distortion correction for electromagnetic fields using inside-out tracking |
US11389252B2 (en) | 2020-06-15 | 2022-07-19 | Augmedics Ltd. | Rotating marker for image guided surgery |
US20220031400A1 (en) * | 2020-07-31 | 2022-02-03 | Biosense Webster (Israel) Ltd. | Systems and methods for tracking a surgical device |
WO2022237787A1 (zh) * | 2021-05-10 | 2022-11-17 | 武汉联影智融医疗科技有限公司 | 机器人定位和位姿调整方法和系统 |
CN114098980B (zh) * | 2021-11-19 | 2024-06-11 | 武汉联影智融医疗科技有限公司 | 相机位姿调整方法、空间注册方法、系统和存储介质 |
US11896445B2 (en) | 2021-07-07 | 2024-02-13 | Augmedics Ltd. | Iliac pin and adapter |
CN114224489B (zh) * | 2021-12-12 | 2024-02-13 | 浙江德尚韵兴医疗科技有限公司 | 用于手术机器人的轨迹跟踪系统及利用该系统的跟踪方法 |
WO2024057210A1 (en) | 2022-09-13 | 2024-03-21 | Augmedics Ltd. | Augmented reality eyewear for image-guided medical intervention |
Family Cites Families (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5295482A (en) * | 1992-10-22 | 1994-03-22 | Physiometrix, Inc. | Large surface area electrode |
WO1996008209A2 (en) | 1994-09-15 | 1996-03-21 | Visualization Technology, Inc. | Position tracking and imaging system for use in medical applications using a reference unit secured to a patient's head |
JP3135068B2 (ja) * | 1994-09-15 | 2001-02-13 | ビジュアリゼイション テクノロジー インコーポレイテッド | 患者の頭部に固定された基準ユニットを用いた医学的応用に使用される位置追跡及び画像生成システム |
US7366562B2 (en) | 2003-10-17 | 2008-04-29 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation |
SE518775C2 (sv) * | 2000-02-07 | 2002-11-19 | Nadia Kylberg | Förband för ortopediskt bruk av polyetenmaterial innefattande en silantillsats samt förfarande för framställning av förbandet |
US6484049B1 (en) * | 2000-04-28 | 2002-11-19 | Ge Medical Systems Global Technology Company, Llc | Fluoroscopic tracking and visualization system |
US6676620B2 (en) * | 2000-12-05 | 2004-01-13 | Orthomerica Products, Inc. | Modular orthosis closure system and method |
DE10109310A1 (de) * | 2001-02-27 | 2002-09-05 | Detlef Richter | Vorrichtung und Verfahren zur dreidimensionalen Navigation von Biopsie-Sonden |
US10835307B2 (en) * | 2001-06-12 | 2020-11-17 | Ethicon Llc | Modular battery powered handheld surgical instrument containing elongated multi-layered shaft |
US7751868B2 (en) * | 2004-11-12 | 2010-07-06 | Philips Electronics Ltd | Integrated skin-mounted multifunction device for use in image-guided surgery |
JP2006204330A (ja) * | 2005-01-25 | 2006-08-10 | Hitachi Medical Corp | 画像表示装置 |
DE102005031867B4 (de) * | 2005-07-05 | 2011-02-24 | Otto Bock Healthcare Gmbh | Rumpforthese |
US20070225595A1 (en) * | 2006-01-17 | 2007-09-27 | Don Malackowski | Hybrid navigation system for tracking the position of body tissue |
WO2007084552A2 (en) * | 2006-01-17 | 2007-07-26 | Lifesync Corporation | Multi-lead keyhold connector |
US9636188B2 (en) * | 2006-03-24 | 2017-05-02 | Stryker Corporation | System and method for 3-D tracking of surgical instrument in relation to patient body |
US8301226B2 (en) * | 2007-04-24 | 2012-10-30 | Medtronic, Inc. | Method and apparatus for performing a navigated procedure |
US8738137B2 (en) * | 2007-08-23 | 2014-05-27 | Bioness Inc. | System for transmitting electrical current to a bodily tissue |
US8781555B2 (en) * | 2007-11-26 | 2014-07-15 | C. R. Bard, Inc. | System for placement of a catheter including a signal-generating stylet |
JP5561458B2 (ja) * | 2008-03-18 | 2014-07-30 | 国立大学法人浜松医科大学 | 手術支援システム |
US8238631B2 (en) * | 2009-05-13 | 2012-08-07 | Medtronic Navigation, Inc. | System and method for automatic registration between an image and a subject |
EP2558011A4 (en) * | 2010-04-14 | 2017-11-15 | Smith & Nephew, Inc. | Systems and methods for patient- based computer assisted surgical procedures |
EP2568905A4 (en) * | 2010-05-12 | 2017-07-26 | Shifamed Holdings, LLC | Low profile electrode assembly |
US8543190B2 (en) * | 2010-07-30 | 2013-09-24 | Medtronic, Inc. | Inductive coil device on flexible substrate |
EP2605693B1 (en) * | 2010-08-20 | 2019-11-06 | Veran Medical Technologies, Inc. | Apparatus for four dimensional soft tissue navigation |
US9913693B2 (en) * | 2010-10-29 | 2018-03-13 | Medtronic, Inc. | Error correction techniques in surgical navigation |
US8812079B2 (en) | 2010-12-22 | 2014-08-19 | Biosense Webster (Israel), Ltd. | Compensation for magnetic disturbance due to fluoroscope |
JP2015528713A (ja) * | 2012-06-21 | 2015-10-01 | グローバス メディカル インコーポレイティッド | 手術ロボットプラットフォーム |
WO2014016701A2 (en) * | 2012-07-26 | 2014-01-30 | Adi Mashiach | External resonance matching between an implanted device and an external device |
US10441236B2 (en) * | 2012-10-19 | 2019-10-15 | Biosense Webster (Israel) Ltd. | Integration between 3D maps and fluoroscopic images |
EP2945536A1 (en) * | 2013-01-18 | 2015-11-25 | Brainlab AG | Navigated induction detector |
CA2905050C (en) * | 2013-03-15 | 2018-03-06 | The Cleveland Clinic Foundation | Method and system to facilitate intraoperative positioning and guidance |
KR101491922B1 (ko) | 2013-08-07 | 2015-02-24 | 재단법인대구경북과학기술원 | 하이브리드 내비게이션 시스템 및 그의 위치 추적 방법 |
EP3062724B1 (en) | 2013-10-25 | 2018-04-18 | Brainlab AG | Magnetic resonance coil unit and method for its manufacture |
IL229527A (en) * | 2013-11-21 | 2015-06-30 | Elbit Systems Ltd | A wide-field medical tracking system |
US20150305612A1 (en) * | 2014-04-23 | 2015-10-29 | Mark Hunter | Apparatuses and methods for registering a real-time image feed from an imaging device to a steerable catheter |
EP3443925B1 (en) * | 2014-05-14 | 2021-02-24 | Stryker European Holdings I, LLC | Processor arrangement for tracking the position of a work target |
GB2532004A (en) * | 2014-10-31 | 2016-05-11 | Scopis Gmbh | Hybrid navigation system for surgical interventions |
US20160174873A1 (en) | 2014-12-22 | 2016-06-23 | Covidien Lp | Medical instrument with sensor for use in a system and method for electromagnetic navigation |
US10159542B2 (en) | 2015-05-01 | 2018-12-25 | Dentlytec G.P.L. Ltd. | System, device and methods for dental digital impressions |
US11045257B2 (en) * | 2015-06-22 | 2021-06-29 | Synaptive Medical Inc. | System and method for mapping navigation space to patient space in a medical procedure |
US10638954B2 (en) * | 2015-07-23 | 2020-05-05 | Biosense Webster (Israel) Ltd. | Surface registration of a CT image with a magnetic tracking system |
US20170079553A1 (en) * | 2015-09-21 | 2017-03-23 | Biosense Webster (Israel) Ltd. | Adding a Tracking Sensor to a Rigid Tool |
KR102430277B1 (ko) | 2015-11-27 | 2022-08-09 | 큐렉소 주식회사 | 정형외과 수술용 마커 위치 확인 시스템 및 그 확인 방법 |
JP7069563B2 (ja) * | 2016-06-07 | 2022-05-18 | 株式会社リコー | マーカコイル、マーカコイルユニット |
AU2017221893A1 (en) * | 2016-09-08 | 2018-03-22 | Biosense Webster (Israel) Ltd. | Ent image registration |
US10631935B2 (en) * | 2016-10-25 | 2020-04-28 | Biosense Webster (Israel) Ltd. | Head registration using a personalized gripper |
WO2018148434A1 (en) | 2017-02-08 | 2018-08-16 | Veran Medical Technologies, Inc. | Localization needle |
US10660574B2 (en) * | 2017-03-08 | 2020-05-26 | Biosense Webster (Israel) Ltd. | Low cost planar spring for force sensor |
US10603118B2 (en) * | 2017-10-27 | 2020-03-31 | Synaptive Medical (Barbados) Inc. | Method for recovering patient registration |
-
2019
- 2019-12-28 US US16/729,313 patent/US20200237459A1/en active Pending
-
2020
- 2020-01-14 WO PCT/IB2020/050255 patent/WO2020152543A1/en unknown
- 2020-01-14 EP EP20706806.5A patent/EP3914182B1/en active Active
- 2020-01-14 JP JP2021542436A patent/JP7395596B2/ja active Active
- 2020-01-14 CN CN202080010659.9A patent/CN113347936B/zh active Active
- 2020-01-22 US US16/748,993 patent/US11123144B2/en active Active
- 2020-01-23 JP JP2021542427A patent/JP7455847B2/ja active Active
- 2020-01-23 IL IL284596A patent/IL284596B2/en unknown
- 2020-01-23 CN CN202080010717.8A patent/CN113347937B/zh active Active
- 2020-01-23 EP EP20703524.7A patent/EP3914181A1/en active Pending
- 2020-01-23 WO PCT/IB2020/050545 patent/WO2020152630A1/en unknown
-
2021
- 2021-06-22 IL IL284288A patent/IL284288A/en unknown
Also Published As
Publication number | Publication date |
---|---|
JP7455847B2 (ja) | 2024-03-26 |
JP2022518764A (ja) | 2022-03-16 |
EP3914182A1 (en) | 2021-12-01 |
CN113347937A (zh) | 2021-09-03 |
EP3914181A1 (en) | 2021-12-01 |
JP2022518768A (ja) | 2022-03-16 |
EP3914182B1 (en) | 2023-08-16 |
WO2020152543A1 (en) | 2020-07-30 |
US11123144B2 (en) | 2021-09-21 |
JP7395596B2 (ja) | 2023-12-11 |
CN113347936B (zh) | 2024-07-23 |
US20200237459A1 (en) | 2020-07-30 |
CN113347936A (zh) | 2021-09-03 |
US20200242339A1 (en) | 2020-07-30 |
IL284288A (en) | 2021-08-31 |
IL284596A (en) | 2021-08-31 |
WO2020152630A1 (en) | 2020-07-30 |
IL284596B1 (en) | 2024-03-01 |
IL284596B2 (en) | 2024-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113347937B (zh) | 参照系的配准 | |
US11759261B2 (en) | Augmented reality pre-registration | |
US20200268339A1 (en) | System and method for patient positioning | |
US8988505B2 (en) | Imaging system using markers | |
US20200268251A1 (en) | System and method for patient positioning | |
US10881353B2 (en) | Machine-guided imaging techniques | |
EP3007635B1 (en) | Computer-implemented technique for determining a coordinate transformation for surgical navigation | |
US20200129240A1 (en) | Systems and methods for intraoperative planning and placement of implants | |
CN116883471B (zh) | 面向胸腹部经皮穿刺的线结构光无接触点云配准方法 | |
WO2001057805A2 (en) | Image data processing method and apparatus | |
KR20160057024A (ko) | 마커리스 3차원 객체추적 장치 및 그 방법 | |
US12080005B2 (en) | Method and system for non-contact patient registration in image-guided surgery | |
US12033295B2 (en) | Method and system for non-contact patient registration in image-guided surgery | |
US20220031400A1 (en) | Systems and methods for tracking a surgical device | |
US20240273755A1 (en) | Surface image guidance-based system for aligning and monitoring patient position | |
TW201211937A (en) | Human face matching system and method thereof | |
Trevisan et al. | Augmented vision for medical applications | |
CN116687563A (zh) | 用于确定限定跟踪器的标记位置的标记布置的技术 | |
CN116981419A (zh) | 用于图像引导手术中的非接触式患者配准的方法和系统 | |
CN116982079A (zh) | 用于图像引导手术中的非接触式患者配准的方法和系统 | |
Chemaly | Multimodality image registration for visualization in robotic assisted breast biopsy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |