CN111723837A - 用于计算机辅助手术导航的处理患者特定图像数据的技术 - Google Patents
用于计算机辅助手术导航的处理患者特定图像数据的技术 Download PDFInfo
- Publication number
- CN111723837A CN111723837A CN202010201831.0A CN202010201831A CN111723837A CN 111723837 A CN111723837 A CN 111723837A CN 202010201831 A CN202010201831 A CN 202010201831A CN 111723837 A CN111723837 A CN 111723837A
- Authority
- CN
- China
- Prior art keywords
- data
- patient
- signal
- data set
- geometric
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000012545 processing Methods 0.000 title claims abstract description 42
- 230000003287 optical effect Effects 0.000 claims abstract description 33
- 238000002059 diagnostic imaging Methods 0.000 claims abstract description 17
- 238000001356 surgical procedure Methods 0.000 claims description 17
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012790 confirmation Methods 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 claims description 2
- 238000013170 computed tomography imaging Methods 0.000 claims 1
- 238000002591 computed tomography Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 4
- 210000001061 forehead Anatomy 0.000 description 4
- 208000003443 Unconsciousness Diseases 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/117—Identification of persons
- A61B5/1171—Identification of persons based on the shapes or appearances of their bodies or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Theoretical Computer Science (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- General Physics & Mathematics (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Robotics (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Data Mining & Analysis (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
一种用于计算机辅助手术导航的处理患者特定图像数据的方法包括:提供包括通过医学成像方法获得的二维或三维图像数据的多个第一数据集的数据库,第一数据集表示至少一个患者皮肤表面的第一形状数据或第一生物统计数据。通过光学相机系统获得特定患者皮肤表面的二维或三维图像数据的第二数据集;基于第二数据集得出特定患者皮肤表面的第二形状数据或第二生物统计数据。将第二形状数据或第二生物统计数据与第一形状数据或第一生物统计数据进行比较,计算每个第一形状数据或第一生物统计数据的相似度得分。基于相似度得分生成信号,该信号触发对用于计算机辅助手术导航的第一数据集的选择或取消选择。
Description
技术领域
本公开涉及计算机辅助手术导航。具体地,提出用于计算机辅助手术导航的处理患者特定的图像数据的技术。该技术可以被实现为方法、计算机程序产品和手术导航系统。
背景技术
在计算机辅助手术导航中,例如,通过一系列计算机断层摄影(CT)扫描获得的三维图像数据被用于辅助手术导航过程。这些图像数据被存储在数据库中,需要在手术前手动选择和分配给要被治疗的患者。通常使用患者特定的标识符(例如,患者姓名)完成此分配步骤。
然而,所述手动选择和分配过程可能是耗时的并且容易出错。此外,可能无法立即识别患者。当事故发生后需要治疗失去知觉的患者并且没有身份证件可用时,可能会发生这种情况。
在US2012/0173576A1中公开了克服上述问题的解决方案。将患者的二维生物统计数据与数据库中存储的二维生物统计数据进行比较。这些已存储的生物统计数据可以例如是磁共振成像(MRI)扫描。将面部识别算法应用于已存储的生物统计数据以及患者的生物统计数据,以得出身份参数。然后比较两组身份参数。
然而,二维生物统计数据并不总是将数据集进行相互比较的最佳基础。在一些情况下,使用三维形状数据作为比较的基础是有利的。
发明内容
需要以多种方式处理患者特定的图像数据以安全地识别与患者相关联的数据集的技术。
根据一个方面,提出用于计算机辅助手术导航的处理患者特定的图像数据的方法。该方法包括:提供数据库,该数据库包括通过医学成像方法获得的图像数据的多个第一数据集,其中每个第一数据集表示至少一个患者的皮肤表面的第一几何数据。该方法还包括:通过光学相机系统获得特定患者的皮肤表面的图像数据的第二数据集,以及,基于第二数据集得出特定患者的皮肤表面的第二几何数据。该方法还包括:将第二几何数据与一个或多个第一数据集的第一几何数据进行比较,以针对每次比较计算出相似度得分;以及,基于所述相似度得分,生成触发对用于计算机辅助手术导航的第一数据集的选择和取消选择中的一项的信号。
可以获取第一数据集作为通过医学成像方法拍摄的一系列二维(2D)图像(或切片)。可以处理所述图像以创建为其拍摄图像的患者的皮肤表面的三维(3D)表示。然后可以基于所述三维表示得出或通过其构造第一几何数据。患者皮肤表面的表示可以细分为构成第一几何数据的多个2D和/或3D几何结构(例如,三角形、椎体、椭球体、圆柱体或多面体(polyeder))。备选地,皮肤表面的整体表示可以形成单个、任意复杂的形状。第一几何数据的集合可以与患者特定的标识符相关联并且被存储在数据库中。
在第一种变形中,图像数据是三维图像数据,并且第一几何数据和第二几何数据分别是第一三维形状数据和第二三维形状数据。因此,可以通过形状匹配算法比较第一形状数据和第二形状数据。形状匹配算法可以在第一形状数据中搜索第二形状数据中包含的特定几何形状,反之亦然。
在第二种变形中,第一几何数据和第二几何数据分别是第一生物统计数据和第二生物统计数据。因此,可以通过生物统计匹配算法来比较第一生物统计数据和第二生物统计数据。生物统计匹配算法可以在第一生物统计数据中搜索第二生物统计数据中包含的特定生物统计结构,反之亦然。在这种情况下,图像数据可以是二维或三维图像数据。
光学相机系统可以被配置为获得要被治疗的患者的皮肤表面的二维或三维图像。光学相机系统的示例包括立体相机。光学相机系统可以包括红外传感器。类似于第一几何数据,第二几何数据可以基于由光学相机系统获得的二维或三维图像得出或通过其进行构造。
为了根据第一变形计算出相似度得分,可以将第一形状数据中的多个几何形状中的一个或多个几何形状与第二形状数据中的多个几何形状中的一个或多个几何形状进行比较。备选地,当整个皮肤表面由构成相应的第一形状数据和第二形状数据的单个形状表示时,可以基于整体比较皮肤表面的两种表示的形状来计算出相似度得分。
因此,可以将第一生物统计数据中的多个生物统计结构中的一个或多个生物统计结构与第二生物统计数据中的多个生物统计结构中的一个或多个生物统计结构进行比较,以计算出第二种变形中的相似度得分。
光学相机系统可以被配置为,在计算机辅助手术导航期间跟踪患者或手术对象。因此,在计算机辅助手术导航期间,也可以使用与被用于获得患者的皮肤表面的2D或3D图像数据相同的光学相机系统。
可以将第二几何数据(即,形状数据或生物统计数据)与最初已被预先选择用于计算机辅助手术导航的特定的第一数据集的第一几何数据进行比较。所述预先选择可以手动执行。此外,生成所述信号可以包括:评估针对被预先选择的第一数据集计算出的相似度得分是否满足预定义条件(例如,相似度条件)。根据评估的结果,所述信号然后可以触发对被预先选择的第一数据集进行选择或不进行选择。
所述信号可以是用于触发对被预先选择的第一数据集不进行选择的给用户的警告信号。备选地,所述信号可以是用于触发对被预先选择的第一数据集进行选择的给用户的确认信号。
所述信号可以是声信号和光信号中的至少一项。可以通过蜂鸣声来实现声信号。可以通过闪烁的灯、灯的颜色改变效果或在显示屏(例如,手术导航系统的)上实现光信号。
可以将第二几何数据(即,形状数据或生物统计数据)与多个第一数据集的第一几何数据进行比较,以计算出多个相似度得分。所述信号可以触发对所述多个第一数据集中的某个第一数据集进行选择,该某个第一数据集基于所述多个相似度得分,表示与第二几何数据具有最高相似度的第一几何数据。
医学成像方法可以包括计算机断层摄影(CT)和磁共振成像(MRI)中的一项。
数据库中的多个第一数据集可以在手术之前获取。备选地或附加地,第二数据集可以在手术室中获得。所述多个第一数据集可以在至少一个患者的先前治疗或医学检查时通过医学成像方法获得并被存储在数据库中。备选地,可以在准备手术时,例如,在实际手术之前的一天或更长时间,通过医学成像方法获得多个第一数据集。
第二数据集可以通过也被用于计算机辅助手术导航的光学相机系统来获得。备选地,第二数据集可以通过第一光学相机系统来获得,该第一光学相机系统不同于在手术期间使用的第二光学相机系统。
可以基于已选择的第一数据集来提供导航指令。例如,当使用对患者的颅骨(或其他骨骼)的一系列CT扫描来创建已选择的第一数据集时,所述一系列CT扫描也可以被用于针对手术期间的CT扫描来引导手术器械。
根据第二方面,提供计算机程序产品。该计算机程序产品包括程序代码部分,当在一个或多个处理器上执行该计算机程序产品时,该程序代码部分用于执行所述方法的步骤。
根据另一方面,提供被配置为处理患者特定的图像数据的手术导航系统。该系统包括:被配置为访问数据库的接口,该数据库包括通过医学成像方法获得的多个第一图像数据集,其中每个图像数据集表示至少一个患者的皮肤表面的第一几何数据。该系统还包括光学相机系统,该光学相机系统被配置为获得特定患者的皮肤表面的图像数据的第二数据集。该系统还包括处理单元,该处理单元被配置为:基于第二数据集得出特定患者的皮肤表面的第二几何数据;将第二几何数据与一个或多个第一数据集的第一几何数据进行比较以针对每个第一几何数据计算出相似度得分;以及,基于所述相似度得分,生成触发对用于计算机辅助手术导航的第一数据集的选择和取消选择中的一项的信号。
该系统还可以被配置为执行根据本文描述的第一种变形或第二种变形的方法的步骤。
所述光学相机系统可以包括立体相机和红外3D传感器中的至少一项。
该系统还可以包括显示单元,该显示单元被配置为输出所述信号和/或基于已选择的第一数据集来提供导航指令。
附图说明
通过结合附图的以下实施例,本公开的其他细节、优点和方面将变得显而易见,其中:
图1A示出在手术室中的患者和手术导航系统的实施例的示意图,该手术导航系统包括被配置为获得患者面部的二维或三维图像的光学相机系统;
图1B示出用于计算机辅助手术导航的处理患者特定的图像数据的方法的第一种变形的流程图;
图1C示出用于计算机辅助手术导航的处理患者特定的图像数据的方法的第二种变形的流程图;
图2A/图2B示出三维图像数据的集合,该集合表示通过医学成像方法获得的患者皮肤表面的第一形状数据;
图2C示出通过光学相机系统获得的患者面部的三维图像和基于该图像得出的患者皮肤表面的第二形状数据;
图3A/图3B示出二维图像数据的集合,该集合表示通过医学成像方法获得的患者皮肤表面的第一生物统计数据;以及
图3C示出通过光学相机系统获得的患者面部的二维图像和基于该图像得出的患者皮肤表面的第二生物统计数据。
具体实施方式
在下面的描述中,将参考附图说明用于计算机辅助手术导航的处理患者特定的图像数据的技术的示例性实施例。相同的附图标记将被用于表示相同的结构特征。
图1A示出在计算机辅助手术之前或期间的在手术室100中的患者10。患者10由光学相机系统14成像,该光学相机系统14具有在图1A中以短划线示出的视场15。光学相机系统14包括具有两个相机单元14A、14B并且被配置为获得患者面部12的皮肤表面的二维或三维图像的立体相机。此外,在一些变形中,光学相机系统14配置为在计算机辅助手术导航期间跟踪患者或另一手术对象,例如,手术工具。为此,光学跟踪器(未示出)可能已经被附接到患者10或手术工具。光学相机系统14形成手术导航系统16的一部分,并且被连接至其处理单元17。该连接在图1A中由点曲线表示。处理系统17还包括用于访问数据库19的接口18、处理单元20和显示单元22。
数据库19存储2D或3D图像数据的多个第一数据集。数据集中的每个数据集与一个患者唯一相关联。每个数据集是通过医学成像方法(例如,CT或MRI)从特定患者获得的。在一个实施例中,医学成像方法仅提供二维图像。在这种情况下,通过处理单元20或通过另一处理设备来处理这些图像中的一些或全部图像,以创建具有特定患者的皮肤表面的三维形状数据的第一数据集。在另一个实施例中,医学成像方法已经提供了三维图像,在这种情况下,可能不需要对这些图像的进一步处理来获得三维图像数据的第一数据集。在手术之前——在患者的先前治疗、医学检查或手术的准备步骤期间已获取了第一数据集。当根据第二种变形执行该方法(即,处理生物统计数据)时,可能不需要对由医学成像方法所提供的二维图像的进一步处理。
处理单元20或另一处理设备可以经由接口18访问数据库19和存储在其中的第一数据集。接口18通过诸如电缆之类的有线连接或诸如Wi-Fi连接之类的无线方式被连接至数据库19。数据库19可以在处理单元17的外部。
显示单元22被配置为输出光信号(例如,在显示屏上),并且还可以被配置为在计算机辅助手术期间向外科医生提供导航指令。
图1B示出根据第一种变形的用于计算机辅助手术导航的处理患者特定的图像数据的方法的示例性实施例的流程图200。该方法由图1A的手术导航系统16执行。
该方法从步骤S11开始,其中,提供存储三维图像数据的多个第一数据集的数据库19。所述第一数据集中的每个第一数据集表示特定患者的皮肤表面的第一形状数据。在步骤S21中,通过光学相机系统14获得手术室100中的特定患者10的皮肤表面的三维图像数据的第二数据集。在步骤S31中,由处理单元20基于所述第二数据集的该图像数据得出患者10的皮肤表面的第二形状数据。
图1B中所示的示例性方法可以自动地或半自动地执行。两种变形都包括步骤S11至步骤S31。
当半自动地执行时,用户已预先选择特定的第一数据集。例如,用户(例如,准备手术的医护人员)识别(例如,通过患者的名字)患者10,并且基于患者特定的标识符来选择特定的第一数据集。然后在步骤S411中将被预先选择的第一数据集的第一形状数据与患者10的皮肤表面的第二形状数据进行比较。然后在步骤S5中针对该比较计算出相似度得分。如果在步骤S61中计算出的相似度得分满足预定义条件,例如,最小相似度,则在步骤S71中生成表示肯定指示的信号(在下文中被称为“肯定信号”)。如果在步骤S61中确定不满足预定义条件,则在步骤S72中生成指示否定指示的信号(在下文中被称为“否定信号”)。如果在步骤S71中针对该数据集生成了肯定信号,则在步骤S81中选择特定数据集。在生成否定信号的情况下(步骤S72),在步骤S82中取消选择(de-select)针对其生成否定信号的特定数据集。
例如,可以通过绿灯、显示单元22上的肯定消息(例如,“OK”)或短蜂鸣声来实现肯定信号。因此,将被预先选择的第一数据集与要被治疗的患者10正确相关联通知用户,然后可以将所述数据集加载到在手术导航系统16上运行的用于手术导航的应用中。在否定信号的情况下,例如,可以通过红灯、显示单元22上的否定消息(例如“不相关联”)或长蜂鸣声来将被预先选择的第一数据集未与患者10正确关联通知用户。然后,用户可以选择要为其替换该方法的另一第一数据集,或者仍然可以将所述数据集加载到用于手术导航的应用中。
自动地执行的方法变形包括步骤S412,其中将特定患者的皮肤表面的第二形状数据与可能的不同患者的多个第一数据集的第一形状数据进行比较。类似于半自动方法,在步骤S5中针对第一形状数据和第二形状数据的每次比较计算出相似度得分。在步骤S62中,检查与特定的第一数据集相关联的相似度得分是否定义了所有计算出的相似度得分的最大值。如果特定的第一数据集的相似度得分是特定的第二数据集的所有计算出的相似度值中的最高值,则在步骤S71中生成肯定信号。在所有其他情况下,在步骤S72中生成否定信号。类似于半自动方法变形,根据信号的指示选择特定的第一数据集(步骤S81)或取消选择特定的第一数据集(步骤S82)。
例如,可以通过在显示单元22上显示被分配给该特定的第一数据集的患者特定的标识符(或等效的唯一标识符)来向用户指示应该选择多个第一数据集中的哪个第一数据集。然后,用户可以选择所述数据集并将其加载到手术导航应用中。备选地,可以将被肯定信号指示的第一数据集自动加载到手术导航应用中。在第一数据集没有被肯定信号指示的情况下,可以通过红灯、显示单元22上的否定消息(例如,“没有找到数据集”)或长蜂鸣声来通知用户。然后,用户可以手动选择第一数据集或者可以推断找不到与患者10相关联的数据集。
图1C示出根据第二种变形的用于计算机辅助手术导航的处理患者特定的图像数据的方法的示例性实施例的流程图300。该方法由图1A的手术导航系统16执行。
图1C中所示的方法与图1B中所示的方法的不同之处在于步骤S11至步骤S411以及步骤S412。在步骤S12中,提供存储图像数据的多个第一数据集的数据库19。第一数据集中的每个第一数据集表示特定患者的皮肤表面的第一生物统计数据。在步骤S22中,通过光学相机系统14获得手术室100中的特定患者10的皮肤表面的图像数据的第二数据集。在步骤S32中,由处理单元20基于第二数据集的该图像数据得出患者10的皮肤表面的第二生物统计数据。在步骤S421中,根据上述半自动方法将第二生物统计数据与被预先选择的第一数据集的第一生物统计数据进行比较。如果根据第二种变形的方法被自动执行,则在步骤S422中将第二生物统计数据与多个第一数据集的第一生物统计数据进行比较。
根据第二种变形的方法的以下步骤S5至步骤S81以及步骤S82与图1B种所示的根据第一种变形的方法的步骤相同。因此,在此省略进一步的说明。
现在将分别结合图2A至图2C以及图3A至图3C更详细地解释图1B和图1C中示出的方法步骤。
图2A和图2B示出根据所提出的方法的第一种变形的第一数据集24的表示的示例性实施例。第一数据集24包括通过CT或MRI扫描获得的特定患者的面部的三维图像数据126。图2A是图像数据126的前视图且图2B是图像数据126的侧视图。基于该第一数据集24,手术导航系统16的处理单元20或另一个处理单元得出特定患者的皮肤表面的第一形状数据128。
图2A和图2B的实施例示出将患者的面部的图像数据126细分为多个不同的三维形状的示例。在本文中,仅示出第一形状数据128的示例性形状130、132、134和136。利用竖线标记的形状130包括在患者的左前额的表示处的三个表面点129并且具有三角形的形式。利用黑白菱形标记的形状132包括围绕患者的左眼38的表示的四个表面点129并且具有扭曲的矩形的形式。形状134利用正方形标记,并且包括围绕患者的鼻子40的尖端的表示的五个表面点129。形状136利用水平线标记,并且包括围绕患者的嘴42的表示的左侧部分的六个表面点129。应当理解,形状130、132、134和136仅是示意性的并且用于说明性目的,并且不限制它们的形式、它们所包括的表面点129的数量或它们的总量。例如,可以定义围绕患者的左耳44的表示或患者的下巴46的表示的其他形状。在备选实施例中,患者的面部126的整个图像可以构成单个任意复杂的形状31。
在图2B中,以图像数据126的侧视图示出形状130、132、134和136。可以看出,形状130、132、134和136的形式在正视图(图2A)和侧视图(图2B)之间不同。因此,形状130、132、134和136显然是三维的。表示第一形状数据128的第一数据集24中的每个第一数据集可以与患者特定的标识符(例如,患者的姓名或健康保险号码)相关联,并且被存储在数据库19中,以在步骤S11中被访问或检索。患者特定的标识符可以用来指示与要被治疗的患者10相关联的一个或多个第一数据集24。
图2C示出要在手术室100中被治疗的患者10的皮肤表面的三维图像数据150的第二数据集48的表示的示例性实施例。在手术开始时或在手术期间,在手术室100中已由光学相机系统14根据步骤S21获得图像数据150。以与结合图2A和图2B描述的相同方式,由手术导航系统16的处理单元20根据步骤S31基于第二数据集48得出第二形状数据152。
同样,图2C的实施例示出将患者面部的图像数据150细分为多个不同的形状的示例。在本文中,在图2C中示出第二形状数据152的四个示例性形状154、156、158和160。形状154、156、158和160位于图像数据150中与图2A和图2B的图像数据126中的形状130、132、134和136的位置相对应的位置。即,形状154被定位在患者10的前额的表示处,形状156围绕患者10的左眼62的表示定位,形状158围绕患者10的鼻子64的尖端的表示定位,并且形状160围绕患者10的嘴66的左侧部分的表示定位。像图2A和图2B中所示的形状130、132、134和136一样,形状154、156、158和160仅是示意性的,并且仅用于示例性目的,并且不限制它们的形式、它们所包含的表面点151的数量或它们的总量。备选地,整个图像数据150可以构成单个任意复杂的形状53。
由处理单元20使用形状匹配算法来将被存储在数据库19中的形状数据128和要被治疗的患者10的形状数据152进行比较。形状匹配算法可以基于以下特征检测方法之一:边缘检测、角检测、斑点检测或脊检测。更具体地,形状匹配算法从第二形状数据152提取例如形状154,并且扫描位于类似位置的类似形状的第一形状数据128。在图2A、图2B和图2C中示出的实施例中,算法将遇到形状130,并将其位置和形式与原始形状154的位置和形式进行比较。根据步骤S5,然后将通过形状匹配算法来计算出形状154和形状130的相似度得分,并且该算法将继续从第二形状数据152提取下一个形状156,并在第一形状数据128中扫描以获取相似的形状。可以基于各种参数来计算出以下相似度得分:例如,形状在三维图像内的位置、形状的形式、形状所包括的表面点的数量或形状的整体尺寸。
因此,形状匹配算法针对第二形状数据152的每个形状154、156、158和160计算出与第一形状数据28的至少一个形状130、132、134和136的相似度得分。可以多将个相似度得分组合以形成第一形状数据128的累积相似度得分。形状匹配算法以这种方式针对被存储在数据库19中的多个第一形状数据集24中的每个第一形状数据集计算出累积相似度得分。
在第一形状数据128和第二形状数据152未被细分为如图2A、图2B和图2C所示的形状,但是整个图像数据126、图像数据150形成相应的形状数据31、形状数据53的实施例中,将针对一对形状数据128、形状数据152计算出唯一一个相似度得分。
将三维图像数据126、152细分为多个子形状的一个优点是可以减少处理单元20所需的计算资源。由于算法仅考虑围绕人脸的表示的重要部分(例如,眼睛、鼻子和嘴)的特定形状,因此减少了要被比较的像素数量。另一方面,当将形状匹配算法应用于患者皮肤表面的整体表示时,基于像素的比较次数会增加,从而可以提高选择方法的准确性。总之,必须基于希望的准确程度和所希望的计算时间来调整形状匹配算法。
图3A和图3B示出根据所提出的方法的第二种变形的第一数据集24的表示的示例性实施例。第一数据集24包括通过CT或MRI扫描获得的特定患者的面部的图像数据226。与图2A至图2C相似,图3A是图像数据226的前视图且图3B是图像数据226的侧视图。基于该第一数据集24,手术导航系统16的处理单元20或另一个处理单元得出特定患者的皮肤表面的第一生物统计数据228。
与图2A和图2B等同,在图3A和图3B中示出示例性生物统计数据230A、230B、232A、232B、234A、234B和236A、236B。在所示出的示例中,生物统计数据228包括生物统计距离,例如,患者的眼睛38的直径232A、患者的鼻子234B的尖端与根部之间的距离、以及患者的嘴236B的长度。
同样,图3C示出在手术室100中要被治疗的患者10的皮肤表面的图像数据250的第二数据集48的表示的示例性实施例。在手术开始时或在手术期间,在手术室100中已由光学相机系统14根据步骤S22获得图像数据250。以与结合图3A和图3B描述的相同的方式,由手术导航系统16的处理单元20根据步骤S32基于第二数据集48得出第二生物统计数据252。与图2C相似,在图3C中示出示例性生物统计数据,例如,生物统计距离254A、254B、256、258A、258B和260A、260B。
通过生物统计算法将第一生物统计数据228与第二生物统计数据252进行比较。该算法例如测量图像数据250中的在患者前额的表示处的距离254A,并且在图像数据226中搜索在类似位置处的类似距离。在所示出的示例中,生物统计匹配算法将在相同位置(即,患者前额的表示处)遇到距离230B,并且将对距离230B和距离254A进行比较。基于该比较,该算法然后将根据步骤S5针对各个比较计算出相似度得分,并且然后将继续同样执行关于图2A至图2C所描述的形状匹配算法。
如关于图1B和1C所解释的,根据两种变形的方法可以半自动地或自动地执行。这将在下面更详细地描述。
当该方法半自动地执行时,最初由用户预先选择用于计算机辅助手术导航的特定的第一数据集24,例如,经由被分配给数据集24的患者特定的标识符(步骤S411、S421)。在这种情况下,处理单元20针对被预先选择的数据集24计算出相似度得分(步骤S5),并且检查计算出的相似度得分是否满足诸如最小相似度的预定义条件(步骤S61)。如果满足预定义条件,则由处理单元20生成肯定(确认)信号,其向用户指示:被预先选择的第一数据集24的选择是正确的(步骤S71)。如果不满足预定义条件,则由处理单元20生成否定(警告)信号,其向用户指示:被预先选择的第一数据集24的选择是不正确的(步骤S72)。因此,如上所述,触发用户以选择被预先选择的数据集24(步骤S81)或取消选择被预先选择的数据集24(步骤S82)。
当该方法自动执行时,将第二形状数据152、252与被存储在数据库19上的多个第一数据集24的第一形状数据128、228进行比较(步骤S412)。对于每次比较,根据以上描述来计算根据步骤S5的相似度得分。在这种情况下,将仅以肯定信号指示具有产生最高相似度得分(步骤S62)的第一形状数据128、228的特定的第一数据集24(步骤S71)。根据步骤S72,所有其他第一数据集24将以否定信号指示(或根本不发信号指示)。基于肯定信号,触发处理单元20根据步骤S81从被存储在数据库19上的多个第一数据集24中选出对应的第一数据集24。然后例如通过在与已选择的第一数据集24的可视化有关的显示单元22上向外科医生提供导航指令,来将所述第一数据集24用于识别要被治疗的特定患者10和/或用于协助手术过程。根据步骤S82,通过该方法取消选择所有其他数据集24。
特别是当该方法半自动地执行时,该信号可以是光信号(例如,闪光灯)或声信号(例如,蜂鸣声)。然而,在自动地执行该方法时,也可以通过光信号和/或声信号向用户通告比较的结果。例如,当通过形状匹配算法不能找到与第二数据集48匹配的第一数据集24时,这时可以向用户指示否定信号。当尚未针对要被治疗的特定患者10执行医学成像时,可能是这种情况。因此,准备该手术的医护人员意识到没有CT或MRI扫描可用于特定患者10,无需手动搜索数据库19。在一些情况下,例如,在严重事故后被送往医院后无意识时,可能无法识别要被治疗的患者10。然而,仍然可以通过形状匹配算法找到与患者10匹配的第一数据集24。然后可以通过肯定信号向用户指示这种情况。
此外,也可能向错误的患者特定的标识符(例如,错误的患者姓名)分配第一数据集24。因此,当针对特定患者10手动搜索与第二数据集48匹配的第一数据集24时,用户可能无法识别正确的数据集。可以通过本文提出的基于实际形状数据而不是基于手动分配的标识符来选择第一数据集24的技术来克服该缺点。另外,基于三维形状数据而不是生物统计数据选择第一数据集24提供了选择方法的更高程度的准确性。特别是对于患者的脸部而言,可测量的生物统计数据主要是二维距离的表示,例如瞳孔间距。然而,这些二维距离中的一些距离在两个或更多个第一数据集24中可以相等。因此,比较生物统计数据的生物统计算法可能不适合识别正确的数据集。由于三维几何形状比二维距离独特得多,因此相同的几何形状不太可能出现在两个不同的第一数据集24中。因此,数据集选择过程的错误率被最小化。
另一方面,由于必须被处理的数据量较大,因此处理三维形状数据并将形状匹配算法应用于所述数据可能需要许多计算资源。处理二维生物统计数据(例如,几何距离)可能会更快并且消耗更少的资源。
总之,所提出的技术提供了处理患者特定的图像数据的两种不同的方式。根据所希望的准确程度和可用的计算资源,用户可以在两种方式之间自由选择。
尽管已经描述用于处理患者特定的图像数据的方法和手术导航系统的示例性实现,但是应该理解,可以以许多方式修改该方法和系统。因此,本公开仅由本文所附的权利要求限制。
Claims (15)
1.一种用于计算机辅助手术导航的处理患者特定的图像数据的方法,所述方法包括:
提供数据库,所述数据库包括通过医学成像方法获得的图像数据的多个第一数据集,其中,每个第一数据集表示至少一个患者的皮肤表面的第一几何数据;
通过光学相机系统获得特定患者的皮肤表面的图像数据的第二数据集;
根据所述第二数据集得出所述特定患者的皮肤表面的第二几何数据;
将所述第二几何数据与一个或多个第一数据集的所述第一几何数据进行比较,以计算出每次比较的相似度得分;以及
基于所述相似度得分,生成触发对用于计算机辅助手术导航的第一数据集的选择和取消选择中的一项的信号。
2.根据权利要求1所述的方法,其中,
所述图像数据是三维图像数据;
所述第一几何数据和所述第二几何数据分别是第一三维形状数据和第二三维形状数据;并且其中
通过形状匹配算法比较所述第一三维形状数据和所述第二三维形状数据。
3.根据权利要求1所述的方法,其中,
所述第一几何数据和所述第二几何数据分别是第一生物统计数据和第二生物统计数据;并且其中
通过生物统计匹配算法比较所述第一生物统计数据和所述第二生物统计数据。
4.根据权利要求1所述的方法,其中,
所述光学相机系统被配置为,在计算机辅助手术导航期间跟踪患者或手术对象。
5.根据权利要求1所述的方法,其中,
将所述第二几何数据与最初已被预先选择用于计算机辅助手术导航的特定第一数据集的所述第一几何数据进行比较;并且其中
生成所述信号包括:评估针对被预先选择的第一数据集计算出的相似度得分是否满足预定义条件,其中,根据所述评估的结果,所述信号触发对所述被预先选择的第一数据集的选择或取消选择。
6.根据权利要求1所述的方法,其中,
所述信号是以下项中的一项:用于触发对所述被预先选择的第一数据集的取消选择的给用户的警告信号,以及用于触发对所述被预先选择的第一数据集的选择的给用户的确认信号;和/或其中
所述信号是声信号和光信号中的至少一项。
7.根据权利要求1所述的方法,其中,
将所述第二几何数据与所述多个第一数据集的所述第一几何数据进行比较,以计算出多个相似度得分;并且
所述信号触发对所述多个第一数据集中的、基于所述多个相似度得分表示与所述第二几何数据具有最高相似度的第一几何数据的那个第一数据集的选择。
8.根据权利要求1所述的方法,其中,
所述医学成像方法包括计算机断层摄影和磁共振成像中的一项。
9.根据权利要求1所述的方法,其中,
所述数据库中的所述多个第一数据集在手术之前已被获取和/或所述第二数据集在手术室中被获得。
10.根据权利要求1所述的方法,包括:
基于已选择的第一数据集提供导航指令。
11.一种包括程序代码部分的计算机程序产品,当在一个或多个处理器上执行所述计算机程序产品时,所述程序代码部分用于执行根据前述权利要求中的任一项的步骤。
12.一种手术导航系统,所述手术导航系统被配置为处理患者特定的图像数据,所述系统包括:
接口,所述接口被配置为访问数据库,所述数据库包括通过医学成像方法获得的多个第一图像数据集,其中,每个图像数据集表示至少一个患者的皮肤表面的第一几何数据;
光学相机系统,所述光学相机系统被配置为,获得特定患者的皮肤表面的图像数据的第二数据集;以及
处理单元,所述处理单元被配置为,根据所述第二数据集得出所述特定患者的皮肤表面的第二几何数据,将所述第二几何数据与一个或多个第一数据集的所述第一几何数据进行比较,以计算出每次比较的相似度得分,并且,基于所述相似度得分生成触发对用于计算机辅助手术导航的第一数据集的选择和取消选择中的一项的信号。
13.根据权利要求12所述的系统,被配置为执行根据权利要求1至10中的任一项的步骤。
14.根据权利要求12所述的系统,其中,
所述光学相机系统包括立体相机和红外3D传感器中的至少一项。
15.根据权利要求12所述的系统,还包括显示单元,所述显示单元被配置为以下操作中的至少一项:
输出所述信号;以及
基于已选择的第一数据集提供导航指令。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19164051.5 | 2019-03-20 | ||
EP19164051.5A EP3712900A1 (en) | 2019-03-20 | 2019-03-20 | Technique for processing patient-specific image data for computer-assisted surgical navigation |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111723837A true CN111723837A (zh) | 2020-09-29 |
CN111723837B CN111723837B (zh) | 2024-03-12 |
Family
ID=65904101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010201831.0A Active CN111723837B (zh) | 2019-03-20 | 2020-03-20 | 用于计算机辅助手术导航的处理具体患者的图像数据的技术 |
Country Status (3)
Country | Link |
---|---|
US (2) | US11298051B2 (zh) |
EP (1) | EP3712900A1 (zh) |
CN (1) | CN111723837B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7170631B2 (ja) | 2016-10-05 | 2022-11-14 | ニューヴェイジヴ,インコーポレイテッド | 外科ナビゲーションシステム及び関連する方法 |
EP3712900A1 (en) * | 2019-03-20 | 2020-09-23 | Stryker European Holdings I, LLC | Technique for processing patient-specific image data for computer-assisted surgical navigation |
US11612440B2 (en) | 2019-09-05 | 2023-03-28 | Nuvasive, Inc. | Surgical instrument tracking devices and related methods |
US11715326B2 (en) * | 2020-06-17 | 2023-08-01 | Microsoft Technology Licensing, Llc | Skin tone correction for body temperature estimation |
EP4091567A1 (en) * | 2021-05-21 | 2022-11-23 | Stryker European Operations Limited | Technique of providing user guidance for obtaining a registration between patient image data and a surgical tracking system |
Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5792147A (en) * | 1994-03-17 | 1998-08-11 | Roke Manor Research Ltd. | Video-based systems for computer assisted surgery and localisation |
US6173068B1 (en) * | 1996-07-29 | 2001-01-09 | Mikos, Ltd. | Method and apparatus for recognizing and classifying individuals based on minutiae |
WO2001057805A2 (en) * | 2000-01-31 | 2001-08-09 | Tct International Plc | Image data processing method and apparatus |
JP2004348091A (ja) * | 2003-03-26 | 2004-12-09 | National Institute Of Advanced Industrial & Technology | 実体模型及びこれを用いた手術支援システム |
US20050004451A1 (en) * | 2002-04-26 | 2005-01-06 | Stefan Vilsmeier | Planning and navigation assistance using two-dimensionally adapted generic and detected patient data |
JP2008264520A (ja) * | 2007-03-20 | 2008-11-06 | National Univ Corp Shizuoka Univ | 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム |
US20110130635A1 (en) * | 2009-11-30 | 2011-06-02 | Ncr Corporation | Medical self-service |
US20120173576A1 (en) * | 2010-12-30 | 2012-07-05 | Microsoft Corporation | Patient identification |
JP2012179370A (ja) * | 2000-04-19 | 2012-09-20 | Orametrix Inc | 歯の口内走査に基づいたインタラクティブな歯列矯正ケアシステム |
CN102933163A (zh) * | 2010-04-14 | 2013-02-13 | 史密夫和内修有限公司 | 用于基于患者的计算机辅助手术程序的系统和方法 |
WO2015024600A1 (en) * | 2013-08-23 | 2015-02-26 | Stryker Leibinger Gmbh & Co. Kg | Computer-implemented technique for determining a coordinate transformation for surgical navigation |
US20150057526A1 (en) * | 2012-04-13 | 2015-02-26 | Brainlab Ag | Control of a medical imaging device via a navigation system |
US20150242812A1 (en) * | 2014-02-26 | 2015-08-27 | William Bert Nelson | Device and system for implementing advance directives |
CN105307570A (zh) * | 2013-05-16 | 2016-02-03 | 菲亚戈股份有限公司 | 借助参考标记在手术中进行图像记录 |
US20160232304A1 (en) * | 2013-09-19 | 2016-08-11 | Mayank Goyal | Systems and methods for obtaining and displaying medical data to assist decision making during a medical emergency |
WO2016127173A1 (en) * | 2015-02-06 | 2016-08-11 | The University Of Akron | Optical imaging system and methods thereof |
CN107405123A (zh) * | 2014-11-06 | 2017-11-28 | 西门子保健有限责任公司 | 利用深度传感器数据的扫描数据检索 |
US20180185100A1 (en) * | 2017-01-03 | 2018-07-05 | Mako Surgical Corp. | Systems And Methods For Surgical Navigation |
CN108366791A (zh) * | 2015-10-14 | 2018-08-03 | 麦迪欧克医疗公司 | 用于进行外科手术的患者匹配的设备和方法 |
US20180303558A1 (en) * | 2016-08-17 | 2018-10-25 | Monroe Milas Thomas | Methods and systems for registration of virtual space with real space in an augmented reality system |
CN108922085A (zh) * | 2018-07-18 | 2018-11-30 | 北京七鑫易维信息技术有限公司 | 一种监护方法、装置、监护设备及存储介质 |
CN109464196A (zh) * | 2019-01-07 | 2019-03-15 | 北京和华瑞博科技有限公司 | 采用结构光影像配准的手术导航系统及配准信号采集方法 |
EP3578126A1 (en) * | 2018-06-08 | 2019-12-11 | Stryker European Holdings I, LLC | Surgical navigation system |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10046110B8 (de) | 2000-09-18 | 2006-07-06 | Siemens Ag | Medizinisches Diagnosegerät mit Patientenerkennung |
DE10340064A1 (de) | 2003-08-28 | 2005-04-07 | Francotyp-Postalia Ag & Co. Kg | Anordnung und Verfahren zur Erfassung biometrischer Daten |
US8784314B2 (en) | 2003-10-08 | 2014-07-22 | GE Medical Sytems Global Technology Company LLC | Biometrically enabled imaging system |
DE102005036322A1 (de) * | 2005-07-29 | 2007-02-15 | Siemens Ag | Registrieren intraoperativer Bilddatensätze mit präoperativen 3D-Bilddatensätzen auf Basis optischer Oberflächenextraktion |
US7593549B2 (en) | 2006-04-27 | 2009-09-22 | Bruce Reiner | Apparatus and method for utilizing biometrics in medical applications |
WO2009039391A1 (en) | 2007-09-21 | 2009-03-26 | The Methodist Hospital System | Systems, methods and apparatuses for generating and using representations of individual or aggregate human medical data |
US8908929B2 (en) | 2007-11-13 | 2014-12-09 | International Business Machines Corporation | Method, apparatus and computer program product implementing anonymous biometric matching |
WO2013187461A1 (ja) | 2012-06-15 | 2013-12-19 | 株式会社 日立メディコ | X線ct装置及び画像再構成方法 |
CN104055520B (zh) * | 2014-06-11 | 2016-02-24 | 清华大学 | 人体器官运动监测方法和手术导航系统 |
US20150366628A1 (en) | 2014-06-18 | 2015-12-24 | Covidien Lp | Augmented surgical reality environment system |
WO2016080311A1 (ja) | 2014-11-21 | 2016-05-26 | 株式会社日立製作所 | X線ct装置、投影データのアップサンプリング方法、及び画像再構成方法 |
US10872319B2 (en) | 2015-07-30 | 2020-12-22 | Bsh Home Appliances Corporation | Systems for providing service notifications to a product |
US11200663B1 (en) * | 2017-12-06 | 2021-12-14 | Boise Cascade Company | Method and system for layered wood product production using local robotic panel assembly cells and vision system analysis |
EP3712900A1 (en) | 2019-03-20 | 2020-09-23 | Stryker European Holdings I, LLC | Technique for processing patient-specific image data for computer-assisted surgical navigation |
-
2019
- 2019-03-20 EP EP19164051.5A patent/EP3712900A1/en active Pending
-
2020
- 2020-03-18 US US16/822,611 patent/US11298051B2/en active Active
- 2020-03-20 CN CN202010201831.0A patent/CN111723837B/zh active Active
-
2022
- 2022-02-10 US US17/668,912 patent/US11911149B2/en active Active
Patent Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5792147A (en) * | 1994-03-17 | 1998-08-11 | Roke Manor Research Ltd. | Video-based systems for computer assisted surgery and localisation |
US6173068B1 (en) * | 1996-07-29 | 2001-01-09 | Mikos, Ltd. | Method and apparatus for recognizing and classifying individuals based on minutiae |
WO2001057805A2 (en) * | 2000-01-31 | 2001-08-09 | Tct International Plc | Image data processing method and apparatus |
JP2012179370A (ja) * | 2000-04-19 | 2012-09-20 | Orametrix Inc | 歯の口内走査に基づいたインタラクティブな歯列矯正ケアシステム |
US20050004451A1 (en) * | 2002-04-26 | 2005-01-06 | Stefan Vilsmeier | Planning and navigation assistance using two-dimensionally adapted generic and detected patient data |
JP2004348091A (ja) * | 2003-03-26 | 2004-12-09 | National Institute Of Advanced Industrial & Technology | 実体模型及びこれを用いた手術支援システム |
JP2008264520A (ja) * | 2007-03-20 | 2008-11-06 | National Univ Corp Shizuoka Univ | 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム |
US20110130635A1 (en) * | 2009-11-30 | 2011-06-02 | Ncr Corporation | Medical self-service |
CN102933163A (zh) * | 2010-04-14 | 2013-02-13 | 史密夫和内修有限公司 | 用于基于患者的计算机辅助手术程序的系统和方法 |
US20120173576A1 (en) * | 2010-12-30 | 2012-07-05 | Microsoft Corporation | Patient identification |
US20150057526A1 (en) * | 2012-04-13 | 2015-02-26 | Brainlab Ag | Control of a medical imaging device via a navigation system |
CN105307570A (zh) * | 2013-05-16 | 2016-02-03 | 菲亚戈股份有限公司 | 借助参考标记在手术中进行图像记录 |
WO2015024600A1 (en) * | 2013-08-23 | 2015-02-26 | Stryker Leibinger Gmbh & Co. Kg | Computer-implemented technique for determining a coordinate transformation for surgical navigation |
CN105658167A (zh) * | 2013-08-23 | 2016-06-08 | 斯瑞克欧洲控股I公司 | 用来对用于手术导航的坐标转换进行确定的计算机实现技术 |
US20160232304A1 (en) * | 2013-09-19 | 2016-08-11 | Mayank Goyal | Systems and methods for obtaining and displaying medical data to assist decision making during a medical emergency |
US20150242812A1 (en) * | 2014-02-26 | 2015-08-27 | William Bert Nelson | Device and system for implementing advance directives |
CN107405123A (zh) * | 2014-11-06 | 2017-11-28 | 西门子保健有限责任公司 | 利用深度传感器数据的扫描数据检索 |
WO2016127173A1 (en) * | 2015-02-06 | 2016-08-11 | The University Of Akron | Optical imaging system and methods thereof |
CN108366791A (zh) * | 2015-10-14 | 2018-08-03 | 麦迪欧克医疗公司 | 用于进行外科手术的患者匹配的设备和方法 |
US20180303558A1 (en) * | 2016-08-17 | 2018-10-25 | Monroe Milas Thomas | Methods and systems for registration of virtual space with real space in an augmented reality system |
US20180185100A1 (en) * | 2017-01-03 | 2018-07-05 | Mako Surgical Corp. | Systems And Methods For Surgical Navigation |
EP3578126A1 (en) * | 2018-06-08 | 2019-12-11 | Stryker European Holdings I, LLC | Surgical navigation system |
CN108922085A (zh) * | 2018-07-18 | 2018-11-30 | 北京七鑫易维信息技术有限公司 | 一种监护方法、装置、监护设备及存储介质 |
CN109464196A (zh) * | 2019-01-07 | 2019-03-15 | 北京和华瑞博科技有限公司 | 采用结构光影像配准的手术导航系统及配准信号采集方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111723837B (zh) | 2024-03-12 |
US11911149B2 (en) | 2024-02-27 |
US20220160261A1 (en) | 2022-05-26 |
US11298051B2 (en) | 2022-04-12 |
US20200297251A1 (en) | 2020-09-24 |
EP3712900A1 (en) | 2020-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111723837B (zh) | 用于计算机辅助手术导航的处理具体患者的图像数据的技术 | |
US11450435B2 (en) | Spinal stenosis detection and generation of spinal decompression plan | |
US20190046272A1 (en) | ENT Image Registration | |
US8705830B2 (en) | Method and device for processing 3-D image data of a skull | |
US20130257910A1 (en) | Apparatus and method for lesion diagnosis | |
EP2433569A1 (en) | 3-dimensional (3D) ultrasound system using image filtering and method for operating 3D ultrasound system | |
JP5934071B2 (ja) | 管状構造の最短経路探索装置および方法並びにプログラム | |
EP3910592A1 (en) | Image matching method, apparatus and device, and storage medium | |
CN111105881B (zh) | 一种3d测量人类表型的数据库系统 | |
EP3424017B1 (en) | Automatic detection of an artifact in patient image data | |
JP2017527015A (ja) | 被験者の画像をセグメント化するためのデバイス、システム及び方法 | |
JP2008073188A (ja) | 画像解析システム、及び画像解析プログラム | |
KR101431745B1 (ko) | 생체 중의 특정 부위에 대한 분석정보 출력방법 및 장치 | |
US11478207B2 (en) | Method for visualizing a bone | |
US8774483B2 (en) | Image processing method, image processing apparatus and program | |
US20220058418A1 (en) | Method and system for selecting a region of interest in an image | |
KR101852666B1 (ko) | 인체 전신의 근육 및 골격 구조 측정 장치 | |
JP5403431B2 (ja) | 断層画像処理方法及び装置 | |
JP2006000301A (ja) | 画像処理装置とこれを用いた手術支援システム | |
CN118229740A (zh) | 穿刺手术中ct图像的处理方法、装置及电子设备 | |
CN105354340A (zh) | 检索医学图像的方法 | |
JP2007289374A (ja) | 医用画像診断支援装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |