CN114786609A - 使用当前工作流程步骤以用于控制医疗数据处理 - Google Patents
使用当前工作流程步骤以用于控制医疗数据处理 Download PDFInfo
- Publication number
- CN114786609A CN114786609A CN202080086597.XA CN202080086597A CN114786609A CN 114786609 A CN114786609 A CN 114786609A CN 202080086597 A CN202080086597 A CN 202080086597A CN 114786609 A CN114786609 A CN 114786609A
- Authority
- CN
- China
- Prior art keywords
- data
- medical
- patient
- computer
- biomechanical model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/23—Design optimisation, verification or simulation using finite element methods [FEM] or finite difference methods [FDM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/17—Image acquisition using hand-held instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
- A61B2034/104—Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/252—User interfaces for surgical systems indicating steps of a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2119/00—Details relating to the type or aim of the analysis or the optimisation
- G06F2119/14—Force analysis or force optimisation, e.g. static or dynamic forces
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Radiology & Medical Imaging (AREA)
- Data Mining & Analysis (AREA)
- Robotics (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Urology & Nephrology (AREA)
- Physical Education & Sports Medicine (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
公开了一种使患者的解剖学身体部位的生物力学模型适应于患者当前状态的计算机实施的方法。该方法包括确定当前执行的诸如医学干预等的工作流程步骤,确定结果用作将解剖学身体部位的生物力学模型适应于和/或更新为对应的患者当前状态的基础。确定当前工作流程步骤也可用作控制成像装置的基础,以用于跟踪围绕患者的实体;或用于对解剖学身体部位进行成像;或用于获取进一步的数据;或者用于促使用户执行特定动作,如使用诸如指针等的跟踪仪器来获取信息。生物力学模型是根据图谱数据生成的。根据当前工作流程步骤生成的数据集可以附加地或替代地用作确定当前工作流程步骤和/或适应进一步的工作流程的基础。
Description
技术领域
本发明涉及一种使患者的解剖学身体部位的生物力学模型适应于该患者当前状态的计算机实施的方法、一种对应的计算机程序、一种存储这种程序的计算机可读存储介质和一种执行该程序的计算机,以及一种包括电子数据存储装置和上述计算机的医疗系统。
背景技术
生物力学模型用于例如描绘可能由医疗干预引起的解剖结构变化,并据此更新用于规划和导引该干预的患者图像数据。还已知进行这种更新的基础是干预期间所生成的空间采样数据,如医学图像数据。
本发明的目的是改进对解剖学身体部位的数字生物力学模型的使用。
本发明可用于例如分别有关医疗导引系统和图像配准软件的过程,它们均为Brainlab AG产品,如Cranial Navigation和Image Fusion。
US 2018/0078313 A1公开了使用多种成像模式来根据医学扫描数据进行肝脏建模。对于根据医学扫描数据进行肝脏建模,使用了多种成像模式。通过结合生成式建模使用多种成像模式,可以进行更全面和更明智的评估。衍生建模可以允许对建议的治疗对肝功能的影响进行反馈。该反馈用来基于成像更新肝功能信息。基于使用各种成像模式的信息的计算机化建模,可以提供基于更全面信息和患者个性化建模与反馈的输出以帮助医生。
US 2016/0005169 A1公开了一种用于产生患者的可演化组织模型的方法,并且使用该模型,通过使组织模型与影响模型相互作用来对组织模型的物理变换(例如变形)进行建模,其中影响模型对与组织的相互作用(例如手术器械、压力、肿胀、温度变化等)进行建模。该模型是由一组包括组织方向信息的组织输入数据产生的。方向信息用于产生定向组织图。然后根据定向组织图产生组织模型,使得组织模型反映组织成分的方向性。当组织模型在一段时间内受到导致组织变形的影响时,组织模型在这段时间内按以下方式定向地变形,即,反映与组织成分的方向性相互作用的影响的轨迹。
下文公开了本发明的各个方面、示例和示例性步骤及其实施例。只要技术上有利和可行,本发明的不同示例性特征可以根据本发明进行组合。
发明内容
示例性发明简述
在下文中,给出了对本发明具体特征的简要描述,其不应理解为将本发明仅限于本部分中描述的特征或特征组合。
本公开的方法包括确定当前执行的诸如医疗干预等的工作流程步骤,确定结果用作将解剖学身体部位的生物力学模型适应于和/或更新为患者对应的当前状态的基础。确定当前工作流程步骤也可用作控制成像装置的基础,以用于跟踪围绕患者的实体,或者用于对解剖学身体部位进行成像或用于获取进一步的数据,或者用于促使用户执行特定动作,如使用诸如指针等的跟踪仪器来获取信息。生物力学模型是根据图谱数据生成的。根据当前工作流程步骤生成的数据集可以附加地或替代地用作确定当前工作流程步骤和/或适应进一步的工作流程的基础。
发明概述
在本部分中,例如通过参照本发明的可能实施例给出对本发明的一般特征的描述。
总体而言,本发明达成上述目的的解决方案为,在第一方面,提供一种使患者的解剖学身体部位的生物力学模型适应于患者当前状态的计算机实施的方法。该方法包括在至少一个计算机(例如,至少一个计算机是导引系统的一部分)的至少一个处理器上执行以下由该至少一个处理器执行的示例性步骤。
在示例性(例如第一)步骤中,获取初始生物力学模型数据,该初始生物力学模型数据描述解剖学身体部位的初始生物力学模型。例如,生物力学模型是解剖学身体部位的有限元模型或耦合弹簧模型。例如,初始生物力学模型数据是基于对描述解剖学身体部位的数字医学图像的患者图像数据进行基于图谱的分割而生成,即,通过在图谱数据(其描述解剖学身体部位的基于图像的模型)与患者图像数据(其描述解剖学身体部位的数字医学图像)之间建立映射,以便分割解剖学身体部位的图像表示。例如,解剖学身体部位包括脑部的至少一部分或肝脏的至少一部分。
在示例性(例如第二)步骤中,获取工作流程步骤数据,该工作流程步骤数据描述患者身上待执行过程的当前工作流程步骤。例如,获取跟踪数据,该跟踪数据描述医疗实体(即患者、医疗人员或仪器中至少一个)的位置;以及获取工作流程步骤定义数据,该工作流程步骤定义数据描述医疗实体(即患者、医疗人员或仪器中至少一个)的至少一个位置与患者身上待执行过程的至少一个工作流程步骤之间的关联性。例如,然后基于跟踪数据和工作流程步骤定义,通过以下来获取工作流程步骤数据:将跟踪数据所描述的位置与工作流程步骤定义数据进行比较,并且选择与跟踪数据所描述的医疗实体的位置相对应的医疗实体位置相关联的至少一个工作流程步骤作为当前工作流程步骤。例如,跟踪数据是通过对至少一个医疗实体(例如患者、解剖学身体部位、医疗人员或医疗仪器中至少一个)进行成像(例如视频成像)而生成。根据另一示例,跟踪数据是通过光学地或电磁地跟踪附接到至少一个医疗实体(例如患者、解剖学身体部位、医疗人员或医疗仪器中至少一个)的至少一个标记装置而生成。
在示例性(例如第三)步骤中,基于工作流程步骤数据和初始生物力学模型数据来确定状态变化数据,其中,该状态变化数据描述患者状态变化。例如,患者状态变化是以下至少一项的变化:患者身体的位置或几何形态,例如解剖学身体部位的位置或几何形态;或者医疗仪器与患者身体之间的相对位置,或医疗人员与患者身体之间的相对位置;上述位置中至少一个的变化之间的时间;医疗仪器的配置或使用;医疗仪器到达特定位置的时间间隔,或在过程中从预定时间点开始经过的时间间隔。
在示例性(例如第四)步骤中,获取模型适应性数据,该模型适应性数据描述患者状态变化与待应用于初始生物力学模型的适应性之间的关联性。该适应性例如定义为有限元模型或耦合弹簧模型的边界条件变化,例如分别是通过移动节点,更改或添加或删除质点,或者更改或添加或删除力。
在示例性(例如第五)步骤中,基于初始生物力学模型数据和状态变化数据以及模型适应性数据来确定适应性生物力学模型数据,其中,该适应性生物力学模型数据描述通过对初始生物力学模型应用适应性而确定的适应性生物力学模型。例如,该适应性生物力学模型通过改变有限元模型或耦合弹簧模型的边界条件而确定,例如分别是通过添加或删除或移动节点,更改或添加或删除质点,或者更改或添加或删除力。
在根据第一方面的方法的示例中,基于状态变化数据来获取关注区域(ROI)数据,其中,该关注区域描述待执行过程(例如上述过程)之中或之上的区域或轨迹,例如解剖学区域或对象表面。例如,根据第一方面的方法包括基于关注区域数据来获取仪器位置数据,该仪器位置数据描述导引仪器的位置。导引仪器例如是用于识别位置(例如解剖学身体部位上的位置)的指向装置,例如指针(如非接触式指针,例如激光指针,或用于通过将其尖端放在位置上来识别该位置的指针)。例如,仪器位置数据用作确定适应性生物力学模型数据的附加基础。因此,导引仪器可用作将位置信息输入到位置跟踪系统的输入装置,该位置跟踪系统用于跟踪导引仪器的位置并识别解剖学身体部位上的位置。例如,解剖学身体部位上的位置可以通过确定指向装置在其指向解剖学身体部位时的位置而识别。例如,仪器位置数据所描述的至少一个位置用于改变有限元模型或耦合弹簧模型的边界条件,例如用于识别或添加或删除初始生物力学模型的节点,移动此节点,用于更改或添加或删除质点,或用于更改或添加或删除力。替代地或附加地,该过程包括基于关注区域数据,获取描述患者的至少一部分(例如解剖学身体部位)的视频或医学图像数据。例如,该过程包括获取医学图像数据,并且用于生成医学图像数据的成像装置例如通过机械臂被手持或手动引导或头戴式或自动引导。在进一步示例中,该成像装置是手持或手动引导或头戴式或固定的超声波探头,或手持或手动引导或头戴式或固定的红外照相机,或三维图像生成扫描仪,如用于计算机x射线断层扫描或磁共振断层扫描的扫描仪。例如,医学图像数据用作确定适应性生物力学数据的基础,例如通过使用医学图像数据中包含的图像信息来改变有限元模型或耦合弹簧模型的边界条件来例如识别或添加或删除初始生物力学模型的节点,移动此节点,更改或添加或删除质点,或更改或添加或删除力。
在根据第一方面的方法的示例中,基于状态变化数据来确定成像控制数据。该成像控制数据描述待发布给医学成像装置的命令,以拍摄解剖学身体部位的至少一部分的图像。例如,解剖学身体部位中的待成像部分取决于患者状态变化的类型。例如,解剖学身体部位中的待成像部分在解剖学上对应于生物力学模型中适应于确定适应性生物力学模型数据的部分。例如,将成像控制数据传输到医学成像装置并执行以便确定医学图像数据,该医学图像数据描述解剖学身体部位中的待成像部分的医学图像。
在根据第一方面的方法的示例中,基于状态变化数据来确定仪器引导数据。该仪器引导数据描述仪器待定位的位置。例如,该仪器是导引仪器,例如指向装置,如指针。因此,可以向用户或用于移动这种仪器的机器人装置提供将仪器定位在何处的信息(例如,用于引导用户的视觉引导信息或用于控制机器人装置的控制信息),以例如用于改变有限元模型或耦合弹簧模型的边界条件,例如用于识别或添加或删除初始生物力学模型的节点,移动此节点,用于更改或添加或删除质点,或用于更改或添加或删除力。
在根据第一方面的方法的示例中,基于状态变化数据来确定成像装置引导数据,其中,成像装置引导数据描述医学成像装置待定位的位置,例如以便能够拍摄解剖学身体部位的图像。因此,可以向用户或用于移动成像装置的机器人装置提供将仪器定位在何处的信息(例如,用于引导用户的视觉引导信息或用于控制机器人装置的控制信息)。
在第二方面,本发明涉及一种计算机程序,其包括指令,当由至少一个计算机执行程序时,该指令使至少一个计算机执行根据第一方面的方法。替代地或附加地,本发明可以涉及载有表示程序(例如上述程序)的信息的(例如以技术手段生成的物理性,例如电)信号波,例如数字信号波,如电磁载波。上述程序例如包括适于执行根据第一方面的方法的任意或全部步骤的代码手段。在一示例中,信号波是载有上述计算机程序的数据载波信号。存储在盘上的计算机程序是数据文件,当读取并传输文件时,该文件变成例如(例如以技术手段生成的物理性,例如电)信号形式的数据流。该信号可实施为信号波,例如本文描述的电磁载波。例如,信号(例如信号波)构建为经由计算机网络,例如LAN、WLAN、WAN、移动网络(例如因特网)来传输。例如,信号(例如信号波)构建为通过光学或声学数据传输来传输。因此替代地或附加地,本发明根据第二方面可以涉及表示上述程序(即,包括该程序)的数据流。
在第三方面,本发明涉及一种计算机可读存储介质,其上存储有根据第二方面的程序。该程序存储介质例如为非瞬时性的。
在第四方面,本发明涉及至少一个计算机(例如,一个计算机),其包括至少一个处理器(例如,一个处理器),其中,由处理器执行根据第二方面的程序,或其中,该至少一个计算机包括根据第三方面的计算机可读存储介质。
在第五方面,本发明涉及一种医疗系统,包括:
a)根据第四方面的至少一个计算机;
b)至少存储初始生物力学模型数据和模型适应性数据的至少一个电子数据存储装置;以及
c)用于对患者执行医疗过程的医疗装置。
该至少一个计算机可操作地耦合到至少一个电子数据存储装置,以用于从至少一个数据存储装置中至少获取初始生物力学模型数据和模型适应性数据,并且用于将适应性生物力学模型数据存储在至少一个数据存储装置中。
在第六方面,本发明涉及根据前述权利要求的系统进行医疗过程的用途,其中,该用途包括执行根据前述权利要求中的任一项的方法的步骤,以使患者的解剖学身体部位的生物力学模型适应于当前患者状态。
例如,本发明不涉及或尤其不包括或包含创伤性步骤,该创伤性步骤代表对身体的实质性物理干预,需要对身体采取专业医疗措施,而即使采取了所要求的专业护理和措施,身体仍可能承受重大健康风险。
定义
在本部分中,提供了本公开中使用的特定术语的定义,它们也构成本公开的一部分。
根据本发明的方法例如是一种计算机实施的方法。例如,根据本发明的方法的全部步骤或仅一些步骤(即,少于步骤总数)可以由计算机(例如,至少一个计算机)执行。计算机实施的方法的一实施例是用计算机来执行数据处理方法。计算机实施的方法的一实施例是涉及计算机操作的方法,使得计算机被操作为执行该方法的一个、多个或全部步骤。
计算机例如包括至少一个处理器和例如至少一个存储器,以便(技术上)处理数据,例如电子地和/或光学地处理数据。处理器例如由半导体的物质或组合物制成,例如至少部分n型和/或p型掺杂半导体,例如II、III、IV、V、VI型半导体材料中的至少一种,例如(掺杂)硅和/或砷化镓。所描述的计算步骤或确定步骤例如由计算机执行。确定步骤或计算步骤例如是在技术方法的框架内(例如在程序的框架内)确定数据的步骤。计算机例如是任何类型的数据处理装置,例如电子数据处理装置。计算机可以是通常被视为此类的装置,例如台式个人电脑、笔记本电脑、上网本等,也可以是任何可编程设备,例如移动电话或嵌入式处理器。计算机可以例如包括具有“子计算机”的系统(网络),其中,每个子计算机代表其本身的计算机。术语“计算机”包括云计算机,例如云服务器。术语“计算机”包括服务器资源。术语“云计算机”包括云计算机系统,其例如包括具有至少一个云计算机(例如多个可操作式互连的云计算机,如服务器群)的系统。这种云计算机优选地连接到诸如万维网(WWW)等的广域网,并位于全部连接到万维网的所谓的计算机云中。这种基础设施用于“云计算”,其描述了不要求终端用户知道提供特定服务的计算机的物理位置和/或配置的那些计算、软件、数据访问和存储服务。例如,术语“云”就此用来隐喻因特网(万维网)。例如,云提供计算基础设施即服务(IaaS)。云计算机可以用作用于执行本发明方法的操作系统和/或数据处理应用的虚拟主机。云计算机例如是由亚马逊网络服务(Amazon Web ServicesTM)TM提供的弹性计算云(EC2)。计算机例如包括接口,以便接收或输出数据和/或执行模数转换。该数据例如是表示物理特性和/或由技术信号生成的数据。技术信号例如通过(技术)检测装置(例如用于检测标记装置的装置)和/或(技术)分析装置(例如用于执行(医学)成像方法的装置)来生成,其中,技术信号是例如电信号或光信号。技术信号例如表示由计算机接收或输出的数据。计算机优选可操作地耦合到显示装置,该显示装置允许将计算机输出的信息显示给例如用户。显示装置的一示例是虚拟现实装置或增强现实装置(又称为虚拟现实眼镜或增强现实眼镜),其可以用作用于导引的“护目镜”。这种增强现实眼镜的具体示例是谷歌眼镜(Google,Inc.旗下的商标品牌)。增强现实装置或虚拟现实装置既可用于通过用户交互将信息输入到计算机中,又可用于显示由计算机输出的信息。显示装置的另一示例是例如包括液晶显示屏的标准计算机监控器,该标准计算机监控器可操作地耦合到用于从生成信号的计算机接收显示控制数据的计算机,以在显示装置上显示图像信息内容。这种计算机监控器的具体实施例是数字灯箱。这种数字灯箱的示例是其为Brainlab AG产品。监控器还可以是例如手持的便携式装置(如智能电话或个人数字助理或数字媒体播放器)的监控器。
本发明还涉及一种包括指令的计算机程序,当由计算机执行程序时,这些指令使计算机执行本文所述的一种或多种方法,例如一种或多种方法的步骤;和/或本发明涉及一种存储该程序的计算机可读存储介质(例如非瞬时性计算机可读存储介质);和/或本发明涉及一种包括所述程序存储介质的计算机;和/或本发明涉及一种载有表示程序(例如上述程序)的信息的(例如以技术手段生成的物理性、例如电)信号波,例如数字信号波,如电磁载波,该程序例如包括适于执行本文所述的任意或全部方法步骤的代码手段。在一示例中,信号波是载有上述计算机程序的数据载波信号。本发明还涉及一种计算机,该计算机包括至少一个处理器和/或上述计算机可读存储介质以及例如存储器,其中,该程序由处理器来执行。
在本发明的框架内,计算机程序元素可以通过硬件和/或软件(这包括固件、驻留软件、微代码等)来体现。在本发明的框架内,计算机程序元素可以采取计算机程序产品的形式,该计算机程序产品可以通过计算机可用、例如计算机可读的数据存储介质来体现,该数据存储介质包括计算机可用、例如计算机可读的程序指令,在所述数据存储介质中体现的“代码”或“计算机程序”用于在指令执行系统上或与指令执行系统结合使用。这种系统可以是计算机;计算机可以是包括用于执行根据本发明的计算机程序单元和/或程序的手段的数据处理装置,例如包括执行计算机程序单元的数字处理器(中央处理单元或CPU)的数据处理装置,以及可选地包括用于存储用于执行计算机程序单元和/或通过执行计算机程序单元生成的数据的易失性存储器(例如随机存取存储器或RAM)的数据处理装置。在本发明的框架内,计算机可用、例如计算机可读的数据存储介质可以是任何数据存储介质,其可以包括、存储、通信、传播或传输那些指令执行系统、设备或装置上使用或与之结合使用的程序。计算机可用、例如计算机可读的数据存储介质例如可以是但不限于电子、磁、光、电磁、红外或半导体系统、设备或装置,或者是诸如因特网等的传播介质。计算机可用或计算机可读的数据存储介质甚至可以是例如可打印程序的纸张或其他合适介质,因为程序可以通过电子方式获取,例如通过光学扫描该纸张或其他合适介质,然后再编译、解释或以适当方式另行处理。数据存储介质优选地为非易失性数据存储介质。本文所述的计算机程序产品和任何软件和/或硬件形成用于在示例实施例中执行本发明的功能的各种手段。计算机和/或数据处理装置可以例如包括指导信息装置,该指导信息装置包括用于输出指导信息的手段。指导信息可以例如在视觉上通过视觉指示手段(例如,监控器和/或灯)和/或在听觉上通过听觉指示手段(例如,扬声器和/或数字语音输出装置)和/或在触觉上通过触觉指示手段(例如,振动元件或并入仪器中的振动元件)输出给用户。出于本文件的目的,计算机是技术计算机,该技术计算机例如包括诸如有形组件,例如机械组件和/或电子组件等的技术组件。本文件中照此提及的任何装置都是技术装置并例如是有形装置。
表述“获取数据”例如包括(在计算机实施的方法的框架内)由计算机实施的方法或程序确定数据的场景。确定数据例如包括测量物理量并将所测得的值变换成数据,例如数字数据,和/或借助于计算机并例如在根据本发明的方法的框架内计算(例如输出)该数据。如本文所述的“确定”步骤例如包括发出执行本文所述的确定的命令或由其组成。例如,该步骤包括发出使计算机(例如远程计算机,例如远程服务器,例如云中)执行确定的命令或由其组成。替代地或附加地,本文所述的“确定”步骤例如包括以下步骤或由其组成:接收由本文所述的确定的结果数据,例如从远程计算机(例如从使其执行确定的远程计算机)接收结果数据。“获取数据”的含义还例如包括以下场景:例如从另一程序、先前的方法步骤或数据存储介质通过(例如输入到)计算机实施的方法或程序来接收或检索数据,例如用于通过计算机实施的方法或程序进行进一步处理。待获取数据的生成可以但不必是根据本发明的方法的一部分。因此,表述“获取数据”还可以例如表示等待接收数据和/或接收数据。所接收的数据可以例如经由接口来输入。表述“获取数据”还可以表示计算机实施的方法或程序执行步骤以便(主动地)从譬如数据存储介质(如ROM、RAM、数据库、硬盘驱动器等)的数据源或经由接口(譬如从另一计算机或网络)接收或检索数据。分别通过本公开的方法或装置获取的数据可从位于数据存储装置中的数据库获取,该数据存储装置可操作地连接到计算机以便进行数据库与计算机之间的数据传输,例如从数据库到计算机的数据传输。计算机获取数据以用作“确定数据”步骤的输入。所确定的数据可以再次输出到相同的或另一数据库以便存储以供后续使用。该数据库或用于实施本公开方法的数据库可以位于网络数据存储装置或网络服务器(例如,云数据存储装置或云服务器)或本地数据存储装置(例如可操作地连接到至少一个执行本公开方法的计算机的大容量存储装置)。数据可以通过在获取步骤之前执行附加步骤的方式来实现“就绪”状态。根据该附加步骤,生成数据以供获取。数据例如是被检测或获取的(例如,通过分析装置)。替代地或附加地,根据附加步骤(譬如经由接口)来输入数据。例如可以输入所生成的数据(譬如,输入到计算机中)。根据附加步骤(其在获取步骤之前进行),也可以通过执行将数据存储于数据存储介质(如ROM、RAM、CD和/或硬盘驱动器)的附加步骤来提供数据,从而在根据本发明的方法或程序的框架内,使数据就绪。因此,“获取数据”的步骤还可以涉及命令装置来获取和/或提供待获取的数据。特别地,获取步骤不涉及代表对身体有实质性物理干预的创伤性步骤,,创伤性步骤需要对身体采取专业医疗措施,而即使采取了所要求的专业护理和措施,身体仍可能承受重大健康风险。特别是,获取数据的步骤(例如确定数据)不涉及外科手术步骤,特别是不涉及利用外科手术或疗法来治疗人体或动物躯体的步骤。为了区分本方法使用的不同数据,将数据表示为(即称为)“XY数据”等,并根据它们描述的信息来定义,然后优选地将其称为“XY信息”等。
优选地,获取描述(例如定义、更特别地表示和/或作为)解剖学身体部位的大体三维形状的图谱数据。因此,图谱数据表示解剖学身体部位的图谱。图谱通常由多个对象通用模型组成,其中,这些对象通用模型一起形成复合结构。例如,图谱构成了患者身体(例如身体的一部分)的统计模型,该统计模型已根据从多个人体收集的解剖信息而生成,例如根据包含了这些人体的图像的医学图像数据而生成。因此,原则上,图谱数据表示多个人体的这种医学图像数据的统计分析结果。这个结果可以作为图像输出-因此图谱数据包含或相当于医学图像数据。这种比较可以例如通过应用图像融合算法来执行,其中该图像融合算法在图谱数据与医学图像数据之间进行图像融合。比较结果可以是在图谱数据与医学图像数据之间的相似性度量。图谱数据包括图像信息(例如位置图像信息),该图像信息可以与例如包含在医学图像数据中的图像信息(例如位置图像信息)相匹配(例如通过应用弹性或刚性图像融合算法),以便例如将图谱数据与医学图像数据进行比较,以确定医学图像数据中对应于由图谱数据定义的解剖结构的解剖结构的位置。
人体(其解剖结构用作生成图谱数据的输入)有利地共享共同特征,如性别、年龄、种族、身体测量值(例如身高和/或体重)以及病理状态中的至少一个。解剖信息例如描述人体解剖结构,并例如从关于人体的医学图像信息中提取。例如,股骨的图谱可以包括股骨头、股骨颈、身体、股骨大转子、股骨小转子以及下肢,作为一起构成完整结构的对象。例如,脑部的图谱可以包括端脑、小脑、间脑、脑桥、中脑以及延髓,作为一起构成复杂结构的对象。这种图谱的一个应用是在医学图像分割中,其中图谱与医学图像数据相匹配,并且将图像数据与所匹配的图谱进行比较,以便将图像数据的点(像素或体素)分配给所匹配的图谱的对象,从而将图像数据分割成对象。
例如,图谱数据包括解剖学身体部位的信息。该信息例如是患者特定的、非患者特定的、适应症特定的或非适应症特定的中的至少一个。因此,图谱数据描述例如患者特定、非患者特定、适应症特定或非适应症特定图谱中的至少一个。例如,图谱数据包括指示解剖学身体部位相对于给定基准(例如,另一解剖学身体部位)的移动自由度的移动信息。例如,图谱是多模式图谱,其定义多个(即至少两个)成像模式的图谱信息,并包含不同成像模式下的图谱信息之间的映射(例如全部模式之间的映射),使得这些图谱可用于将医学图像信息从其在第一成像模式下的图像描绘变换为其在不同于第一成像模式的第二成像模式下的图像描绘,或者将不同的成像模式相互比较(例如匹配或配准)。
在医学领域,使用成像方法(又称为成像模式和/或医学成像模式)来生成人体解剖结构(如软组织、骨骼、器官等)的图像数据(例如二维或三维图像数据)。术语“医学成像方法”应理解为意指(有利地基于设备的)成像方法(例如所谓的医学成像模式和/或放射成像方法),譬如计算机断层扫描(CT)和锥形束计算机断层扫描(CBCT,如体积CBCT)、x射线断层扫描、磁共振断层扫描(MRT或MRI)、常规x射线、超声波扫描和/或超声波检查以及正电子发射断层扫描。例如,医学成像方法由分析装置来执行。通过医学成像方法应用的医学成像模式的示例为:x射线、磁共振成像、医学超声波扫描或超声波、内窥镜检查、弹性成像、触觉成像、热成像、医学摄影和例如正电子发射断层扫描(PET)和单光子发射计算机断层扫描(SPECT)的核医学功能成像技术。由此生成的图像数据又称为“医学成像数据”。分析装置例如用于在基于设备的成像方法中生成图像数据。成像方法例如用于分析解剖学身体结构的医学诊断,以生成由图像数据描述的图像。成像方法还例如用于检测人体中的病理变化。然而,可能无法检测到解剖结构中的一些变化,如结构(组织)中的病理变化,并例如在通过成像方法生成的图像中这种变化可能是不可见。肿瘤表示解剖结构中变化的示例。如果肿瘤生长,则可认为其表示扩张的解剖结构。可能无法检测到该扩张的解剖结构,例如,可能只有一部分扩张的解剖结构能被检测到。例如,当使用造影剂渗入肿瘤时,早期/晚期脑肿瘤通常在MRI扫描中可见。MRI扫描表示成像方法的一示例。在对这类脑肿瘤进行MRI扫描的情况下,认为MRI图像中的信号增强(因造影剂渗入肿瘤而导致)代表了固体肿瘤块。因此,可检测到肿瘤,并例如在通过成像方法生成的图像中可辨别出肿瘤。除了称为“增强”肿瘤的这些肿瘤之外,认为大约10%的脑肿瘤在扫描中无法辨别,并例如对于观察通过成像方法生成的图像的用户不可见。
映射描述将在第一坐标系中第一数据集的元素(例如像素或体素,例如元素位置)变换(例如线性变换)为在第二坐标系中第二数据集的元素(例如像素或体素,例如元素位置);(第二坐标系的基础与第一坐标系的基础不同)。在某一实施例中,该映射通过借助弹性或刚性融合算法比较(例如匹配)各个元素的色值(例如灰度值)来确定。该映射例如由变换矩阵(如定义仿射变换的矩阵)体现。
指针例如是杆,其包括一个或多个有利地为两个固定在该杆上的标记,并可用于在身体的一部分上测量单个坐标,例如空间坐标(即三维坐标),其中,用户将指针(例如,相对于附接到指针的至少一个标记具有限定且有利地固定位置的指针的一部分)引导到对应于坐标的位置,使得可以通过使用导引系统(也称为位置跟踪系统)来确定指针的位置,以例如光学地或电磁地检测指针上的标记。例如,指针的标记与用于测量坐标的指针部分(例如,指针的尖端)之间的相对位置是已知的。然后,手术导引系统能够将(三维坐标的)位置分配给预定的身体结构,其中,可以自动或通过用户干预进行分配。在另一示例中,指针是光指针(例如激光指针),其通过用窄光束照射来识别位置。
附图说明
在下文中,参照附图对本发明予以描述,这些附图给予本发明背景说明并表示本发明的具体实施例。但本发明的范围并不限于在附图的上下文中公开的具体特征,其中:
图1说明了根据第一方面的方法的基本流程图;
图2示出了根据第一方面的方法的应用;以及
图3是根据第五方面的系统的示意图。
具体实施方式
图1说明了根据第一方面的方法的基本步骤,其中,步骤S1包括获取初始生物力学模型数据,步骤S2包括获取工作流程步骤数据,随后的步骤S3包括确定状态变化数据。然后,该方法继续在步骤S4中获取模型适应性数据以及在步骤S5中确定适应性生物力学模型数据。
图2描述了根据第一方面的方法的应用。获取工作流程数据4,并确定当前工作流程数据,以便对应地适应生物力学模型10。工作流程数据4也可用作以下步骤的基础:触发7输入其他过程内数据8,或使用9其他过程内数据8以适应生物力学模型10,该生物力学模型10最初是通过根据图谱数据12生成11模型而生成。适应性生物力学模型10也可用于反馈到工作流程中,以便根据适应性生物力学模型10来确定当前工作流程步骤,例如,确定是否用最新的图像数据代替工作流程步骤数据作为适应生物力学模型10的基础。当前工作流程步骤可以根据作为视频数据1的图像数据或使用跟踪成像装置2(如显微镜)或根据过程内数据8而确定6。图像数据也可用于直接适应生物力学模型10。当前工作流程步骤也可用于例如使用断层扫描仪5来启动成像,其中,所生成的图像可用作适应生物力学模型10的基础。当前工作流程步骤也可用作使用跟踪仪器3来启动获取位置数据的基础。使用断层扫描仪5生成的图像数据也可用于确定当前工作流程步骤。当前工作流程步骤也可用于启动用于生成图像数据1的视频相机或跟踪成像装置2的操作。对跟踪指针3的使用也可用作确定当前工作流程步骤的基础。
图3是根据第五方面的医疗系统13的示意图。该系统整体上由附图标记13标识,并包括计算机14以及用于至少存储患者数据的电子数据存储装置(如硬盘)15。医疗系统13的组件具有上文关于本公开第五方面说明的功能和特性。
下述示例性方面也是本发明可能实施例的一部分。
-初始生物力学模型数据是基于图谱中存储的组织类型(例如组织类别)的物理(例如机械)特性而生成。
-工作流程步骤数据可基于以下生成:术中图像数据(例如,来自x射线装置、荧光透视装置、x射线断层扫描仪、磁共振断层扫描仪、C型臂),术中视频数据(例如,来自手术部位视野的内窥镜、显微镜、外视镜或外置相机),超声图像数据,仪器或成像装置的位置、速度和加速度(例如,作为时间的函数)。工作流程步骤数据可基于术中视频数据的内容,如图像中仪器或植入物或解剖对象的位置或速度或加速度(例如,作为时间的函数)。
-工作流程步骤数据还可基于其他术中数据或过程内数据,如手术室中装置的状态,例如“打开”或“关闭”,该装置可例如是麻醉装置。患者生理数据。
-工作流程步骤数据可通过使用模式与工作流程步骤之间的预定关系来比较术中数据与预定准则(如其他术中图像数据、视频数据或其他术中数据的预定模式)而确定。
-工作流程步骤数据也可使用学习算法来确定。在学习阶段中,手动标记事件,并将这些事件与术中数据共同输入到学习算法中。学习算法例如是基于卷积神经网络或递归神经网络。在学习阶段之后的学习算法的使用阶段中,输入术中数据,并基于学习阶段期间所获取的学习数据通过学习算法输出事件。
-工作流程步骤数据也可基于所存储的针对所执行的过程类型的工作流程。存储的这类工作流程包括数个预定步骤。
-当前工作流程步骤例如是开硬脑膜、进行切除术、进行穿颅术、安装引流、安置患者、使用抽吸装置、抽吸脑脊液、清除组织、施用药物。
-状态变化数据例如包括已开硬脑膜、已进行切除术、仪器已就位。
-手持或手动引导或自动引导的成像装置例如是超声探头、显微镜或内窥镜。
-为了支持手持装置的图像采集,可在显示器(例如增强现实显示器)上向用户指示ROI。
Claims (26)
1.一种使患者的解剖学身体部位的生物力学模型适应于所述患者的当前状态的计算机实施的方法,所述方法包括以下步骤:
a)获取初始生物力学模型数据(S1),所述初始生物力学模型数据描述所述解剖学身体部位的初始生物力学模型;
b)获取工作流程步骤数据(S2),所述工作流程步骤数据描述所述患者身上待执行过程的当前工作流程步骤;
c)基于所述工作流程步骤数据和所述初始生物力学模型数据来确定状态变化数据(S3),其中,所述状态变化数据描述所述患者的状态变化;
d)获取模型适应性数据(S4),所述模型适应性数据描述所述患者的所述状态变化与待应用于所述初始生物力学模型的适应性之间的关联性;
e)基于所述初始生物力学模型数据和所述状态变化数据以及所述模型适应性数据来确定适应性生物力学模型数据(S5),其中,所述适应性生物力学模型数据描述通过对所述初始生物力学模型应用所述适应性而确定的适应性生物力学模型。
2.根据前一项权利要求所述的方法,包括步骤:
基于所述状态变化数据来获取关注区域数据,其中,所述关注区域描述对其待执行过程(例如上述过程)的区域,例如解剖学区域。
3.根据前一项权利要求所述的方法,包括:
基于所述关注区域数据来获取仪器位置数据,所述仪器位置数据描述导引仪器的位置,和/或
基于所述关注区域数据来获取医学图像数据,所述医学图像数据描述所述患者的至少一部分,例如所述解剖学身体部位。
4.根据前一项权利要求所述的方法,包括:
获取所述医学图像数据,其中,用于生成所述医学图像数据的所述成像装置是手持或手动引导或头戴式或自动引导的,所述成像装置例如是超声波成像探头、三维图像生成扫描仪、或手持或手动引导或头戴式或固定的红外照相机。
5.根据权利要求3所述的方法,包括:
获取所述仪器位置数据,其中,基于所述仪器位置数据来确定所述适应性生物力学模型数据,和/或
获取所述医学图像数据,其中,基于所述医学图像数据来确定所述适应性生物力学模型数据。
6.根据前述权利要求中的任一项所述的方法,包括步骤:
基于所述状态变化数据来确定成像控制数据,其中,所述成像控制数据描述待发布给医学成像装置的命令,以拍摄所述解剖学身体部位的至少一部分的图像。
7.根据前一项权利要求所述的方法,其中,所述解剖学身体部位中的待成像部分取决于所述患者的状态变化的类型。
8.根据前两项权利要求中的任一项所述的方法,其中,所述解剖学身体部位中的待成像部分在解剖学上对应于所述生物力学模型中适应于确定所述适应性生物力学模型数据的部分。
9.根据前三项权利要求中的任一项所述的方法,其中,将所述成像控制数据传输到所述医学成像装置并执行以便确定所述医学图像数据,所述医学图像数据描述所述解剖学身体部位中的待成像部分的医学图像。
10.根据前述权利要求中的任一项所述的方法,包括步骤:
基于所述状态变化数据来确定仪器引导数据,其中,所述仪器引导数据描述仪器待定位的位置。
11.根据前一项权利要求所述的方法,其中,所述仪器是导引仪器,例如指向装置。
12.根据前述权利要求中的任一项所述的方法,包括步骤:
基于所述状态变化数据来确定成像装置引导数据,其中,所述成像装置引导数据描述医学成像装置待定位的位置。
13.根据前述权利要求中的任一项所述的方法,其中,所述生物力学模型是所述解剖学身体部位的有限元模型或耦合弹簧模型,并且其中,所述适应性生物力学模型数据通过改变所述有限元模型或耦合弹簧模型的边界条件而确定,例如分别是通过移动节点、更改或添加或删除质点、或者更改或添加或删除力。
14.根据前述权利要求中的任一项所述的方法,其中,所述初始生物力学模型数据已基于对描述所述解剖学身体部位的数字医学图像的患者图像数据进行基于图谱的分割而生成。
15.根据前述权利要求中的任一项所述的方法,其中,所述解剖学身体部位包括脑部的至少一部分或肝脏的至少一部分。
16.根据前述权利要求中的任一项所述的方法,其中,所述患者状态变化是以下至少一项的变化:所述患者身体的位置或几何形态,例如所述解剖学身体部位的位置或几何形态;或者医疗仪器与所述患者身体之间的相对位置,或医疗人员与所述患者身体之间的相对位置;上述位置中至少一个的变化之间的时间;医疗仪器的配置或使用;医疗仪器到达特定位置的时间间隔,或在过程中从预定时间点开始经过的时间间隔。
17.根据前述权利要求中的任一项所述的方法,包括步骤:
获取跟踪数据,所述跟踪数据描述医疗实体,即患者、医疗人员或仪器中至少一个的位置;
获取工作流程步骤定义数据,所述工作流程步骤定义数据描述医疗实体,即患者、医疗人员或仪器中至少一个的至少一个位置与所述患者身上待执行过程的至少一个工作流程步骤之间的关联性;
基于所述跟踪数据和所述工作流程步骤定义,通过以下方式来获取所述工作流程步骤数据:将所述跟踪数据所描述的位置与所述工作流程步骤定义数据进行比较,并且选择与所述跟踪数据所描述的所述医疗实体的位置相对应的医疗实体位置相关联的所述至少一个工作流程步骤作为当前工作流程步骤。
18.根据前一项权利要求所述的方法,其中,所述跟踪数据是通过对至少一个医疗实体进行成像、例如视频成像而生成,所述至少一个医疗实体例如是所述患者、所述解剖学身体部位、医疗人员或医疗仪器中的至少一个。
19.根据前两项权利要求中的任一项所述的方法,其中,所述跟踪数据是通过光学地或电磁地跟踪附接到至少一个医疗实体的至少一个标记装置而生成,所述至少一个医疗实体例如是所述患者、所述解剖学身体部位、医疗人员或医疗仪器中的至少一个。
20.一种包括指令的计算机程序,当由计算机执行所述程序时,所述指令使所述计算机执行前述权利要求中的任一项所述的方法。
21.一种计算机可读存储介质,在其上存储有根据前述权利要求所述的程序。
22.一种计算机,包括至少一个处理器和/或根据前一项权利要求所述的程序存储介质,其中,根据权利要求21所述的程序由所述处理器来执行。
23.一种数据载波信号,其载有根据权利要求21所述的程序。
24.一种数据流,包括根据权利要求21所述的程序。
25.一种医疗系统(13),包括:
a)根据权利要求22所述的至少一个计算机(14);
b)至少一个电子数据存储装置(15),其至少存储所述初始生物力学模型数据和所述模型适应性数据;以及
c)用于对所述患者执行医疗过程的医疗装置(16),
其中,所述至少一个计算机(14)可操作地耦合到所述至少一个电子数据存储装置(15),以用于从所述至少一个数据存储装置中至少获取所述初始生物力学模型数据和所述模型适应性数据,并且用于将所述适应性生物力学模型数据存储在所述至少一个数据存储装置(15)中。
26.根据前一项权利要求所述的系统进行医疗过程的用途,其中,所述用途包括执行根据前述权利要求中的任一项所述的方法的步骤,以使患者的解剖学身体部位的生物力学模型适应于所述患者的当前状态。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2019/086073 WO2021121586A1 (en) | 2019-12-18 | 2019-12-18 | Using a current workflow step for control of medical data processing |
EPPCT/EP2019/086073 | 2019-12-18 | ||
PCT/EP2020/085983 WO2021122456A1 (en) | 2019-12-18 | 2020-12-14 | Using a current workflow step for control of medical data processing |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114786609A true CN114786609A (zh) | 2022-07-22 |
Family
ID=69061359
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980076158.8A Pending CN113557518A (zh) | 2019-12-18 | 2019-12-18 | 使用当前工作流步骤控制医疗数据处理 |
CN202080086597.XA Pending CN114786609A (zh) | 2019-12-18 | 2020-12-14 | 使用当前工作流程步骤以用于控制医疗数据处理 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980076158.8A Pending CN113557518A (zh) | 2019-12-18 | 2019-12-18 | 使用当前工作流步骤控制医疗数据处理 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11877809B2 (zh) |
EP (3) | EP4111997A1 (zh) |
CN (2) | CN113557518A (zh) |
WO (2) | WO2021121586A1 (zh) |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PL2023812T3 (pl) * | 2006-05-19 | 2017-07-31 | The Queen's Medical Center | Układ śledzenia ruchu dla adaptacyjnego obrazowania w czasie rzeczywistym i spektroskopii |
US9922417B2 (en) * | 2013-03-15 | 2018-03-20 | Synaptive Medical (Barbados) Inc. | System and method for detecting tissue and fiber tract deformation |
CN105828875B (zh) * | 2013-10-16 | 2019-08-20 | 皇家飞利浦有限公司 | 利用生物机械模型估计器官的位置 |
EP4343707A3 (en) * | 2014-05-15 | 2024-04-24 | Brainlab AG | Indication-dependent display of a medical image |
US9786092B2 (en) * | 2015-02-18 | 2017-10-10 | The Regents Of The University Of California | Physics-based high-resolution head and neck biomechanical models |
JP6918794B2 (ja) * | 2015-11-10 | 2021-08-11 | ハートフロー, インコーポレイテッド | 解剖モデリングシステム及びその作動方法 |
US20170235915A1 (en) * | 2016-02-17 | 2017-08-17 | Siemens Healthcare Gmbh | Personalized model with regular integration of data |
US10610302B2 (en) * | 2016-09-20 | 2020-04-07 | Siemens Healthcare Gmbh | Liver disease assessment in medical imaging |
US11504019B2 (en) * | 2016-09-20 | 2022-11-22 | Heartflow, Inc. | Systems and methods for monitoring and updating blood flow calculations with user-specific anatomic and physiologic sensor data |
US11382603B2 (en) * | 2018-05-07 | 2022-07-12 | Siemens Healthcare Gmbh | System and methods for performing biomechanically driven image registration using ultrasound elastography |
-
2019
- 2019-12-18 US US17/281,478 patent/US11877809B2/en active Active
- 2019-12-18 EP EP22191133.2A patent/EP4111997A1/en active Pending
- 2019-12-18 CN CN201980076158.8A patent/CN113557518A/zh active Pending
- 2019-12-18 EP EP19829147.8A patent/EP3863551B1/en active Active
- 2019-12-18 WO PCT/EP2019/086073 patent/WO2021121586A1/en unknown
-
2020
- 2020-12-14 EP EP20821030.2A patent/EP4076248A1/en active Pending
- 2020-12-14 US US17/786,879 patent/US20230016429A1/en active Pending
- 2020-12-14 WO PCT/EP2020/085983 patent/WO2021122456A1/en unknown
- 2020-12-14 CN CN202080086597.XA patent/CN114786609A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2021122456A1 (en) | 2021-06-24 |
EP4076248A1 (en) | 2022-10-26 |
CN113557518A (zh) | 2021-10-26 |
US20230016429A1 (en) | 2023-01-19 |
US11877809B2 (en) | 2024-01-23 |
EP4111997A1 (en) | 2023-01-04 |
EP3863551A1 (en) | 2021-08-18 |
US20220110693A1 (en) | 2022-04-14 |
EP3863551B1 (en) | 2022-11-23 |
WO2021121586A1 (en) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3593227B1 (en) | Augmented reality pre-registration | |
US11682115B2 (en) | Atlas-based location determination of an anatomical region of interest | |
EP3824475B1 (en) | Automatic setting of imaging parameters | |
EP3328305B1 (en) | Microscope tracking based on video analysis | |
EP3529808B1 (en) | Planning an external ventricle drainage placement | |
US11393098B2 (en) | Constrained object correction for a segmented image | |
JP2023036805A (ja) | 人体部分の撮像方法、コンピュータ、コンピュータ読み取り可能記憶媒体、コンピュータプログラム、および医療システム | |
US11928828B2 (en) | Deformity-weighted registration of medical images | |
US20230016429A1 (en) | Using a current workflow step for control of medical data processing | |
US20220183759A1 (en) | Determining a surgical port for a trocar or laparoscope | |
WO2019238230A1 (en) | Registration of an anatomical body part by detecting a finger pose | |
US11501442B2 (en) | Comparison of a region of interest along a time series of images | |
CA2995176C (en) | Microscope tracking based on position and image data | |
IL310322A (en) | Determining the level of the spine using augmented reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |