CN106156398A - 用于计算机辅助地模拟外科手术的设备和方法 - Google Patents
用于计算机辅助地模拟外科手术的设备和方法 Download PDFInfo
- Publication number
- CN106156398A CN106156398A CN201610313194.XA CN201610313194A CN106156398A CN 106156398 A CN106156398 A CN 106156398A CN 201610313194 A CN201610313194 A CN 201610313194A CN 106156398 A CN106156398 A CN 106156398A
- Authority
- CN
- China
- Prior art keywords
- biomechanics
- bms
- structural model
- anatomic region
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/23—Design optimisation, verification or simulation using finite element methods [FEM] or finite difference methods [FDM]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B23/00—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
- G09B23/28—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Z—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
- G16Z99/00—Subject matter not provided for in other main groups of this subclass
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00207—Electrical control of surgical instruments with hand gesture control or hand gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
- A61B2034/104—Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/0037—Performing a preliminary scan, e.g. a prescan for identifying a region of interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
- A61B5/0044—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the heart
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0073—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by tomography, i.e. reconstruction of 3D images from 2D projections
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Robotics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Radiology & Medical Imaging (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Data Mining & Analysis (AREA)
- Physiology (AREA)
- Databases & Information Systems (AREA)
- Dentistry (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Algebra (AREA)
- Medicinal Chemistry (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
Abstract
本发明涉及用于计算机辅助地模拟外科手术的设备和方法。按照本发明,第一接口被设置用于读入解剖区域的借助于医学成像方法所获得的图像数据。建模模块用于依据所述图像数据确定解剖区域的生物力学的体积结构模型。除此之外,可与摄像机耦合的跟踪模块被设置用于基于视频地检测使用者的空间手势。此外,基于所述生物力学的结构模型的模拟模块用于将所检测到的手势分配给所模拟的对解剖区域的力学作用、模拟解剖区域对所模拟的力学作用的力学反应以及按照所模拟的力学反应修正所述生物力学的结构模型。除此之外,可视化模块被设置用于使所述生物力学的结构模型体积可视化。
Description
技术领域
本发明涉及一种用于计算机辅助地模拟外科手术的设备和方法。
背景技术
在临床实践中,通常依据医学图像记录结合来自临床指南的推荐来规划外科手术。然而,一个或者多个进行实施的外科医生的经验在手术的规划以及在手术的成功上起本质作用。很多手术(诸如心脏瓣膜修复)在特别的程度上要求好的规划、经验和外科技巧。因而值得去追求的是:在规划手术时和在训练手术时尽可能好地辅助外科医生。
公知的是:为了规划外科手术而采用决策辅助系统(Entscheidungsunterstuetzungssystem),所述决策辅助系统以借助于生物力学模型对生理上的结构和功能(诸如心脏瓣膜)的模拟为基础。心脏瓣膜的这样的生物力学模拟例如从文献US 2010/0240996 A1和US 2012/0232386 A1中是公知的。通过这样的模拟,外科手术的效果可以被估计并且被用于规划手术。然而,使用这样的模拟工具由于其复杂性通常要求花费高的入门培训(Einarbeitung)。
此外,例如从Surgevry公司的网页http://www.surgevry.com还公知的是:为了训练外科手术而利用被固定在外科医生的头部上的摄像机记录真实的外科手术并且将最终得到的视频流传输到观察者,所述观察者因此可以从进行实施的外科医生的角度来追踪该手术。然而,这只允许观察者被动地训练手术。
发明内容
本发明的任务是:说明一种用于计算机辅助地模拟外科手术的设备和方法,所述设备和方法允许更好地辅助外科医生。
该任务通过一种具有专利权利要求1所述的特征的设备、通过一种具有专利权利要求12所述的特征的方法、通过一种具有专利权利要求13所述的特征的计算机程序产品以及通过一种具有专利权利要求14所述的特征的计算机可读的存储介质来解决。
在按照本发明的用于计算机辅助地模拟外科手术的设备中,第一接口被设置用于读入解剖区域的借助于医学成像方法所获得的图像数据。在这种情况下,图像数据例如可源自超声描记的、放射学的、血管造影的或者断层成像的图像记录。解剖区域例如可以是器官、器官区域或者另一组织或者身体结构。建模模块用于依据图像数据确定解剖区域的生物力学的体积(volumetrisch)结构模型。除此之外,可与摄像机耦合的跟踪模块还被设置用于基于视频地检测使用者的空间手势。此外,模拟模块还用于依据生物力学的结构模型将相应的被检测到的手势分配到所模拟的对解剖区域的力学作用,用于依据生物力学的结构模型模拟解剖区域对所模拟的力学作用的力学反应以及用于按照所模拟的力学反应修正所述生物力学的结构模型。除此之外,可视化模块还被设置用于使生物力学的结构模型体积可视化。优选地,该可视化模块尤其是使解剖区域的力学反应和/或经修正的生物力学的结构模型可视化。
要由在上文所描述的设备来实施的方法步骤是按照本发明的用于计算机辅助地模拟外科手术的方法的主题。
要看到本发明的重要的优点在于:使用者(例如外科医生)不仅关于他的手动实施而且关于他的可视化都可比较切合实际地模拟外科手术。他尤其是可以在生物力学的结构模型上进行与在真正的手术时基本上相同的操作。以这种方式,该外科医生可以测试各种治疗选项并且这样来确定最优的处理方式。因此,本发明允许:不仅在规划手术时而且在训练手术时都以直观的方式来辅助外科医生。
本发明的有利的实施形式和扩展方案在从属权利要求中被说明。
根据本发明的一有利的实施形式,跟踪模块可被设立为检测使用者的利用外科器械(例如手术刀)来实施的手势。尤其是可以检测外科器械的一个或者多个特定的部分、例如手术刀的刀刃和/或手柄的运动。这在使用者可以在模拟的范围内如在真正的手术时那样运用外科器械的程度上是有利的。
此外,触觉感知(haptisch)接口还可以被设置用于将所模拟的力学反应以触觉感知的方式输出给使用者。这允许:关于解剖区域对所模拟的力学作用的所模拟的力学反应的对于使用者来说可直接的并且可切合实际地感觉到的反馈。
根据本发明的一有利的扩展方案,模拟模块可被设立为依据生物力学的结构模型来模拟外科手术对解剖区域的解剖功能的效果。在这种情况下,输出接口可被设置用于显示所模拟的效果。以这种方式,可以预测或者至少估计手术的结果。因此,使用者可以测试各种治疗选项并且确定关于结果的最优的处理方式。
有利地,生物力学的结构模型可以是患者特定的。这允许患者特定地规划手术和患者特定地训练手术。
根据一有利的实施形式,该生物力学的结构模型可包括有限元模型(Finite-Elemente-Modell)。多个可支配的、完全成熟的软件工具可被用于有效地制订和计算这样的有限元模型。
除此之外,建模模块还可被设立为依据连续地被读入的图像数据使该生物力学的结构模型动态地适配。
此外,第一接口可被设立为以时间分辨的方式(zeitaufgeloest)读入图像数据。与此相应地,该建模模块可被设立为:依据时间分辨的图像数据识别解剖区域的子结构的运动动力学以及依据所识别出的运动动力学来导出该子结构的物理特性并且在生物力学的结构模型中映射该子结构的物理特性。以这种方式,可以获得解剖区域及其对力学作用的力学反应的比较精确的物理模拟。
建模模块尤其是可以包括用于机器学习的模块,该用于机器学习的模块被设立用于识别子结构的运动动力学、用于导出子结构的物理特性和/或用于在生物力学的结构模型中映射该物理特性。这种用于机器学习的模块例如可以包括人工神经网络和/或所谓的概率推进树(Probabilistic Boosting
Tree)。
除此之外,可视化模块还可被构建为用于显示虚拟的和/或增强的现实的沉浸式系统(immersives System)。可替换地或者附加地,该可视化模块也可被构建为全息照相的和/或立体照相的可视化系统。这样的可视化模块在模拟的范围内提高了使用者的现实印象。
附图说明
本发明的实施例随后依据附图进一步被解释。在此,分别以示意图:
图1示出了按照本发明的模拟设备,
图2示出了用于阐明按照本发明的方法的流程的流程图,和
图3示出了与解剖区域的虚拟的相互作用的可视化。
具体实施方式
在图1中示意性地示出了按照本发明的用于模拟外科手术的模拟设备SIMS。该模拟设备SIMS拥有处理器PROC和/或一个或者多个另外的用于实施按照本发明的方法的计算装置。医学图像记录装置US通过第一接口I1被耦合到模拟设备SIMS上。该图像记录装置US例如可以是超声记录装置、X射线管、磁共振断层扫描仪或者提供解剖区域、例如器官、器官区域或者其它的身体和/或组织结构的图像记录的另一医学记录装置。图像记录装置US被设立为:连续地记录相应的解剖区域的时间分辨的、优选地体积的图像记录并且将所述图像记录作为时间分辨的、优选地体积的图像数据IMG连续地通过第一接口I1传送给模拟设备SIMS。
针对本实施例会假设:心脏瓣膜在其解剖环境和/或其解剖功能语境(Funktionskontext)中通过图像记录装置US被记录为解剖区域AR。在这种情况下,该解剖区域AR、也就是说该心脏瓣膜的图像数据IMG例如作为图像记录装置US的视频数据流被传送到模拟装置SIMS的建模模块MM。
建模模块MM用于依据图像数据IMG来确定解剖区域AR的生物力学的体积结构模型BMS。只要生物力学的结构模型BMS依据患者的解剖区域AR的图像数据IMG被确定,该生物力学的结构模型BMS就是患者特定的。优选地,该生物力学的结构模型BMS包括有限元模型。
为了确定生物力学的结构模型BMS,时间分辨的图像数据IMG通过建模模块MM被分析。在这种情况下,解剖区域AR的一个或者多个子结构例如借助于已知的模式识别方法被识别并且这些子结构的运动动力学被确定。依据所识别的运动动力学,该生物力学的结构模型BMS或者必要时所基于的有限元模型例如借助于数值优化方法一直被修正,直到该生物力学的结构模型BMS再现所识别的运动动力学。可替换地或者附加地,生物力学的结构模型BMS的参数可以依据基于学习的回归方法而根据所识别的运动动力学被估计,其中在学习阶段期间使用数值优化方法。借此,依据所识别的运动动力学,子结构的物理特性可以被导出并且在生物力学的结构模型BMS中被映射。在这种情况下,通过以这种方式例如测量血流,运动动力学尤其是也可以通过使用多普勒效应、例如通过多普勒超声设备被确定。例如子结构的弹性、刚性、密度或者其它的组织参数可以被确定为所述子结构的物理特性。优选地,连续地依据所读入的图像数据IMG通过建模模块MM使该生物力学的结构模型BMS动态地适配。
在本实施例中,建模模块MM包括用于机器学习的模块ML,所述用于机器学习的模块ML用于识别子结构的运动动力学、用于导出子结构的物理特性和/或用于在生物力学的结构模型BMS中映射所述物理特性。在这种情况下,机器学习尤其是可以以解剖区域AR的所识别的子结构与多个已知的解剖结构、它们的运动动力学和/或它们的物理特性的比较为依据。为了该目的,建模模块MM可以与数据库(未示出)耦合并且在学习阶段期间使用该数据库,在所述数据库中存储有多个已知的结构连同它们的运动动力学和已知的物理特性。被存储在数据库中的物理特性可以依据生物力学的结构模型BMS借助于优化方法近似地被确定。
摄像机C通过模拟设备SIMS的第二接口I2被连接。摄像机C用于基于视频地记录使用者、例如外科医生的空间手势。优选地,外科医生的手H在预先给定的或者可调整的空间区域中的利用外科器械、例如手术刀S来实施的运动被记录为手势。最终得到的视频数据流被输送给模拟设备SIMS的跟踪模块TM并且由该跟踪模块TM分析。用手H和手术刀S来实施的手势通过该跟踪模块TM被识别并且被参数化。在这种情况下,尤其是外科器械的、这里也就是说手术刀S的和/或诸如其刀刃和/或手柄那样的其功能单元或者部分的运动被检测并且被追踪。外科器械S的所检测到的手势和运动经过跟踪模块TM通过跟踪信息TI被表示。
优选地,分别针对手术刀S的多个特定部位(例如针对手术刀S的刀刃和/或手柄)以及针对手H的特定部位(例如针对不同的手指、指节、手指关节和/或指尖),跟踪信息TI例如包括手H和手术刀S的位置、取向、运动、运动方向、速度和/或转动。
此外,模拟设备SIMS还拥有用于依据生物力学的结构模型BMS模拟解剖区域AR的模拟模块SM。该生物力学的结构模型BMS由建模模块MM被传送到模拟模块SM。此外,跟踪信息TI由跟踪模块TM传送到模拟模块SM。依据所传送的跟踪信息TI,该模拟模块SM将依据该生物力学的结构模型BMS所模拟的对解剖区域AR的力学作用分配给手H和/或手术刀S的相应的被检测到的手势或相应的运动。这样,手H的指尖在特定方向上的运动例如可以被分配给对解剖区域AR的特定地被分配的部位的力学的压力作用。相对应地,手术刀S的刀刃的所检测到的运动可以被分配给所模拟的在解剖区域AR的特定部位上的切除(Schnitt)。
依据生物力学的结构模型BMS,模拟模块SM模拟解剖区域AR对所模拟的力学作用的力学反应。在这种情况下,尤其是动态地模拟出现的力和变形以及可逆的改变(例如弹性变形)和不可逆的改变(例如组织切除、缝合和/或移植)。按照所模拟的力学反应,生物力学的结构模型通过模拟模块SM被修正。这样,例如在不可逆的虚拟的组织切除时,由于组织切除而彼此分开的组织部分在生物力学的结构模型BMS中彼此虚拟地被分开,使得所分开的切割面在模拟中相互不可以施加拉力而只还可以施加基于摩擦的剪切力。经修正的生物力学的结构模型在图1中用MBMS标明。该经修正的生物力学的结构模型MBMS经过模拟模块SM通过外科医生的连续地被检测到的手势和解剖区域AR的从中导出的力学反应连续地被修正并且在一定程度上根据虚拟的手术变化过程而被更新(nachfuehren)。
除此之外,模拟模块SM依据经修正的生物力学的结构模型MBMS模拟虚拟的外科手术对解剖区域AR的解剖功能的一个或者多个效果。以这种方式可以预测或者至少估计手术的成功或者结果。这种预测尤其是可以通过将经修正的生物力学的结构模型MBMS与多个被存储在数据库中的已知的情况相比较来实现。为了该目的,可以优选地使用用于机器学习的模块ML或者用于机器学习的另一模块。
此外,模拟设备SIMS还拥有用于使生物力学的结构模型BMS和/或经修正的生物力学的结构模型MBMS体积可视化的可视化模块VM。为了该目的,在本实施例中,经修正的生物力学的结构模型MBMS至少部分地由模拟模块SM被传送到可视化模块VM。该可视化模块VM算出经修正的生物力学的结构模型MBMS的体积可视化并且将体积可视化数据VIS输出给屏幕终端T。屏幕终端T通过第三接口I3被耦合到模拟设备SIMS上。可视化模块VM尤其是使解剖区域AR对所模拟的力学作用的力学反应可视化。以这种方式,使用者可以直接识别:该使用者的与所模拟的外科手术相关地被实施的手势对解剖区域AR有哪些被模拟的影响。
优选地,用于显示虚拟的和/或增强的现实的沉浸式系统可被用作屏幕终端T。可替换地或者附加地,可以采用全息照相的和/或立体照相的可视化系统。除此之外,第三接口I3还可用作用于在屏幕终端T上显示外科手术的所模拟的效果的输出接口。
附加地,模拟设备SIMS可具有触觉感知接口(未示出),所述触觉感知接口用于将所模拟的力学反应以触觉感知的方式输出给使用者。这种触觉感知的输出例如可以借助于所谓的机械手套(Robothandschuh)或者主动手套(aktiver handschuh)来实现。
图2以示意图示出了用于阐明按照本发明的方法的流程的流程图。在按照本发明的方法的范围内,首先记录并且检测解剖区域AR的图像数据IMG。依据所检测的图像数据IMG,例如通过估计来确定生物力学的结构模型BMS。接着,借助于生物力学的结构模型BMS可以执行解剖区域AR的物理模拟。接着,例如通过模拟外科手术的治疗模拟可以动用解剖区域AR的物理模拟,以便预测治疗或外科手术的效果。
图3阐明了模拟设备SIMS的使用者与解剖区域AR的虚拟的相互作用的可视化。该可视化包括解剖区域AR的可视化VAR以及由跟踪模块TM检测到的手或其手势的可视化VH。在这种情况下,多个指节的所检测到的位置和取向在可视化VAR中被分配给可视化VH的虚拟的位置和取向。依据解剖区域AR的生物力学的结构模型BMS来实现将指节的位置和取向分配到在可视化VAR中的位置。
通过本发明,优选地在活体内、例如借助于超声心动图(Echokardiographie)所获得的图像数据IMG被用于在计算机中产生解剖区域AR的图示。该图示的几何构型以及其它的参数优选地被转化为有限元模型,借助于所述有限元模型动态地模拟解剖区域AR的生理和/或物理行为。依据在解剖区域AR中的可从图像数据IMG导出的运动动力学或者运动流,患者特定地确定或估计生物力学的结构模型BMS的参数。
在针对外科手术的规划阶段期间,外科医生可以借助于模拟设备SIMS测试不同的行动方式并且模拟和估计所述行动方式对解剖区域AR的解剖功能的相应效果。通过包含和跟踪真正的、以自然的方式被运用的外科器械并且通过优选地使用沉浸式可视化技术,可显著地提高模拟的所感觉到的现实性。使用这种沉浸式模拟系统使得外科医生能够虚拟地在生物力学的结构模型BMS上进行他会在实际的手术时实施的相同的操作。以这种方式,在实现实际的手术之前,该外科医生可以测试和/或结合各种治疗选项,以便这样确定最优的行动方式。除了改进地规划外科手术之外,本发明也允许被改进地训练外科医生。
Claims (14)
1.用于计算机辅助地模拟外科手术的设备(SIMS),其具有:
a) 第一接口(I1),用于读入解剖区域(AR)的借助于医学成像方法所获得的图像数据(IMG),
b) 建模模块(MM),用于依据所述图像数据(IMG)确定解剖区域(AR)的生物力学的体积结构模型(BMS),
c) 与摄像机(C)可耦合的跟踪模块(TM),用于基于视频地检测使用者的空间手势,
d) 模拟模块(SM),其
- 用于依据生物力学的结构模型(BMS)将相应的所检测到的手势分配到所模拟的对解剖区域(AR)的力学作用,
- 用于依据生物力学的结构模型(BMS)模拟解剖区域(AR)对所模拟的力学作用的力学反应,以及
- 用于按照所模拟的力学反应修正生物力学的结构模型(BMS),和
e) 可视化模块(VM),用于使生物力学的结构模型(BMS)体积可视化。
2.根据权利要求1所述的设备,其特征在于,所述跟踪模块被设立为检测使用者的利用外科器械来实施的手势。
3.根据上述权利要求之一所述的设备,其特征在于触觉感知接口,所述触觉感知接口用于将所模拟的力学反应以触觉感知的方式输出给使用者。
4.根据上述权利要求之一所述的设备,其特征在于,
所述模拟模块(SM)被设立为依据生物力学的结构模型(BMS)来模拟外科手术对解剖区域(AR)的解剖功能的效果,和
输出接口(I3)被设置用于显示所模拟的效果。
5.根据上述权利要求之一所述的设备,其特征在于,生物力学的结构模型(BMS)是患者特定的。
6.根据上述权利要求之一所述的设备,其特征在于,生物力学的结构模型(BMS)包括有限元模型。
7.根据上述权利要求之一所述的设备,其特征在于,所述建模模块(MM)被设立为依据连续地被读入的图像数据(IMG)使生物力学的结构模型(BMS)动态地适配。
8.根据上述权利要求之一所述的设备,其特征在于,
所述第一接口(I1)被设立为以时间分辨的方式读入图像数据(IMG),并且
所述建模模块(MM)被设立为:依据时间分辨的图像数据(IMG)识别解剖区域(AR)的子结构的运动动力学以及依据所识别出的运动动力学来导出所述子结构的物理特性并且在生物力学的结构模型(BMS)中映射所述子结构的物理特性。
9.根据权利要求8所述的设备,其特征在于,所述建模模块(MM)包括用于机器学习的模块(ML),所述用于机器学习的模块(ML)被设立用于识别子结构的运动动力学、用于导出所述子结构的物理特性和/或用于在生物力学的结构模型(BMS)中映射所述物理特性。
10.根据上述权利要求之一所述的设备,其特征在于,所述可视化模块(VM)被构建为用于显示虚拟的和/或增强的现实的沉浸式系统。
11.根据上述权利要求之一所述的设备,其特征在于,所述可视化模块(VM)被构建为全息照相的和/或立体照相的可视化系统。
12.用于计算机辅助地模拟外科手术的方法,其中
a) 解剖区域(AR)的借助于医学成像方法所获得的图像数据(IMG)被读入,
b) 依据所述图像数据(IMG),解剖区域(AR)的生物力学的体积结构模型(BMS)被确定,
c) 使用者的空间手势基于视频地被检测,
d) 通过模拟模块(SM):
- 相应的被检测到的手势依据生物力学的结构模型(BMS)被分配给所模拟的对解剖区域(AR)的力学作用,
- 解剖区域(AR)对所模拟的力学作用的力学反应依据生物力学的结构模型(BMS)被模拟,以及
- 生物力学的结构模型(BMS)按照所模拟的力学反应被修正,并且
e) 生物力学的结构模型(BMS)被体积可视化。
13.计算机程序产品,其被设立用于实施按照权利要求1至11之一所述的设备和/或用于实施按照权利要求12所述的方法。
14.机器可读的存储介质,其具有按照权利要求13所述的计算机程序产品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015208804.9 | 2015-05-12 | ||
DE102015208804.9A DE102015208804A1 (de) | 2015-05-12 | 2015-05-12 | Vorrichtung und Verfahren zum rechnergestützten Simulieren von chirurgischen Eingriffen |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106156398A true CN106156398A (zh) | 2016-11-23 |
Family
ID=57208953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610313194.XA Pending CN106156398A (zh) | 2015-05-12 | 2016-05-12 | 用于计算机辅助地模拟外科手术的设备和方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10172676B2 (zh) |
KR (1) | KR102536732B1 (zh) |
CN (1) | CN106156398A (zh) |
DE (1) | DE102015208804A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020210972A1 (zh) * | 2019-04-16 | 2020-10-22 | 孙永年 | 手术用穿戴式影像显示装置及手术资讯即时呈现系统 |
CN113785343A (zh) * | 2019-01-14 | 2021-12-10 | 阿普瑟奇昂公司 | 旨在研究和模拟解剖位置处的外科方法的基于集成物理和虚拟现实的医学学习设备 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015226669B4 (de) * | 2015-12-23 | 2022-07-28 | Siemens Healthcare Gmbh | Verfahren und System zum Ausgeben einer Erweiterte-Realität-Information |
US10678338B2 (en) | 2017-06-09 | 2020-06-09 | At&T Intellectual Property I, L.P. | Determining and evaluating data representing an action to be performed by a robot |
DE102019123826A1 (de) * | 2019-09-05 | 2021-03-11 | Volume Graphics Gmbh | Computerimplementiertes Verfahren zum Erstellen eines Netzes zum Simulieren eines Objekts |
WO2023136616A1 (ko) * | 2022-01-12 | 2023-07-20 | (주)휴톰 | 수술상황 별 가상현실 기반 수술환경 제공 장치 및 방법 |
KR102500234B1 (ko) * | 2022-07-25 | 2023-02-16 | 주식회사 안심엘피씨 | Ar/vr 기반의 육류 발골 교육용 햅틱 시스템 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020036617A1 (en) * | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
US20040009459A1 (en) * | 2002-05-06 | 2004-01-15 | Anderson James H. | Simulation system for medical procedures |
CN1685381A (zh) * | 2002-09-30 | 2005-10-19 | 外科科学瑞典股份公司 | 用于产生一个虚拟解剖学环境的设备和方法 |
US20050267353A1 (en) * | 2004-02-04 | 2005-12-01 | Joel Marquart | Computer-assisted knee replacement apparatus and method |
CN101320526A (zh) * | 2008-07-11 | 2008-12-10 | 深圳先进技术研究院 | 一种手术预测和训练的设备及其方法 |
CN102871686A (zh) * | 2012-03-05 | 2013-01-16 | 杭州弘恩医疗科技有限公司 | 基于3d医学影像测定生理参数的装置和方法 |
CN102933163A (zh) * | 2010-04-14 | 2013-02-13 | 史密夫和内修有限公司 | 用于基于患者的计算机辅助手术程序的系统和方法 |
CN103093453A (zh) * | 2011-11-18 | 2013-05-08 | 微软公司 | 计算可改变实体的姿势和/或形状 |
CN103280144A (zh) * | 2013-04-07 | 2013-09-04 | 浙江工业大学 | 一种模拟手术训练系统 |
CN103714322A (zh) * | 2013-12-26 | 2014-04-09 | 四川虹欧显示器件有限公司 | 一种实时手势识别方法及装置 |
CN103764061A (zh) * | 2011-06-27 | 2014-04-30 | 内布拉斯加大学评议会 | 工具承载的追踪系统和计算机辅助外科方法 |
US20150073761A1 (en) * | 2012-05-14 | 2015-03-12 | Heartflow, Inc. | Method and system for providing information from a patient-specific model of blood flow |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100167253A1 (en) * | 2008-12-31 | 2010-07-01 | Haptica Ltd. | Surgical training simulator |
US8771189B2 (en) | 2009-03-18 | 2014-07-08 | Siemens Medical Solutions Usa, Inc. | Valve assessment from medical diagnostic imaging data |
US20110046935A1 (en) * | 2009-06-09 | 2011-02-24 | Kiminobu Sugaya | Virtual surgical table |
EP2524280A1 (en) * | 2010-01-14 | 2012-11-21 | BrainLAB AG | Controlling a surgical navigation system |
US8920322B2 (en) | 2011-03-09 | 2014-12-30 | Siemens Aktiengesellschaft | Valve treatment simulation from medical diagnostic imaging data |
-
2015
- 2015-05-12 DE DE102015208804.9A patent/DE102015208804A1/de active Pending
-
2016
- 2016-05-10 US US15/150,607 patent/US10172676B2/en active Active
- 2016-05-10 KR KR1020160057015A patent/KR102536732B1/ko active IP Right Grant
- 2016-05-12 CN CN201610313194.XA patent/CN106156398A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020036617A1 (en) * | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
US20040009459A1 (en) * | 2002-05-06 | 2004-01-15 | Anderson James H. | Simulation system for medical procedures |
CN1685381A (zh) * | 2002-09-30 | 2005-10-19 | 外科科学瑞典股份公司 | 用于产生一个虚拟解剖学环境的设备和方法 |
US20050267353A1 (en) * | 2004-02-04 | 2005-12-01 | Joel Marquart | Computer-assisted knee replacement apparatus and method |
CN101320526A (zh) * | 2008-07-11 | 2008-12-10 | 深圳先进技术研究院 | 一种手术预测和训练的设备及其方法 |
CN102933163A (zh) * | 2010-04-14 | 2013-02-13 | 史密夫和内修有限公司 | 用于基于患者的计算机辅助手术程序的系统和方法 |
CN103764061A (zh) * | 2011-06-27 | 2014-04-30 | 内布拉斯加大学评议会 | 工具承载的追踪系统和计算机辅助外科方法 |
CN103093453A (zh) * | 2011-11-18 | 2013-05-08 | 微软公司 | 计算可改变实体的姿势和/或形状 |
CN102871686A (zh) * | 2012-03-05 | 2013-01-16 | 杭州弘恩医疗科技有限公司 | 基于3d医学影像测定生理参数的装置和方法 |
US20150073761A1 (en) * | 2012-05-14 | 2015-03-12 | Heartflow, Inc. | Method and system for providing information from a patient-specific model of blood flow |
CN103280144A (zh) * | 2013-04-07 | 2013-09-04 | 浙江工业大学 | 一种模拟手术训练系统 |
CN103714322A (zh) * | 2013-12-26 | 2014-04-09 | 四川虹欧显示器件有限公司 | 一种实时手势识别方法及装置 |
Non-Patent Citations (6)
Title |
---|
MATTIAS HANSSON .ECT: "Convex spatio-temporal segmentation of the endocardium in ultrasound data using distribution and shape priors", 《2011 IEEE INTERNATIONAL SYMPOSIUM ON BIOMEDICAL IMAGING: FROM NANO TO MACRO》 * |
YONJAE KIM: "Experimental evaluation of contact-less hand tracking systems for tele-operation of surgical tasks", 《 2014 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA)》 * |
于洪波 等: "基于虚拟现实技术的正颌手术模拟预测方法的建立", 《中国口腔颌面外科杂志》 * |
廖祥忠主编: "《中国动画年鉴 2006》", 31 December 2007, 中国广播电视出版社 * |
潘伟洲 等: "沉浸式手术环境的研究与实现", 《计算机仿真》 * |
燕树林 等主编: "《全国医用设备使用人员(CTMRDSA)上岗考试指南》", 30 June 2009, 军事医学科学出版社 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113785343A (zh) * | 2019-01-14 | 2021-12-10 | 阿普瑟奇昂公司 | 旨在研究和模拟解剖位置处的外科方法的基于集成物理和虚拟现实的医学学习设备 |
WO2020210972A1 (zh) * | 2019-04-16 | 2020-10-22 | 孙永年 | 手术用穿戴式影像显示装置及手术资讯即时呈现系统 |
Also Published As
Publication number | Publication date |
---|---|
DE102015208804A1 (de) | 2016-11-17 |
US20160331464A1 (en) | 2016-11-17 |
US10172676B2 (en) | 2019-01-08 |
KR102536732B1 (ko) | 2023-05-24 |
KR20160133367A (ko) | 2016-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vercauteren et al. | Cai4cai: the rise of contextual artificial intelligence in computer-assisted interventions | |
CN106156398A (zh) | 用于计算机辅助地模拟外科手术的设备和方法 | |
US12016644B2 (en) | Artificial intelligence guidance system for robotic surgery | |
US9424761B2 (en) | Medical simulation system and method with configurable anatomy model manufacturing | |
US9142145B2 (en) | Medical training systems and methods | |
Basdogan et al. | VR-based simulators for training in minimally invasive surgery | |
Basdogan et al. | Haptics in minimally invasive surgical simulation and training | |
WO2019204777A1 (en) | Surgical simulator providing labeled data | |
KR20150004726A (ko) | 최소 침습 수술 기량의 평가 또는 개선을 위한 시스템 및 방법 | |
US20210244474A1 (en) | Mixed-reality endoscope and surgical tools with haptic feedback for integrated virtual-reality visual and haptic surgical simulation | |
Rivas-Blanco et al. | A review on deep learning in minimally invasive surgery | |
King et al. | Development of a wireless sensor glove for surgical skills assessment | |
Luboz et al. | ImaGiNe Seldinger: first simulator for Seldinger technique and angiography training | |
WO2017098506A9 (en) | Autonomic goals-based training and assessment system for laparoscopic surgery | |
Tai et al. | Intelligent intraoperative haptic-AR navigation for COVID-19 lung biopsy using deep hybrid model | |
Wei et al. | Augmented optometry training simulator with multi-point haptics | |
Long et al. | Integrating artificial intelligence and augmented reality in robotic surgery: An initial dvrk study using a surgical education scenario | |
CN116869651A (zh) | 提供基于虚拟现实的手术模拟的装置及方法 | |
KR20200096155A (ko) | 수술 분석 장치, 수술영상 분석 및 인식 시스템, 방법 및 프로그램 | |
Cakmak et al. | VS One, a virtual reality simulator for laparoscopic surgery | |
CN114743674A (zh) | 一种基于虚拟现实的外科手术工效学风险评估系统及方法 | |
Bockholt et al. | Augmented reality for enhancement of endoscopic interventions | |
Glombitza et al. | Virtual surgery in a (tele-) radiology framework | |
US20220354579A1 (en) | Systems and methods for planning and simulation of minimally invasive therapy | |
Wang et al. | A simulation and training system of robot assisted surgery based on virtual reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |