CN114431956A - 并联骨折手术机器人与断骨空间位姿提取方法 - Google Patents

并联骨折手术机器人与断骨空间位姿提取方法 Download PDF

Info

Publication number
CN114431956A
CN114431956A CN202210118198.8A CN202210118198A CN114431956A CN 114431956 A CN114431956 A CN 114431956A CN 202210118198 A CN202210118198 A CN 202210118198A CN 114431956 A CN114431956 A CN 114431956A
Authority
CN
China
Prior art keywords
model
image
robot
platform
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210118198.8A
Other languages
English (en)
Inventor
孙涛
杨雨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202210118198.8A priority Critical patent/CN114431956A/zh
Publication of CN114431956A publication Critical patent/CN114431956A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种并联骨折手术机器人与断骨空间位姿提取方法,所述方法包括:基于患者CT影像,通过三维重建获得患者的三维骨折模型;利用克氏针或螺纹半针对患者进行手术机器人安装;分别对机器人动平台与静平台拍摄正侧位C臂影像;根据患者所用机器人的型号、尺寸,利用3D建模软件生成机器人动、静平台三维模型;搭建VTK虚拟场景,模拟生成C臂图像;利用交互控件,调整模型与相机位姿,实现模拟C臂图像与真实C臂图像间的配准,进而完成机器人与断骨相对位姿的提取。本发明操作简单,计算精度高,辐射量小,可以实现机器人与断骨空间位姿的术中提取。故本发明的一种并联骨折手术机器人与断骨空间位姿提取方法可满足骨折临床手术的迫切需求。

Description

并联骨折手术机器人与断骨空间位姿提取方法
技术领域
本发明涉及骨科复位领域,具体涉及一种基于交互式2D/3D配准的并联骨折手术机器人与断骨空间位姿提取方法。
背景技术
传统骨折复位手术需要通过大切口的方式暴露骨组织,在直视条件下由医师恢复骨折断端的解剖位置。传统复位方法受制于医师经验和术中设备,存在创伤大、易感染、二次骨折等风险。
随着机器人技术和计算机信息技术与骨科医学的交叉融合中,基于并联机器人的骨折复位手术被普遍认为是实现骨折精准安全复位的优势方案。并联机器人凭借其微创、高精度等优点,能够有效解决传统复位手术的缺陷。
并联机器人辅助骨折复位是指医师利用计算机辅助软件确定断骨复位的路径,并基于机器人运动学算法将断骨的复位路径映射为机器人的运动轨迹,机器人执行上述轨迹进而达到骨折复位的目的。而实现断骨复位路径到机器人运动轨迹映射的前提是提取并联骨折手术机器人与断骨的空间位姿。
现有提取并联骨折手术机器人与断骨的空间位姿的方法根据使用的数据源可分为两类。第一类基于正侧位X光平片划线测量断骨与机器人相对位姿,该类方法要求正侧位平面严格正交,存在主、客观误差,计算精度低、测量繁琐。第二类方法基于CT图像,采用在机器人动静平台安装多个标记球的方式计算断骨与机器人相对位姿,该类方式计算精度高,但辐射大,对术中设备要求较高。
综上所述,现有并联骨折手术机器人与断骨空间位姿提取方法难以满足骨折临床手术的迫切需求。
发明内容
为了解决现有技术中的问题,本发明提供一种并联骨折手术机器人与断骨空间位姿提取方法,解决现有技术中并联骨折手术机器人与断骨空间位姿提取方法计算精度低或者手术辐射大的问题。
为达到上述目的,本发明采用下述技术方案:
(1)获取患者的三维骨折模型,具体步骤为:入院后对患者骨折部位进行三维医学影像扫描,通过图像分割和三维重建,得到骨折远端骨模型和近端骨模型,将上述模型以二进制STL格式存储于计算机中。
(2)安装手术机器人,步骤为:利用克氏针或螺纹半针分别将骨折远、近端与并联机器人的动、静平台固结,并采用六条支链连接机器人动、静平台。
(3)拍摄C臂影像,步骤为:
(3a)摆放机器人静平台,使其大致位于C臂成像区域的中心,拍摄C臂图像I1
(3b)使C臂绕其水平轴旋转约90°,拍摄C臂图像I2
(3c)摆放机器人动平台,使其大致位于C臂成像区域的中心,拍摄C臂图像I3
(3d)使C臂绕其水平轴旋转约90°,拍摄C臂图像I4
(3e)导出所拍摄的4张DICOM格式的C臂图像。
(4)生成机器人动、静平台三维模型,步骤为:
(4a)根据患者所用机器人的型号、尺寸,利用SolidWorks等3D建模软件生成机器人动静平台的三维模型;
(4b)根据支链安装方式,虚拟装配动平台与支链末端(支链末端由虎克铰和螺钉构成)、静平台与支链末端;
(4c)将动、静平台装配体存储为二进制STL模型。
(5)利用VTK虚拟场景模拟生成C臂图像,步骤为:
(5a)利用VTK搭建2个虚拟三维场景S1、S2,向各场景中添加透视投影相机,并分别于每个场景中导入近端骨模型、远端骨模型、动平台模型和静平台模型;初始状态下,各模型均为隐藏状态,且各模型的模型坐标系均与三维虚拟场景的世界坐标系重合;
(5b)设置某一模型为显示状态,对该模型进行模型变换、视图变换、透视投影变换以及视口变换,形成透视成像的效果,并显示于屏幕中,进而完成模拟C臂图像的生成;
(5c)修改任意场景中模型M1的位姿为T时,更新其他场景中模型M1的位姿为T,完成各场景中对应模型的位姿的统一;
(6)利用交互控件调整模型与相机位姿,实现模拟C臂图像与真实C臂图像间的配准,进而完成机器人与断骨相对位姿的提取,具体步骤为:
(6a)在场景S1中导入图像I,并保证图像I与相机C1的相对位姿始终保持不变,使得图像I成为场景S1的背景图片;
(6b)调整场景S1中相机C1和模型M的位姿,使得模型M在场景S1中的模拟C臂图像与图像I中的平台P重合;
(6c)根据步骤(6a),向场景S2中导入图像I′;调整场景S2中相机C2的位姿,使场景S2中模型M的模拟C臂图像与图像I′中的平台P重合;
(6d)设置场景S1(S2)中相机C1(C2)与模型M间的相对位姿始终固定不变,保证后续操作过程中模型M的模拟C臂图像与真实C臂图像始终重合;
(6e)调整场景S1和S2中相机和模型M′的位姿,使得模型M′在场景S1和S2中的模拟C臂图像分别与图像I和I′中的断骨B重合;
(6f)根据步骤(6a-6e),利用静平台模型、近端骨模型、图像I1、图像I2、静平台和近端骨分别代替模型M、模型M′、图像I、图像I′、平台P和断骨B,即可获取机器人静平台与近端骨的相对位姿ATP,此时静平台与近端骨位姿分别为TA、TP
(6g)根据步骤(6a-6e),利用动平台模型、远端骨模型、图像I3、图像I4、动平台和远端骨分别代替模型M、模型M′、图像I、图像I′、平台P和断骨B,即可获取机器人动平台与远端骨的相对位姿BTD,此时动平台与远端骨位姿分别为TB、TD
(6h)通过并联机器人位置正解,获得动平台相对于静平台的位姿ATB
有益效果:本发明使用C臂影像作为数据源,通过人机交互配准来完成机器人与断骨空间位姿的提取。与正侧位X光平片划线测量法相比,操作简单,计算精度高;与CT标记球配准相比,辐射量小,可以实现机器人与断骨空间位姿的术中提取。故本发明的一种并联骨折手术机器人与断骨空间位姿提取方法可满足骨折临床手术的迫切需求。
附图说明
图1是本发明并联骨折手术机器人与断骨空间位姿提取方法的整体流程图;
图2是机器人静平台C臂正位图像;
图3是机器人静平台C臂侧位图像;
图4是机器人静平台装配体三维模型;
图5是机器人动平台装配体三维模型;
图6是C臂成像原理示意图;
图7是生成正位模拟C臂图像的示意图;
图8是生成侧位模拟C臂图像的示意图;
图9是导入真实C臂图像的示意图;
图10是静平台与近端骨正位图像配准结果;
图11是静平台与近端骨侧位图像配准结果。
具体实施方式
下面结合附图,对本发明的具体实施方式进行详细说明。
本发明的整体方案图参见附图1,本发明的并联骨折手术机器人与断骨空间位姿提取方法,包括以下步骤:
(1)获取患者的三维骨折模型,为后续步骤提供数据源。具体步骤为:
(1a)扫描并获取骨折患者的CT数据,利用ITK(Insight Segmentation andRegistration Toolkit)工具包从CT数据中分割出骨块,所述的骨块包括远端骨(断骨的近端)与近端骨(断骨的远端)。
(1b)利用VTK工具包封装的移动立方体算法对分割后的骨块进行三维重建,并将重建结果存储为二进制的STL网格模型,得到远端骨模型与近端骨模型。
(2)安装手术机器人。利用克氏针或螺纹半针分别将骨折远、近端与并联机器人的动、静平台固结,并采用六条支链连接机器人动、静平台。
(3)拍摄C臂影像,为后续2D/3D配准提供数据源。具体步骤为:
(3a)摆放机器人静平台位置,使其大致位于C臂成像区域的中心;拍摄静平台的C臂图像I1,如图2所示,拍摄完成后保持机器人的位置不变;
(3b)调整C臂的拍摄角度,使C臂绕其水平轴旋转约90°,拍摄图像I2,如图3所示;
(3c)摆放动平台的位置,使其大致位于C臂成像区域的中心;拍摄动平台C臂图像I3,拍摄完成后保持机器人的位置不变;
(3d)调整C臂的拍摄角度,使C臂绕其水平轴旋转约90°,拍摄动平台C臂图像I4
(3e)导出上述图像,为后续2D/3D配准提供数据源。
(4)机器人建模,为后续进行2D/3D配准提供数据源。具体步骤为:
(4a)根据步骤(2)中患者所用机器人型号、尺寸(如动平台厚度、内圈孔距动平台中心距离、外圈孔距动平台中心距离、内圈孔与外圈孔半径、内圈孔间夹角、外圈孔间夹角、虎克铰高度等),并利用SolidWorks等3D建模软件生成并联骨折手术机器人静平台、动平台以及虎克铰的三维模型;
(4b)根据步骤(2)中患者所用机器人支链的安装方式,利用SolidWorks等3D建模软件对动平台与支链末端(支链末端由虎克铰和螺钉构成)、静平台与支链末端进行虚拟装配,如图4、5所示;
(4c)将动平台、静平台装配体存储为二进制STL模型。
(5)利用VTK虚拟场景模拟生成C臂图像。具体步骤为:
(5a)利用VTK搭建2个虚拟三维场景S1、S2,向各场景中添加透视投影相机,并分别于每个场景中导入近端骨模型、远端骨模型、动平台模型和静平台模型;对虚拟场景S1、S2进行初始化工作,设置各模型均为隐藏状态,使各模型的模型坐标系与三维虚拟场景的世界坐标系重合;
(5b)设置某一模型为显示状态,对该模型进行模型变换、视图变换、透视投影变换以及视口变换,形成透视成像的效果,并显示于屏幕中,进而完成正侧位模拟C臂图像的生成,如图7、8所示;
(5c)修改任意场景中模型M1(近端骨模型、远端骨模型、动平台模型和静平台模型均可用模型M1表示)的位姿为T时,更新其他场景中模型M1的位姿为T,完成各场景中对应模型的位姿的统一;
(6)利用交互控件调整模型与相机位姿,实现模拟C臂图像与真实C臂图像间的配准,进而完成机器人与断骨相对位姿的提取,具体步骤为:
(6a)在场景S1中导入图像I(图像I可为I1或I3),调整图像大小和位姿,使图像与相机成像平面平行并位于区域A内,如图9所示,并保证图像I与相机C1的相对位姿始终保持不变,使得图像I成为场景S1的背景图片;
(6b)将各场景中模型M(模型M可为静平台模型或动平台模型)设置为显示状态,调整场景S1中相机C1和模型M的位姿,使得模型M在场景S1中的模拟C臂图像与图像I中的平台P重合;
(6c)向场景S2中导入图像I′(图像I′可为I2或I4),并保持图像I′与相机C2的相对位姿始终不变,使得图像I′成为场景S2的背景图片;调整场景S2中相机C2的位姿,使得场景S2中模型M的模拟C臂图像与图像I′中的平台P重合;
(6d)设置场景S1(S2)中相机C1(C2)与模型M间的相对位姿始终固定不变,保证后续操作过程中模型M的模拟C臂图像与真实C臂图像始终重合;
(6e)设置各场景中模型M′(模型M′为近端骨模型或远端骨模型)为显示状态,调整场景S1和S2中相机和模型M′的位姿,使得模型M′在场景S1和S2中的模拟C臂图像分别与图像I和I′中的断骨B重合;
(6f)根据步骤(6a-6e),利用静平台模型、近端骨模型、图像I1、图像I2、静平台和近端骨分别代替模型M、模型M′、图像I、图像I′、平台P和断骨B,即可获取机器人静平台与近端骨的相对位姿ATP,如图10所示,此时静平台与近端骨位姿分别为TA、TP
(6g)根据步骤(6a-6e),利用动平台模型、远端骨模型、图像I3、图像I4、动平台和远端骨分别代替模型M、模型M′、图像I、图像I′、平台P和断骨B,即可获取机器人动平台与远端骨的相对位姿BTD,如图11所示,此时动平台与远端骨位姿分别为TB、TD
(6h)通过并联机器人运动学正解,获得动平台相对于静平台的位姿ATB
以上对本发明的描述仅仅是示意性的,而不是限制性的,因而本发明的实施方式并不局限于上述的具体实施方式。类似地,受本发明机械结构的启示,在不脱离本发明宗旨和权利要求所保护范围的情况下,做出其他运动副布局的变化或机械结构的变型,均属于本发明的保护范围。

Claims (5)

1.一种并联骨折手术机器人与断骨空间位姿提取方法,其特征在于,包括以下步骤:
(1)获取患者的三维骨折模型,具体步骤为:入院后对患者骨折部位进行三维医学影像扫描,通过图像分割和三维重建,得到骨折远端骨模型和近端骨模型,将上述模型以二进制STL格式存储于计算机中;
(2)安装手术机器人,步骤为:利用克氏针或螺纹半针分别将骨折远、近端与并联机器人的动、静平台固结,并采用六条支链连接机器人动、静平台;
(3)拍摄C臂影像;
(4)生成机器人动、静平台三维模型;
(5)利用VTK虚拟场景模拟生成C臂图像;
(6)利用交互控件调整模型与相机位姿,实现模拟C臂图像与真实C臂图像间的配准,进而完成机器人与断骨相对位姿的提取。
2.根据权利要求1所述并联骨折手术机器人与断骨空间位姿提取方法,其特征在于,所述步骤(3)拍摄C臂影像包括以下步骤:
(a)摆放机器人静平台,使其大致位于C臂成像区域的中心,拍摄C臂图像I1
(b)使C臂绕其水平轴旋转约90°,拍摄C臂图像I2
(c)摆放机器人动平台,使其大致位于C臂成像区域的中心,拍摄C臂图像I3
(d)使C臂绕其水平轴旋转约90°,拍摄C臂图像I4
(e)导出所拍摄的4张DICOM格式的C臂图像。
3.根据权利要求1所述并联骨折手术机器人与断骨空间位姿提取方法,其特征在于,所述步骤(4)生成机器人动、静平台三维模型包括以下步骤:
(a)根据患者所用机器人的型号、尺寸,利用3D建模软件生成机器人动静平台的三维模型;
(b)根据支链安装方式,虚拟装配动平台与支链末端、静平台与支链末端;所述支链末端由虎克铰和螺钉构成;
(c)将动、静平台装配体存储为二进制STL模型。
4.根据权利要求1所述并联骨折手术机器人与断骨空间位姿提取方法,其特征在于,所述步骤(5)包括以下步骤:
(a)利用VTK搭建2个虚拟三维场景S1、S2,向各场景中添加透视投影相机,并分别于每个场景中导入近端骨模型、远端骨模型、动平台模型和静平台模型;初始状态下,各模型均为隐藏状态,且各模型的模型坐标系均与三维虚拟场景的世界坐标系重合;
(b)设置某一模型为显示状态,对该模型进行模型变换、视图变换、透视投影变换以及视口变换,形成透视成像的效果,并显示于屏幕中,进而完成模拟C臂图像的生成;
(c)修改任意场景中模型M1的位姿为T时,更新其他场景中模型M1的位姿为T,完成各场景中对应模型的位姿的统一。
5.根据权利要求1所述并联骨折手术机器人与断骨空间位姿提取方法,其特征在于,所述步骤(6)包括以下步骤:
(a)在场景S1中导入图像I,并保证图像I与相机C1的相对位姿始终保持不变,使得图像I成为场景S1的背景图片;
(b)调整场景S1中相机C1和模型M的位姿,使得模型M在场景S1中的模拟C臂图像与图像I中的平台P重合;
(c)根据步骤(a),向场景S2中导入图像I′;调整场景S2中相机C2的位姿,使场景S2中模型M的模拟C臂图像与图像I′中的平台P重合;
(d)设置场景S1(S2)中相机C1(C2)与模型M间的相对位姿始终固定不变,保证后续操作过程中模型M的模拟C臂图像与真实C臂图像始终重合;
(e)调整场景S1和S2中相机和模型M′的位姿,使得模型M′在场景S1和S2中的模拟C臂图像分别与图像I和I′中的断骨B重合;
(f)根据步骤(a-e),利用静平台模型、近端骨模型、图像I1、图像I2、静平台和近端骨分别代替模型M、模型M′、图像I、图像I′、平台P和断骨B,即可获取机器人静平台与近端骨的相对位姿ATP,此时静平台与近端骨位姿分别为TA、TP
(g)根据步骤(a-e),利用动平台模型、远端骨模型、图像I3、图像I4、动平台和远端骨分别代替模型M、模型M′、图像I、图像I′、平台P和断骨B,即可获取机器人动平台与远端骨的相对位姿BTD,此时动平台与远端骨位姿分别为TB、TD
(h)通过并联机器人位置正解,获得动平台相对于静平台的位姿ATB
CN202210118198.8A 2022-02-08 2022-02-08 并联骨折手术机器人与断骨空间位姿提取方法 Pending CN114431956A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210118198.8A CN114431956A (zh) 2022-02-08 2022-02-08 并联骨折手术机器人与断骨空间位姿提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210118198.8A CN114431956A (zh) 2022-02-08 2022-02-08 并联骨折手术机器人与断骨空间位姿提取方法

Publications (1)

Publication Number Publication Date
CN114431956A true CN114431956A (zh) 2022-05-06

Family

ID=81370770

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210118198.8A Pending CN114431956A (zh) 2022-02-08 2022-02-08 并联骨折手术机器人与断骨空间位姿提取方法

Country Status (1)

Country Link
CN (1) CN114431956A (zh)

Similar Documents

Publication Publication Date Title
Tu et al. Augmented reality based navigation for distal interlocking of intramedullary nails utilizing Microsoft HoloLens 2
Liu et al. Augmented reality based navigation for computer assisted hip resurfacing: a proof of concept study
US10453360B2 (en) Ultrasound simulation methods
US11904182B2 (en) Research and development of augmented reality in radiotherapy
JP2021013835A (ja) 無線超音波追跡および通信のためのウルトラワイドバンドの位置決め
CN109512514A (zh) 一种混合现实骨科微创手术导航系统及使用方法
CN113940755A (zh) 一种术像一体的外科手术规划与导航方法
CN105266897A (zh) 一种基于增强现实的显微外科手术导航系统及导航方法
Jiang et al. Registration technology of augmented reality in oral medicine: A review
US20150265362A1 (en) Method and System for Planning Implant Component Position
CN102429726A (zh) 基于图像导航的并联机器人辅助人工颈椎间盘置换手术定位方法
CN111227935A (zh) 一种手术机器人导航定位系统
CN106420054A (zh) 一种融合术前3d规划信息的前交叉韧带止点定位和韧带隧道定位装置
Ferraguti et al. Augmented reality and robotic-assistance for percutaneous nephrolithotomy
WO2023000560A1 (zh) 面向并联骨折手术机器人的复位轨迹自动式规划方法
Gsaxner et al. Augmented reality in oral and maxillofacial surgery
CN115153835A (zh) 基于特征点配准与增强现实的髋臼假体放置引导系统及方法
Shaikh et al. Exposure to extended reality and artificial intelligence-based manifestations: a primer on the future of hip and knee arthroplasty
Fu et al. Indirect visual guided fracture reduction robot based on external markers
Shi et al. Augmented reality for oral and maxillofacial surgery: The feasibility of a marker‐free registration method
Kim et al. Application of augmented reality using automatic markerless registration for facial plastic and reconstructive surgery
Wang et al. Real-time marker-free patient registration and image-based navigation using stereovision for dental surgery
Jiang et al. Enhancing a laparoscopy training system with augmented reality visualization
TW202038866A (zh) 手術用穿戴式影像顯示裝置及手術資訊即時呈現系統
Liu et al. Augmented reality system training for minimally invasive spine surgery

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination