CN110123452A - 机器人的导航方法及系统 - Google Patents
机器人的导航方法及系统 Download PDFInfo
- Publication number
- CN110123452A CN110123452A CN201910380214.9A CN201910380214A CN110123452A CN 110123452 A CN110123452 A CN 110123452A CN 201910380214 A CN201910380214 A CN 201910380214A CN 110123452 A CN110123452 A CN 110123452A
- Authority
- CN
- China
- Prior art keywords
- pose data
- pose
- data
- detection piece
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
Abstract
本发明公开了一种机器人的导航方法及系统,导航方法包括:分别获取第一位姿检测件采集的第一位姿数据、第二位姿检测件采集的第二位姿数据和第三位姿检测件采集的第三位姿数据;第一位姿检测件固定于目标位置,第二位姿检测件用于在触碰目标区域时采集第二位姿数据,第三位姿检测件固定于机器人上;目标区域包括目标位置;将第一位姿数据、第二位姿数据和第三位姿数据均转换成相同坐标系下的位姿数据;显示经过坐标变换的第一位姿数据、第二位姿数据和第三位姿数据,以辅助导航。本发明实现了外科手术机器人与患者切割部位的准确定位,无需使用固定患者的繁杂夹具,即可避免患者或解剖部位移动、颤动对手术过程造成影响,实现精准定位及导航。
Description
技术领域
本发明涉及机器人控制技术领域,特别涉及一种用于外科手术的机器人的导航方法及系统。
背景技术
目前,机器人常被用于外科手术。手术过程中,使用导航系统帮助外科医生相对于患者的解剖学部位来放置手术器械。其中,空间定位是导航系统的关键,直接关系到整个系统精度和辅助手术成败,其通过不同定位技术确定手术器械相对于患者的空间位置,明确体位和解剖结构,然后将信息传送至计算机进行数据和图像处理。外科医生结合手术器械空间位置与患者解剖结构,实现所谓配准并通过显示器实时动态观察手术器械,进行手术操作。
然而,现有的导航系统不能实现手术器械在手术部位的快速、准确定位,特别是手术过程中,患者或解剖部位的移动,会影响定位的准确度,从而影响手术成功率。
发明内容
本发明要解决的技术问题是为了克服使用现有技术的导航系统,无法在手术过程中,特别是患者或解剖部位移动、颤动的情况下,精准定位切割区域的缺陷,提供一种机器人的导航方法及系统。
本发明是通过下述技术方案来解决上述技术问题:
一种机器人的导航方法,所述导航方法包括:
分别获取第一位姿检测件采集的第一位姿数据、第二位姿检测件采集的第二位姿数据和第三位姿检测件采集的第三位姿数据;
所述第一位姿检测件固定于目标位置,所述第二位姿检测件用于在触碰所述目标区域时采集所述第二位姿数据,所述第三位姿检测件固定于所述机器人上;所述目标区域包括所述目标位置;
将所述第一位姿数据、所述第二位姿数据和所述第三位姿数据均转换成相同坐标系下的位姿数据;
显示经过坐标变换的第一位姿数据、第二位姿数据和第三位姿数据,以辅助导航。
较佳地,所述机器人包括安装底座、活动组件和切割工具;所述切割工具通过所述活动组件固定于所述安装底座上;
所述安装底座和/或所述活动组件上安装有所述第三位姿检测件。
较佳地,所述导航方法还包括:
显示所述目标区域的医学影像模型;
将所述第一位姿数据、所述第二位姿数据和所述第三位姿数据均转换成相同坐标系下的位姿数据的步骤,具体包括:
将所述第一位姿数据、所述第二位姿数据和所述第三位姿数据均转换成所述医学影像模型的坐标系下的位姿数据;
显示经过坐标变换的所述第一位姿数据、所述第二位姿数据和所述第三位姿数据的步骤,具体包括:
根据所述第三位姿数据计算所述切割工具在所述医学影像模型的坐标系下的第四位姿数据;
将所述第四位姿数据以及经过坐标转换的第一位姿数据和第二位姿数据映射在所述医学影像模型上。
较佳地,所述机器人还包括:操纵器和安装于所述操纵器上的力传感器;
所述导航方法还包括:
获取所述力传感器检测的引导力;
基于柔顺控制算法和虚拟夹具算法对所述引导力和所述第四位姿数据进行计算,并根据计算结果引导所述切割工具。
一种机器人的导航系统,所述导航系统包括:
第一位姿检测件,用于采集第一位姿数据;所述第一位姿检测件固定于目标位置;
第二位姿检测件,用于在触碰所述目标区域时采集第二位姿数据;所述目标区域包括所述目标位置;
第三位姿检测件,用于采集第三位姿数据;所述第三位姿检测件固定于所述机器人上;
计算模块,用于将所述第一位姿数据、所述第二位姿数据和所述第三位姿数据均转换成相同坐标系下的位姿数据;
显示模块,用于显示经过坐标变换的第一位姿数据、第二位姿数据和第三位姿数据,以辅助导航。
较佳地,所述机器人包括安装底座、活动组件和切割工具;所述切割工具通过所述活动组件固定于所述安装底座上;
所述安装底座和/或所述活动组件上安装有所述第三位姿检测件。
较佳地,所述计算模块具体用于将所述第一位姿数据、所述第二位姿数据和所述第三位姿数据均转换成所述医学影像模型的坐标系下的位姿数据;
所述计算模块还用于根据所述第三位姿数据计算所述切割工具在所述医学影像模型的坐标系下的第四位姿数据;
所述显示模块具体还用于显示所述目标区域的医学影像模型,并将所述第四位姿数据以及经过坐标转换的第一位姿数据、第二位姿数据映射在所述医学影像模型上。
较佳地,所述机器人还包括:操纵器和安装于所述操纵器上的力传感器;
所述力传感器用于检测所述操纵器上的引导力;
所述导航系统还包括:控制模块;
所述控制模块用于基于柔顺控制算法和虚拟夹具算法对所述引导力和所述第四位姿数据进行计算,并根据计算结果引导所述切割工具。
本发明的积极进步效果在于:本发明实现了外科手术机器人与患者切割部位的准确定位,无需使用固定患者的繁杂夹具,即可避免患者或解剖部位移动、颤动对手术过程造成影响,实现精准定位及导航。
附图说明
图1为本发明实施例1的机器人的导航系统控制的机器人的结构示意图。
图2为本发明实施例1的机器人的导航系统的模块示意图。
图3为本发明实施例2的机器人的导航方法的流程图。
具体实施方式
下面通过实施例的方式进一步说明本发明,但并不因此将本发明限制在所述的实施例范围之中。
实施例1
本实施例提供一种用于外科手术的机器人的导航系统,如图1所示,该机器人包括安装底座1、切割工具2、操纵器3、力传感器4和活动组件11等。切割工具2安装在操纵器3上,操纵器3安装在力传感器4上,力传感器4安装在机器人活动组件11的末端。
如图1-2所示,本实施例的导航系统包括:第一位姿检测件5、第二位姿检测件6、第三位姿检测件7、计算模块8、显示模块9和控制模块10。
第一位姿检测件5固定于目标位置,目标位置也即患者体表,例如,患者需要进行手术的盆骨处的某一位置,第一位姿检测件实时采集第一位姿数据。
第二位姿检测件6用于在触碰目标区域时采集第二位姿数据。目标区域也即需要进行切割手术的切割部件区域,例如,当第二位姿检测件触碰在盆骨上时采集第二位姿数据。其中,目标区域包括目标位置。
需要说明的是,第二位姿检测件的数量可以是一个或多个,术者可通过一个或多个第二位姿检测件采集目标区域中多个不同位置的第二位姿数据。
显示模块用于显示目标区域(切割部位、替换假体)的医学影像模型,并将第一位姿数据和第二位姿数据映射在医学影像模型上,以辅助导航。也即在进行手术之前,通过获取患者多个实际位置,实际位置通过第一位姿数据和第二位姿数据表征。其中,第一位姿数据为固定位置数据,第二位姿数据为活动位置数据,位姿数据包括位置坐标和姿态,从而可以获得第一位姿检测件和所有第二位姿检测件的位姿,以及第一位姿检测件与第二位姿检测件之间的相对位姿关系。将第一位姿检测件的位置作为参考,基于配准算法将术中患者的实际位置(切割部件)和医学影像模型的数据M匹配,获得二者之间的相互转换关系。从而,实现患者的切割部件与医学影像模型的准确配置。术者通过比对和编辑即可在医学影像模型中准确定位切割部位的切割区域S,排除患者颤动、身体移动等对患者位姿的影响,以辅助导航。其中,医学影像模型例如切割部位的CT(电子计算机断层扫描)影像模型。
本实施例中,将第一位姿数据和第二位姿数据映射在医学影像模型上之前,计算模块还对第一位姿数据和第二位姿数据进行坐标转换,将第一位姿数据和第二位姿数据转换成医学影像模型坐标系下的位姿数据,计算公式如下:
其中,表示第一位姿数据(或第二位姿数据)在医学影像模型坐标系下的位姿数据;表示第一位姿数据(或第二位姿数据)与医学影像模型数据M之间的相互转换关系;表示第一位姿数据或第二位姿数据。
第三位姿检测件7固定于机器人上,用于在手术过程中实时采集第三位姿数据,实现对机器人的切割工具进行实时追踪。优选地,第三位姿检测件固定于安装底座上,以确保位置关系标定的准确性,避免因在手术过程中发生例如血液飞溅等情况干扰第三位姿检测件的数据采集。
本实施例中,第一位姿检测件、第二位姿检测件和第三位姿检测件可通过光学跟踪元件和光学发射器实现。优选地,第三位姿检测件(光学跟踪元件)固定于机器人的安装底座1和/或活动组件11上,避免手术过程中术者等其他因素对光学跟踪元件造成的遮挡。而在安装底座1和活动组件11上各安装至少一个光学跟踪元件,实时获得机器人安装底座1的位姿和活动组件11的位姿,进而计算切割工具末端的位姿,可标定和验证系统综合精度。
手术过程中,显示模块还显示表征切割工具位姿的位姿数据。本实施例中,将切割工具的位姿数据映射在医学影像模型上之前,计算模块还对第三位姿数据进行坐标转换,将第三位姿数据转换成医学影像模型坐标系下的表征切割工具末端的第四位姿数据的具体实现方式如下:
对切割工具末端的实时位姿跟踪,通过在机器人安装底座上安装第三位姿检测件,即可计算第三位姿检测件在第一位姿检测件坐标系下的位姿及转换关系通过标定算法获得第三位姿检测件与机器人起始坐标系之间的转换关系在机器人移动过程中,该转换关系不受任何影响。通过标定算法获得切割工具的末端点在机器人尾端坐标系TCP的位置信息进而计算得到机器人尾端坐标系在机器人起始坐标系下的位姿变换关系从而通过下式可以计算得到医学影像模型坐标系下的切割工具末端的位置信息
从而,实现切割工具在医学影像模型上的定位。术者通过操作操纵器,即可进行外科手术,手术过程中,力传感器实时检测操纵器上的引导力,控制模块10则基于柔顺控制算法和虚拟夹具算法对引导力和第四位姿数据进行计算,并根据计算结果引导、限制切割工具。
本实施例中,通过配准医学影像模型和患者实际的切割部位,得到医学影像模型中的切割区域S和切割工具末端在医学影像模型坐标系下的位置信息可以实时获得在切割过程中,切割工具末端离待切割区域之间的距离和方向信息,结合力传感器,感知术者的操纵倾向,将这些信息通过柔顺控制算法和虚拟夹具算法,对切割工作进行引导和限制,从而精确保证手术的完成,减少患者骨损量,缩短患者的康复周期。
实施例2
本实施例提供一种用于外科手术的机器人的导航方法,该机器人包括安装底座、切割工具、操纵器、力传感器和活动组件等。切割工具通过活动组件固定于安装底座上。力传感器安装于操纵器上,用于检测操纵器上的引导力。
如图3所示,本实施例的导航方法包括以下步骤:
步骤101、分别获取第一位姿检测件采集的第一位姿数据和第二位姿检测件采集的第二位姿数据。
其中,第一位姿检测件固定于目标位置,目标位置也即患者体表,例如,患者需要进行手术的盆骨处的某一位置,第一位姿检测件实时采集第一位姿数据。第二位姿检测件为活动的检测件,第二位姿检测件用于在触碰目标区域中除目标位置之外的其他位置时采集第二位姿数据。目标区域也即需要进行切割手术的切割部件区域,例如,当第二位姿检测件触碰在盆骨上时采集第二位姿数据。
需要说明的是,第二位姿检测件的数量可以是一个或多个,术者可通过一个或多个第二位姿检测件采集切割部位的多个不同位置的第二位姿数据。
步骤102、显示目标区域(切割部位、替换假体)的医学影像模型,并将第一位姿数据和第二位姿数据映射在医学影像模型上,以辅助导航。
其中,医学影像模型例如切割部位的CT(电子计算机断层扫描)影像。步骤102也即在进行手术之前,通过获取患者多个实际位置,实际位置通过第一位姿数据和第二位姿数据表征。其中,第一位姿数据为固定位置数据,第二位姿数据为活动位置数据,位姿数据包括位置坐标和姿态,从而可以获得第一位姿检测件和所有第二位姿检测件的位姿,以及第一位姿检测件与第二位姿检测件之间的相对位姿关系。将第一位姿检测件的位置作为参考,基于配准算法将术中患者的实际位置(切割部件)和医学影像模型的数据M匹配,获得二者之间的相互转换关系。从而,实现患者的切割部件与医学影像模型的准确配置。术者通过比对和编辑即可在医学影像模型中准确定位切割部位的切割区域S,排除患者颤动、身体移动等对患者位姿的影响,用于导航。
步骤103、获取第三位姿检测件的第三位姿数据,并将第三位姿数据映射在医学影像模型上。
其中,第三位姿检测件固定于机器人上。
步骤103也即在手术过程中,通过第三位姿数据实现对机器人的切割工具进行实时追踪。
本实施例中,第一位姿检测件、第二位姿检测件和第三位姿检测件可通过光学跟踪元件和光学发射器实现。优选地,第三位姿检测件(光学跟踪元件)固定于机器人的安装底座和/或活动组件上,避免手术过程中术者等其他因素对光学跟踪元件造成的遮挡。而在安装底座和活动组件上各安装至少一个光学跟踪元件,实时获得机器人安装底座的位姿和活动组件的位姿,进而计算切割工具末端的位姿,可标定和验证系统综合精度。
本实施例中,将第一位姿数据、第二位姿数据和第三位姿数据映射在医学影像模型上的步骤之前,还包括:
将第一位姿数据、第二位姿数据和第三位姿数据均转换成相同坐标系(参考坐标系)下的位姿数据,最终转换成医学影像模型的坐标系下的位姿数据。可以但不限于先将第二位姿数据和第三位姿数据根据坐标配准算法转换成第一位姿检测件的坐标系下的位姿数据,然后将三者均转换成医学影像模型的坐标系下的位姿数据。进而根据第三位姿数据计算切割工具在医学影像模型的坐标系下的第四位姿数据。
以下对坐标转换过程进行说明:
基于计算系统执行的配准算法将第一位姿数据和第二位姿数据与切割部件的医学影像模型数据匹配,获得二者之间的相互转换关系通过下式计算得到第一位姿数据和第二位姿数据在医学影像模型坐标系下的位姿数据:
其中,表示第一位姿数据(或第二位姿数据)在医学影像模型坐标系下的位姿数据;表示第一位姿数据(或第二位姿数据)与医学影像模型数据M之间的相互转换关系;表示第一位姿数据或第二位姿数据。
对切割工具末端的实时位姿跟踪,通过在机器人安装底座上安装第三位姿检测件,即可计算第三位姿检测件在第一位姿检测件坐标系下的位姿及转换关系通过标定算法获得第三位姿检测件与机器人起始坐标系之间的转换关系在机器人移动过程中,该转换关系不受任何影响。通过标定算法获得切割工具的末端点在机器人尾端坐标系TCP的位置信息进而计算得到机器人尾端坐标系在机器人起始坐标系下的位姿变换关系从而通过下式可以计算得到医学影像模型坐标系下的切割工具末端的位置信息
从而,实现切割工具在医学影像模型上的定位。
步骤104、基于柔顺控制算法和虚拟夹具算法对引导力和第四位姿数据进行计算,并根据计算结果引导切割工具。
本实施例中,通过通过配准医学影像模型和患者实际的切割部位,得到的医学影像模型中的切割区域S和切割工具末端在医学影像模型坐标系下的位置信息可以实时获得在切割过程中,切割工具末端离待切割区域之间的距离和方向信息,结合力传感器,感知术者的操纵倾向,将这些信息通过柔顺控制算法和虚拟夹具算法,对切割工作进行引导和限制,从而精确保证手术的完成,减少患者骨损量,缩短患者的康复周期。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。
Claims (8)
1.一种机器人的导航方法,其特征在于,所述导航方法包括:
分别获取第一位姿检测件采集的第一位姿数据、第二位姿检测件采集的第二位姿数据和第三位姿检测件采集的第三位姿数据;
所述第一位姿检测件固定于目标位置,所述第二位姿检测件用于在触碰所述目标区域时采集所述第二位姿数据,所述第三位姿检测件固定于所述机器人上;所述目标区域包括所述目标位置;
将所述第一位姿数据、所述第二位姿数据和所述第三位姿数据均转换成相同坐标系下的位姿数据;
显示经过坐标变换的第一位姿数据、第二位姿数据和第三位姿数据,以辅助导航。
2.如权利要求1所述的机器人的导航方法,其特征在于,所述机器人包括安装底座、活动组件和切割工具;所述切割工具通过所述活动组件固定于所述安装底座上;
所述安装底座和/或所述活动组件上安装有所述第三位姿检测件。
3.如权利要求2所述的机器人的导航方法,其特征在于,所述导航方法还包括:
显示所述目标区域的医学影像模型;
将所述第一位姿数据、所述第二位姿数据和所述第三位姿数据均转换成相同坐标系下的位姿数据的步骤,具体包括:
将所述第一位姿数据、所述第二位姿数据和所述第三位姿数据均转换成所述医学影像模型的坐标系下的位姿数据;
显示经过坐标变换的所述第一位姿数据、所述第二位姿数据和所述第三位姿数据的步骤,具体包括:
根据所述第三位姿数据计算所述切割工具在所述医学影像模型的坐标系下的第四位姿数据;
将所述第四位姿数据以及经过坐标转换的第一位姿数据和第二位姿数据映射在所述医学影像模型上。
4.如权利要求3所述的机器人的导航方法,其特征在于,所述机器人还包括:操纵器和安装于所述操纵器上的力传感器;
所述导航方法还包括:
获取所述力传感器检测的引导力;
基于柔顺控制算法和虚拟夹具算法对所述引导力和所述第四位姿数据进行计算,并根据计算结果引导所述切割工具。
5.一种机器人的导航系统,其特征在于,所述导航系统包括:
第一位姿检测件,用于采集第一位姿数据;所述第一位姿检测件固定于目标位置;
第二位姿检测件,用于在触碰所述目标区域时采集第二位姿数据;所述目标区域包括所述目标位置;
第三位姿检测件,用于采集第三位姿数据;所述第三位姿检测件固定于所述机器人上;
计算模块,用于将所述第一位姿数据、所述第二位姿数据和所述第三位姿数据均转换成相同坐标系下的位姿数据;
显示模块,用于显示经过坐标变换的第一位姿数据、第二位姿数据和第三位姿数据,以辅助导航。
6.如权利要求5所述的机器人的导航系统,其特征在于,所述机器人包括安装底座、活动组件和切割工具;所述切割工具通过所述活动组件固定于所述安装底座上;
所述安装底座和/或所述活动组件上安装有所述第三位姿检测件。
7.如权利要求6所述的机器人的导航系统,其特征在于,所述计算模块具体用于将所述第一位姿数据、所述第二位姿数据和所述第三位姿数据均转换成所述医学影像模型的坐标系下的位姿数据;
所述计算模块还用于根据所述第三位姿数据计算所述切割工具在所述医学影像模型的坐标系下的第四位姿数据;
所述显示模块具体还用于显示所述目标区域的医学影像模型,并将所述第四位姿数据以及经过坐标转换的第一位姿数据、第二位姿数据映射在所述医学影像模型上。
8.如权利要求7所述的机器人的导航系统,其特征在于,所述机器人还包括:操纵器和安装于所述操纵器上的力传感器;
所述力传感器用于检测所述操纵器上的引导力;
所述导航系统还包括:控制模块;
所述控制模块用于基于柔顺控制算法和虚拟夹具算法对所述引导力和所述第四位姿数据进行计算,并根据计算结果引导所述切割工具。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910380214.9A CN110123452A (zh) | 2019-05-08 | 2019-05-08 | 机器人的导航方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910380214.9A CN110123452A (zh) | 2019-05-08 | 2019-05-08 | 机器人的导航方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110123452A true CN110123452A (zh) | 2019-08-16 |
Family
ID=67576844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910380214.9A Pending CN110123452A (zh) | 2019-05-08 | 2019-05-08 | 机器人的导航方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110123452A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111557736A (zh) * | 2020-06-02 | 2020-08-21 | 杜思傲 | 医疗机器人导航系统中截骨导板的标定方法 |
CN112472297A (zh) * | 2020-11-26 | 2021-03-12 | 微创(上海)医疗机器人有限公司 | 位姿监测系统、方法、手术机器人系统和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101099673A (zh) * | 2007-08-09 | 2008-01-09 | 上海交通大学 | 采用红外反光球为标志点的手术器械定位方法 |
CN101327148A (zh) * | 2008-07-25 | 2008-12-24 | 清华大学 | 用于被动式光学手术导航的器械识别方法 |
US20090314925A1 (en) * | 2008-06-18 | 2009-12-24 | Mako Surgical Corp. | Fiber optic tracking system and method for tracking |
CN101889857A (zh) * | 2009-05-22 | 2010-11-24 | 许杰 | 手术导航设备 |
CN107124867A (zh) * | 2014-09-08 | 2017-09-01 | 皇家飞利浦有限公司 | 用于骨科导航的形状感测 |
CN107920861A (zh) * | 2015-08-28 | 2018-04-17 | 皇家飞利浦有限公司 | 用于确定运动关系的装置 |
CN108056819A (zh) * | 2016-12-02 | 2018-05-22 | 王健 | 一种用于医疗机器人的手术跟踪定位导航方法 |
CN109171965A (zh) * | 2018-09-27 | 2019-01-11 | 上海电气集团股份有限公司 | 基于虚拟夹具的机器人的控制方法及系统 |
-
2019
- 2019-05-08 CN CN201910380214.9A patent/CN110123452A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101099673A (zh) * | 2007-08-09 | 2008-01-09 | 上海交通大学 | 采用红外反光球为标志点的手术器械定位方法 |
US20090314925A1 (en) * | 2008-06-18 | 2009-12-24 | Mako Surgical Corp. | Fiber optic tracking system and method for tracking |
CN101327148A (zh) * | 2008-07-25 | 2008-12-24 | 清华大学 | 用于被动式光学手术导航的器械识别方法 |
CN101889857A (zh) * | 2009-05-22 | 2010-11-24 | 许杰 | 手术导航设备 |
CN107124867A (zh) * | 2014-09-08 | 2017-09-01 | 皇家飞利浦有限公司 | 用于骨科导航的形状感测 |
CN107920861A (zh) * | 2015-08-28 | 2018-04-17 | 皇家飞利浦有限公司 | 用于确定运动关系的装置 |
CN108056819A (zh) * | 2016-12-02 | 2018-05-22 | 王健 | 一种用于医疗机器人的手术跟踪定位导航方法 |
CN109171965A (zh) * | 2018-09-27 | 2019-01-11 | 上海电气集团股份有限公司 | 基于虚拟夹具的机器人的控制方法及系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111557736A (zh) * | 2020-06-02 | 2020-08-21 | 杜思傲 | 医疗机器人导航系统中截骨导板的标定方法 |
CN111557736B (zh) * | 2020-06-02 | 2021-03-12 | 杭州键嘉机器人有限公司 | 医疗机器人导航系统中截骨导板的标定方法 |
CN112472297A (zh) * | 2020-11-26 | 2021-03-12 | 微创(上海)医疗机器人有限公司 | 位姿监测系统、方法、手术机器人系统和存储介质 |
CN112472297B (zh) * | 2020-11-26 | 2022-03-29 | 上海微创医疗机器人(集团)股份有限公司 | 位姿监测系统、方法、手术机器人系统和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3254621B1 (en) | 3d image special calibrator, surgical localizing system and method | |
CN107753105B (zh) | 定位手术用手术机器人系统及其控制方法 | |
US11395707B2 (en) | Surgical robot for stereotactic surgery and method for controlling stereotactic surgery robot | |
EP2967297B1 (en) | System for dynamic validation, correction of registration for surgical navigation | |
CN111388087A (zh) | 手术导航系统及执行手术导航方法的计算机与存储介质 | |
US20150223725A1 (en) | Mobile maneuverable device for working on or observing a body | |
JP2013540455A (ja) | 解剖学的表面の支援型自動データ収集方法 | |
CN112043382B (zh) | 一种手术导航系统 | |
KR20190078853A (ko) | 레이저 표적 투영장치 및 그 제어방법, 레이저 표적 투영장치를 포함하는 레이저 수술 유도 시스템 | |
CN113940755A (zh) | 一种术像一体的外科手术规划与导航方法 | |
CN105997246B (zh) | 用于三维骨科手术导航的配准方法及系统 | |
CN110123452A (zh) | 机器人的导航方法及系统 | |
CN117122414A (zh) | 一种主动跟踪式手术导航系统 | |
KR101895369B1 (ko) | 정위수술용 수술로봇 시스템 | |
WO2023036848A1 (en) | Augmented reality surgical navigation system | |
CN213098281U (zh) | 手术导航系统 | |
JP2023502727A (ja) | 骨切り術校正方法、校正装置、読み取り可能な記憶媒体、および整形外科手術システム | |
KR20180100514A (ko) | 정위수술용 수술로봇 시스템 | |
US20220168048A1 (en) | Autonomous robot tracking | |
CN115624384B (zh) | 基于混合现实技术的手术辅助导航系统、方法和存储介质 | |
CN117017482A (zh) | 辅助安装假体装置和手术导航系统 | |
Konietschke et al. | Accuracy identification of markerless registration with the dlr handheld 3d-modeller in medical applications | |
CN116549110A (zh) | 医疗校准方法 | |
CN117838319A (zh) | 一种手术机械臂内窥镜动态追踪方法 | |
CN117179919A (zh) | 一种实时监测患者参考阵列松动偏移的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190816 |