CN114972528A - 一种智慧手术室全局-局部多目标联合定位方法 - Google Patents

一种智慧手术室全局-局部多目标联合定位方法 Download PDF

Info

Publication number
CN114972528A
CN114972528A CN202210524039.8A CN202210524039A CN114972528A CN 114972528 A CN114972528 A CN 114972528A CN 202210524039 A CN202210524039 A CN 202210524039A CN 114972528 A CN114972528 A CN 114972528A
Authority
CN
China
Prior art keywords
target
scene
global
motion capture
operating room
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210524039.8A
Other languages
English (en)
Inventor
王鸿鹏
刘天祚
韩建达
秦岩丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Research Institute Of Nankai University
Original Assignee
Shenzhen Research Institute Of Nankai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Research Institute Of Nankai University filed Critical Shenzhen Research Institute Of Nankai University
Priority to CN202210524039.8A priority Critical patent/CN114972528A/zh
Publication of CN114972528A publication Critical patent/CN114972528A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明提供一种智慧手术室全局‑局部多目标联合定位方法,该方法包括以下步骤:设计一组具有特定几何规则的反光球固定框架,使其在动作捕捉系统与双目光学跟踪系统下均可以被识别;根据固定在手术场景中的多个反光球框架,将场景中的目标坐标系统一为全局表达;通过基于概率遮挡模型的精度估计方法,获得动态手术场景下的概率分布估计;通过基于卡尔曼滤波的数据融合方法,在手术场景中当反光球框架被部分遮挡时获得连续的定位信息。本发明通过概率遮挡模型获得动态场景下的精度估计,从而使用基于卡尔曼滤波的数据融合方法,获得在智慧手术室下准确、连续的全局坐标表达。

Description

一种智慧手术室全局-局部多目标联合定位方法
技术领域
本发明属于机器人手术领域,尤其涉及一种智慧手术室全局-局部多目标联合定位方法。
背景技术
近年来,随着人工智能技术、机器人技术的发展,精准化、数字化、智能化、个性化的智能医疗手段不断出现,进而提出了智慧手术室的概念。在智能化的手术场景中,可以实现机器人参与手术流程,如医生操作机器人进行手术,或机器人按照术前规划进行手术。在这样的手术过程中,需要掌握手术场景内的目标,如手术器械、机械臂等的实时位置,以确保手术进程的安全。
在现有的机器人手术场景中,通常使用局部定位的方法,即通过视觉传感器获得手术部位与手术器械的相对位置。尽管相关方法已经比较成熟,但仍存在一些挑战。具体来说,所有局部定位的方法都无法规避遮挡问题,当传感器与目标之间出现遮挡时,需要暂时中断手术进程,调整传感器位置或者姿态,待确保遮挡不再影响手术操作后继续手术进程。这里存在一些问题:首先,手术室内分秒必争,中断手术进程有可能造成对患者的伤害;其次,手术室作为一个人机共融的场景,必然出现大量随机、动态的遮挡,当遮挡出现时,不能丢失手术器械等目标位置的信息;最后,智慧手术室中存在其他的移动目标,需要时刻掌握他们的全局位置。因此,单纯的局部定位不能满足智慧手术室的需求。
对于全局场景下目标的定位,动作捕捉系统广泛应用于各类场景中。动作捕捉系统是一个多相机系统,其精度被认为是可靠的。在其他应用场景中,通常会避免出现遮挡,在开阔的场景中进行应用;但在人机共融的智慧手术室场景中,天然存在着大量动态、静态的遮挡,多目标的移动也会产生互相遮挡。在动态场景下,动作捕捉系统的精度的评价缺乏标准。
因此,提出一种智慧手术室全局-局部多目标联合定位方法,以解决上述问题。
发明内容
为了解决上述技术问题,本发明提供一种智慧手术室全局-局部多目标联合定位方法,该方法包括以下步骤:
步骤1:设计一组具有特定几何特征的反光球固定框架,使其在动作捕捉系统与双目光学跟踪系统下均可以被识别;
步骤2:根据固定在手术场景中的多个反光球框架,将场景中的目标坐标系统一为全局表达;
步骤3:通过基于概率遮挡模型的精度估计方法,获得动态手术场景下的概率分布估计;
步骤4:通过基于卡尔曼滤波的数据融合方法,在手术场景中当反光球框架被部分遮挡时获得连续的定位信息。
优选的,所述的一种智慧手术室全局-局部多目标联合定位方法,所述的反光球固定框架具有特定的几何特征,在动作捕捉系统与双目光学跟踪系统下均可以被识别。
优选的,所述的一种智慧手术室全局-局部多目标联合定位方法,所述的固定在手术场景中的多个反光球框架,将场景中的目标坐标系统一为全局表达,其中基坐标系{B}由固定在手术场景中的全局靶标表示,手术器械位姿{tool}在动作捕捉系统和双目光学跟踪系统中可以分别表示为:
Figure BDA0003643305490000021
Figure BDA0003643305490000022
其中,{M}、{N}指动作捕捉系统和双目光学跟踪系统的基坐标系,T指空间位姿的旋转矩阵,这样可以得到统一在基坐标系下的全局坐标表达。
优选的,所述的一种智慧手术室全局-局部多目标联合定位方法,所述的基于概率遮挡模型的精度估计方法,获得动态手术场景下的概率分布估计,主要步骤包括:
基于动作捕捉系统的相机参数,确定单相机的可视角度θ,视场距离l。
给定两台动作捕捉相机对空间中视点的可视判据为:
Figure BDA0003643305490000031
其中
Figure BDA0003643305490000032
为编号为i,j的相机与空间中一点形成视图向量的夹角,φ1,2为定义的可以形成三角视图的阈值,该阈值与相机参数(包括但不限于相机有效像素、相机焦距等相机内部参数)、实验环境(包括但不限于实验环境的光线条件,实验使用的反光球尺寸等外部参数)相关。
当空间中一点与一对相机满足可以形成三角视图关系条件时,定义垂直于其视图向量张成的平面的无限大遮挡模型,该遮挡物影响相机对空间中一点的观测的概率为:
Figure BDA0003643305490000033
则定义给定空间中任一点基于概率遮挡模型的精度度量为:
Figure BDA0003643305490000034
其中cami为编号为i的相机,n为环境中实际安装的相机台数,得出的value是该点的度量值。通过这种方式,可以得出空间中任意一点的度量值,结合实际测量,可以建立动作捕捉系统工作空间中的精度分布与度量值的映射关系。
优选的,所述的一种智慧手术室全局-局部多目标联合定位方法,其特征在于,所述的通过基于卡尔曼滤波的数据融合方法,融合动作捕捉系统与双目光学跟踪系统的定位信息、在手术场景中当反光球框架被部分遮挡时获得连续的定位信息。
在手术室场景中,以固定的时间周期T同步采集动作捕捉系统与双目光学跟踪系统的数据,并使用卡尔曼滤波对数据进行融合。考虑到动作捕捉系统标定中存在系统误差,该误差会使测量值与空间位置存在非线性但局部连续的偏差,而双目光学系统在局部精度相对可靠。故对系统采用扩展的误差模型:
yk=pk+bk+wk
其中yk为k时刻的测量值,pk为k时刻的实际位置,wk为k时刻的噪声。在此基础上定义扩展的状态向量:
xk=[px py pz vx vy vz bx by bz]T
其中xk定义为k时刻目标状态,px、py、pz分别为目标在x、y、z方向上的位置,vx、vy、vz分别为目标在x、y、z方向上的速度,bx、by、bz分别为目标在x、y、z方向上测量上的偏差。
与现有技术相比,本发明的有益效果为:
(1)本发明使用具有特定几何规则的反光球框架,可以得到统一在基坐标系下的全局坐标表达。
(2)本发明使用基于概率遮挡模型的精度估计方法,面向动态、随机的智慧手术室人机共融场景,提出了一种评价动作捕捉系统精度的可行方法。
(3)本发明使用基于卡尔曼滤波的数据融合方法,结合动作捕捉系统与双目光学跟踪系统进行全局-局部联合定位,可以规避手术过程中出现遮挡导致中断手术进程的问题,并且使用扩展的状态模型,将测量中产生的偏差估计并进行补偿,可以有效提升定位准确度。
附图说明
图1是本发明的系统的应用场景示意图。
图2是本发明的具有特定几何特征的反光球框架示意图。
图3是本发明的基于概率遮挡模型的精度评价结果示意图。
图4是本发明的基于卡尔曼滤波的数据融合结果示意图。
图中:①、动作捕捉系统;②双目光学跟踪系统。
具体实施方式
以下结合附图对本发明做进一步描述:
实施例:
如图1所示,利用已有实验室进行一种智慧手术室全局-局部多目标联合定位方法实验。该方法包括以下步骤:
步骤1:设计一组具有特定几何特征的反光球固定框架,使其在动作捕捉系统与双目光学跟踪系统下均可以被识别;
步骤2:根据固定在手术场景中的多个反光球框架,将场景中的目标坐标系统一为全局表达;
步骤3:通过基于概率遮挡模型的精度估计方法,获得动态手术场景下的概率分布估计;
步骤4:通过基于卡尔曼滤波的数据融合方法,在手术场景中当反光球框架被部分遮挡时获得连续的定位信息。
具体的的,所述的一种智慧手术室全局-局部多目标联合定位方法,所述的反光球固定框架具有特定的几何特征,如图2所示,该反光球固定框架在动作捕捉系统与双目光学跟踪系统下均可以被识别。
具体的,所述的一种智慧手术室全局-局部多目标联合定位方法,所述的固定在手术场景中的多个反光球框架,将场景中的目标坐标系统一为全局表达,其中基坐标系{B}由固定在手术场景中的全局靶标表示,手术器械位姿{tool}在动作捕捉系统和双目光学跟踪系统中可以分别表示为:
Figure BDA0003643305490000051
Figure BDA0003643305490000052
其中,{M}、{N}指动作捕捉系统①和双目光学跟踪系统②的基坐标系,T指空间位姿的旋转矩阵,这样可以得到统一在基坐标系下的全局坐标表达。
具体的,所述的一种智慧手术室全局-局部多目标联合定位方法,所述的基于概率遮挡模型的精度估计方法,获得动态手术场景下的概率分布估计,如图3所示。主要步骤包括:
基于动作捕捉系统的相机参数,确定单相机的可视角度θ,视场距离l。
给定两台动作捕捉相机对空间中视点的可视判据为:
Figure BDA0003643305490000061
其中
Figure BDA0003643305490000062
为编号为i,j的相机与空间中一点形成视图向量的夹角,φ1,2为定义的可以形成三角视图的阈值,该阈值与相机参数(包括但不限于相机有效像素、相机焦距等相机内部参数)、实验环境(包括但不限于实验环境的光线条件,实验使用的反光球尺寸等外部参数)相关。在已有的实验环境中,φ1=40°,φ2=140°,即目标点与相机形成视图向量夹角在(40°,140°)之内时,认为目标点是可见的。
当空间中一点与一对相机满足可以形成三角视图关系条件时,定义垂直于其视图向量张成的平面的无限大遮挡模型,该遮挡物影响相机对空间中一点的观测的概率为:
Figure BDA0003643305490000063
则定义给定空间中任一点基于概率遮挡模型的精度度量为:
Figure BDA0003643305490000064
其中cami为编号为i的相机,n为环境中实际安装的相机台数,得出的value是该点的度量值。通过这种方式,可以得出空间中任意一点的度量值,结合实际测量,建立出动作捕捉系统工作空间中的精度分布与度量值的映射关系。
具体的,所述的一种智慧手术室全局-局部多目标联合定位方法,其特征在于,所述的通过基于卡尔曼滤波的数据融合方法,融合动作捕捉系统与双目光学跟踪系统的定位信息、在手术场景中当反光球框架被部分遮挡时获得连续的定位信息。
在手术室场景中,以固定的时间周期T同步采集动作捕捉系统①与双目光学跟踪系统②的数据,并使用卡尔曼滤波对数据进行融合。考虑到动作捕捉系统标定中存在系统误差,该误差会使测量值与空间位置存在非线性但局部连续的偏差,而双目光学系统在局部精度相对可靠。故对系统采用扩展的误差模型:
yk=pk+bk+wk
其中yk为k时刻的测量值,pk为k时刻的实际位置,wk为k时刻的噪声。在此基础上定义扩展的状态向量:
xk=[px py pz vx vy vz bx by bz]T
其中xk定义为k时刻目标状态,px、py、pz分别为目标在x、y、z方向上的位置,vx、vy、vz分别为目标在x、y、z方向上的速度,bx、by、bz分别为目标在x、y、z方向上测量上的偏差。由于实际实验中目标运动平稳,在局部内可认为是匀速运动模型,则状态转移矩阵为:
Figure BDA0003643305490000071
其中T为上文中所述的采样周期。
在实验中,定义动作捕捉系统的观测矩阵为:
HMocap=[I3 0 I3]
双目跟踪系统的观测矩阵为:
HOTS=[I3 0 0]
其中I3为三阶的单位矩阵。
则从传感器可以获得数据的k时刻开始,初始化状态向量xk,由步骤三获得的结果初始化方差矩阵Pk,则该时刻对经过采样周期T(在该实施例中传感器采样频率为60Hz,则T=1/60秒)后k+1时刻的状态预测为:
xk+1|k=Axk
该时刻对k+1时刻的误差预测为:
Pk+1|k=APkAT+Qk
其中Qk为过程噪声矩阵。
该时刻对k+1时刻的观测预测为:
yk+1|k=Hxk+1|k
其中H是根据实际采样结果选择的观测矩阵,即若数据源是动作捕捉,则H=HMocap;数据源是光学追踪系统,则H=HOTS
根据以上结果构造卡尔曼滤波器:
Figure BDA0003643305490000081
其中Rk为由步骤3确定的观测误差矩阵。
根据实际采样结果yk,可以确定对k+1时刻经卡尔曼滤波器修正后的状态xk+1
xk+1=xk+1|k+Kk(yk+1-yk+1|k)
与下次迭代使用的协方差矩阵:
Pk+1=Pk+1|k-KkHPk+1|k
进行10次独立实验取平均,所提方法与真实轨迹的均方根误差为0.01023,传统卡尔曼滤波为0.01130;为模拟遮挡环境,在数据中随机抽取30%数据置为0,即认为在这些数据所在的位置发生了遮挡,所提方法与真实轨迹的均方根误差为0.01246,传统卡尔曼滤波为0.01282。结果均好于传统方法。
联合定位效果如图4所示。
在本发明的描述中,需要理解的是,术语“同轴”、“底部”、“一端”、“顶部”、“中部”、“另一端”、“上”、“一侧”、“顶部”、“内”、“前部”、“中央”、“两端”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”、“第三”、“第四”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量,由此,限定有“第一”、“第二”、“第三”、“第四”的特征可以明示或者隐含地包括至少一个该特征。
在本发明中,除非另有明确的规定和限定,术语“安装”、“设置”、“连接”、“固定”、“旋接”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及等同物限定。

Claims (5)

1.一种智慧手术室全局-局部多目标联合定位方法,其特征在于,该方法包括以下步骤:
步骤1:设计一组具有特定几何特征的反光球固定框架,使其在动作捕捉系统与双目光学跟踪系统下均可以被识别;
步骤2:根据固定在手术场景中的多个反光球框架,将场景中的目标坐标系统一为全局表达;
步骤3:通过基于概率遮挡模型的精度估计方法,获得动态手术场景下的概率分布估计;
步骤4:通过基于卡尔曼滤波的数据融合方法,在手术场景中当反光球框架被部分遮挡时获得连续的定位信息。
2.如权利要求1所述的一种智慧手术室全局-局部多目标联合定位方法,其特征在于,所述的反光球固定框架具有特定的几何特征,在动作捕捉系统与双目光学跟踪系统下均可以被识别。
3.如权利要求1所述的一种智慧手术室全局-局部多目标联合定位方法,其特征在于,所述的固定在手术场景中的多个反光球框架,将场景中的目标坐标系统一为全局表达,其中基坐标系{B}由固定在手术场景中的全局靶标表示,手术器械位姿{tool}在动作捕捉系统和双目光学跟踪系统中可以分别表示为:
Figure FDA0003643305480000011
Figure FDA0003643305480000012
其中,{M}、{N}指动作捕捉系统和双目光学跟踪系统的基坐标系,T指空间位姿的旋转矩阵,这样可以得到统一在基坐标系下的全局坐标表达。
4.如权利要求1所述的一种智慧手术室全局-局部多目标联合定位方法,其特征在于,所述的基于概率遮挡模型的精度估计方法,获得动态手术场景下的概率分布估计,主要步骤包括:
基于动作捕捉系统的相机参数,确定单相机的可视角度θ,视场距离l。
给定两台动作捕捉相机对空间中视点的可视判据为:
Figure FDA0003643305480000021
其中
Figure FDA0003643305480000022
为编号为i,j的相机与空间中一点形成视图向量的夹角,φ1,2为定义的可以形成三角视图的阈值,该阈值与相机参数(包括但不限于相机有效像素、相机焦距等相机内部参数)、实验环境(包括但不限于实验环境的光线条件,实验使用的反光球尺寸等外部参数)相关。
当空间中一点与一对相机满足可以形成三角视图关系时,定义垂直于其视图向量张成的平面的无限大遮挡模型,该遮挡物影响相机对空间中一点的观测的概率p为:
Figure FDA0003643305480000023
则定义给定空间中任一点基于概率遮挡模型的精度度量为:
Figure FDA0003643305480000024
其中cami为编号为i的相机,n为环境中实际安装的相机台数,得出的value是该点的度量值。通过这种方式,可以得出空间中任意一点的度量值,结合实际测量,可以建立动作捕捉系统工作空间中的精度分布与度量值的映射关系。
5.如权利要求1所述的一种智慧手术室全局-局部多目标联合定位方法,其特征在于,所述的通过基于卡尔曼滤波的数据融合方法,在手术场景中当反光球框架被部分遮挡时获得连续的定位信息。
在手术室场景中,以固定的时间周期T同步采集动作捕捉系统与双目光学跟踪系统的数据,并使用卡尔曼滤波对数据进行融合。考虑到动作捕捉系统标定中存在系统误差,该误差会使测量值与空间位置存在非线性但局部连续的偏差,而双目光学系统在局部精度相对可靠。故对系统采用扩展的误差模型:
yk=pk+bk+wk
其中yk为k时刻的测量值,pk为k时刻的实际位置,wk为k时刻的噪声。在此基础上定义扩展的状态向量:
xk=[px py pz vx vy vz bx by bz]T
其中xk定义为k时刻目标状态,px、py、pz分别为目标在x、y、z方向上的位置,vx、vy、vz分别为目标在x、y、z方向上的速度,bx、by、bz分别为目标在x、y、z方向上测量上的偏差。
CN202210524039.8A 2022-05-13 2022-05-13 一种智慧手术室全局-局部多目标联合定位方法 Pending CN114972528A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210524039.8A CN114972528A (zh) 2022-05-13 2022-05-13 一种智慧手术室全局-局部多目标联合定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210524039.8A CN114972528A (zh) 2022-05-13 2022-05-13 一种智慧手术室全局-局部多目标联合定位方法

Publications (1)

Publication Number Publication Date
CN114972528A true CN114972528A (zh) 2022-08-30

Family

ID=82983325

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210524039.8A Pending CN114972528A (zh) 2022-05-13 2022-05-13 一种智慧手术室全局-局部多目标联合定位方法

Country Status (1)

Country Link
CN (1) CN114972528A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115568946A (zh) * 2022-10-20 2023-01-06 北京大学 用于口腔咽喉部手术的轻量级导航定位系统、方法及介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115568946A (zh) * 2022-10-20 2023-01-06 北京大学 用于口腔咽喉部手术的轻量级导航定位系统、方法及介质

Similar Documents

Publication Publication Date Title
CN109567942B (zh) 采用人工智能技术的颅颌面外科手术机器人辅助系统
Shahidi et al. Implementation, calibration and accuracy testing of an image-enhanced endoscopy system
US8147503B2 (en) Methods of locating and tracking robotic instruments in robotic surgical systems
US8064669B2 (en) Fast 3D-2D image registration system with application to continuously guided endoscopy
US20090088634A1 (en) Tool tracking systems and methods for image guided surgery
CN102840825B (zh) 一种质点定位系统及方法
WO2023279874A1 (zh) 一种手术机器人导航定位系统及测量视角多目标优化方法
CN113766997A (zh) 用于引导机械臂的方法、引导系统
CN110503713B (zh) 一种基于轨迹平面法向量和圆心结合的旋转轴估计方法
US20070076096A1 (en) System and method for calibrating a set of imaging devices and calculating 3D coordinates of detected features in a laboratory coordinate system
CN111489392B (zh) 多人环境下单个目标人体运动姿态捕捉方法及系统
CN114972528A (zh) 一种智慧手术室全局-局部多目标联合定位方法
Meng et al. Development of an intra-operative active navigation system for robot-assisted surgery
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
CN112215871B (zh) 一种基于机器人视觉的移动目标追踪方法及装置
CN110991306A (zh) 自适应的宽视场高分辨率智能传感方法和系统
CN114519742A (zh) 基于单目光学摄影的三维目标自动定位定姿方法及其应用
CN116883471B (zh) 面向胸腹部经皮穿刺的线结构光无接触点云配准方法
CN208319312U (zh) 一种面向膝盖软骨移植术的术中器具位姿导航装置
CN107485447A (zh) 一种面向膝盖软骨移植术的术中器具位姿导航装置及方法
CN114191078B (zh) 一种基于混合现实的内窥镜手术导航机器人系统
CN106580471A (zh) 图像导航定位系统及方法
Xu et al. A flexible 3D point reconstruction with homologous laser point array and monocular vision
AU2020282347B8 (en) Robot mounted camera registration and tracking system for orthopedic and neurological surgery
CN113470184A (zh) 内窥镜增强现实误差补偿方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination