WO2022127009A1 - 一种引导针置入精度评价方法 - Google Patents

一种引导针置入精度评价方法 Download PDF

Info

Publication number
WO2022127009A1
WO2022127009A1 PCT/CN2021/092911 CN2021092911W WO2022127009A1 WO 2022127009 A1 WO2022127009 A1 WO 2022127009A1 CN 2021092911 W CN2021092911 W CN 2021092911W WO 2022127009 A1 WO2022127009 A1 WO 2022127009A1
Authority
WO
WIPO (PCT)
Prior art keywords
point
point cloud
image
postoperative
intraoperative
Prior art date
Application number
PCT/CN2021/092911
Other languages
English (en)
French (fr)
Inventor
龚肖
周宁玲
Original Assignee
南京佗道医疗科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 南京佗道医疗科技有限公司 filed Critical 南京佗道医疗科技有限公司
Publication of WO2022127009A1 publication Critical patent/WO2022127009A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Definitions

  • the invention relates to the field of image processing and accuracy evaluation, in particular to a method for evaluating the accuracy of a guide needle insertion.
  • the doctor can only scan the frontal and lateral images on the vertebral segment of the guide needle again to evaluate whether the position is reasonable by experience. How much deviation.
  • the present invention provides a method for evaluating the accuracy of guide needle placement through the registration of intraoperative images and postoperative images.
  • a method for evaluating the accuracy of guiding needle placement comprising the steps of:
  • step (2) all points in the 3D point cloud of the intraoperative image and the 3D point cloud of the postoperative image are respectively projected onto the three planes of x, y, and z, and the Euclidean distances in the three directions are calculated as Auxiliary description describing the vector.
  • the description vector of all points is used to match the 3D point cloud of the intraoperative image and the 3D point cloud of the postoperative image, specifically: matching all points in the 3D point cloud of the intraoperative image with the 3D point cloud of the postoperative image All points are traversed and compared, and the points in the two are corresponded one by one.
  • step (32) If E(R,t) is less than a given threshold or greater than the preset maximum number of iterations, the iterative calculation is stopped; otherwise, the point set P k ′′ obtained in step (32) is used as the point set P k ' to be optimized, Repeat step (32);
  • the deviation between the intraoperative planning channel and the postoperative needle placement position is calculated as follows:
  • the coordinates A and B of the inner and outer points in the intraoperative image 3D point cloud are obtained;
  • the present invention realizes the precise coincidence of the two by means of two-step registration of rough registration and precise registration between the intraoperative 3D image and the postoperative 3D image, and on this basis, the intraoperative 3D image
  • the internal planning channel and the post-operative 3D image placement guide needle position are used to evaluate the accuracy.
  • the operation is simple, convenient and fast, and the accuracy is high.
  • Figure 1 is a schematic diagram of the channel planning of the axial plane of the intraoperative image.
  • Figure 2 shows the 3D point cloud of the intraoperative image.
  • Figure 3 is a front perspective view after insertion of the introducer needle.
  • Figure 4 is a 3D point cloud image of the image after insertion of the guide needle.
  • FIG. 5 is a schematic diagram of the segmentation of the cone segment.
  • Figure 6 is a schematic diagram of point cloud description.
  • Figure 7(a) is a 3D point cloud image of the intraoperative image.
  • Figure 7(b) is the 3D point cloud image of the postoperative image.
  • Figure 7(c) is a schematic diagram of point cloud fusion
  • FIG. 8 is a schematic diagram of calculating the planning point and the position error of the guide needle.
  • 1 is the planning channel
  • 2 is the rectangular frame
  • 3 is the guide pin
  • 4 is the surrounding point
  • 5 is the description point.
  • the guide needle placement accuracy evaluation method of the present invention includes the following steps:
  • point p i and point q j match, and the intraoperative and postoperative 3D image point clouds P ⁇ p 1 , p 2 ,...,p m ⁇ , Q ⁇ q 1 ,q 2 ,...,q m ⁇ until all points are matched, so that the points in the 3D point cloud of the intraoperative and postoperative images are in one-to-one correspondence and calculate the transformation relationship Rt between the 3D point cloud of the intraoperative image and the 3D point cloud of the postoperative image, where R is the rotation matrix and t is the translation matrix;
  • step (72) If E(R,t) is less than a given threshold or greater than the preset maximum number of iterations, the iterative calculation is stopped; otherwise, the point set P k ′′ obtained in step (72) is used as the point set P k ' to be optimized, Repeat step (72);
  • step (7) the accurately matched intraoperative image and postoperative image are obtained, and the intraoperative planning channel and the postoperative guide needle position deviation are calculated;
  • the guide needle is metal, so the gray value is relatively high, a gray threshold is set, and other noises are removed by threshold extraction, and the guide is obtained.
  • the point cloud data Pa of the needle is used to fit the cylinder.
  • the axis and both ends of the cylinder intersect with the vertebral cone in the postoperative image, which is the inner and outer points of the inserted guide needle in the postoperative image.
  • d 1 2 (x 1 -x 1 ') 2 +(y 1 -y 1 ') 2 +(z 1 -z 1 ') 2
  • d 1 and d 2 are the deviations of the in and out points of the two.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Prostheses (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

一种引导针置入精度评价方法,包括步骤:对待置针处进行扫描得到术中 3D 点云,在术中3D 点云中规划通道(1),并根据规划通道(1)控制机器人运动到位后置入引导针(3),并扫描置针位置得到术后3D 点云;计算术中或术后3D 点云中所有点与其内一点的梯度差,并以其中梯度下降最快的方向作为该点方向,以前述得到的梯度差及该点方向作为该点的描述向量;通过描述向量进行术中3D点云与术后3D 点云匹配,并计算术中规划通道(1)与术后置针位置之间的偏差。本方法通过对术中3D 影像与术后3D 影像之间的粗配准和精确配准的两步配准,实现了二者的精确重合,并在此基础上对术中3D 影像内的规划通道(1)与术后3D 影像的置入引导针(3)位置进行精度评价。

Description

一种引导针置入精度评价方法 技术领域
本发明涉及图像处理及精度评价领域,尤其涉及一种引导针置入精度评价方法。
背景技术
近年来,机器人在骨科临床手术上应用越来越广泛。医生只需要在影像上规划好执行通道,机器人运动到实际通道位置,医生再通过执行通道置入引导针,不管是手动置针还是机器人操作置针,最终的置入的引导针位置与实际规划通道还是会存在误差,并且这种误差目前无法测量。
对于引导针置入位置的好坏,通常医生只能够再次在引导针椎节上扫描正侧位影像以经验来评位置是否合理,但不知道实际规划的位置与置入引导针的位置到底有多大偏差。
发明内容
发明目的:为了解决上述问题,本发明提供了一种通过术中影像与术后影像配准的方法来评价引导针置入的精度。
技术方案:
一种引导针置入精度评价方法,包括步骤:
(1)对待置针处进行扫描得到术中影像3D点云,在术中影像3D点云中规划通道,根据规划通道置入引导针,并扫描置针位置得到术后影像3D点云;
(2)分别计算术中影像3D点云和术后影像3D点云中所有点的描述向量,计算方法如下:计算影像3D点云中每一点与其他所有点的梯度差,并以其中梯度下降最快的方向作为该点方向,以前述梯度差集合及对应点方向作为每个点的描述向量;
(3)通过所有点的描述向量对术中影像3D点云与术后影像3D点云进行匹配,并计算术中规划通道与术后置针位置之间的偏差。
所述步骤(2)中,将术中影像3D点云及术后影像3D点云中的所有点分别投影到x、y、z三个平面上,并分别计算三个方向上的欧式距离作为描述向量的辅助描述。
所述步骤(3)中通过所有点的描述向量对术中影像3D点云与术后影像3D点云进行匹配具体为:对术中影像3D点云中所有点与术后影像3D点云中所有点进行遍历对比,将二者中的点一一对应起来。
还包括精确匹配步骤:
(31)根据术中影像3D点云P中的点与术后影像3D点云Q中的点之间的一一对应关系得到二者的变换关系Rt,得到匹配后术中影像3D点云P'=Rt*Q;其中,R为旋转矩阵,t平移矩阵;
(32)在匹配后的术中影像3D点云P'中取点集P k'作为待优化点集进行Rt变换,得到新的点集P k”,并在术后影像3D点云Q中找到与点集P k'的对应点集Q k'∈Q,使得二者内对应的点k满足||q k'-p k”||的值最小;其中,p k”为点集P k”中的点,q k'为点集Q k'中的点;
(33)构建误差函数E(R,t):
Figure PCTCN2021092911-appb-000001
如果E(R,t)小于某一给定的阈值或者大于预设的最大迭代次数,则停止迭代计算;否则以步骤(32)得到的点集P k”作为待优化点集P k',重复步骤(32);
(34)计算新的点集P k”与其对应点集Q k'的变换关系Rt,并据此得到精确匹配的术中影像3D点云和术后影像3D点云。
所述步骤(3)中计算术中规划通道与术后置针位置之间的偏差具体如下:
根据规划通道得到其内外点在术中影像3D点云中的坐标A和B;
对术后影像3D点云进行阈值提取得到引导针的点云数据,并对该点云数据进行拟合圆柱,得到该拟合圆柱的两端面及轴线,并根据其与锥节交点得到置入引导针的内外点在术后影像3D点云中的坐标C和D;
分别计算A与C的距离及B与D的距离得到术中规划通道与术后置针位置之间入点和出点的偏差。
有益效果:本发明通过对术中3D影像与术后3D影像之间的粗配准和精确配准的两步配准,实现了二者的精确重合,并在此基础上对术中3D影像内的规 划通道与术后3D影像的置入引导针位置进行精度评价,操作简单方便快捷,且精度高。
附图说明
图1为术中影像轴状面的通道规划示意图。
图2为术中影像3D点云图。
图3为置入引导针后的正位透视图。
图4是置入引导针后的影像3D点云图。
图5为锥节分割示意图。
图6为点云描述示意图。
图7(a)为术中影像3D点云图。
图7(b)为术后影像3D点云图。
图7(c)为点云融合示意图;
图8为计算规划点与引导针位置误差示意图。
其中,1为规划通道,2为矩形框,3为引导针,4为周围点,5为描述点。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明。
本发明的引导针置入精度评价方法包括如下步骤:
(1)确定好需要手术的脊椎位置,在术中通过C臂机进行3D影像扫描与配准生成术中影像,如图1所示;对生成的术中影像进行处理,调整合适的窗位窗宽WH,分别生成冠状面图、横断面图及矢状面图,以方便规划;医生在术中影像中生成3D规划通道信息,如图2所示;医生在影像上规划好通道后,通过上位机计算目标位置,在机器人运动到目标位置后,医生使用器械置入引导针;
(2)移开机器人,通过C臂机扫描置针位置生成术后透视图与术后影像,如图3、4所示,在透视图与术后影像3D点云中都可以看到引导针;
(3)优化术中、术后影像3D点云,去掉噪声点,对于术中、术后影像3D点云,手动调整窗位窗宽到合适的阈值WH,提取其中灰度值大于设定阈值的点,即只保留其中灰度值比较大的点,将灰度值小于设定阈值作为噪声点去除,得到术中、术后影像3D点云P{p 1,p 2,…,p n}、Q{q 1,q 2,…,q n},其中n表示术中、术后 影像3D点云中的点云数量;
(4)因为术中影像与术后影像可能拍摄的椎节不一样,但两次拍摄都会包含置针椎节,所以需要通过3D矩形框分别将术中影像3D点云与术后影像3D点云中的对应椎节分割出来,如图5所示;去掉不用的点云数据,分别得到单锥节的术中、术后影像3D点云P{p 1,p 2,…,p m}、Q{q 1,q 2,…,q m},其中m表示单锥节的的术中、术后影像3D点云中的点云数量,m<n;
(5)计算步骤(4)得到的影像3D点云中每个点的描述符;
(51)以单锥节的术中影像3D点云中一点p i点为中心,如图6所示,用10*10*10体素的正方体框确定单锥节的术中影像3D点云范围内所有点,计算立方体内所有点与p i的梯度差,以梯度下降最快的方向作为p i点的方向,选取范围内的所有点与p i的梯度差值及前述确定的p i点的方向作为该点的描述向量;
(52)为了增强对点云的描述,同时将范围内所有点分别投影到x、y、z三个平面上,分别计算三个方向上的欧式距离作为辅助描述,这样既快速又可以提高稳定性;
(53)遍历单锥节的术中影像3D点云中所有点P{p 1,p 2,…,p m},这样生成一个描述符集Dp{dp 1,dp 2,…,dp m};
(54)对单锥节的术后影像3D点云中所有点Q{q 1,q 2,…,q m}做相同的处理,得到描述符点集Dq{dq 1,dq 2,…,dq m};
(6)进行粗匹配;
若点p i和点q j的描述向量差值在设定范围内,则认为点p i和点q j匹配,遍历对比单锥节的术中、术后3D影像点云P{p 1,p 2,…,p m}、Q{q 1,q 2,…,q m}的所有点,直到所有点匹配完成为止,这样将术中和术后影像3D点云中的点一一对应起来;并据此计算得到术中影像3D点云和术后影像3D点云的变换关系Rt,其中R为旋转矩阵,t平移矩阵;
(7)进行迭代优化以精确匹配,如图7(a)、7(b)、7(c)所示;
(71)通过步骤(6)的粗匹配之后,得到匹配后点云P'{p 1,p 2,…,p m}=Rt*Q{q 1,q 2,…,q m},两组点云已经很接近,但是其中也有一些误匹配点,因此Rt具有一定的误差因素,基于此基础之上,需要通过迭代计算出最优的匹配参数R和t;
(72)在匹配后点云P'{p 1,p 2,…,p m}中取点集P k'∈P'{p 1,p 2,…,p m}作为待优化点集,对P k'使用步骤(6)求得的旋转矩阵R和平移矩阵t进行旋转和平移变换,得到新的点集P k”;
(73)找出点云Q{q 1,q 2,…,q m}中与点集P k'的对应点集Q k'∈Q,使得二者内的点k满足||q k'-p k”||的值最小;其中,p k”为点集P k”中的点,q k'为点集Q k'中的点;
(74)构建误差函数E(R,t):
Figure PCTCN2021092911-appb-000002
如果E(R,t)小于某一给定的阈值或者大于预设的最大迭代次数,则停止迭代计算;否则以步骤(72)得到的点集P k”作为待优化点集P k',重复步骤(72);
(75)计算新的点集P k”与其对应点集Q k'的变换关系Rt,并据此得到精确匹配的术中影像和术后影像;
(8)根据步骤(7)得到经过精确匹配后的术中影像和术后影像,并计算术中规划通道和术后引导针位置偏差;
(81)因为规划通道是医生在术中影像中手动规划的,所以可以直接得到规划通道的内外点在术中影像中的坐标值A(x 1,y 1,z 1)和B(x 2,y 2,z 2);
(82)如图8所示,术中影像与术后影像配准后,引导针是金属,所以灰度值较高,设置一灰度阈值,通过阈值提取去掉其他杂点,得到的就是引导针的点云数据P a,利用该点云数据P a拟合圆柱,该圆柱的轴线及两端面与术后影像中脊椎锥节的交点,即为置入引导针的内外点在术后影像中的坐标C(x 1',y 1',z 1')和D(x 2',y 2',z 2');
(83)分别计算A与C的距离d 1及B与D的距离d 2
d 1 2=(x 1-x 1') 2+(y 1-y 1') 2+(z 1-z 1') 2
d 2 2=(x 2-x 2') 2+(y 2-y 2') 2+(z 2-z 2') 2
d 1与d 2即为二者入点和出点的偏差。
以上详细描述了本发明的优选实施方式,但是本发明并不限于上述实施方式中的具体细节,在本发明的技术构思范围内,可以对本发明的技术方案进行多种等同变换(如数量、形状、位置等),这些等同变换均属于本发明的保护范围。

Claims (5)

  1. 一种引导针置入精度评价方法,其特征在于:包括步骤:
    (1)对待置针处进行扫描得到术中影像3D点云,在术中影像3D点云中规划通道,根据规划通道置入引导针,并扫描置针位置得到术后影像3D点云;
    (2)分别计算术中影像3D点云和术后影像3D点云中所有点的描述向量,计算方法如下:计算影像3D点云中每一点与其他所有点的梯度差,并以其中梯度下降最快的方向作为该点方向,以前述梯度差集合及对应点方向作为每个点的描述向量;
    (3)通过所有点的描述向量对术中影像3D点云与术后影像3D点云进行匹配,并计算术中规划通道与术后置针位置之间的偏差。
  2. 根据权利要求1所述的引导针置入精度评价方法,其特征在于:所述步骤(2)中,将术中影像3D点云及术后影像3D点云中的所有点分别投影到x、y、z三个平面上,并分别计算三个方向上的欧式距离作为描述向量的辅助描述。
  3. 根据权利要求1所述的引导针置入精度评价方法,其特征在于:所述步骤(3)中通过所有点的描述向量对术中影像3D点云与术后影像3D点云进行匹配具体为:对术中影像3D点云中所有点与术后影像3D点云中所有点进行遍历对比,将二者中的点一一对应起来。
  4. 根据权利要求3所述的引导针置入精度评价方法,其特征在于:还包括精确匹配步骤:
    (31)根据术中影像3D点云P中的点与术后影像3D点云Q中的点之间的一一对应关系得到二者的变换关系Rt,得到匹配后术中影像3D点云P'=Rt*Q;其中,R为旋转矩阵,t平移矩阵;
    (32)在匹配后的术中影像3D点云P'中取点集P k'作为待优化点集进行Rt变换,得到新的点集P k”,并在术后影像3D点云Q中找到与点集P k'的对应点集Q k'∈Q,使得二者内对应的点k满足||q k'-p k”||的值最小;其中,p k”为点集P k”中的点,q k'为点集Q k'中的点;
    (33)构建误差函数E(R,t):
    Figure PCTCN2021092911-appb-100001
    如果E(R,t)小于某一给定的阈值或者大于预设的最大迭代次数,则停止迭代 计算;否则以步骤(32)得到的点集P k”作为待优化点集P k',重复步骤(32);
    (34)计算新的点集P k”与其对应点集Q k'的变换关系Rt,并据此得到精确匹配的术中影像3D点云和术后影像3D点云。
  5. 根据权利要求1所述的引导针置入精度评价方法,其特征在于:所述步骤(3)中计算术中规划通道与术后置针位置之间的偏差具体如下:
    根据规划通道得到其内外点在术中影像3D点云中的坐标A和B;
    对术后影像3D点云进行阈值提取得到引导针的点云数据,并对该点云数据进行拟合圆柱,得到该拟合圆柱的两端面及轴线,并根据其与锥节交点得到置入引导针的内外点在术后影像3D点云中的坐标C和D;
    分别计算A与C的距离及B与D的距离得到术中规划通道与术后置针位置之间入点和出点的偏差。
PCT/CN2021/092911 2020-12-18 2021-05-10 一种引导针置入精度评价方法 WO2022127009A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011508919.3A CN112289416B (zh) 2020-12-18 2020-12-18 一种引导针置入精度评价方法
CN202011508919.3 2020-12-18

Publications (1)

Publication Number Publication Date
WO2022127009A1 true WO2022127009A1 (zh) 2022-06-23

Family

ID=74425974

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/092911 WO2022127009A1 (zh) 2020-12-18 2021-05-10 一种引导针置入精度评价方法

Country Status (2)

Country Link
CN (1) CN112289416B (zh)
WO (1) WO2022127009A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116725640A (zh) * 2023-06-20 2023-09-12 山东卓业医疗科技有限公司 一种身体穿刺打印模板的构建方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112289416B (zh) * 2020-12-18 2021-03-23 南京佗道医疗科技有限公司 一种引导针置入精度评价方法
CN114451992B (zh) * 2021-10-11 2023-08-15 佗道医疗科技有限公司 一种术后置钉精度评价方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103745463A (zh) * 2013-12-26 2014-04-23 大连理工大学 基于梯度信息的新颖多源图像快速配准方法
CN108784832A (zh) * 2017-04-26 2018-11-13 中国科学院沈阳自动化研究所 一种脊柱微创手术增强现实导航方法
US20190295266A1 (en) * 2016-05-20 2019-09-26 Nokia Technologies Oy Point cloud matching method
CN112289416A (zh) * 2020-12-18 2021-01-29 南京佗道医疗科技有限公司 一种引导针置入精度评价方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105931234A (zh) * 2016-04-19 2016-09-07 东北林业大学 一种地面三维激光扫描点云与影像融合及配准的方法
CN106023156B (zh) * 2016-05-10 2018-09-11 中国商用飞机有限责任公司 基于检测特征的点云模型与cad模型的配准方法
CN108175501A (zh) * 2016-12-08 2018-06-19 复旦大学 一种基于探针的手术导航空间配准方法
GB2559157A (en) * 2017-01-27 2018-08-01 Ucl Business Plc Apparatus, method and system for alignment of 3D datasets
US10621720B2 (en) * 2017-04-27 2020-04-14 Siemens Healthcare Gmbh Deformable registration of magnetic resonance and ultrasound images using biomechanical models
WO2019136412A1 (en) * 2018-01-08 2019-07-11 Rivanna Medical Llc Three-dimensional imaging and modeling of ultrasound image data
CN108280158B (zh) * 2018-01-15 2020-06-02 北京科技大学 基于梯度方向累加热核特征的非刚性三维模型检索方法
CN110335234B (zh) * 2019-04-28 2022-05-20 武汉大学 一种基于古文物LiDAR点云的三维变化检测方法
CN111815757B (zh) * 2019-06-29 2023-04-07 浙江大学山东工业技术研究院 基于图像序列的大型构件三维重建方法
CN111429491B (zh) * 2020-03-11 2024-02-20 上海嘉奥信息科技发展有限公司 脊柱术前三维影像与术中二维影像配准的方法与系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103745463A (zh) * 2013-12-26 2014-04-23 大连理工大学 基于梯度信息的新颖多源图像快速配准方法
US20190295266A1 (en) * 2016-05-20 2019-09-26 Nokia Technologies Oy Point cloud matching method
CN108784832A (zh) * 2017-04-26 2018-11-13 中国科学院沈阳自动化研究所 一种脊柱微创手术增强现实导航方法
CN112289416A (zh) * 2020-12-18 2021-01-29 南京佗道医疗科技有限公司 一种引导针置入精度评价方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SUN PEIQI, BU JUNZHOU, TAO TINGYE, FANG XINGBO, HE HAN, FENG JIAQI: "Point cloud registration algorithm based on feature point method vector", BULLETIN OF SURVEYING AND MAPPING, no. 8, 25 August 2019 (2019-08-25), pages 48 - 53, XP055943588, ISSN: 0494-0911, DOI: 10.13474/j.cnki.11-2246.2019.0250 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116725640A (zh) * 2023-06-20 2023-09-12 山东卓业医疗科技有限公司 一种身体穿刺打印模板的构建方法
CN116725640B (zh) * 2023-06-20 2024-02-27 山东卓业医疗科技有限公司 一种身体穿刺打印模板的构建方法

Also Published As

Publication number Publication date
CN112289416B (zh) 2021-03-23
CN112289416A (zh) 2021-01-29

Similar Documents

Publication Publication Date Title
WO2022127009A1 (zh) 一种引导针置入精度评价方法
CN111775146B (zh) 一种工业机械臂多工位作业下的视觉对准方法
US10912614B2 (en) Systems and methods for patient-based computer aided surgical procedures
US20190142359A1 (en) Surgical positioning system and positioning method
CN107590825B (zh) 一种基于sfm的点云孔洞修补方法
CN111487043B (zh) 单目散斑结构光系统的散斑投射器标定参数确定方法
US20170177746A1 (en) Model generating device, position and orientation calculating device, and handling robot device
EP3255609B1 (en) A method of automatically identifying a sequence of marking points in 3d medical image
CN110288638B (zh) 一种断骨模型粗配准方法、系统及断骨模型配准方法
US20200074748A1 (en) Systems and Methods for 3D Registration of Curves and Surfaces Using Local Differential Information
JP2016128810A (ja) 奥行きカメラを校正する方法
CN111179321B (zh) 一种基于模板匹配的点云配准方法
CN110310331B (zh) 一种基于直线特征与点云特征结合的位姿估计方法
CN112382359B (zh) 患者注册方法、装置、电子设备及计算机可读介质
CN112233155B (zh) 一种2d-3d影像配准算法
CN107270826B (zh) 一种孔的视觉测量方法
CN107595388A (zh) 一种基于反光球标记点的近红外双目视觉立体匹配方法
Wang et al. A pose estimation system based on deep neural network and ICP registration for robotic spray painting application
CN106344152A (zh) 腹部外科手术导航配准方法及系统
CN113706381A (zh) 一种三维点云数据的拼接方法及装置
CN103198481A (zh) 一种摄像机标定方法及其实现系统
CN115578320A (zh) 一种骨科手术机器人全自动空间注册方法及系统
CN113313200B (zh) 一种基于法向约束的点云精匹配方法
CN116883471B (zh) 面向胸腹部经皮穿刺的线结构光无接触点云配准方法
CN115984203A (zh) 一种眼球突出度测量方法、系统、终端及介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21904948

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21904948

Country of ref document: EP

Kind code of ref document: A1