CN116758248A - 增强现实ToF深度传感器矫正的方法、装置、设备及介质 - Google Patents
增强现实ToF深度传感器矫正的方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN116758248A CN116758248A CN202310678953.2A CN202310678953A CN116758248A CN 116758248 A CN116758248 A CN 116758248A CN 202310678953 A CN202310678953 A CN 202310678953A CN 116758248 A CN116758248 A CN 116758248A
- Authority
- CN
- China
- Prior art keywords
- depth
- augmented reality
- correction
- tof
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 82
- 238000012937 correction Methods 0.000 claims abstract description 92
- 239000003550 marker Substances 0.000 claims abstract description 68
- 238000005259 measurement Methods 0.000 claims description 26
- 238000011156 evaluation Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 4
- 238000005067 remediation Methods 0.000 claims description 4
- 238000009499 grossing Methods 0.000 claims description 2
- 230000009897 systematic effect Effects 0.000 abstract description 12
- 230000001788 irregular Effects 0.000 abstract description 5
- 239000013077 target material Substances 0.000 abstract description 5
- 230000008569 process Effects 0.000 description 12
- 210000003491 skin Anatomy 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000011065 in-situ storage Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 239000002390 adhesive tape Substances 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000011324 bead Substances 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000002939 conjugate gradient method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 210000002615 epidermis Anatomy 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000399 orthopedic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000008733 trauma Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请涉及一种增强现实ToF深度传感器矫正的方法、装置、设备及介质,其中,方法包括:基于患者的术前影像信息,利用红外反光标志物获取参考深度值;基于参考深度值,利用ToF深度传感器同时获取参考表面与目标表面的相对空间信息,并根据相对空间信息获取最佳的个性化模型参数;根据最佳的个性化模型参数确定集成一体化增强现实显示器内置的ToF深度传感器的深度矫正参数,以进行传感器矫正。由此,解决了现有方法对目标材质表面的形状、位置有较高的约束,当被测量表面形状不规则时,难以提供真实表面位置信息,无法对被测目标表面在ToF深度相机下的系统性深度误差进行矫正等问题。
Description
技术领域
本申请涉及增强现实技术领域,特别涉及一种增强现实ToF深度传感器矫正的方法、装置、设备及介质。
背景技术
增强现实显示技术和设备可在神经外科、骨科等多种手术过程中给医生提供视觉辅助,帮助定位引导。传统图像引导技术通过外置的运动跟踪传感器实现对手术工具、患者等对象的追踪,通过外挂的二维显示屏给医生提供引导信息,具有系统复杂、摆位困难、分散医生注意力等劣势。增强现实显示技术通过将虚拟三维信息投射在真实目标原位,将反映内部结构的虚拟模型映射到真实空间的实体对象上,从而降低抬头观察引导信息对注意力的分散。其中,头戴式增强现实显示装置中的多种传感器为通过测量与观察集成一体化系统,实现对外部物体的定位、原位显示和操作提供了可能,解决了分立的跟踪系统摆位复杂的问题。在这个过程中,利用头戴式增强现实显示器中的传感系统,实现患者组织的准确定位是核心问题。在用于实现该目标的技术路径中,利用头戴式增强现实显示系统内部集成的ToF(Time of Flight,飞行时间)深度传感器,直接构建对象表面点云数据定位配准的方法,无需在患者身上固定光学定位标志物,可以减少患者所受创伤。同时,由于其充分利用了大量点云的数据,理论上可以达到较高的潜在精度。然而,受ToF深度传感器的原理限制,由于皮肤表面对ToF发射调制红外光线反射的带通滤波效果、发射波形中的高频谐波等多种机制共同作用,传感器提供的深度数据具有随被探测表面深度、角度变化而改变的系统性深度值偏移,给利用ToF点云数据的定位带来较大误差。同时,在手术场景中,利用集成一体化头戴式增强现实显示装置进行定位,无法利用通常使用的基于标记点对的标定方法获得目标表面的真实深度,对深度值矫正带来了困难。因此,实现一种无形状、姿态约束的,针对手术场景的ToF深度传感器矫正方法,并对集成一体化头戴式增强现实显示装置实现矫正,达到准确的对象点云重建,对利用深度传感器数据实现精准原位定位引导具有重要的意义。
现有的手术定位引导系统(手术导航系统)通常将基于医学影像构建的三维模型显示在悬挂的二维显示屏上,在导航过程中,采用第三视角的光学或电磁定位跟踪系统,对人体和器械进行定位,并将定位信息叠加在显示屏上。医生在观察人体解剖结构或观察人体与器械的相对位置关系时,需要将视线从操作区域移开,抬头观察显示屏,造成了对注意力的分散。因此近年来增强现实定位引导日益受到重视。
增强现实定位引导系统可以在操作对象的局部区域原位叠加通过医学影像构建的三维模型,从而使医生在原位观察到操作对象表面下的内部结构信息。增强现实定位引导系统包括采用二维显示屏、采用投影仪、采用裸眼三维增强现实和采用头戴式增强现实等多种系统构建方式。二维显示屏的引导方式通过第三视角的RGB相机捕捉当前场景,在完成对目标区域的定位后,将虚拟引导信息通过放置在观察者与对象之间的二维显示屏,将信息叠加在目标区域原位。投影仪式的引导方式可直接识别目标表面,并将引导信息投影在目标表面,实现视觉引导。裸眼三维引导方式使用柱透镜阵列让使用者感知三维空间信息,并利用半透半反镜将三维引导信息叠加在目标区域原位。头戴式增强现实显示器通过双目视差产生立体视觉,通过头戴式显示器中一体化集成的多个传感器对目标区域进行识别和定位,从而将虚拟引导信息叠加在真实目标区域原位。由于头戴式增强现实显示器不会对操作造成影响,是一种比较理想的增强现实方式。
目前,已有多种技术用以实现增强现实原位引导过程中对目标区域的准确定位,上述技术主要可以分为由外置运动跟踪传感器提供定位信息和由集成一体化设备中的内置传感器完成定位两种。其中,在定位方法上,利用集成一体化设备内置传感器的定位方法可以分为使用可见光标志物、使用红外反光标志物和使用点云信息等。使用可见光标志物的定位方式,如Vuforia标志物,Aruco标志物等,通过可见光相机检测目标标志物的角点信息,通过标志物的形态设计识别不同的标志物,并利用角点的位置信息和相机自身参数完成对目标标志物的三维空间定位。使用红外反光标志物的定位方法通过ToF红外深度相机中的反光强度和深度信息提取并识别各标志物三维空间位置,利用红外定位工具自身的形态信息识别得到各标志物间的三维空间位置关系的空间匹配完成目标的识别和定位。利用点云信息的定位方式使用ToF深度相机构建目标表面的三维点云,并使用点云配准算法确定目标物体的三维空间位置。
在现有的深度矫正技术中,ToF传感器深度值受材料、颜色、深度等多种因素影响,并将目标表面固定在具有更高测量精度的系统中获得其真实位置,用以计算传感器深度值的系统性偏差大小。
基于二维显示屏的增强现实引导方法难以表达虚拟引导内容和真实场景的实际三维空间信息,同时损失了原有真实场景中的三维空间信息、在操作者和操作对象间增加了不可移动的装置,限制了操作空间。基于投影仪的手术引导方法无法准确表达变换视角时的三维透视关系,无法准确显示距表皮较深的虚拟信息,同时操作过程中会对投射信息产生遮挡,影响原位显示。裸眼三维增强现实的引导方式要求同时渲染多个角度的影像,对算力要求高,显示分辨率低,同时显示空间、交互空间受到了较大约束,对术区操作具有一定影响。
在定位方法上,使用外置运动跟踪传感器的方式受到实际诊疗环境约束,摆位复杂,视场角受限。在使用集成一体式增强现实显示设备内置传感器的定位方法中,使用可见光标志物的方法收到手术室灯光的强烈影响,使用红外反光标志物的定位方法受到ToF传感器深度值不确定性的影响,定位不稳定性较大,使用点云的定位方法具有较高的潜在精度,但是受到ToF传感器深度值的系统性畸变影响。
综上所述,现有的ToF传感器深度矫正方法对目标材质表面的形状、位置有较高的约束,由精度更高的测量系统提供真实表面位置,而在真实人体皮肤上,被测量表面形状不规则,难以提供真实表面位置信息,无法使用现有方法对被测目标表面在ToF深度相机下的系统性深度误差进行矫正,亟待解决。
发明内容
本申请提供一种增强现实ToF深度传感器矫正的方法、装置、设备及存储介质,以解决现有方法对目标材质表面的形状、位置有较高的约束,当被测量表面形状不规则时,难以提供真实表面位置信息,无法对被测目标表面在ToF深度相机下的系统性深度误差进行矫正等问题。
本申请第一方面实施例提供一种增强现实ToF深度传感器矫正的方法,包括以下步骤:基于患者的术前影像信息,利用红外反光标志物获取参考深度值;基于所述参考深度值,利用所述ToF深度传感器同时获取参考表面与目标表面的相对空间信息,并根据所述相对空间信息获取最佳的个性化模型参数;根据所述最佳的个性化模型参数确定集成一体化增强现实显示器内置的所述ToF深度传感器的深度矫正参数,以进行传感器矫正。
可选地,在本申请的一个实施例中,所述基于所述参考深度值,利用所述ToF深度传感器同时获取参考表面与目标表面的相对空间信息,包括:获取连续的、任意位姿的、朝向目标区域的深度图数据;利用所述ToF深度传感器的反光强度信息从所述深度图数据所构建的点云中提取红外反光标志物的表面点云与实际被测表面点云,并利用所述深度矫正参数对目标表面点云进行深度值矫正。
可选地,在本申请的一个实施例中,所述根据所述相对空间信息获取最佳的个性化模型参数,包括:通过比对影像中提取的真实表面与同时获取的参考表面、目标表面,得到当前校正后表面的真实性衡量结果;利用所述红外反光标志物周围的目标表面和标志物表面的连续性信息,得到当前校正后表面的局部平滑性衡量结果;根据所述真实性衡量结果和所述局部平滑性衡量结果得到所述个性化模型参数。
可选地,在本申请的一个实施例中,在利用所述红外反光标志物获取所述参考深度值之前,还包括:将预设的至少一个红外反光标志物设置于所述目标表面的达到预设平滑条件的区域。
可选地,在本申请的一个实施例中,所述个性化模型参数的获取公式为:
其中,{Co,i}为个性化误差模型参数,{Ct,i}为当前矫正参数,Err({Ct,i})为当前矫正参数的数值评估。
本申请第二方面实施例提供一种增强现实ToF深度传感器矫正的装置,包括:第一获取模块,用于基于患者的术前影像信息,利用红外反光标志物获取参考深度值;第二获取模块,用于基于所述参考深度值,利用所述ToF深度传感器同时获取参考表面与目标表面的相对空间信息,并根据所述相对空间信息获取最佳的个性化模型参数;矫正模块,用于根据所述最佳的个性化模型参数确定集成一体化增强现实显示器内置的所述ToF深度传感器的深度矫正参数,以进行传感器矫正。
可选地,在本申请的一个实施例中,所述第二获取模块包括:采集单元,用于获取连续的、任意位姿的、朝向目标区域的深度图数据;提取单元,用于利用所述ToF深度传感器的反光强度信息从所述深度图数据所构建的点云中提取红外反光标志物的表面点云与实际被测表面点云,并利用所述深度矫正参数对目标表面点云进行深度值矫正。
可选地,在本申请的一个实施例中,所述第二获取模块还包括:比对单元,用于通过比对影像中提取的真实表面与同时获取的参考表面、目标表面,得到当前校正后表面的真实性衡量结果;衡量单元,用于利用所述红外反光标志物周围的目标表面和标志物表面的连续性信息,得到当前校正后表面的局部平滑性衡量结果;处理单元,用于根据所述真实性衡量结果和所述局部平滑性衡量结果得到所述个性化模型参数。
可选地,在本申请的一个实施例中,还包括:设置模块,用于在利用所述红外反光标志物获取所述参考深度值之前将预设的至少一个红外反光标志物设置于所述目标表面的达到预设平滑条件的区域。
可选地,在本申请的一个实施例中,所述个性化模型参数的获取公式为:
其中,{Co,i}为个性化误差模型参数,{Ct,i}为当前矫正参数,Err({Ct,i})为当前矫正参数的数值评估。
本申请第三方面实施例提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如上述实施例所述的增强现实ToF深度传感器矫正的方法。
本申请第四方面实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储计算机程序,该程序被处理器执行时实现如上的增强现实ToF深度传感器矫正的方法。
由此,本申请实施例具有以下有益效果:
本申请的实施例可以基于患者的术前影像信息,利用红外反光标志物获取参考深度值;基于参考深度值,利用ToF深度传感器同时获取参考表面与目标表面的相对空间信息,并根据相对空间信息获取最佳的个性化模型参数;根据最佳的个性化模型参数确定集成一体化增强现实显示器内置的ToF深度传感器的深度矫正参数,以进行传感器矫正,从而可在无形状、姿态约束的条件下实现患者皮肤表面目标区域的准确深度值矫正,为准确的无标志增强现实手术导航提供保障。由此,解决了现有方法对目标材质表面的形状、位置有较高的约束,当被测量表面形状不规则时,难以提供真实表面位置信息,无法对被测目标表面在ToF深度相机下的系统性深度误差进行矫正等问题。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本申请实施例提供的一种增强现实ToF深度传感器矫正的方法的流程图;
图2为本申请的一个实施例提供的一种目标对象示意图;
图3为本申请的一个实施例提供的一种增强现实ToF深度传感器深度畸变模型示意图;
图4为本申请的一个实施例提供的一种红外标志物表面与目标被测表面示意图;
图5为本申请的一个实施例提供的一种基于术前影像的矫正状态评估示意图;
图6为本申请的一个实施例提供的一种基于局部平滑性的矫正状态评估示意图;
图7为本申请的一个实施例提供的一种用于进行患者表面增强现实深度传感器矫正场景的对象关系示意图;
图8为本申请的一个实施例提供的一种增强现实ToF深度传感器矫正的方法的逻辑架构示意图;
图9为根据本申请实施例的增强现实ToF深度传感器矫正的装置的示例图;
图10为本申请实施例提供的电子设备的结构示意图。
其中,10-增强现实ToF深度传感器矫正的装置、100-第一获取模块、200-第二获取模块、300-矫正模块、1001-存储器、1002-处理器、1003-通信接口。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的增强现实ToF深度传感器矫正的方法、装置、设备及介质。针对上述背景技术中提到的问题,本申请提供了一种增强现实ToF深度传感器矫正的方法,在该方法中,基于患者的术前影像信息,利用红外反光标志物获取参考深度值;基于参考深度值,利用ToF深度传感器同时获取参考表面与目标表面的相对空间信息,并根据相对空间信息获取最佳的个性化模型参数;根据最佳的个性化模型参数确定集成一体化增强现实显示器内置的ToF深度传感器的深度矫正参数,以进行传感器矫正,从而可在无形状、姿态约束的条件下实现患者皮肤表面目标区域的准确深度值矫正,为准确的无标志增强现实手术导航提供保障。由此,解决了现有方法对目标材质表面的形状、位置有较高的约束,当被测量表面形状不规则时,难以提供真实表面位置信息,无法对被测目标表面在ToF深度相机下的系统性深度误差进行矫正等问题。
具体而言,图1为本申请实施例所提供的一种增强现实ToF深度传感器矫正的方法的流程图。
如图1所示,该增强现实ToF深度传感器矫正的方法包括以下步骤:
在步骤S101中,基于患者的术前影像信息,利用红外反光标志物获取参考深度值。
在本申请的实施例中,首先可获取目标对象的术前MRI(Magnetic ResonanceImaging,磁共振成像)或CT(Computed Tomography,电子计算机断层扫描)等影像,并对术前影像进行图像处理,以得到真实目标表面的影像信息。
进而,本领域技术人员可以理解的是,在利用红外反光标志物时获得了较小的深度值误差,因此,本申请的实施例可以红外反光材料深度值作为深度参考数据。其中,本申请实施例中的红外反光标志物可为表面具有玻璃微珠的红外反光胶带,作为一种可以实现的方式,本申请的实施例可使用打孔机将3M 7610红外反光胶带裁切为圆形以制作该红外反光标志物,该红外反光标志物应具有合适的直径,一般而言,其直径常见值为Φ=10mm。
由此,本申请的实施例通过结合术前影像信息,并以红外反光材料深度值为参考,从而为后续深度传感器矫正提供指导和依据。
可选地,在本申请的一个实施例中,在利用红外反光标志物获取参考深度值之前,还包括:将预设的至少一个红外反光标志物设置于目标表面的达到预设平滑条件的区域。
需要说明的是,在利用红外反光标志物获取参考深度值之前,本申请的实施例还需将上述红外反光标志物粘贴于预设位置处。
具体地,在本申请的实施例中,上述红外反光标志物应该恰当粘贴在目标皮肤表面,且需要位于皮肤表面较平滑区域;此外,在一次深度值矫正中可以使用多个红外反光标志物同时作为参考,此时两个红外标志物间应具有较大的距离,常见的标志物间距范围为D>40mm;同时,任意两个标志物间的法向倾角不应过大,常见范围为Δθ<40°。
由此,本申请的实施例通过利用术前影像信息,并以红外反光标志物为中介,从而实现患者皮肤表面的系统性深度偏移个性化参数辨识,精确矫正患者皮肤表面的深度数据,为基于头戴式增强现实显示系统ToF传感器的准确定位提供可靠的数据支撑。
在步骤S102中,基于参考深度值,利用ToF深度传感器同时获取参考表面与目标表面的相对空间信息,并根据相对空间信息获取最佳的个性化模型参数。
在基于患者的术前影像信息,利用红外反光标志物获取参考深度值后,进一步地,本申请的实施例还可利用ToF深度传感器中同时获取的参考表面与目标表面的相对空间信息,从而获取个性化的深度误差模型参数。
可选地,在本申请的一个实施例中,基于参考深度值,利用ToF深度传感器同时获取参考表面与目标表面的相对空间信息,包括:获取连续的、任意位姿的、朝向目标区域的深度图数据;利用ToF深度传感器的反光强度信息从深度图数据所构建的点云中提取红外反光标志物的表面点云与实际被测表面点云,并利用深度矫正参数对目标表面点云进行深度值矫正。
需要说明的是,在模型参数辨识之前,还需获取个性化参数辨识数据,本申请的实施例首先可利用头戴式增强现实显示器获取连续的、任意位姿的、朝向目标区域的深度图数据;特别地,在该位姿下,ToF传感器应当可以获取有效的深度图数据,进而可利用网络传输协议将数据传输至计算服务器用以进行误差模型参数辨识计算。
其中,本申请实施例中的集成一体式的头戴式增强现实显示器为任意具有ToF深度传感器的头戴式增强现实显示器,如HoloLens 1或HoloLens 2等设备;上述过程中所涉及的的计算机设备包括但不限x86架构、arm架构或普通单片机等多种计算机系统,该计算机设备需要具有可编程功能及网络传输接口,增强现实显示器和计算机设备之间可通过TCP等网络通讯协议传输传感器数据。
进一步地,在获取个性化参数辨识数据后,本申请的实施例还可对该个性化参数辨识数据进行数据预处理,在数据预处理过程中本申请的实施例可以利用深度传感器的反光强度信息从深度图所构建点云中提取红外反光标志物表面点云与实际被测表面点云,如图2所示,并根据深度值矫正方法,利用当前的矫正参数{Ct,i},以对目标被测表面点云进行深度值矫正,该深度值矫正方法下述将进行详细介绍,于此不在赘述。
本领域技术人员应当了解的是,ToF深度传感器在深度检测时在目标表面产生系统性误差,该误差有多种成因,包括:被测表面对ToF传感器调制波形反光的带通滤波效应会造成检测深度值的固定值偏移;调制波形中的的高频谐波会造成随目标物体深度变化的系统性深度误差,该误差在多种ToF深度传感器中已验证为近线性变化;同时,系统性深度误差也会受到表面法向、表面纹理等多种因素影响。
因此,如图3所示,本申请的实施例的深度值矫正方法可适用于正向计算的任意深度值误差模型:
其中,{Ci}为针对特定病患、特定组织活表面的个性化误差模型参数;d为相机光心与被测点的距离;θ为被测点处的局部法向和测量发射光线的夹角。
作为一种可以实现的方式,上述夹角可通过下式得到:
其中,n为表面法向,(x,y,z)为被测点在相机空间的坐标。
此外,本申请实施例中的f的参数中可以包含任意其余可以从深度传感器数据中获取的、用于畸变模型的参数作为输入,且该表达式f不限于显式表达式和机器学习、深度学习等多种隐式表达形式,常规的深度值误差模型为误差量随角度、深度线性变化的显式模型如下:
f(d,θ)=C1+C2·d+C3·θ
因此,本申请实施例的深度值矫正方法具体流程如下所述:
1、本申请实施例可以通过深度图及所构建点云估测针对该点一系列用于畸变模型的参数,如θj′等,以近似实际表面中该点的对应参数,此时,该点在ToF传感器中的测量深度d′j=||x′j||2与其实际所处深度dj之间的关系可以表述为:
2、通过求解该方程,可以得到被测点的实际深度值dj,以计算该点的实际空间位置:
其中,求解该方程的方法即包含显式求解方法,针对神经网络的反向传播方法,在无法获得显示求解表达式时也可以使用牛顿法等迭代优化方法获得近似解,以本申请实施例中的线性深度误差模型为例,实际深度值dj的求解具有显式表达如下式所示:
由此,本申请的利用前述深度值矫正方法结合当前的矫正参数,从而实现目标被测表面点云的深度值矫正。
可选地,在本申请的一个实施例中,根据相对空间信息获取最佳的个性化模型参数,包括:通过比对影像中提取的真实表面与同时获取的参考表面、目标表面,得到当前校正后表面的真实性衡量结果;利用红外反光标志物周围的目标表面和标志物表面的连续性信息,得到当前校正后表面的局部平滑性衡量结果;根据真实性衡量结果和局部平滑性衡量结果得到个性化模型参数。
需要说明的是,本申请的实施例可利用术前影像信息评估矫正后表面与真实表面的相似度,以进行个性化深度值矫正参数评估,个性化深度值矫正参数评估方法的执行过程如下所述:
1、通过点云配准算法配准被测表面点云与被测表面在术前影像中提取的实际表面点云;
2、通过点云注册方法,如点到面ICP算法等计算反光标志物表面点云到术前影像表面点云的平均距离,得到矫正表面与实际表面的相似程度,如图4所示,记为Dm,其中m为用于深度误差模型个性化参数辨识的第m帧数据;
3、评估校正后目标表面在各个红外反光标志物附近的平滑程度:
(1)拟合各个标志物周围的局部曲面方程;
(2)计算标志物表面点云到拟合曲面的平均距离,以评估深度值矫正后的点云在标志物附近的平滑程度,如图5所示,记为Sm,n,其中n表示用于个性化参数辨识作为参考的第n个红外反光标志物;在该过程中,本领域技术人员可以根据实际情况使用任何空间平滑曲面进行拟合,本申请的实施例可利用如下的曲面方程进行拟合:
(3)通过在所有用于深度误差模型参数辨识的深度传感器数据中计算两个评估指标并求和,可获得对当前矫正参数的数值评估,如图6所示:
由此,本申请的实施例通过比对影像中提取的真实表面与同时获取的标志物表面、目标表面,且本申请的实施例还可利用各个参考标志物周围的目标表面和标志物表面的连续性信息,从而可以有效的衡量当前校正后表面的真实性和局部平滑性;此外,本申请的实施例还可通过评估目标表面在使用给定深度畸变模型与参数值矫正后与真实表面相似度和局部平滑度,并利用优化手段获取最佳的个性化模型参数,从而实现深度值的准确矫正。
可选地,在本申请的一个实施例中,个性化模型参数的获取公式为:
其中,{Co,i}为个性化误差模型参数,{Ct,i}为当前矫正参数,Err({Ct,i})为当前矫正参数的数值评估。
进一步地,本申请的实施例可通过任意满足条件的优化方法如牛顿-共轭梯度法等,以在参数空间中最小化误差矫正参数评估函数,得到适用于目标表面的最优深度误差模型个性化参数,如下式所示:
其中,{Co,i}为个性化误差模型参数,{Ct,i}为当前矫正参数,Err({Ct,i})为当前矫正参数的数值评估。
可以理解的是,本申请的实施例通过利用个性化深度误差模型参数结合深度值矫正方法,从而可对任意目标区域的深度图数据进行准确矫正。
在步骤S103中,根据最佳的个性化模型参数确定集成一体化增强现实显示器内置的ToF深度传感器的深度矫正参数,以进行传感器矫正。
在获取最佳的个性化模型参数后,进一步地,本申请的实施例还可对获取患者个性化的ToF传感器深度畸变参数进行优化,从而实现集成一体化增强现实显示器内置ToF传感器的针对性深度值矫正。
下述将通过一个具体的实施例并结合附图对本申请的增强现实ToF深度传感器矫正的方法进行进一步的介绍。
在使用ToF深度传感器进行定位、引导前,本申请具体实施例首先可通过增强现实深度传感器系统针对目标区域进行个性化深度误差模型参数辨识。
其中,上述系统构成如图7所示,该系统主要包括作为检测、定位目标的患者皮肤表面、作为深度值参考的平面红外反光标志物、集成一体式的头戴式增强现实显示器以及用于处理数据的计算机设备四个部分,该系统具体使用方式如下所述:
1、使用者佩戴集成一体化头戴式增强现实显示器(此处为HoloLens 2);
2、在患者的目标检测区较平滑处粘贴多个红外反光标志物(此处为Φ=10mm的,由3M 7610红外反光胶带打孔裁剪而成的红外反光贴片);
3、使用者保持目标检测区域处于深度相机有效检测范围内(此处为1m以内);佩戴头戴式增强现实显示器从各个角度获取深度传感器数据;
4、计算机服务器通过网络协议从增强现实显示器中获取传感器数据。
其次,本申请的实施例可利用上述ToF深度传感器系统进行个性化深度误差矫正参数辨识,如图8所示,具体过程如下:
1、选定误差模型与起始参数{Cinit,i},本申请实施例可使用上述方法中深度误差随深度、法向角度线性变化的模型:
(1)获取红外标志物区域与目标引导区域的表面信息,包含各目标点的深度值和法向角度;
(2)使用上述深度值矫正方法完成目标表面的深度值矫正;
(3)使用个性化矫正参数评估方法计算当前矫正参数有效性;
(4)通过上述优化方法最小化矫正参数评估函数,获得深度误差模型个性化参数。
最后,在实际检测、定位等需要利用目标表面深度信息时,本申请的实施例首先可利用深度图和所构建的点云计算用于矫正的参数量,包括dj,θj,进而可通过求解方程获得实际深度值,从而得到矫正后的深度数据和准确的点云信息,以用于定位引导。
根据本申请实施例提出的增强现实ToF深度传感器矫正的方法,基于患者的术前影像信息,利用红外反光标志物获取参考深度值;基于参考深度值,利用ToF深度传感器同时获取参考表面与目标表面的相对空间信息,并根据相对空间信息获取最佳的个性化模型参数;根据最佳的个性化模型参数确定集成一体化增强现实显示器内置的ToF深度传感器的深度矫正参数,以进行传感器矫正,从而可在无形状、姿态约束的条件下实现患者皮肤表面目标区域的准确深度值矫正,为准确的无标志增强现实手术导航提供保障。
其次,参照附图描述根据本申请实施例提出的增强现实ToF深度传感器矫正的装置。
图9是本申请实施例的增强现实ToF深度传感器矫正的装置的方框示意图。
如图9所示,该增强现实ToF深度传感器矫正的装置10包括:第一获取模块100、第二获取模块200以及矫正模块300。
其中,第一获取模块100,用于基于患者的术前影像信息,利用红外反光标志物获取参考深度值。
第二获取模块200,用于基于参考深度值,利用ToF深度传感器同时获取参考表面与目标表面的相对空间信息,并根据相对空间信息获取最佳的个性化模型参数。
矫正模块300,用于根据最佳的个性化模型参数确定集成一体化增强现实显示器内置的ToF深度传感器的深度矫正参数,以进行传感器矫正。
可选地,在本申请的一个实施例中,第二获取模块200包括:采集单元和提取单元。
其中,采集单元,用于获取连续的、任意位姿的、朝向目标区域的深度图数据。
提取单元,用于利用ToF深度传感器的反光强度信息从深度图数据所构建的点云中提取红外反光标志物的表面点云与实际被测表面点云,并利用深度矫正参数对目标表面点云进行深度值矫正。
可选地,在本申请的一个实施例中,第二获取模块200还包括:比对单元、衡量单元以及处理单元。
其中,比对单元,用于通过比对影像中提取的真实表面与同时获取的参考表面、目标表面,得到当前校正后表面的真实性衡量结果。
衡量单元,用于利用红外反光标志物周围的目标表面和标志物表面的连续性信息,得到当前校正后表面的局部平滑性衡量结果。
处理单元,用于根据真实性衡量结果和局部平滑性衡量结果得到个性化模型参数。
可选地,在本申请的一个实施例中,本申请实施例的增强现实ToF深度传感器矫正的装置10还包括:设置模块,用于在利用红外反光标志物获取参考深度值之前将预设的至少一个红外反光标志物设置于目标表面的达到预设平滑条件的区域。
可选地,在本申请的一个实施例中,个性化模型参数的获取公式为:
其中,{Co,i}为个性化误差模型参数,{Ct,i}为当前矫正参数,Err({Ct,i})为当前矫正参数的数值评估。
需要说明的是,前述对增强现实ToF深度传感器矫正的方法实施例的解释说明也适用于该实施例的增强现实ToF深度传感器矫正的装置,此处不再赘述。
根据本申请实施例提出的增强现实ToF深度传感器矫正的装置,包括第一获取模块,用于基于患者的术前影像信息,利用红外反光标志物获取参考深度值;第二获取模块,用于基于参考深度值,利用ToF深度传感器同时获取参考表面与目标表面的相对空间信息,并根据相对空间信息获取最佳的个性化模型参数;矫正模块,用于根据最佳的个性化模型参数确定集成一体化增强现实显示器内置的ToF深度传感器的深度矫正参数,以进行传感器矫正,从而可在无形状、姿态约束的条件下实现患者皮肤表面目标区域的准确深度值矫正,为准确的无标志增强现实手术导航提供保障。
图10为本申请实施例提供的电子设备的结构示意图。该电子设备可以包括:
存储器1001、处理器1002及存储在存储器1001上并可在处理器1002上运行的计算机程序。
处理器1002执行程序时实现上述实施例中提供的增强现实ToF深度传感器矫正的方法。
进一步地,电子设备还包括:
通信接口1003,用于存储器1001和处理器1002之间的通信。
存储器1001,用于存放可在处理器1002上运行的计算机程序。
存储器1001可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
如果存储器1001、处理器1002和通信接口1003独立实现,则通信接口1003、存储器1001和处理器1002可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(Industry Standard Architecture,简称为ISA)总线、外部设备互连(PeripheralComponent,简称为PCI)总线或扩展工业标准体系结构(Extended Industry StandardArchitecture,简称为EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图10中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选地,在具体实现上,如果存储器1001、处理器1002及通信接口1003,集成在一块芯片上实现,则存储器1001、处理器1002及通信接口1003可以通过内部接口完成相互间的通信。
处理器1002可能是一个中央处理器(Central Processing Unit,简称为CPU),或者是特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者是被配置成实施本申请实施例的一个或多个集成电路。
本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上的增强现实ToF深度传感器矫正的方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或N个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“N个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或N个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或N个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,N个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (12)
1.一种增强现实ToF深度传感器矫正的方法,其特征在于,包括以下步骤:
基于患者的术前影像信息,利用红外反光标志物获取参考深度值;
基于所述参考深度值,利用所述ToF深度传感器同时获取参考表面与目标表面的相对空间信息,并根据所述相对空间信息获取最佳的个性化模型参数;
根据所述最佳的个性化模型参数确定集成一体化增强现实显示器内置的所述ToF深度传感器的深度矫正参数,以进行传感器矫正。
2.根据权利要求1所述的方法,其特征在于,所述基于所述参考深度值,利用所述ToF深度传感器同时获取参考表面与目标表面的相对空间信息,包括:
获取连续的、任意位姿的、朝向目标区域的深度图数据;
利用所述ToF深度传感器的反光强度信息从所述深度图数据所构建的点云中提取红外反光标志物的表面点云与实际被测表面点云,并利用所述深度矫正参数对目标表面点云进行深度值矫正。
3.根据权利要求1所述的方法,其特征在于,所述根据所述相对空间信息获取最佳的个性化模型参数,包括:
通过比对影像中提取的真实表面与同时获取的参考表面、目标表面,得到当前校正后表面的真实性衡量结果;
利用所述红外反光标志物周围的目标表面和标志物表面的连续性信息,得到当前校正后表面的局部平滑性衡量结果;
根据所述真实性衡量结果和所述局部平滑性衡量结果得到所述个性化模型参数。
4.根据权利要求1所述的方法,其特征在于,在利用所述红外反光标志物获取所述参考深度值之前,还包括:
将预设的至少一个红外反光标志物设置于所述目标表面的达到预设平滑条件的区域。
5.根据权利要求1所述的方法,其特征在于,所述个性化模型参数的获取公式为:
其中,{Co,i}为个性化误差模型参数,{Ct,i}为当前矫正参数,Err({Ct,i})为当前矫正参数的数值评估。
6.一种增强现实ToF深度传感器矫正的装置,其特征在于,包括:
第一获取模块,用于基于患者的术前影像信息,利用红外反光标志物获取参考深度值;
第二获取模块,用于基于所述参考深度值,利用所述ToF深度传感器同时获取参考表面与目标表面的相对空间信息,并根据所述相对空间信息获取最佳的个性化模型参数;
矫正模块,用于根据所述最佳的个性化模型参数确定集成一体化增强现实显示器内置的所述ToF深度传感器的深度矫正参数,以进行传感器矫正。
7.根据权利要求6所述的装置,其特征在于,所述第二获取模块包括:
采集单元,用于获取连续的、任意位姿的、朝向目标区域的深度图数据;
提取单元,用于利用所述ToF深度传感器的反光强度信息从所述深度图数据所构建的点云中提取红外反光标志物的表面点云与实际被测表面点云,并利用所述深度矫正参数对目标表面点云进行深度值矫正。
8.根据权利要求6所述的装置,其特征在于,所述第二获取模块还包括:
比对单元,用于通过比对影像中提取的真实表面与同时获取的参考表面、目标表面,得到当前校正后表面的真实性衡量结果;
衡量单元,用于利用所述红外反光标志物周围的目标表面和标志物表面的连续性信息,得到当前校正后表面的局部平滑性衡量结果;
处理单元,用于根据所述真实性衡量结果和所述局部平滑性衡量结果得到所述个性化模型参数。
9.根据权利要求6所述的装置,其特征在于,还包括:
设置模块,用于在利用所述红外反光标志物获取所述参考深度值之前将预设的至少一个红外反光标志物设置于所述目标表面的达到预设平滑条件的区域。
10.根据权利要求6所述的装置,其特征在于,所述个性化模型参数的获取公式为:
其中,{Co,i}为个性化误差模型参数,{Ct,i}为当前矫正参数,Err({Ct,i})为当前矫正参数的数值评估。
11.一种电子设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如权利要求1-5任一项所述的增强现实ToF深度传感器矫正的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行,以用于实现如权利要求1-5任一项所述的增强现实ToF深度传感器矫正的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310678953.2A CN116758248A (zh) | 2023-06-08 | 2023-06-08 | 增强现实ToF深度传感器矫正的方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310678953.2A CN116758248A (zh) | 2023-06-08 | 2023-06-08 | 增强现实ToF深度传感器矫正的方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116758248A true CN116758248A (zh) | 2023-09-15 |
Family
ID=87956489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310678953.2A Pending CN116758248A (zh) | 2023-06-08 | 2023-06-08 | 增强现实ToF深度传感器矫正的方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116758248A (zh) |
-
2023
- 2023-06-08 CN CN202310678953.2A patent/CN116758248A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3380034B1 (en) | Navigation, tracking and guiding system for the positioning of operatory instruments within the body of a patient | |
EP3305202A1 (en) | Pre-operative registration of anatomical images with a position-tracking system using ultrasound | |
US9612657B2 (en) | 3D-volume viewing by controlling sight depth | |
US20200129240A1 (en) | Systems and methods for intraoperative planning and placement of implants | |
EP3392835B1 (en) | Improving registration of an anatomical image with a position-tracking coordinate system based on visual proximity to bone tissue | |
CN109419556A (zh) | 在解剖图像中显示内窥镜的位置和光轴 | |
EP2901934B1 (en) | Method and device for generating virtual endoscope image, and program | |
JP2017086917A (ja) | Ct画像に対して局所的に適用される透過法 | |
KR20200026851A (ko) | 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법 | |
KR102084256B1 (ko) | 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법 | |
US20220354462A1 (en) | Multiscale ultrasound tracking and display | |
CN116758248A (zh) | 增强现实ToF深度传感器矫正的方法、装置、设备及介质 | |
US20230248441A1 (en) | Extended-reality visualization of endovascular navigation | |
EP3644845B1 (en) | Position detection system by fiber bragg grating based optical sensors in surgical fields | |
US20240197411A1 (en) | System and method for lidar-based anatomical mapping | |
CN113614785A (zh) | 介入设备跟踪 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |