CN109828658B - 一种人机共融的远程态势智能感知系统 - Google Patents
一种人机共融的远程态势智能感知系统 Download PDFInfo
- Publication number
- CN109828658B CN109828658B CN201811542762.9A CN201811542762A CN109828658B CN 109828658 B CN109828658 B CN 109828658B CN 201811542762 A CN201811542762 A CN 201811542762A CN 109828658 B CN109828658 B CN 109828658B
- Authority
- CN
- China
- Prior art keywords
- scene
- dimensional
- virtual
- real
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种人机共融的远程态势智能感知系统,其包括:场景感知设备,用于构建初步的三维场景模型;定位单元,用于实时获取场景感知设备所处的位置,对当前场景的虚拟场景部分进行定位;场景重建单元,用于基于场景感知设备获取的初步的三维场景模型和当前场景的虚拟场景部分的定位信息,重建当前场景的虚拟场景部分的三维重建模型;人体识别单元,用于识别当前场景的虚拟场景部分的人体姿态;增强现实设备,用于构建现实场景部分的三维重建模型;虚实融合单元,用于将虚拟场景部分的三维重建模型与现实场景部分的三维重建模型进行融合,获得虚实融合后的当前场景的三维重建模型;可视交互单元,用于展示虚实融合后的当前场景的三维重建模型。
Description
技术领域
本发明属于人工智能和态势感知技术领域,具体涉及一种人机共融的远程态势智能感知系统。
背景技术
增强现实是指将计算机系统提供的信息或图像与现实世界信息进行叠加呈现给用户,从而提升用户对现实世界的感知能力;其重点是该信息或图像是叠加到现实世界上的,是一种“实中有虚”的表现效果,对用户来说,相当于“增强”了其对现实世界的理解和感知。
随着人工智能技术的发展,各行各业“无人化”设备数量急剧增多,性能也得到了极大提升,可以预见,未来大量的工作将由智能化设备完成,工作场景将形成“人”与智能“机器人”混编的局面。无人设备在很多场景下,例如火灾及地震现场、高海拔地区等有着常人无法企及的优势,同时在未来战场中,无人设备在侦察、分析、打击等方面的有着独特的优势。无人平台通过传感器获取特殊场景下的图像、声音等信息极大的延伸了人的“眼”与“耳”,使人对周边复杂未知环境的感知范围与深度得到极大扩展。
但是,无人设备所采集的信息纷繁复杂,如城市场景中,街面上建筑物错落交织,街面下水管、隧道星罗棋布,大量错综复杂的信息让人“充满着迷雾”。这些复杂的场景特征既扩展了人的感知,同时也影响了人对有效信息的提取,如何在复杂环境下清晰感知整体态势显得十分重要。
发明内容
本发明的目的在于,为解决现有技术存在上述缺陷,本发明提出了一种人机共融的远程态势智能感知系统,通过增强现实设备实现人机协同的态势感知,运用无人机等设备充当“眼”和“耳”获取大范围场景态势信息,经过对多源、多类型的数据融合后汇聚到服务端,并进行三维重构、目标识别、感兴趣信息提取,再经过头戴式增强现实设备与人眼中的真实环境进行高精度配准,最后经过头戴显示设备实现对环境、人体行为、车辆、威胁来源等态势信息的“虚实结合”展示。
为了实现上述目的,本发明提供了一种人机共融的远程态势智能感知系统,将增强现实技术与无人系统技术相结合,将场景感知设备探测到的当前场景的环境与目标信息通过增强现实设备与人的视觉内容进行一致性融合,人机共融,真正成为人的“眼”与“耳”的延伸,使人对周边复杂未知环境的感知范围与深度极大扩展,能够在不干扰人员正常行动的情况下提供穿越障碍、跨视距、超分辨的环境感知与目标认知等应用服务。该系统具体包括:
场景感知设备,其搭载在无人移动平台上,用于获取当前场景中的虚拟场景部分的单目彩色图像、双目彩色图像、深度图像、点云数据、惯性测量数据,基于上述数据,构建初步的三维场景模型;
定位单元,位于场景感知设备上,用于实时获取场景感知设备所处的位置,对当前场景的虚拟场景部分进行定位;
由于场景感知设备搭载在无人平台上,无人平台是实时移动的,如果室外的大部分场景有GPS信号,则定位单元可以通过采用GPS对场景感知设备所处的位置进行定位;如果室外的场景或者室内的场景没有GPS信号,则定位单元依靠视觉定位来实时获取无人平台的位置,进而获得场景感知设备所处的位置,以解决无GPS信号环境下的定位问题。其中,所述定位具体包括:
a)通过双目彩色图像融合惯性测量数据来定位场景感知设备所处的位置;
b)通过单目彩色图像、深度图像融合惯性测量数据来定位场景感知设备所处的位置;
c)通过点云数据融合惯性测量数据来定位场景感知设备所处的位置。
场景重建单元,用于基于场景感知设备所获取的初步的三维场景模型和当前场景的虚拟场景部分的定位信息,利用视觉特征,重建当前场景的虚拟场景部分的三维重建模型,形成一个逼真的高精度的三维地图。在重建过程中,采用动静分离,提取、标注动态目标的信息,便于用户认知和识别。
人体识别单元,用于识别当前场景的虚拟场景部分的三维重建模型中的人体姿态;
增强现实设备,用于获取当前场景中的现实场景部分的单目彩色图像、双目彩色图像、深度图像、点云数据、惯性测量数据,构建现实场景部分的三维重建模型;
虚实融合单元,用于将虚拟场景部分的三维重建模型与现实场景部分的三维重建模型进行融合,获得虚实融合后的当前场景的三维重建模型;
可视交互单元,用于展示虚实融合后的当前场景的三维重建模型。
作为上述系统的改进之一,上述场景感知设备进一步包括:
单目相机,用于获取场景感知设备所处当前场景的单目彩色图像;
双目相机,用于获取场景感知设备所处当前场景的特定基线下的双目彩色图像;
深度传感器,用于获取场景感知设备所处当前场景的深度数据;
激光雷达,用于获取场景感知设备所处当前场景的点云数据;
惯性传感器,用于获取场景感知设备所处当前场景的惯性测量数据;
基于获取的当前场景中的虚拟场景部分的单目彩色图像、双目彩色图像、深度图像、点云数据、惯性测量数据,基于上述数据,构建初步的三维场景模型。
其中,所述单目彩色图像为单目相机视场内的RGB图像,所述双目彩色图像为双目相机视场内的左目及右目两幅RGB图像,所述深度图像为深度传感器视场内场景物体到深度传感器距离经过归一化后的灰度图像,所述点云数据为激光雷达视场内的场景物体的RGBD数据,所述惯性测量数据为场景感知设备移动时其姿态变化数据;
其中,场景感知设备可以搭载在无人机或无人车等移动平台上,开展不同区域的数据采集。
作为上述系统的改进之一,所述场景重建单元具体包括:
通过单目彩色图像与深度图像结合、双目彩色图像基于双目相机的基线大小、或激光雷达获取场景点云数据,再结合定位单元所获取的场景感知设备所处的位置,通过不断融合相邻时刻所获取的场景点云数据并进行网格化,结合视觉特征,逐步细化并修正场景感知设备所构建的初步三维场景模型,重建当前场景的虚拟场景部分的三维重建模型,形成一个逼真的高精度的三维地图。
在三维重建模型的场景构建过程中,场景中的动态物体对应的点云数据会影响相邻时刻点云数据的视觉特征匹配,采用基于区域转换矩阵分类的动目标分割方法进行动静分离,对于场景中分离后的静态物体对应的点云数据用于上述三维重建模型的重建,对于场景中分离后的动态物体对应的点云数据则进行动态目标的标注。回环检测优化是用来消除逐步构建三维重建模型时所带来的累积误差,当场景感知设备获取到新的点云数据时,将其与前面所获取的点云数据进行对比,如果发现二者是同一个地方的数据时,则以此时新的点云数据和场景感知设备的定位数据为基准对前面整个过程中所构建的三维重建模型进行精细调整和优化,从而形成全局一致的高精度三维地图。
作为上述系统的改进之一,所述人体识别单元具体包括:
二维姿态估计、姿态预测优化、三维姿态映射;具体地,针对当前场景的虚拟场景部分的三维重建模型中的每一幅彩色图像,基于人体骨骼关节点拓扑结构,通过深度学习的方法,确定人体各肢体在图像中的位置、区域,从而估计人体的二维姿态;由于人体的运动是连续的,其骨骼关节点的运动轨迹也是连续的,因此利用相邻时刻获取的人体的二维姿态信息,对当前时刻所估计的人体的二维姿态进行预测修正,最终得到优化后的人体的二维姿态信息;通过优化后的人体的二维姿态,针对每一个关节点在二维图像中的像素位置来查找其在深度数据所对应的深度信息,从而获取三维人体姿态,并将该三维人体姿态结果与场景重建单元中动静分离后的运动物体点云数据进行匹配,对匹配成功的点云数据进行网格化,完成三维姿态映射,形成最终的三维场景下的人体姿态。
作为上述系统的改进之一,所述虚实融合单元具体包括:
根据每一时刻中的场景感知设备与增强现实设备分别在现实世界中所处的位置和姿态来配准对应时刻的数据内容,从而将虚拟场景部分的三维重建模型与现实场景部分的三维重建模型进行几何一致性渲染,并进行配准定位,达到高精度匹配;通过实时获取场景感知设备所处场景以及增强现实设备所处场景中的光源进行光照一致性渲染,获得渲染融合后的场景光照;将虚拟场景部分的三维重建模型与现实场景部分的三维重建模型,以及渲染融合后的场景光照进行融合,获得虚实融合后的当前场景的三维重建模型。
其中,场景重建单元每个时刻所重建的虚拟场景部分的三维模型网格数量很大,为了提高渲染效率,虚实融合单元对场景更新内容进行优化,即对于静态场景信息只更新实际变化部分,对人体骨骼等动态信息实时更新骨骼点位置,其骨骼关节点的拓扑结构预先约定,这样能有效降低系统负荷提高渲染帧率;几何一致性解决了虚实场景几何一致性如配准定位、透视关系、遮挡关系等问题,光照一致性则是通过实时获取场景感知设备所处场景以及增强现实设备所处场景中的光源来渲染融合后的场景光照。
本发明的优点在于:
1.提出了一种人机共融的远程态势智能感知方法,让无人集群真正成为人的“眼”与“耳”的延伸,使人对周边复杂未知环境的感知范围与深度极大扩展,能够在不干扰人员正常行动的情况下提供穿障碍、跨视距、超分辨的环境感知与目标认知等应用服务;
2.设计了场景智能感知设备,重点解决了在无GPS环境下,在微型处理器上基于稀疏地图的快速自主定位、避障问题,并实现了单节点上场景数据的实时压缩与传输,为高精度地图构建、路径规划、协同作业等应用奠定了基础。
附图说明
图1是本发明的一种人机共融的远程态势智能感知系统的结构示意图;
图2是本发明的一种人机共融的远程态势智能感知系统的场景重建单元的三维重建场景效果图;
图3是本发明的一种人机共融的远程态势智能感知系统的人体识别单元的人体识别效果图;
图4是本发明的一种人机共融的远程态势智能感知系统的虚实融合单元的虚实融合效果图。
具体实施方式
现结合附图对本发明作进一步的描述。
如图1所示,本发明提供了一种人机共融的远程态势智能感知系统,场景感知设备所获取的原始信息包括很多二维彩色图像、深度图像、点云等等,这些信息是杂乱无章的,通过场景重构单元构建出实际的地形数据并提取感兴趣的实体对象进行标注如车辆、桌子、椅子等,同时通过人体行为识别单元识别出其中的人物及其动作并进行标注,对其中无效的信息或用户不感兴趣的信息,进行剔除,不再显示,从而将用户从大量复杂零碎的数据中解脱出来,一目了然的获知场景的整体态势。另外则是通过系统让用户能够感知视线范围外的信息,达到穿墙透视的效果,这是系统的出发点。
所述人机共融的远程态势智能感知系统包括:
场景感知设备,其搭载在无人移动平台上,用于获取当前场景中的虚拟场景部分的单目彩色图像、双目彩色图像、深度图像、点云数据、惯性测量数据,基于上述数据,构建初步的三维场景模型;
定位单元,位于场景感知设备上,用于实时获取场景感知设备所处的位置,对当前场景的虚拟场景部分进行定位;
由于场景感知设备搭载在无人平台上,无人平台是实时移动的,如果室外的大部分场景有GPS信号,则定位单元可以通过采用GPS对场景感知设备所处的位置进行定位;如果室外的场景或者室内的场景没有GPS信号,则定位单元依靠视觉定位来实时获取无人平台的位置,进而获得场景感知设备所处的位置,以解决无GPS信号环境下的定位问题。其中,所述定位具体包括:
a)通过双目彩色图像融合惯性测量数据来定位场景感知设备所处的位置;
b)通过单目彩色图像、深度图像融合惯性测量数据来定位场景感知设备所处的位置;
c)通过点云数据融合惯性测量数据来定位场景感知设备所处的位置。
场景重建单元,用于基于场景感知设备所获取的初步的三维场景模型和当前场景的虚拟场景部分的定位信息,利用视觉特征,重建当前场景的虚拟场景部分的三维重建模型,形成一个逼真的高精度的三维地图。在重建过程中,采用动静分离,提取、标注动态目标的信息,便于用户认知和识别。
人体识别单元,用于识别当前场景的虚拟场景部分的三维重建模型中的人体姿态;
增强现实设备,用于获取当前场景中的现实场景部分的单目彩色图像、双目彩色图像、深度图像、点云数据、惯性测量数据,构建现实场景部分的三维重建模型;
虚实融合单元,用于将虚拟场景部分的三维重建模型与现实场景部分的三维重建模型进行融合,获得虚实融合后的当前场景的三维重建模型;
可视交互单元,用于展示虚实融合后的当前场景的三维重建模型。
作为上述系统的改进之一,上述场景感知设备进一步包括:
单目相机,用于获取场景感知设备所处当前场景的单目彩色图像;
双目相机,用于获取场景感知设备所处当前场景的特定基线下的双目彩色图像;
深度传感器,用于获取场景感知设备所处当前场景的深度数据;
激光雷达,用于获取场景感知设备所处当前场景的点云数据;
惯性传感器,用于获取场景感知设备所处当前场景的惯性测量数据;
基于获取的当前场景中的虚拟场景部分的单目彩色图像、双目彩色图像、深度图像、点云数据、惯性测量数据,基于上述数据,构建初步的三维场景模型。
其中,所述单目彩色图像为单目相机视场内的RGB图像,所述双目彩色图像为双目相机视场内的左目及右目两幅RGB图像,所述深度图像为深度传感器视场内场景物体到深度传感器距离经过归一化后的灰度图像,所述点云数据为激光雷达视场内的场景物体的RGBD数据,所述惯性测量数据为场景感知设备移动时其姿态变化数据;
其中,场景感知设备可以搭载在无人机或无人车等移动平台上,开展不同区域的数据采集。
作为上述系统的改进之一,所述场景重建单元具体包括:
通过单目彩色图像与深度图像结合、双目彩色图像基于双目相机的基线大小、或激光雷达获取场景点云数据,再结合定位单元所获取的场景感知设备所处的位置,通过不断融合相邻时刻所获取的场景点云数据并进行网格化,结合视觉特征,逐步细化并修正场景感知设备所构建的初步三维场景模型,重建当前场景的虚拟场景部分的三维重建模型,形成一个逼真的高精度的三维地图。
在三维重建模型的场景构建过程中,场景中的动态物体对应的点云数据会影响相邻时刻点云数据的视觉特征匹配,采用基于区域转换矩阵分类的动目标分割方法进行动静分离,对于场景中分离后的静态物体对应的点云数据用于上述三维重建模型的重建,对于场景中分离后的动态物体对应的点云数据则进行动态目标的标注。回环检测优化是用来消除逐步构建三维重建模型时所带来的累积误差,当场景感知设备获取到新的点云数据时,将其与前面所获取的点云数据进行对比,如果发现二者是同一个地方的数据时,则以此时新的点云数据和场景感知设备的定位数据为基准对前面整个过程中所构建的三维重建模型进行精细调整和优化,从而形成全局一致的高精度三维地图。如图2所示,图2为三维场景重构及增强现实效果示意图,图中的三角网格是通过场景重建单元对现实场景部分进行三维重构所建立的网格地图,图中的太阳系、展示面板是构建的虚拟对象。
作为上述系统的改进之一,所述人体识别单元具体包括:
二维姿态估计、姿态预测优化、三维姿态映射;具体地,针对当前场景的虚拟场景部分的三维重建模型中的每一幅彩色图像,基于人体骨骼关节点拓扑结构,通过深度学习的方法,确定人体各肢体在图像中的位置、区域,从而估计人体的二维姿态;由于人体的运动是连续的,其骨骼关节点的运动轨迹也是连续的,因此利用相邻时刻获取的人体的二维姿态信息,对当前时刻所估计的人体的二维姿态进行预测修正,最终得到优化后的人体的二维姿态信息;通过优化后的人体的二维姿态,针对每一个关节点在二维图像中的像素位置来查找其在深度数据所对应的深度信息,从而获取三维人体姿态,并将该三维人体姿态结果与场景重建单元中动静分离后的运动物体点云数据进行匹配,对匹配成功的点云数据进行网格化,完成三维姿态映射,形成最终的三维场景下的人体姿态。如图3所示,通过人体识别单元对人体骨骼关键点的提取及其拓扑关系的管理来建立识别后的人体骨骼信息。
作为上述系统的改进之一,所述虚实融合单元具体包括:
根据每一时刻中的场景感知设备与增强现实设备分别在现实世界中所处的位置和姿态来配准对应时刻的数据内容,从而将虚拟场景部分的三维重建模型与现实场景部分的三维重建模型进行几何一致性渲染,并进行配准定位,达到高精度匹配;通过实时获取场景感知设备所处场景以及增强现实设备所处场景中的光源进行光照一致性渲染,获得渲染融合后的场景光照;将虚拟场景部分的三维重建模型与现实场景部分的三维重建模型,以及渲染融合后的场景光照进行融合,获得虚实融合后的当前场景的三维重建模型。如图4所示,图中的立方体表示所构建的墙背后的障碍物,不同灰度级别表示障碍物离人的远近,浅色表示距离近,深色表示距离远;折线表示所构建的人群从墙背后走过时的人体骨骼信息。
其中,场景重建单元每个时刻所重建的虚拟场景部分的三维模型网格数量很大,为了提高渲染效率,虚实融合单元对场景更新内容进行优化,即对于静态场景信息只更新实际变化部分,对人体骨骼等动态信息实时更新骨骼点位置,其骨骼关节点的拓扑结构预先约定,这样能有效降低系统负荷提高渲染帧率;几何一致性解决了虚实场景几何一致性如配准定位、透视关系、遮挡关系等问题,光照一致性则是通过实时获取场景感知设备所处场景以及增强现实设备所处场景中的光源来渲染融合后的场景光照。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (4)
1.一种人机共融的远程态势智能感知系统,其特征在于,该系统具体包括:
场景感知设备,其搭载在无人移动平台上,用于获取当前场景中的虚拟场景部分的单目彩色图像、双目彩色图像、深度图像、点云数据、惯性测量数据,基于上述数据,构建初步的三维场景模型;
所述场景感知设备进一步包括:
单目相机,用于获取场景感知设备所处当前场景的单目彩色图像;
双目相机,用于获取场景感知设备所处当前场景的特定基线下的双目彩色图像;
深度传感器,用于获取场景感知设备所处当前场景的深度数据;
激光雷达,用于获取场景感知设备所处当前场景的点云数据;
惯性传感器,用于获取场景感知设备所处当前场景的惯性测量数据;
基于获取的当前场景中的虚拟场景部分的单目彩色图像、双目彩色图像、深度图像、点云数据、惯性测量数据,基于上述数据,构建初步的三维场景模型;
定位单元,位于场景感知设备上,用于实时获取场景感知设备所处的位置,对当前场景的虚拟场景部分进行定位;
场景重建单元,用于基于场景感知设备所获取的初步的三维场景模型和当前场景的虚拟场景部分的定位信息,利用视觉特征,重建当前场景的虚拟场景部分的三维重建模型;
人体识别单元,用于识别当前场景的虚拟场景部分的三维重建模型中的人体姿态;
通过场景重构单元构建出实际的地形数据并提取感兴趣的实体对象进行标注,同时通过人体行为识别单元识别出其中的人物及其动作并进行标注,对其中无效的信息或用户不感兴趣的信息,进行剔除;
增强现实设备,用于获取当前场景中的现实场景部分的单目彩色图像、双目彩色图像、深度图像、点云数据、惯性测量数据,构建现实场景部分的三维重建模型;
虚实融合单元,用于将虚拟场景部分的三维重建模型与现实场景部分的三维重建模型进行融合,获得虚实融合后的当前场景的三维重建模型;
可视交互单元,用于展示虚实融合后的当前场景的三维重建模型。
2.根据权利要求1所述的系统,其特征在于,所述场景重建单元具体包括:
通过单目彩色图像与深度图像结合、双目彩色图像基于双目相机的基线大小、或激光雷达获取场景点云数据,再结合定位单元所获取的场景感知设备所处的位置,通过不断融合相邻时刻所获取的场景点云数据并进行网格化,结合视觉特征,逐步细化并修正场景感知设备所构建的初步三维场景模型,重建当前场景的虚拟场景部分的三维重建模型。
3.根据权利要求1所述的系统,其特征在于,所述人体识别单元具体包括:
针对当前场景的虚拟场景部分的三维重建模型中的每一幅彩色图像,基于人体骨骼关节点拓扑结构,通过深度学习的方法,确定人体各肢体在图像中的位置、区域,从而估计人体的二维姿态;由于人体的运动是连续的,其骨骼关节点的运动轨迹也是连续的,因此利用相邻时刻获取的人体的二维姿态信息,对当前时刻所估计的人体的二维姿态进行预测修正,最终得到优化后的人体的二维姿态信息;通过优化后的人体的二维姿态,针对每一个关节点在二维图像中的像素位置来查找其在深度数据所对应的深度信息,从而获取三维人体姿态,并将该三维人体姿态结果与场景重建单元中动静分离后的运动物体点云数据进行匹配,对匹配成功的点云数据进行网格化,完成三维姿态映射,形成最终的三维场景下的人体姿态。
4.根据权利要求1所述的系统,其特征在于,所述虚实融合单元具体包括:
根据每一时刻中的场景感知设备与增强现实设备分别在现实世界中所处的位置和姿态来配准对应时刻的数据内容,从而将虚拟场景部分的三维重建模型与现实场景部分的三维重建模型进行几何一致性渲染,并进行配准定位,达到高精度匹配;通过实时获取场景感知设备所处场景以及增强现实设备所处场景中的光源进行光照一致性渲染,获得渲染融合后的场景光照;将虚拟场景部分的三维重建模型与现实场景部分的三维重建模型,以及渲染融合后的场景光照进行融合,获得虚实融合后的当前场景的三维重建模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811542762.9A CN109828658B (zh) | 2018-12-17 | 2018-12-17 | 一种人机共融的远程态势智能感知系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811542762.9A CN109828658B (zh) | 2018-12-17 | 2018-12-17 | 一种人机共融的远程态势智能感知系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109828658A CN109828658A (zh) | 2019-05-31 |
CN109828658B true CN109828658B (zh) | 2022-03-08 |
Family
ID=66859604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811542762.9A Active CN109828658B (zh) | 2018-12-17 | 2018-12-17 | 一种人机共融的远程态势智能感知系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109828658B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110420028B (zh) * | 2019-07-29 | 2021-02-09 | 浙江大学 | 一种基于多级姿态识别分类模型的心电图防误判方法 |
CN110503710A (zh) * | 2019-09-04 | 2019-11-26 | 北京国润视光科技有限公司 | 一种基于现实增强技术的复杂场景康复训练方法 |
CN113052846B (zh) * | 2019-12-27 | 2024-05-28 | 小米汽车科技有限公司 | 一种多线雷达点云稠密化方法和装置 |
CN113129411A (zh) * | 2019-12-30 | 2021-07-16 | 华为技术有限公司 | 一种仿生动画生成方法及电子设备 |
CN111652261A (zh) * | 2020-02-26 | 2020-09-11 | 南开大学 | 一种多模态感知融合系统 |
CN114185320B (zh) * | 2020-09-15 | 2023-10-24 | 中国科学院软件研究所 | 一种无人系统集群的测评方法、装置、系统及存储介质 |
CN112634318B (zh) * | 2020-12-31 | 2022-11-08 | 中国海洋大学 | 一种水下维修机器人的遥操作系统和方法 |
CN113011723B (zh) * | 2021-03-04 | 2024-03-01 | 北京计算机技术及应用研究所 | 一种基于增强现实的远程装备维保系统 |
CN115514885B (zh) * | 2022-08-26 | 2024-03-01 | 燕山大学 | 基于单双目融合的远程增强现实随动感知系统及方法 |
CN115719552B (zh) * | 2022-11-18 | 2024-08-02 | 上海域圆信息科技有限公司 | 一种基于xr技术的远程手术教学系统及其教学方法 |
CN116597119A (zh) * | 2022-12-30 | 2023-08-15 | 北京津发科技股份有限公司 | 可穿戴扩展现实设备的人机交互采集方法、装置和系统 |
CN118097070B (zh) * | 2023-12-26 | 2024-09-10 | 湖南快乐阳光互动娱乐传媒有限公司 | 一种实拟虚境的实现方法及装置、电子设备、存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105825544A (zh) * | 2015-11-25 | 2016-08-03 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
CN106097435A (zh) * | 2016-06-07 | 2016-11-09 | 北京圣威特科技有限公司 | 一种增强现实拍摄系统及方法 |
CN107331220A (zh) * | 2017-09-01 | 2017-11-07 | 国网辽宁省电力有限公司锦州供电公司 | 基于增强现实的变电设备运维仿真培训系统和方法 |
CN107341853A (zh) * | 2017-07-13 | 2017-11-10 | 河北中科恒运软件科技股份有限公司 | 超大虚拟场景和动态摄屏的虚实融合方法及系统 |
CN107564012A (zh) * | 2017-08-01 | 2018-01-09 | 中国科学院自动化研究所 | 面向未知环境的增强现实方法及装置 |
CN108510592A (zh) * | 2017-02-27 | 2018-09-07 | 亮风台(上海)信息科技有限公司 | 真实物理模型的增强现实展示方法 |
WO2018178336A1 (en) * | 2017-03-31 | 2018-10-04 | Universiteit Gent | Integrated near-eye display |
CN109003301A (zh) * | 2018-07-06 | 2018-12-14 | 东南大学 | 一种基于OpenPose和Kinect的人体姿态估计方法及康复训练系统 |
-
2018
- 2018-12-17 CN CN201811542762.9A patent/CN109828658B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105825544A (zh) * | 2015-11-25 | 2016-08-03 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
CN106097435A (zh) * | 2016-06-07 | 2016-11-09 | 北京圣威特科技有限公司 | 一种增强现实拍摄系统及方法 |
CN108510592A (zh) * | 2017-02-27 | 2018-09-07 | 亮风台(上海)信息科技有限公司 | 真实物理模型的增强现实展示方法 |
WO2018178336A1 (en) * | 2017-03-31 | 2018-10-04 | Universiteit Gent | Integrated near-eye display |
CN107341853A (zh) * | 2017-07-13 | 2017-11-10 | 河北中科恒运软件科技股份有限公司 | 超大虚拟场景和动态摄屏的虚实融合方法及系统 |
CN107564012A (zh) * | 2017-08-01 | 2018-01-09 | 中国科学院自动化研究所 | 面向未知环境的增强现实方法及装置 |
CN107331220A (zh) * | 2017-09-01 | 2017-11-07 | 国网辽宁省电力有限公司锦州供电公司 | 基于增强现实的变电设备运维仿真培训系统和方法 |
CN109003301A (zh) * | 2018-07-06 | 2018-12-14 | 东南大学 | 一种基于OpenPose和Kinect的人体姿态估计方法及康复训练系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109828658A (zh) | 2019-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109828658B (zh) | 一种人机共融的远程态势智能感知系统 | |
CN110874391B (zh) | 一种基于城市空间立体网格模型的数据融合与展示方法 | |
CN108401461B (zh) | 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品 | |
CN108919944B (zh) | 一种基于数字城市模型实现在显示端进行数据无损交互的虚拟漫游方法 | |
EP3550516B1 (de) | Umgebungsparameterabhängige auswahl eines datenmodells zur erkennung eines objekts einer realen umgebung | |
CN108898676B (zh) | 一种虚实物体之间碰撞及遮挡检测方法及系统 | |
CN205905026U (zh) | 一种基于双目立体视觉的机器人系统 | |
CN104331929B (zh) | 基于视频地图与增强现实的犯罪现场还原方法 | |
CN112365604B (zh) | 基于语义分割和slam的ar设备景深信息应用方法 | |
WO2021237667A1 (zh) | 一种适用于腿足机器人规划的稠密高度地图构建方法 | |
CN106826833A (zh) | 基于3d立体感知技术的自主导航机器人系统 | |
JP2022077976A (ja) | 画像ベースの測位方法及びシステム | |
Yue et al. | Fast 3D modeling in complex environments using a single Kinect sensor | |
CN111060924A (zh) | 一种slam与目标跟踪方法 | |
Yu et al. | Intelligent visual-IoT-enabled real-time 3D visualization for autonomous crowd management | |
CN111696199A (zh) | 同步定位建图的地空融合精密三维建模方法 | |
JP2022509582A (ja) | 連携仮想インターフェース | |
CN111721281B (zh) | 位置识别方法、装置和电子设备 | |
Schwarze et al. | An intuitive mobility aid for visually impaired people based on stereo vision | |
Corral-Soto et al. | 3D town: the automatic urban awareness project | |
KR20210054408A (ko) | Gis를 이용한 모델링 장치 및 방법 | |
CN116452397B (zh) | 一种警务数字沙盘用的联动控制系统和控制方法 | |
CN116337068A (zh) | 基于仿人思路的机器人同步语义定位与建图方法及系统 | |
CN114972599A (zh) | 一种对场景进行虚拟化的方法 | |
CN111105498B (zh) | 一种三维实时地图构建方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220615 Address after: 101400 233, building 4, scientific research center, National Space Science Center, Jingmi North 2nd Street, Yangyan Road, Huairou District, Beijing Patentee after: Zhongke Shenwei mutual inductance (Beijing) Technology Co.,Ltd. Address before: 100190 No. two south of Zhongguancun, Haidian District, Beijing 1 Patentee before: Peng Xiaodong Patentee before: Xie Wenming |