CN110516639A - 一种基于视频流自然场景的人物三维位置实时计算方法 - Google Patents
一种基于视频流自然场景的人物三维位置实时计算方法 Download PDFInfo
- Publication number
- CN110516639A CN110516639A CN201910817640.4A CN201910817640A CN110516639A CN 110516639 A CN110516639 A CN 110516639A CN 201910817640 A CN201910817640 A CN 201910817640A CN 110516639 A CN110516639 A CN 110516639A
- Authority
- CN
- China
- Prior art keywords
- personage
- image
- coordinate
- foreground image
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视频流自然场景的人物三维位置实时计算方法,涉及计算机视觉技术领域,本发明包括利用背景减法的方式从输入的视频流中提取当前帧图像的原始前景图像;对原始前景图像进行修正,得到完整前景图像;利用非递归的骨架提取算法对完整前景图像进行骨架提取,得到完整前景图像中人物的脚部像素坐标;根据世界坐标系,计算得到地平面方程式,结合相机内外参数、成像模型和脚部像素坐标计算得到真实三维坐标分量的比值;结合地平面方程式和真实三维坐标分量计算得到人物脚部的三维坐标以及相机坐标系下的深度值,该脚部的三维坐标即为人物的三维位置信息,本发明具有三维位置定位效率高,时效性高的优点。
Description
技术领域
本发明涉及计算机视觉技术领域,更具体的是涉及一种基于视频流自然场景的人物三维位置实时计算方法。
背景技术
2D场景的三维姿态估计是计算机视觉研究领域的核心问题,如何快速而准确地计算或恢复出场景中物体需要的三维信息是AR以及虚拟演播中必不可少的步骤,目前一些三维位置计算的方法主要依赖一些几何关系或者额外标识物,主要存在以下问题:
1、从二维场景到三维空间,精准的深度关系依赖于由几何关系重建的三维坐标,这一方法需要对二维图像进行特征点检测、特征点匹配、根据极线几何关系利用三角化算法计算场景深度信息,从而得到整个场景稀疏状态下的三维位置信息,但是极线几何关系的约束较为严格,这种方法在相机纯旋转的情况下是不能计算出深度值的,同时由于特征检测和匹配过程相当耗时,这种方法的时效性并不高;
2、在虚拟演播厅或者AR应用等节目中,需要计算的深度信息的载体通常为主持人,如何快速而高效地计算不断移动的人物三维位置,这对开展其他相关应用是很关键的一步,现有常见的解决方案就是让主持人佩戴特定的标识物,通过特征识别的方式追踪定位主持人的三维位置,这类方法的缺点就是需要额外标识物,当存在标识被遮挡的情况,三维位置计算失败,另外标识物本身的材质和设计会影响整个深度检测的稳定性;
3、双目视觉在三维位姿计算方面也具有广泛的应用,场景中放置的两个摄像机相隔一定的距离,通过多视角几何关系以及三角化原理求出特殊点的三维位置,但是由于实际工作站的硬件设备和成本的限制,这种方式不一定会完全被采纳,尤其是在电视广播行业应用有限。
发明内容
本发明的目的在于:为了解决现有的三维位置计算方法采用特征点检测和特征点匹配,相当耗时,导致三维位置计算效率较低,时效性差的问题,本发明提供一种基于视频流自然场景的人物三维位置实时计算方法,规避了特征点检测和特征点匹配耗时的缺点,同时针对性地对人物的三维位置进行计算,提高了整个工程的效率。
本发明为了实现上述目的具体采用以下技术方案:
一种基于视频流自然场景的人物三维位置实时计算方法,包括如下步骤:
S1:利用背景减法的方式从输入的视频流中提取当前帧图像的原始前景图像;
S2:对原始前景图像进行修正,得到完整前景图像;
S3:利用非递归的骨架提取算法对完整前景图像进行骨架提取,得到完整前景图像中人物的脚部像素坐标;
S4:根据世界坐标系,计算得到地平面方程式,结合相机内外参数、成像模型和脚部像素坐标计算得到真实三维坐标分量的比值;
S5:结合地平面方程式和真实三维坐标分量计算得到人物脚部的三维坐标以及相机坐标系下的深度值,该脚部的三维坐标即为人物的三维位置信息。
进一步的,所述S1具体为:
S1.1:以输入的视频流的前n帧建立视频流图像的背景图像学习模型;
S1.2:利用背景图像学习模型对当前帧图像进行背景识别,输出与之对应的背景图像;
S1.3:将当前帧图像与背景图像做减法处理,得到灰度差分图像,即为原始前景图像。
进一步的,所述S2具体为:
S2.1:对原始前景图像进行阈值处理,剔除原始前景图像中场景变化的非主体部分;
S2.2:对阈值处理后的原始前景图像进行连通性分析,通过先膨胀后腐蚀的方式得到完整前景图像。
进一步的,所述S3中,利用非递归的骨架提取算法对完整前景图像进行骨架提取时,采用左右邻域像素聚类搜索的方式,通过连通区域搜索得到骨架底部两个点的平均坐标值即为脚部像素坐标。
进一步的,所述S4中,根据世界坐标系,对相机进行标定,计算得到的地平面方程式为:
l1:Ax+By+Cz+D=0 (1)
其中,A、B、C、D分别为描述地平面的参数。
进一步的,所述S4中,计算得到真实三维坐标分量的比值,具体为:
S4.1:成像模型将三维位置信息从世界坐标系下转换到像素坐标系下的二维表达式为:
其中,Zc为相机坐标系下的深度值,(u,v)为脚部像素坐标,(Xw,Yw,Zw)为三维坐标点,f为相机焦距,u0、v0为图像中心坐标,R为旋转方程,T为平移变量,dx、dy分别为图像水平方向和垂直方向上每个像素的尺寸;
为标定后的相机旋转和平移坐标;
S4.2:通过LDLT分解法,分解式(3)得到Xw/Zc、Yw/Zc以及Zw/Zc的值,即为真实三维坐标分量的比值。
进一步的,所述S3中,利用非递归的骨架提取算法对完整前景图像进行骨架提取时,若搜索不到脚部像素坐标,则通过连通区域搜索得到骨架的顶点,顶点坐标即为头部像素坐标,根据人物真实身高值以及头部像素坐标计算头部平面方程式,进而计算得到人物头部三维坐标点,再结合地平面方程式,便可得到人物当前的三维位置信息。
进一步的,所述S1中,在对当前帧图像提取原始前景图像前,以比例因子λ采用比例缩放的方式将当前帧图像缩小至设定的分辨率,将相机输出图像的长宽乘以相同的比例因子λ得到新的数据作为前景检测的图像输入。
进一步的,所述S2中的修正以及S3中的骨架提取均采用图像分块的方式进行加速,将对应图像拆分成若干块利用多线程计算每一块的局部数据,然后将每个线程的结果合并得到整张图像数据。
本发明的有益效果如下:
1、本发明直接对当前帧图像进行背景检测处理,而不是进行特征点检测,缩小了目标检测范围,很大程度减少了时间成本,同时,膨胀操作修正了连通区域,腐蚀操作剔除了噪声、环境等对前景图像的影响,在目标点定位方面,通过骨架提取的方式快速而准确的找到头部和脚点的二维坐标信息,极大提高了三维位置定位效率,时效性高。
2、本发明针对人物的三维位置信息计算方法,摒弃了传统的三角化算法,结合实际场景几何信息,不受限于极线几何要求的宽基线等条件,从而使得本发明能够处理更为灵活的视频素材,例如,相机纯旋转下拍摄的视频序列。
3、本发明不依赖于任何穿戴设备,也并不增加相机镜头等硬件设备,减少了工程开发的人力和物力成本。
附图说明
图1是本发明具体实施方式的整体流程示意图。
图2是本发明具体实施方式对原始前景图像进行修正的流程示意图。
图3是本发明具体实施方式连通性分析的示意图。
图4是本发明具体实施方式骨架提取的示意图。
图5是本发明具体实施方式地平面与人物关系示意图。
图6是本发明具体实施方式计算得到的相机坐标系下的深度值与实际测量值的对比图。
图7是本发明具体实施方式计算得到的人物三维位置与实际测量值的对比图。
具体实施方式
为了本技术领域的人员更好的理解本发明,下面结合附图和以下实施例对本发明作进一步详细描述。
实施例1
如图1所示,本实施例提供一种基于视频流自然场景的人物三维位置实时计算方法,包括如下步骤:
S1:利用背景减法的方式从输入的视频流中提取当前帧图像的原始前景图像,具体为:
S1.1:以输入的视频流的前n帧建立视频流图像的背景图像学习模型;
S1.2:利用背景图像学习模型对当前帧图像进行背景识别,输出与之对应的背景图像;
S1.3:将当前帧图像与背景图像做减法处理,得到灰度差分图像,即为原始前景图像;
在视频流输入过程中,存在不同程度的相机的移动、人物位置的改变以及光照变化等因素,背景图像学习模型随着输入的帧序列而不断的学习和更新;
S2:如图2所示,对原始前景图像进行修正,得到完整前景图像,具体为:
S2.1:对原始前景图像进行阈值处理,剔除原始前景图像中场景变化的非主体部分;
S2.2:对阈值处理后的原始前景图像进行连通性分析,通过先膨胀后腐蚀的方式得到完整前景图像;
原始前景图像的数值部分包含除人物轮廓之外的微小抖动区域、噪声区域以及背景更新引起的变化区域,相较于人物轮廓,这些图像数值存在变化的区域(包括噪声)在灰度差分图像中的连通区域较小,因而简单的阈值判断可以剔除灰度差分图像中场景变化的非主体部分;如图3所示,由于人物分割因光照、运动大小以及相机位姿而表现出不一样的结果,所以前景分割需要进行一个连通性分析,这其中包括膨胀和腐蚀操作,图3(a)是某帧经过背景减法处理后的输出结果,这一帧出现了人物检测不连通的情况,腿的部分和裙子部分完全分离开来,被识别为两个单独的连通区域即图3(a)中的上下两个矩形框,因而需要通过先膨胀后腐蚀的方式得到图3(b)所示的完整人物前景;
S3:如图4所示,利用非递归的骨架提取算法对完整前景图像进行骨架提取,得到完整前景图像中人物的脚部像素坐标,利用非递归的骨架提取算法对完整前景图像进行骨架提取时,采用左右邻域像素聚类搜索的方式,通过连通区域搜索得到骨架底部两个点的平均坐标值即为脚部像素坐标;
上述过程能够快速且较大程度保留主拓扑结构地计算骨架图,如图4(c)是某一帧的原始前景图像,经过膨胀和腐蚀得到图4(d),最后提取的骨架信息为图4(e),脚的像素信息为骨架底部两个点的坐标平均值,最后,由于相邻两帧的时间间隔短、人物以及场景变化小等因素,对每一帧提取的脚部像素坐标与上一帧数据进行一个有效范围内的置信度判断,变化幅度若在范围内则输出二维像素坐标点作为脚部像素坐标,否则,输出上一帧三维位置信息作为当前帧人物的三维坐标;
S4:如图5所示,根据世界坐标系,对相机进行标定,计算得到地平面方程式,结合相机内外参数、成像模型和脚部像素坐标计算得到真实三维坐标分量的比值;
所述地平面方程式为:
l1:Ax+By+Cz+D=0 (1)
其中,A、B、C、D分别为描述地平面的参数;
计算得到真实三维坐标分量的比值,具体为:
S4.1:成像模型将三维位置信息从世界坐标系下转换到像素坐标系下的二维表达式为:
其中,Zc为相机坐标系下的深度值,(u,v)为脚部像素坐标,(Xw,Yw,Zw)为三维坐标点,f为相机焦距,u0、v0为图像中心坐标,R为旋转方程,T为平移变量,dx、dy分别为图像水平方向和垂直方向上每个像素的尺寸;
为标定后的相机旋转和平移坐标;
S4.2:通过LDLT分解法,分解式(3)得到Xw/Zc、Yw/Zc以及Zw/Zc的值,即为真实三维坐标分量的比值;
S5:结合地平面方程式和真实三维坐标分量计算得到人物脚部的三维坐标以及相机坐标系下的深度值,在实际增强现实,虚拟演播室工程中,该脚部的三维坐标即为人物的三维位置信息。
当视频素材里面的人物不能被拍到全身时,则利用非递归的骨架提取算法对完整前景图像进行骨架提取时,搜索不到脚部像素坐标,则通过连通区域搜索得到骨架的顶点,顶点坐标即为头部像素坐标,根据人物真实身高值以及头部像素坐标计算头部平面方程式,进而计算得到人物头部三维坐标点,再结合地平面方程式,便可得到人物当前的三维位置信息。
实施例2
本实施例在实施例1的基础之上进一步优化,具体是:
在实际工程中,相机输出的图像帧一般能够达到4K幅面,而三维位置信息估计的流程相对繁琐,对于如此庞大的输入数据,要使得输出达到实时性(>=25fps)我们采用如下加速方案:
所述S1中,在对当前帧图像提取原始前景图像前,以比例因子λ采用比例缩放的方式将当前帧图像缩小至设定的分辨率,将相机输出图像的长宽乘以相同的比例因子λ得到新的数据作为前景检测的图像输入;
所述S2中的修正以及S3中的骨架提取均采用图像分块的方式进行加速,将对应图像拆分成若干块利用多线程计算每一块的局部数据,然后将每个线程的结果合并得到整张图像数据;并且在脚部像素坐标或头部像素坐标的提取过程中,将得到的脚部像素坐标或头部像素坐标除以比例因子λ,从而使输出数据变换到原始尺度;
如图6所示,为以初始帧相机位置为世界坐标系,在自然场景视频处理上,本实施例计算得到的相机坐标系下的深度值与实际测量值的对比图,如图7所示,为计算得到的人物三维位置与实际测量值的对比图,由结果可知,本实施例的三维位置计算的方法能够快速的输出每一帧图像中人物的三维坐标点,同时与实际测量的三维位置信息相比,误差范围在1cm左右,这对于AR、MR、虚拟演播室工程应用来说,本实施例完全满足数据精度上和时间上的要求。
以上所述,仅为本发明的较佳实施例,并不用以限制本发明,本发明的专利保护范围以权利要求书为准,凡是运用本发明的说明书及附图内容所作的等同结构变化,同理均应包含在本发明的保护范围内。
Claims (9)
1.一种基于视频流自然场景的人物三维位置实时计算方法,其特征在于,包括如下步骤:
S1:利用背景减法的方式从输入的视频流中提取当前帧图像的原始前景图像;
S2:对原始前景图像进行修正,得到完整前景图像;
S3:利用非递归的骨架提取算法对完整前景图像进行骨架提取,得到完整前景图像中人物的脚部像素坐标;
S4:根据世界坐标系,计算得到地平面方程式,结合相机内外参数、成像模型和脚部像素坐标计算得到真实三维坐标分量的比值;
S5:结合地平面方程式和真实三维坐标分量计算得到人物脚部的三维坐标以及相机坐标系下的深度值,该脚部的三维坐标即为人物的三维位置信息。
2.根据权利要求1所述的一种基于视频流自然场景的人物三维位置实时计算方法,其特征在于,所述S1具体为:
S1.1:以输入的视频流的前n帧建立视频流图像的背景图像学习模型;
S1.2:利用背景图像学习模型对当前帧图像进行背景识别,输出与之对应的背景图像;
S1.3:将当前帧图像与背景图像做减法处理,得到灰度差分图像,即为原始前景图像。
3.根据权利要求1所述的一种基于视频流自然场景的人物三维位置实时计算方法,其特征在于,所述S2具体为:
S2.1:对原始前景图像进行阈值处理,剔除原始前景图像中场景变化的非主体部分;
S2.2:对阈值处理后的原始前景图像进行连通性分析,通过先膨胀后腐蚀的方式得到完整前景图像。
4.根据权利要求1所述的一种基于视频流自然场景的人物三维位置实时计算方法,其特征在于,所述S3中,利用非递归的骨架提取算法对完整前景图像进行骨架提取时,采用左右邻域像素聚类搜索的方式,通过连通区域搜索得到骨架底部两个点的平均坐标值即为脚部像素坐标。
5.根据权利要求1所述的一种基于视频流自然场景的人物三维位置实时计算方法,其特征在于,所述S4中,根据世界坐标系,对相机进行标定,计算得到的地平面方程式为:
l1:Ax+By+Cz+D=0 (1)
其中,A、B、C、D分别为描述地平面的参数。
6.根据权利要求5所述的一种基于视频流自然场景的人物三维位置实时计算方法,其特征在于,所述S4中,计算得到真实三维坐标分量的比值,具体为:
S4.1:成像模型将三维位置信息从世界坐标系下转换到像素坐标系下的二维表达式为:
其中,Zc为相机坐标系下的深度值,(u,v)为脚部像素坐标,(Xw,Yw,Zw)为三维坐标点,f为相机焦距,u0、v0为图像中心坐标,R为旋转方程,T为平移变量,dx、dy分别为图像水平方向和垂直方向上每个像素的尺寸;
为标定后的相机旋转和平移坐标;
S4.2:通过LDLT分解法,分解式(3)得到Xw/Zc、Yw/Zc以及Zw/Zc的值,即为真实三维坐标分量的比值。
7.根据权利要求4所述的一种基于视频流自然场景的人物三维位置实时计算方法,其特征在于,所述S3中,利用非递归的骨架提取算法对完整前景图像进行骨架提取时,若搜索不到脚部像素坐标,则通过连通区域搜索得到骨架的顶点,顶点坐标即为头部像素坐标,根据人物真实身高值以及头部像素坐标计算头部平面方程式,进而计算得到人物头部三维坐标点,再结合地平面方程式,便可得到人物当前的三维位置信息。
8.根据权利要求1所述的一种基于视频流自然场景的人物三维位置实时计算方法,其特征在于,所述S1中,在对当前帧图像提取原始前景图像前,以比例因子λ采用比例缩放的方式将当前帧图像缩小至设定的分辨率,将相机输出图像的长宽乘以相同的比例因子λ得到新的数据作为前景检测的图像输入。
9.根据权利要求1所述的一种基于视频流自然场景的人物三维位置实时计算方法,其特征在于,所述S2中的修正以及S3中的骨架提取均采用图像分块的方式进行加速,将对应图像拆分成若干块利用多线程计算每一块的局部数据,然后将每个线程的结果合并得到整张图像数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910817640.4A CN110516639B (zh) | 2019-08-30 | 2019-08-30 | 一种基于视频流自然场景的人物三维位置实时计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910817640.4A CN110516639B (zh) | 2019-08-30 | 2019-08-30 | 一种基于视频流自然场景的人物三维位置实时计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110516639A true CN110516639A (zh) | 2019-11-29 |
CN110516639B CN110516639B (zh) | 2022-04-12 |
Family
ID=68629878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910817640.4A Active CN110516639B (zh) | 2019-08-30 | 2019-08-30 | 一种基于视频流自然场景的人物三维位置实时计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110516639B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179300A (zh) * | 2019-12-16 | 2020-05-19 | 新奇点企业管理集团有限公司 | 障碍物检测的方法、装置、系统、设备以及存储介质 |
CN114723737A (zh) * | 2022-05-06 | 2022-07-08 | 福州大学 | 一种基于计算机视觉的工地脚手架间距检测方法 |
CN114818992A (zh) * | 2022-06-23 | 2022-07-29 | 成都索贝数码科技股份有限公司 | 图像数据解析方法、场景估计方法、3d融合方法 |
CN116452878A (zh) * | 2023-04-20 | 2023-07-18 | 广东工业大学 | 一种基于深度学习算法与双目视觉的考勤方法及系统 |
CN114723737B (zh) * | 2022-05-06 | 2024-06-07 | 福州大学 | 一种基于计算机视觉的工地脚手架间距检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106803286A (zh) * | 2017-01-17 | 2017-06-06 | 湖南优象科技有限公司 | 基于多视点图像的虚实遮挡实时处理方法 |
CN106960448A (zh) * | 2017-04-19 | 2017-07-18 | 浙江大学 | 一种对视频中物体进行快速定位和追踪的装置及方法 |
CN107330903A (zh) * | 2017-06-29 | 2017-11-07 | 西安理工大学 | 一种人体点云模型的骨架提取方法 |
CN109961485A (zh) * | 2019-03-05 | 2019-07-02 | 南京理工大学 | 一种基于单目视觉进行目标定位的方法 |
CN110136164A (zh) * | 2019-05-21 | 2019-08-16 | 电子科技大学 | 基于在线透射变换、低秩稀疏矩阵分解去除动态背景的方法 |
-
2019
- 2019-08-30 CN CN201910817640.4A patent/CN110516639B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106803286A (zh) * | 2017-01-17 | 2017-06-06 | 湖南优象科技有限公司 | 基于多视点图像的虚实遮挡实时处理方法 |
CN106960448A (zh) * | 2017-04-19 | 2017-07-18 | 浙江大学 | 一种对视频中物体进行快速定位和追踪的装置及方法 |
CN107330903A (zh) * | 2017-06-29 | 2017-11-07 | 西安理工大学 | 一种人体点云模型的骨架提取方法 |
CN109961485A (zh) * | 2019-03-05 | 2019-07-02 | 南京理工大学 | 一种基于单目视觉进行目标定位的方法 |
CN110136164A (zh) * | 2019-05-21 | 2019-08-16 | 电子科技大学 | 基于在线透射变换、低秩稀疏矩阵分解去除动态背景的方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179300A (zh) * | 2019-12-16 | 2020-05-19 | 新奇点企业管理集团有限公司 | 障碍物检测的方法、装置、系统、设备以及存储介质 |
CN114723737A (zh) * | 2022-05-06 | 2022-07-08 | 福州大学 | 一种基于计算机视觉的工地脚手架间距检测方法 |
CN114723737B (zh) * | 2022-05-06 | 2024-06-07 | 福州大学 | 一种基于计算机视觉的工地脚手架间距检测方法 |
CN114818992A (zh) * | 2022-06-23 | 2022-07-29 | 成都索贝数码科技股份有限公司 | 图像数据解析方法、场景估计方法、3d融合方法 |
CN114818992B (zh) * | 2022-06-23 | 2022-09-23 | 成都索贝数码科技股份有限公司 | 图像数据解析方法、场景估计方法、3d融合方法 |
CN116452878A (zh) * | 2023-04-20 | 2023-07-18 | 广东工业大学 | 一种基于深度学习算法与双目视觉的考勤方法及系统 |
CN116452878B (zh) * | 2023-04-20 | 2024-02-02 | 广东工业大学 | 一种基于深度学习算法与双目视觉的考勤方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110516639B (zh) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Flowfusion: Dynamic dense rgb-d slam based on optical flow | |
US10417775B2 (en) | Method for implementing human skeleton tracking system based on depth data | |
CN107392964B (zh) | 基于室内特征点和结构线结合的室内slam方法 | |
CN106570507B (zh) | 单目视频场景三维结构的多视角一致的平面检测解析方法 | |
CN107833270A (zh) | 基于深度相机的实时物体三维重建方法 | |
CN104992441A (zh) | 一种面向个性化虚拟试衣的真实人体三维建模方法 | |
CN110516639A (zh) | 一种基于视频流自然场景的人物三维位置实时计算方法 | |
CN101930628A (zh) | 基于单目摄像机和多平面镜折反射装置的运动捕捉方法 | |
CN113077519B (zh) | 一种基于人体骨架提取的多相机外参自动标定方法 | |
CN108597009A (zh) | 一种基于方向角信息进行三维目标检测的方法 | |
CN103854301A (zh) | 基于复杂背景下可见外壳的三维重建方法 | |
CN104156932A (zh) | 一种基于光流场聚类的运动目标分割方法 | |
Liu et al. | A SLAM-based mobile augmented reality tracking registration algorithm | |
CN107357426A (zh) | 一种用于虚拟现实设备的体感控制方法 | |
CN101765019A (zh) | 一种用于运动模糊和光照变化图像的立体匹配方法 | |
CN108961385A (zh) | 一种slam构图方法及装置 | |
CN110490131A (zh) | 一种拍摄设备的定位方法、装置、电子设备及存储介质 | |
Cao et al. | A tracking registration method for augmented reality based on multi-modal template matching and point clouds | |
Jaramillo et al. | 6-DoF pose localization in 3D point-cloud dense maps using a monocular camera | |
CN108694348B (zh) | 一种基于自然特征的跟踪注册方法及装置 | |
Xu et al. | DOS-SLAM: A real-time dynamic object segmentation visual SLAM system | |
Wang et al. | Research and implementation of the sports analysis system based on 3D image technology | |
Sun et al. | NCC feature matching optimized algorithm based on constraint fusion | |
Wang et al. | Realization of 3D Reconstruction Algorithm Based on 2D Video | |
Zhang et al. | Application of RGB-D SLAM in 3D Tunnel Reconstruction Based on Superpixel Aided Feature Tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |