CN105654459B - 计算场景主体的深度分布方法与装置 - Google Patents

计算场景主体的深度分布方法与装置 Download PDF

Info

Publication number
CN105654459B
CN105654459B CN201410711987.8A CN201410711987A CN105654459B CN 105654459 B CN105654459 B CN 105654459B CN 201410711987 A CN201410711987 A CN 201410711987A CN 105654459 B CN105654459 B CN 105654459B
Authority
CN
China
Prior art keywords
feature point
main body
dimensional
image
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410711987.8A
Other languages
English (en)
Other versions
CN105654459A (zh
Inventor
崔春晖
李其昌
宋磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Super Technology Co Ltd
Original Assignee
深圳超多维光电子有限公司
深圳市墨克瑞光电子研究院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳超多维光电子有限公司, 深圳市墨克瑞光电子研究院 filed Critical 深圳超多维光电子有限公司
Priority to CN201410711987.8A priority Critical patent/CN105654459B/zh
Publication of CN105654459A publication Critical patent/CN105654459A/zh
Application granted granted Critical
Publication of CN105654459B publication Critical patent/CN105654459B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种计算场景主体的深度分布方法,其包括:通过第一摄像相机与第二摄像相机同时拍摄场景主体,而获取第一图像以及第二图像;对所述第一图像以及第二图像分别提取第一特征点以及第二特征点,并对所述第一特征点以及第二特征点进行匹配;通过匹配后的第一特征点以及第二特征点恢复与所述第一特征点以及所述第二特征点对应的三维特征点的深度信息以及三维运动信息;以及建立深度显著度模型,对每个三维特征点建立一个高斯分布模型,再将所有三维特征点的高斯分布模型合并,从而得到场景主体的深度分布。本发明进一步提供一种计算场景主体的深度分布装置。所述计算场景主体的深度分布方法可以准确快速地计算出场景主体的深度分布。

Description

计算场景主体的深度分布方法与装置
技术领域
本发明涉及成像技术领域,具体而言,涉及一种计算场景主体的深度分布方法与装置。
背景技术
一般地,计算机视觉相关的应用都需要分析场景主体的深度分布情况。比如监控、避障和路径规划、全自动的三维摄影等。
然而,传统的成像技术中,仅能通过图像分析得出图像中各物体的相对关系,并不能准确地计算场景中主体的深度分布情况。因此,如何使准确地计算场景中主体在空间中的深度分布,成为亟待解决的技术问题。
发明内容
本发明正是基于上述技术问题,提出了一种计算场景主体的深度分布方法与装置。
有鉴于此,本发明提出了计算场景主体的深度分布方法,包括:
通过第一摄像相机与第二摄像相机同时拍摄场景主体,所述第一摄像相机拍摄而获取第一图像,所述第二摄像相机拍摄而获取第二图像;
对所述第一图像以及第二图像分别提取第一特征点以及第二特征点,并对所述第一特征点以及第二特征点进行匹配;
通过匹配后的第一特征点以及第二特征点恢复与所述第一特征点以及所述第二特征点对应的三维特征点的深度信息以及三维运动信息;以及
建立深度显著度模型,对每个三维特征点建立一个高斯分布模型,再将所有三维特征点的高斯分布模型合并,从而得到场景主体的深度分布。
在上述实施方式中,所述计算场景主体的深度分布方法通过对三维特征点的深度与三维运动信息进行分析,从而得出整个场景主体的深度分布,即相比处理图像的全象素,对图像特征点的处理速度要更快。并且,通过对每个三维特征点建立一个高斯分布模型,从而可以准确快速地计算出场景主体的深度分布。所述场景主体的深度分布信息可用于监控、避障和路径规划、全自动的三维摄影等技术领域。
在上述任一技术方案中,优选的,通过对匹配后的第一特征点以及第二特征点做反向投影,从而恢复与所述第一特征点以及所述第二特征点对应的三维特征点的深度信息。
在上述任一技术方案中,对所述第一图像的前后两帧图像做匹配,对所述第二图像的前后两帧图像做匹配,从而获取第一图像以及第二图像对应的二维特征点的运动信息,并将所述二维特征点的运动信息恢复成与其对应的所述三维特征点的运动信息。
在上述任一技术方案中,每个三维特征点的高斯分布模型的标准差正比于该三维特征点在前后两帧中深度之差的绝对值。
在上述任一技术方案中,每个三维特征点的高斯分布模型的期望值介于该三维特征点在前后两帧中的深度之间。
在上述任一技术方案中,在建立深度显著度模型之前,进一步包括获取所述三维特征点的对比度信息。
在上述任一技术方案中,对每个匹配后的第一特征点以及第二特征点定义一个图像的邻域,通过方差或者梯度获取所述三维特征点的对比度信息。
在上述任一技术方案中,每个三维特征点的高斯分布模型的幅度正比于该三维特征点的运动剧烈程度和对比度强度。
一种计算场景主体的深度分布装置,包括:图像获取单元,其包括第一摄像相机以及第二摄像相机,所述第一摄像机与所述第二摄像相机同时拍摄场景主体,所述第一摄像相机拍摄而获取第一图像,所述第二摄像相机拍摄而获取第二图像;提取与匹配单元,其对所述第一图像以及第二图像分别提取第一特征点以及第二特征点,并对所述第一特征点以及第二特征点进行匹配;恢复单元,其通过匹配后的第一特征点以及第二特征点恢复与所述第一特征点以及所述第二特征点对应的三维特征点的深度信息以及三维运动信息;以及处理单元,其建立深度显著度模型,对每个三维特征点建立一个高斯分布模型,再将所有三维特征点的高斯分布模型合并,从而得到场景主体的深度分布。
在上述任一技术方案中,所述恢复单元通过对匹配后的第一特征点以及第二特征点做反向投影,从而恢复与所述第一特征点以及所述第二特征点对应的三维特征点的深度信息。
在上述任一技术方案中,所述恢复单元对所述第一图像的前后两帧图像做匹配,对所述第二图像的前后两帧图像做匹配,从而获取第一图像以及第二图像对应的二维特征点的运动信息,并将所述二维特征点的运动信息恢复成与其对应的所述三维特征点的三维运动信息。
在上述任一技术方案中,所述恢复单元进一步获取所述三维特征点的对比度信息。
在上述任一技术方案中,所述恢复单元对每个匹配后的第一特征点以及第二特征点定义一个图像的邻域,通过方差或者梯度获取所述三维特征点的对比度信息。
在上述任一技术方案中,所述计算场景主体的深度分布装置建立深度显著度模型,对每个三维特征点建立一个高斯分布模型,并对所述三维特征点的三维运动信息与对比度信息分别做规整化后再合并,然后再将所有三维特征点的高斯分布模型合并,从而得到场景主体的深度分布。
附图说明
图1为本发明第一实施例提供的计算场景主体的深度分布方法的流程示意图;
图2为一个三维特征点的高斯分布模型。
图3为多个三维特征点的高斯分布模型组成的多高斯模型。
图4为场景主体的深度分布示意图。
图5为本发明第二实施例提供的计算场景主体的深度分布装置的结构框图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明并不限于下面公开的具体实施例的限制。
本发明提供的计算场景主体的深度分布方法包括如下步骤:
通过第一摄像相机与第二摄像相机同时拍摄场景主体,所述第一摄像相机拍摄而获取第一图像,所述第二摄像相机拍摄而获取第二图像;
对所述第一图像以及第二图像分别提取第一特征点以及第二特征点,并对所述第一特征点以及第二特征点进行匹配;
通过匹配后的第一特征点以及第二特征点恢复与所述第一特征点以及所述第二特征点对应的三维特征点的深度信息以及三维运动信息;以及
建立深度显著度模型,对每个三维特征点建立一个高斯分布模型,再将所有三维特征点的高斯分布模型合并,从而得到场景主体的深度分布。
参见图1,本发明第一实施例提供的计算场景主体的深度分布方法的流程示意图。
具体地,所述计算场景主体的深度分布方法包括如下步骤:
步骤110:获取第一摄像相机与第二摄像相机同时拍摄场景主体的第一图像以及第二图像。
在本实施例中,第一摄像相机与第二摄像相机为一双目相机,即使用双目相机基于不同视角同时拍摄同一场景主体的第一图像以及第二图像,以作为后续深度分析的源数据。
步骤120:对所述第一图像以及第二图像分别提取第一特征点以及第二特征点,并对所述第一特征点以及第二特征点进行匹配。
在本实施例中,所述特征点匹配为:三维空间中的物点投射到第一摄像机与第二摄像相机中的象素点的对应关系。具体地,通过对图像提取特征点以及相应的描述符,可以完成特征匹配。一般地,图像特征点可以为FAST特征点,描述符可以为BRIEF描述符。由于图像特征点具有显著度高、稳定性强的特性,因此,其非常适合对图像做主体分析。并且,图像特征点在图像中分布相对稀疏,相比处理图像的全象素,对图像特征点的处理速度要更快。
步骤130:通过匹配后的第一特征点以及第二特征点恢复与所述第一特征点与所述第二特征点对应的三维特征点的深度信息与三维运动信息。
在本实施例中,在双目相机校正和标定后,可以基于多视角几何关系,将匹配的第一图像和第二图像的第一特征点(ul,vl)以及第二特征点(ur,vr)做反向投影,从而恢复出一个与第一特征点(ul,vl)以及第二特征点(ur,vr)相对应的三维特征点(x,y,z),即计算出三维特征点的深度信息,所述三维特征点的深度信息就是三维特征点与所述双目相机的间距。
在本实施例中,对所述第一图像的前后两帧图像做匹配,对所述第二图像的前后两帧图像做匹配,从而获取第一图像以及第二图像对应的二维特征点的运动信息(du,dv),并将所述二维特征点的运动信息通过反向投影恢复成与其对应的所述三维特征点的三维运动信息(dx,dy,dz)。令前一帧的三维特征点为(x1,y1,z1),后一帧的三维特征点为(x2,y2,z2),那么有
(x2,y2,z2)=(x1,y1,z1)+(dx,dy,dz)
步骤140:获取所述三维特征点的对比度信息。
在本实施例中,进一步包括获取所述三维特征点的对比度信息的步骤。具体地,对每个匹配后的第一特征点以及第二特征点定义一个图像的邻域,通过方差或者梯度获取所述三维特征点的对比度信息。
步骤150:建立深度显著度模型,对每个三维特征点建立一个高斯分布模型,再将所有三维特征点的高斯分布模型合并,从而得到场景主体的深度分布。
在本实施例中,通过对上述三维特征点的深度信息、三维运动信息、以及对比度信息建立深度显著度模型,从而得到场景主体的深度分布。当然,可以理解的是,在其他实施例中,仅通过三维特征点的深度信息与三维运动信息的结合也可以建立深度显著度模型,从而得到场景主体的深度分布。
由于所述匹配后的第一特征点以及第二特征点会覆盖场景中的主要物体,因此,对所述第一特征点与所述第二特征点的显著度分析就基本上反映了场景主体的显著度情况。
具体地,如图2所示,本发明提出的关于深度的显著度模型,即对每一个三维特征点定义一个高斯分布模型,其中横轴是深度Z,纵轴是显著度Sa。每个三维特征点的显著度Sa与深度Z之间的关系表示如下:
该高斯分布模型的标准差σ∝|dz|=|z2-z1|,即正比于该三维特征点在前后两帧中深度之差的绝对值。在本实施例中,σ=|dz|/2=|z2-z1|/2,即等于三维特征点在前后两帧中深度差的绝对值的一半。
该高斯分布模型的期望值μ,z1<μ<z2,其中,z1<z2,即介于该三维特征点在前后两帧中的深度之间。在本实施例中,μ=(z1+z2)/2,即等于三维特征点在前后两帧中深度的均值。
该高斯分布模型的幅度S正比于该三维特征点的对比度和运动强度。在本实施例中,将该三维特征点的对比度和三维运动幅度分别做规整化之后再相加合并。
如图3所示,多个三维特征点的高斯分布模型组成了一个多高斯模型。
如图4所示,将所有三维特征点的高斯分布模型合并,就得到了整个场景的显著度关于深度的分布,也就是场景主体在深度上的分布。
对比图3和图4可以发现本方法对个别的异常三维特征点非常鲁棒。这些异常的三维特征点往往是因为错误的特征匹配所造成。此外,基于图4给出的显著度-深度模型,通过设定一个显著度阈值就可以很方便地估算出拍摄场景中主体的深度范围[Dmin,Dmax]。
所述计算场景主体的深度分布方法通过对三维特征点的深度与三维运动信息进行分析,从而得出整个场景主体的深度分布,即相比处理图像的全象素,对图像特征点的处理速度要更快。并且,通过对每个三维特征点建立一个高斯分布模型,从而可以准确快速地计算出场景主体的深度分布。所述场景主体的深度分布信息可用于监控、避障和路径规划、全自动的三维摄影等技术领域。
参见图5,本发明第二实施例提供的计算场景主体的深度分布装置的结构框图。
一种计算场景主体的深度分布装置,包括:图像获取单元21,提取与匹配单元22,恢复单元23,以及处理单元24。
其中,所述图像获取单元21包括第一摄像相机以及第二摄像相机。所述第一摄像机与所述第二摄像相机同时拍摄场景主体,所述第一摄像相机拍摄而获取第一图像,所述第二摄像相机拍摄而获取第二图像。
所述提取与匹配单元22对所述第一图像以及第二图像分别提取第一特征点以及第二特征点,并对所述第一特征点以及第二特征点进行匹配。
所述恢复单元23通过匹配后的第一特征点以及第二特征点恢复与所述第一特征点以及所述第二特征点对应的三维特征点的深度信息以及三维运动信息。
具体地,所述恢复单元23通过对匹配后的第一特征点以及第二特征点做反向投影,从而恢复与所述第一特征点以及所述第二特征点对应的三维特征点的深度信息。
所述恢复单元23对所述第一图像的前后两帧图像做匹配,对所述第二图像的前后两帧图像做匹配,从而获取第一图像以及第二图像对应的二维特征点的运动信息,并将所述二维特征点的运动信息恢复成与其对应的所述三维特征点的三维运动信息。
进一步地,所述恢复单元23可以进一步获取所述三维特征点的对比度信息。具体地,所述恢复单元对每个匹配后的第一特征点以及第二特征点定义一个图像的邻域,通过方差或者梯度获取所述三维特征点的对比度信息。
所述处理单元24,其建立深度显著度模型,对每个三维特征点建立一个高斯分布模型,再将所有三维特征点的高斯分布模型合并,从而得到场景主体的深度分布。
所述计算场景主体的深度分布装置通过对三维特征点的深度与三维运动信息进行分析,从而得出整个场景主体的深度分布,即相比处理图像的全象素,对图像特征点的处理速度要更快。并且,通过对每个三维特征点建立一个高斯分布模型,从而可以准确快速地计算出场景主体的深度分布。所述场景主体的深度分布信息可用于监控、避障和路径规划、全自动的三维摄影等技术领域。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (14)

1.一种计算场景主体的深度分布方法,其特征在于,包括:
通过第一摄像相机与第二摄像相机同时拍摄场景主体,所述第一摄像相机拍摄而获取第一图像,所述第二摄像相机拍摄而获取第二图像;
对所述第一图像以及第二图像分别提取第一特征点以及第二特征点,并对所述第一特征点以及第二特征点进行匹配;
通过匹配后的第一特征点以及第二特征点恢复与所述第一特征点以及所述第二特征点对应的三维特征点的深度信息以及三维运动信息;以及
建立深度显著度模型,对每个三维特征点建立一个高斯分布模型,再将所有三维特征点的高斯分布模型合并,从而得到场景主体的深度分布。
2.根据权利要求1所述的计算场景主体的深度分布方法,其特征在于,通过对匹配后的第一特征点以及第二特征点做反向投影,从而恢复与所述第一特征点以及所述第二特征点对应的三维特征点的深度信息。
3.根据权利要求1所述的计算场景主体的深度分布方法,其特征在于,对所述第一图像的前后两帧图像做匹配,对所述第二图像的前后两帧图像做匹配,从而获取第一图像以及第二图像对应的二维特征点的运动信息,并将所述二维特征点的运动信息恢复成与其对应的所述三维特征点的三维运动信息。
4.根据权利要求1所述的计算场景主体的深度分布方法,其特征在于,每个三维特征点的高斯分布模型的标准差正比于该三维特征点在前后两帧中深度之差的绝对值。
5.根据权利要求1所述的计算场景主体的深度分布方法,其特征在于,每个三维特征点的高斯分布模型的期望值介于该三维特征点在前后两帧中的深度之间。
6.根据权利要求1所述的计算场景主体的深度分布方法,其特征在于,在建立深度显著度模型之前,进一步包括获取所述三维特征点的对比度信息。
7.根据权利要求6所述的计算场景主体的深度分布方法,其特征在于,对每个匹配后的第一特征点以及第二特征点定义一个图像的邻域,通过方差或者梯度获取所述三维特征点的对比度信息。
8.根据权利要求6所述的计算场景主体的深度分布方法,其特征在于,每个三维特征点的高斯分布模型的幅度正比于该三维特征点的运动剧烈程度和对比度强度。
9.根据权利要求6所述的计算场景主体的深度分布方法,其特征在于,建立深度显著度模型,对每个三维特征点建立一个高斯分布模型,并对所述三维特征点的三维运动信息与对比度信息分别做规整化后再合并,然后再将所有三维特征点的高斯分布模型合并,从而得到场景主体的深度分布。
10.一种计算场景主体的深度分布装置,其特征在于,包括:
图像获取单元,其包括第一摄像相机以及第二摄像相机,所述第一摄像相 机与所述第二摄像相机同时拍摄场景主体,所述第一摄像相机拍摄而获取第一图像,所述第二摄像相机拍摄而获取第二图像;
提取与匹配单元,其对所述第一图像以及第二图像分别提取第一特征点以及第二特征点,并对所述第一特征点以及第二特征点进行匹配;
恢复单元,其通过匹配后的第一特征点以及第二特征点恢复与所述第一特征点以及所述第二特征点对应的三维特征点的深度信息以及三维运动信息;以及
处理单元,其建立深度显著度模型,对每个三维特征点建立一个高斯分布模型,再将所有三维特征点的高斯分布模型合并,从而得到场景主体的深度分布。
11.根据权利要求10所述的计算场景主体的深度分布装置,其特征在于,所述恢复单元通过对匹配后的第一特征点以及第二特征点做反向投影,从而恢复与所述第一特征点以及所述第二特征点对应的三维特征点的深度信息。
12.根据权利要求10所述的计算场景主体的深度分布装置,其特征在于,所述恢复单元对所述第一图像的前后两帧图像做匹配,对所述第二图像的前后两帧图像做匹配,从而获取第一图像以及第二图像对应的二维特征点的运动信息,并将所述二维特征点的运动信息恢复成与其对应的所述三维特征点的三维运动信息。
13.根据权利要求10所述的计算场景主体的深度分布装置,其特征在于,所述恢复单元进一步获取所述三维特征点的对比度信息。
14.根据权利要求13所述的计算场景主体的深度分布装置,其特征在于,所述恢复单元对每个匹配后的第一特征点以及第二特征点定义一个图像的邻域,通过方差或者梯度获取所述三维特征点的对比度信息。
CN201410711987.8A 2014-11-28 2014-11-28 计算场景主体的深度分布方法与装置 Active CN105654459B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410711987.8A CN105654459B (zh) 2014-11-28 2014-11-28 计算场景主体的深度分布方法与装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410711987.8A CN105654459B (zh) 2014-11-28 2014-11-28 计算场景主体的深度分布方法与装置

Publications (2)

Publication Number Publication Date
CN105654459A CN105654459A (zh) 2016-06-08
CN105654459B true CN105654459B (zh) 2018-04-24

Family

ID=56480497

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410711987.8A Active CN105654459B (zh) 2014-11-28 2014-11-28 计算场景主体的深度分布方法与装置

Country Status (1)

Country Link
CN (1) CN105654459B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230395A (zh) 2017-06-14 2018-06-29 深圳市商汤科技有限公司 双视角图像校准及图像处理方法、装置、存储介质和电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103077521A (zh) * 2013-01-08 2013-05-01 天津大学 一种用于视频监控的感兴趣区域提取方法
CN103679641A (zh) * 2012-09-26 2014-03-26 株式会社理光 深度图像增强方法和装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7889905B2 (en) * 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
US9123144B2 (en) * 2011-11-11 2015-09-01 Microsoft Technology Licensing, Llc Computing 3D shape parameters for face animation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679641A (zh) * 2012-09-26 2014-03-26 株式会社理光 深度图像增强方法和装置
CN103077521A (zh) * 2013-01-08 2013-05-01 天津大学 一种用于视频监控的感兴趣区域提取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A unified approach to salient object detection via low rank matrix recovery;Xiaohui Shen et al;《Computer Vision & Pattern Recognition》;20121231;第23卷(第10期);第853-860页 *
一种改进的基于混合高斯分布模型的自适应背景消除算法;王亮生 等;《北方交通大学学报》;20031231;第27卷(第6期);第22-25页 *

Also Published As

Publication number Publication date
CN105654459A (zh) 2016-06-08

Similar Documents

Publication Publication Date Title
RU2426172C1 (ru) Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине
CN103337094B (zh) 一种应用双目摄像机实现运动三维重建的方法
KR102097016B1 (ko) 동작 분석 장치 및 방법
US20170069071A1 (en) Apparatus and method for extracting person region based on red/green/blue-depth image
CN104167016B (zh) 一种基于rgb彩色与深度图像的三维运动重建方法
CN109472828B (zh) 一种定位方法、装置、电子设备及计算机可读存储介质
CN107798702B (zh) 一种用于增强现实的实时图像叠加方法以及装置
KR101472274B1 (ko) 운동하는 볼에 대한 센싱장치 및 센싱방법
Kong et al. Intrinsic depth: Improving depth transfer with intrinsic images
CN107798704B (zh) 一种用于增强现实的实时图像叠加方法及装置
CN109308719A (zh) 一种基于三维卷积的双目视差估计方法
US11212510B1 (en) Multi-camera 3D content creation
CN108090877A (zh) 一种基于图像序列的rgb-d相机深度图像修复方法
CN105791795B (zh) 立体图像处理方法、装置以及立体视频显示设备
CN103716615A (zh) 基于样本学习和深度图像传播的2d视频立体化方法
KR102083293B1 (ko) 모션 정보를 이용한 객체 복원 장치 및 이를 이용한 객체 복원 방법
JP7163049B2 (ja) 情報処理装置、情報処理方法及びプログラム
TWI647424B (zh) 用於計算運動的客體的位置資訊的感測裝置以及利用該裝置的感測方法
CN105654459B (zh) 计算场景主体的深度分布方法与装置
Huang et al. Image registration among UAV image sequence and Google satellite image under quality mismatch
Rossi et al. Dynamic fire 3D modeling using a real-time stereovision system
Benedek et al. Lidar-based gait analysis in people tracking and 4D visualization
Fazio et al. Tennis ball tracking: 3-D trajectory estimation using smartphone videos
CN109741245A (zh) 平面信息的插入方法及装置
KR101375708B1 (ko) 복수 영상을 이용한 모션 캡처 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 매체

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20180725

Address after: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.)

Patentee after: Shenzhen super Technology Co., Ltd.

Address before: 518053 Guangdong Shenzhen Nanshan District overseas Chinese Town East Industrial Zone East H-1 101

Co-patentee before: The auspicious photoelectron of Shenzhen's Merck research institute

Patentee before: Shenzhen SuperD Photoelectronic Co., Ltd.

TR01 Transfer of patent right