CN103646397B - 基于多源数据融合的实时合成孔径透视成像方法 - Google Patents

基于多源数据融合的实时合成孔径透视成像方法 Download PDF

Info

Publication number
CN103646397B
CN103646397B CN201310644291.3A CN201310644291A CN103646397B CN 103646397 B CN103646397 B CN 103646397B CN 201310644291 A CN201310644291 A CN 201310644291A CN 103646397 B CN103646397 B CN 103646397B
Authority
CN
China
Prior art keywords
target
depth
pixel
degree
tau
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310644291.3A
Other languages
English (en)
Other versions
CN103646397A (zh
Inventor
杨涛
张艳宁
马文广
王斯丙
冉令燕
仝小敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201310644291.3A priority Critical patent/CN103646397B/zh
Publication of CN103646397A publication Critical patent/CN103646397A/zh
Application granted granted Critical
Publication of CN103646397B publication Critical patent/CN103646397B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多源数据融合的实时合成孔径透视成像方法,用于解决现有基于能量最小化像素标记合成孔径成像方法实时性差的技术问题。技术方案是利用多源数据,根据第一帧深度图像,获取选定目标所处深度信息,结合目标深度范围分析,标记当前图像中前景像素点和未知深度像素点。然后利用场景的标记信息和目标隶属度函数得到当前彩色图像中像素点属于目标的概率,获取当前帧下的视角姿态信息。最后根据所获取的当前帧的目标存在概率和相机姿态,获取当前帧的合成图像,同时将产生的合成结果和有用信息作为下一帧的输入信息,通过迭代的方式实时获取合成结果。经测试,本发明能够在得到更清晰的合成图像的同时达到了实时处理的处理效果。

Description

基于多源数据融合的实时合成孔径透视成像方法
技术领域
本发明涉及一种实时合成孔径透视成像方法,特别是涉及一种基于多源数据融合的实时合成孔径透视成像方法。
背景技术
基于相机阵列的合成孔径透视成像技术是计算机视觉领域的一个重要研究课题,其在对隐藏目标成像、检测、识别和跟踪以及自由深度视点成像等方面具有广泛的应用。目前的合成孔径透视成像方法主要有:基于平面+视差的合成孔径成像方法与基于能量最小化的像素标记合成孔径成像方法。
文献“Synthetic Aperture Imaging using Pixel Labeling via EnergyMinimization,PR,46(1):174-187,2013”公开了一种基于能量最小化像素标记合成孔径成像方法。与传统基于平面+视差的合成孔径成像方法不同,该方法将透视成像转化为类别标记问题,而非简单的将所有相机视角下的图像进行平均。该方法首先对每个相机视角下的每一个像素利用能量最小化方法标记是否属于遮挡物,然后,在给定聚焦深度对没有被标记的像素进行平均,获得透视成像。虽然这种方法取得了实验效果,但是却只能解决静态前景遮挡物的标记问题,且对前景目标的分割是否精确具有较强依赖性。对于颜色较为相近的场景该方法同样不能准确分割遮挡物,成像结果依然存在模糊现象。而且作者对于获取特定深度下的目标图像非常耗时,无法实现对隐藏目标的实时透视成像。此外,这种方法只能适用于静态场景,对于前景中存在的动态遮挡物该方法无法进行标记,进而无法有效去除投影后属于动态遮挡物的点。
发明内容
为了克服现有基于能量最小化像素标记合成孔径成像方法实时性差的不足,本发明提供一种基于多源数据融合的实时合成孔径透视成像方法。该方法利用多源数据,首先根据第一帧深度图像,获取选定目标所处深度信息,结合目标深度范围分析,标记当前图像中前景像素点和未知深度像素点。然后利用场景的标记信息和目标隶属度函数得到当前彩色图像中像素点属于目标的概率,同时根据标记信息,利用并行追踪与绘制算法进行相机姿态估计,获取当前帧下的视角姿态信息。最后根据所获取的当前帧的目标存在概率和相机姿态,利用上一帧获取的合成图像信息及其他信息,获取当前帧的合成图像,同时将产生的合成结果和有用信息作为下一帧的输入信息,通过迭代的方式实时获取合成结果。通过在已构建的移动成像平台利用深度彩色相机拍摄的多源数据进行测试,本发明能够在得到更清晰以及更接近现实的合成图像的同时达到实时处理的处理效果。
本发明解决其技术问题所采用的技术方案是:一种基于多源数据融合的实时合成孔径透视成像方法,其特点是包括以下步骤:
步骤一、采用Kinect体感摄影机获取场景的深度信息和彩色信息,并根据采集的第一帧图像确定成像目标及成像目标在深度图像中的深度值。将第一帧对应的虚拟视角确定为虚拟参考视角,继续采集视频数据,作为数据输入。
步骤二、获取前景遮挡物的标记信息和深度未知区域的标记信息。
假设目标所处深度为d,则将深度小于d-3σ并且大于零的区域标记为前景遮挡物区域,其中σ根据成像目标所在的深度范围调节。由于Kinect成像原理,未知深度区域的深度值为0,因此将深度图中深度等于0的区域标记为深度未知区域。
步骤三、获取已知深度区域中像素点属于目标的隶属度。首先构造模糊集合:{Θτ,mΘ},其中隶属度函数mΘτ→[0,1],Θτ表示第τ帧中和目标处于同一深度的像素集合。对于每一个像素x∈Θτ,mΘ的值表示像素x和目标处于同一深度的隶属度。设计隶属度函数如下:
m Θ ( x ) = 1 ( 2 πσ 2 ) 1 / 2 exp { - 1 2 σ 2 ( d x - d τ ) 2 } - - - ( 1 )
其中,σ控制目标分布范围,dx为像素x的深度值,dτ表示目标在第τ帧中对应的深度值。
获取全部可视区域像素点属于目标的隶属度。首先构造模糊集合:{Ψτ,mΨ},其中隶属度函数为mΨ:Ψτ→[0,1],Ψτ表示第τ帧中所有未被遮挡物遮挡的可视像素集合,其中将未知深度区域的像素也归为该集合。对于每一个像素x∈Ψτ,mΨ的值表示像素x属于未被遮挡区域的隶属度。设计隶属度函数:
其中,Oζ={O1,...,On}表示属于遮挡物的像素集合。d(xΨ,Oζ)表示属于深度未知区域的像素x到属于遮挡物的欧式距离。Z=1/max{min{d(xΨ,Oζ)}}。
当获取已知深度区域中像素点属于目标的隶属度和全部可视区域像素点属于目标的隶属度后,根据模糊集合理论估计彩色图像中像素x属于目标的概率mΩ(x):
m Ω τ ( x ) = ( Ψ τ ∩ θ τ ) = m i n { m Ψ ( x ) , m Θ ( x ) } - - - ( 3 )
其中,Ωτ表示第τ帧的所有像素。
步骤四、首先获取相邻两帧之间的所有匹配点对集合然后结合前景遮挡物的标记信息,将所有属于前景遮挡的匹配点集合So去掉,得到可视匹配点集合Sv。利用集合Sv中的匹配点对计算获取初始的基本矩阵Finit,使用基本矩阵Finit来筛选之前去掉的属于前景遮挡的匹配点对。根据Finit计算集合So中每个匹配点对之间的Sampson距离如果小于一个给定的阈值Td,就将这个匹配点对重新加入到集合Sv中,同时从集合So中删除该匹配点对。利用更新后的Sv重新计算基本矩阵F,重复以上过程,迭代更新可视匹配点集合Sv。最终得到的可视匹配点集合Sv中既包含了属于背景和目标上的匹配点,也包含属于静态前景上面的匹配点,进而将集合Sv作为PTAM的输入,获得精确的相机姿态。
步骤五、获取被遮挡目标的合成图像。
将合成孔径成像设计为线性加权函数,权值由步骤三所计算的每一帧彩色图像中像素点属于目标的概率给出。对于输入的第τ帧彩色图像,根据针孔相机模型获取虚拟聚焦平面上的聚焦图像中的所有像素点在当前帧下对应的投影点。根据步骤三获取投影点属于目标的概率,将该概率作为该投影点的权重。计算当前帧下的合成图像:
S τ = 1 Σ k = 1 τ m k Ω ( x ) Σ k = 1 τ m k Ω ( x ) · I k - - - ( 4 )
其中,表示第k帧中的像素属于目标的概率。为了能够获取实时处理结果,该过程表示为如下公式:
S τ = 1 Σ k = 1 τ m k Ω ( x ) ( S τ - 1 Σ k = 1 τ - 1 m k Ω ( x ) + m τ Ω ( x ) · I τ ) - - - ( 5 )
根据实时成像结果,当成像结果达到成像要求时结束数据输出,获取最终成像结果。
本发明的有益效果是:该方法利用多源数据,首先根据第一帧深度图像,获取选定目标所处深度信息,结合目标深度范围分析,标记当前图像中前景像素点和未知深度像素点。然后利用场景的标记信息和目标隶属度函数得到当前彩色图像中像素点属于目标的概率,同时根据标记信息,利用并行追踪与绘制算法进行相机姿态估计,获取当前帧下的视角姿态信息。最后根据所获取的当前帧的目标存在概率和相机姿态,利用上一帧获取的合成图像信息及其他信息,获取当前帧的合成图像,同时将产生的合成结果和有用信息作为下一帧的输入信息,通过迭代的方式实时获取合成结果。通过在已构建的移动成像平台利用深度彩色相机拍摄的多源数据进行测试,本发明能够在得到更清晰以及更接近现实的合成图像的同时达到了实时处理的处理效果。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明基于多源数据融合的实时合成孔径透视成像方法具体步骤如下:
1、采集场景深度信息和彩色信息。
本部分采用Kinect体感摄影机获取场景的深度信息和彩色信息,并根据采集的第一帧图像确定成像目标及成像目标在深度图像中的深度值。将第一帧对应的虚拟视角确定为虚拟参考视角,继续采集视频数据,作为数据输入。
2、获取前景遮挡物的标记信息和深度未知区域的标记信息。
假设目标所处深度为d,则将深度小于d-3σ并且大于零的区域标记为前景遮挡物区域,其中σ为可根据成像目标所在的深度范围调节。由于Kinect成像原理,未知深度区域的深度值为0,因此将深度图中深度等于0的区域标记为深度未知区域。
3、获取像素属于目标的概率。
这一部分主要分为两个主要方面,首先获取已知深度区域中像素点属于目标的隶属度;其次获取全部可视区域(包括深度未知区域)像素点属于目标的隶属度。
获取已知深度区域中像素点属于目标的隶属度。首先构造模糊集合:{Θτ,mΘ},其中隶属度函数mΘτ→[0,1],Θτ表示第τ帧中和目标处于同一深度的像素集合。对于每一个像素x∈Θτ,mΘ的值表示像素x和目标处于同一深度的隶属度。由于成像目标很少为平面物体,因此会分布在一定的深度范围内。设计隶属度函数如下:
m Θ ( x ) = 1 ( 2 πσ 2 ) 1 / 2 exp { - 1 2 σ 2 ( d x - d τ ) 2 } - - - ( 1 )
其中σ控制目标分布范围,dx为像素x的深度值,dτ表示目标在第τ帧中对应的深度值。根据以上理论和公式,计算出已知深度区域中像素点属于目标的隶属度。
获取全部可视区域(包括深度未知区域)像素点属于目标的隶属度。首先构造模糊集合:{Ψτ,mΨ},其中隶属度函数为mΨ:Ψτ→[0,1],Ψτ表示第τ帧中所有未被遮挡物遮挡的可视像素集合,其中将未知深度区域的像素也归为该集合。对于每一个像素x∈Ψτ,mΨ的值表示像素x属于未被遮挡区域的隶属度。设计隶属度函数:
其中Oζ={O1,...,On}表示属于遮挡物的像素集合。d(xΨ,Oζ)表示属于深度未知区域的像素x到属于遮挡物的欧式距离。其中Z=1/max{min{d(xΨ,Oζ)}}。根据以上理论和公式,计算获取全部可视区域像素点属于目标的隶属度。
当获取已知深度区域中像素点属于目标的隶属度和全部可视区域像素点属于目标的隶属度后,根据模糊集合理论可以估计彩色图像中像素x属于目标的概率mΩ(x):
m Ω τ ( x ) = ( Ψ τ ∩ θ τ ) = m i n { m Ψ ( x ) , m Θ ( x ) } - - - ( 3 )
其中Ωτ表示第τ帧的所有像素。
4、获取相机姿态。
由于传统的相机姿态获取方法无法获取动态场景下的相机姿态信息,因此为适应动态场景并保证相机姿态计算精确度本发明采用特征点集和迭代优化算法改进传统的PTAM,从而获取动态场景下的相机姿态。
本算法首先获取相邻两帧之间的所有匹配点对集合然后结合前景遮挡物的标记信息,将所有属于前景遮挡的匹配点集合So去掉,得到可视匹配点集合Sv。利用集合Sv中的匹配点对计算获取初始的基本矩阵Finit,使用基本矩阵Finit来筛选之前去掉的属于前景遮挡的匹配点对。根据Finit计算集合So中每个匹配点对之间的Sampson距离如果小于一个给定的阈值Td,就将这个匹配点对重新加入到集合Sv中,同时从集合So中删除该匹配点对。利用更新后的Sv重新计算基本矩阵F,重复以上过程,迭代更新可视匹配点集合Sv。最终得到的可视匹配点集合Sv中既包含了属于背景和目标上的匹配点,也包含属于静态前景上面的匹配点,进而将集合Sv作为PTAM的输入,获得精确的相机姿态。
5、获取被遮挡目标的合成图像。
不同于传统的合成孔径成像方法,本发明将合成孔径成像设计为线性加权函数,这里的权值由第3步中所计算的每一帧彩色图像中像素点属于目标的概率给出。对于输入的第τ帧彩色图像,根据针孔相机模型获取虚拟聚焦平面上的聚焦图像中的所有像素点在当前帧下对应的投影点。根据第3步,可以获取投影点属于目标的概率,将该概率作为该投影点的权重。计算当前帧下的合成图像:
S τ = 1 Σ k = 1 τ m k Ω ( x ) Σ k = 1 τ m k Ω ( x ) · I k - - - ( 4 )
其中表示第k帧中的像素属于目标的概率。为了能够获取实时处理结果,该过程可以表示为如下公式:
S τ = 1 Σ k = 1 τ m k Ω ( x ) ( S τ - 1 Σ k = 1 τ - 1 m k Ω ( x ) + m τ Ω ( x ) · I τ ) - - - ( 5 )
根据实时成像结果,当成像结果达到成像要求时结束数据输出,获取最终成像结果。

Claims (1)

1.一种基于多源数据融合的实时合成孔径透视成像方法,其特征在于包括以下步骤:
步骤一、采用Kinect体感摄影机获取场景的深度信息和彩色信息,并根据采集的第一帧图像确定成像目标及成像目标在深度图像中的深度值;将第一帧对应的虚拟视角确定为虚拟参考视角,继续采集视频数据,作为数据输入;
步骤二、获取前景遮挡物的标记信息和深度未知区域的标记信息;
假设目标所处深度为d,则将深度小于d-3σ并且大于零的区域标记为前景遮挡物区域,其中σ根据成像目标所在的深度范围调节;由于Kinect成像原理,未知深度区域的深度值为0,因此将深度图中深度等于0的区域标记为深度未知区域;
步骤三、获取已知深度区域中像素点属于目标的隶属度;首先构造模糊集合:{Θτ,mΘ},其中隶属度函数mΘτ→[0,1],Θτ表示第τ帧中和目标处于同一深度的像素集合;对于每一个像素x∈Θτ,mΘ的值表示像素x和目标处于同一深度的隶属度;设计隶属度函数如下:
m Θ ( x ) = 1 ( 2 πσ 2 ) 1 / 2 exp { - 1 2 σ 2 ( d x - d τ ) 2 } - - - ( 1 )
其中,σ控制目标分布范围,dx为像素x的深度值,dτ表示目标在第τ帧中对应的深度值;
获取全部可视区域像素点属于目标的隶属度;首先构造模糊集合:{Ψτ,mΨ},其中隶属度函数为mΨ:Ψτ→[0,1],Ψτ表示第τ帧中所有未被遮挡物遮挡的可视像素集合,其中将未知深度区域的像素也归为该集合;对于每一个像素x∈Ψτ,mΨ的值表示像素x属于未被遮挡区域的隶属度;设计隶属度函数:
其中,Oζ={O1,...,On}表示属于遮挡物的像素集合;d(xΨ,Oζ)表示属于深度未知区域的像素x到属于遮挡物的欧式距离;Z=1/max{min{d(xΨ,Oζ)}};
当获取已知深度区域中像素点属于目标的隶属度和全部可视区域像素点属于目标的隶属度后,根据模糊集合理论估计彩色图像中像素x属于目标的概率mΩ(x):
m Ω τ ( x ) = ( Ψ τ ∩ θ τ ) = m i n { m Ψ ( x ) , m Θ ( x ) } - - - ( 3 )
其中,Ωτ表示第τ帧的所有像素;
步骤四、首先获取相邻两帧之间的所有匹配点对集合Sl,然后结合前景遮挡物的标记信息,将所有属于前景遮挡的匹配点集合So去掉,得到可视匹配点集合Sv;利用集合Sv中的匹配点对计算获取初始的基本矩阵Finit,使用基本矩阵Finit来筛选之前去掉的属于前景遮挡的匹配点对;根据Finit计算集合So中每个匹配点对之间的Sampson距离如果小于一个给定的阈值Td,就将这个匹配点对重新加入到集合Sv中,同时从集合So中删除该匹配点对;利用更新后的Sv重新计算基本矩阵F,重复以上过程,迭代更新可视匹配点集合Sv;最终得到的可视匹配点集合Sv中既包含了属于背景和目标上的匹配点,也包含属于静态前景上面的匹配点,进而将集合Sv作为PTAM的输入,获得精确的相机姿态;
步骤五、获取被遮挡目标的合成图像;
将合成孔径成像设计为线性加权函数,权值由步骤三所计算的每一帧彩色图像中像素点属于目标的概率给出;对于输入的第τ帧彩色图像,根据针孔相机模型获取虚拟聚焦平面上的聚焦图像中的所有像素点在当前帧下对应的投影点;根据步骤三获取投影点属于目标的概率,将该概率作为该投影点的权重;计算当前帧下的合成图像:
S τ = 1 Σ k = 1 τ m k Ω ( x ) Σ k = 1 τ m k Ω ( x ) · I k - - - ( 4 )
其中,表示第k帧中的像素属于目标的概率;为了能够获取实时处理结果,该过程表示为如下公式:
S τ = 1 Σ k = 1 τ m k Ω ( x ) ( S τ - 1 Σ k = 1 τ - 1 m k Ω ( x ) + m τ Ω ( x ) · I τ ) - - - ( 5 )
根据实时成像结果,当成像结果达到成像要求时结束数据输出,获取最终成像结果。
CN201310644291.3A 2013-12-02 2013-12-02 基于多源数据融合的实时合成孔径透视成像方法 Expired - Fee Related CN103646397B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310644291.3A CN103646397B (zh) 2013-12-02 2013-12-02 基于多源数据融合的实时合成孔径透视成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310644291.3A CN103646397B (zh) 2013-12-02 2013-12-02 基于多源数据融合的实时合成孔径透视成像方法

Publications (2)

Publication Number Publication Date
CN103646397A CN103646397A (zh) 2014-03-19
CN103646397B true CN103646397B (zh) 2016-10-19

Family

ID=50251607

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310644291.3A Expired - Fee Related CN103646397B (zh) 2013-12-02 2013-12-02 基于多源数据融合的实时合成孔径透视成像方法

Country Status (1)

Country Link
CN (1) CN103646397B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105741318B (zh) * 2016-01-22 2018-08-31 陕西师范大学 基于自动目标提取的全聚焦合成孔径成像方法
CN108537278B (zh) * 2018-04-10 2019-07-16 中国人民解放军火箭军工程大学 一种多源信息融合单目标位置确定方法及系统
WO2019201355A1 (en) * 2018-04-17 2019-10-24 Shanghaitech University Light field system occlusion removal
CN109802939B (zh) * 2018-12-12 2020-04-28 山东大学 基于星型网络结构的三维场景数据获取方法及系统
CN110136144B (zh) * 2019-05-15 2021-03-16 北京华捷艾米科技有限公司 一种图像分割方法、装置及终端设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102917175A (zh) * 2012-09-13 2013-02-06 西北工业大学 基于相机阵列合成孔径成像的遮挡多目标自动抠像方法
CN103198475A (zh) * 2013-03-08 2013-07-10 西北工业大学 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法
CN103413304A (zh) * 2013-07-30 2013-11-27 西北工业大学 基于彩色深度融合的虚拟阵列合成孔径透视成像方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7474332B2 (en) * 2003-08-28 2009-01-06 Raytheon Company Synthetic aperture ladar system and method using real-time holography

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102917175A (zh) * 2012-09-13 2013-02-06 西北工业大学 基于相机阵列合成孔径成像的遮挡多目标自动抠像方法
CN103198475A (zh) * 2013-03-08 2013-07-10 西北工业大学 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法
CN103413304A (zh) * 2013-07-30 2013-11-27 西北工业大学 基于彩色深度融合的虚拟阵列合成孔径透视成像方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Synthetic Aperture Imaging using Pixel Labeling via Energy Minimization;Zhao Pei等;《Pattern Recognition》;20130131;第46卷(第1期);174-187 *

Also Published As

Publication number Publication date
CN103646397A (zh) 2014-03-19

Similar Documents

Publication Publication Date Title
CN102646275B (zh) 通过跟踪和定位算法实现虚拟三维叠加的方法
CN103400409B (zh) 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法
CN103646397B (zh) 基于多源数据融合的实时合成孔径透视成像方法
CN101996407B (zh) 一种多相机颜色标定方法
CN112801074B (zh) 一种基于交通摄像头的深度图估计方法
CN104680559B (zh) 基于运动行为模式的多视角室内行人跟踪方法
CN106780592A (zh) 基于相机运动和图像明暗的Kinect深度重建算法
CN104463859B (zh) 一种基于跟踪指定点的实时视频拼接方法
CN101729920B (zh) 一种自由视角立体视频显示方法
CN105869178A (zh) 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法
CN102609950B (zh) 一种二维视频深度图的生成方法
CN105374039B (zh) 基于轮廓锐度的单目图像深度信息估计方法
CN102665086A (zh) 利用基于区域的局部立体匹配获取视差的方法
CN104182968B (zh) 宽基线多阵列光学探测系统模糊动目标分割方法
CN101765019B (zh) 一种用于运动模糊和光照变化图像的立体匹配方法
CN103729620B (zh) 一种基于多视角贝叶斯网络的多视角行人检测方法
CN108234819B (zh) 基于单应变换的视频同步方法
CN106600632A (zh) 一种改进匹配代价聚合的立体匹配算法
CN104299220A (zh) 一种对Kinect深度图像中的空洞进行实时填充的方法
CN109887029A (zh) 一种基于图像颜色特征的单目视觉里程测量方法
CN105427345A (zh) 基于相机投影矩阵的三维人流运动分析方法
CN106447718B (zh) 一种2d转3d深度估计方法
Jiang et al. Data fusion-based multi-object tracking for unconstrained visual sensor networks
CN104217442B (zh) 基于多模型估计的航拍视频运动目标检测方法
CN110516639B (zh) 一种基于视频流自然场景的人物三维位置实时计算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20161019

Termination date: 20181202

CF01 Termination of patent right due to non-payment of annual fee