CN111524233B - 一种静态场景动态目标的三维重建方法 - Google Patents

一种静态场景动态目标的三维重建方法 Download PDF

Info

Publication number
CN111524233B
CN111524233B CN202010215627.4A CN202010215627A CN111524233B CN 111524233 B CN111524233 B CN 111524233B CN 202010215627 A CN202010215627 A CN 202010215627A CN 111524233 B CN111524233 B CN 111524233B
Authority
CN
China
Prior art keywords
image
foreground
images
contour
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010215627.4A
Other languages
English (en)
Other versions
CN111524233A (zh
Inventor
纪刚
杨丰拓
朱慧
柴琦
蒋云飞
安帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Lianhe Chuangzhi Technology Co ltd
Original Assignee
Qingdao Lianhe Chuangzhi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Lianhe Chuangzhi Technology Co ltd filed Critical Qingdao Lianhe Chuangzhi Technology Co ltd
Priority to CN202010215627.4A priority Critical patent/CN111524233B/zh
Publication of CN111524233A publication Critical patent/CN111524233A/zh
Application granted granted Critical
Publication of CN111524233B publication Critical patent/CN111524233B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/513Sparse representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种静态场景动态目标的三维重建方法,包括如下过程:读取视频,截取无动态物体的视频片段,生成背景模型;抽取动态物体出现后的视频帧,使用背景图像提取视频帧中的前景,组成前景集合;使用前景集合进行三维重建,具体包括(1)检测特征点,计算描述子,匹配特征点;(2)计算特征点对应的空间点,BA优化稀疏点云;(3)以稀疏点云为基础,生成稠密点云,并去除外点;(4)在稠密点云的基础上,划分三角网格,截取图像集合中的图像,为三角网格贴上纹理。本发明所公开的方法实现了相机固定情况下的三维重建,降低了背景对模型的干扰,提高了重建模型的可观性,有效提高了三维重建的速度和鲁棒性。

Description

一种静态场景动态目标的三维重建方法
技术领域
本发明涉及计算机视觉中的三维重建领域,特别涉及一种静态场景动态目标的三维重建方法。
背景技术
三维重建是计算机视觉的经典问题,是构建人工智能视觉系统的基础和关键。对于建模及导航、视觉监控、虚拟现实、人机交互、计算机辅助设计等领域,三维重建技术是场景目标感知与理解的基础和关键技术。
三维重建方法有很多分类,如基于标记点的方法,双目重建方法,多视角立体重建方法,多传感器方法等。用于三维重建的传感器类型有很多,包括视觉类的单目摄像机、双目摄像机、RGBD视觉加深度传感器、安装于环境中的摄像机阵,以及非视觉类的激光扫描仪、结构光、声呐、结合IMU的传感器等。
其中,重建动态物体的三维重建算法分为基于多视角、多传感器源的重建,又或者基于物体标记点的重建,这样的算法对传感器,环境以及目标增加了很多限制,在许多场景中显然不适用。如有标记的算法需要在被重建物体上贴标记以辅助重建过程,这种算法繁琐耗时,操作复杂;多视角重建对设备要求高,需要固定场景,同样限制了其应用;多传感器昂贵的价格增加了成本,不适用于普通用户的广泛使用;RGBD传感器虽然有直接获得深度信息的优势,但也有一些量程、应用范围和光照的限制。
发明内容
为解决上述技术问题,本发明提供了一种静态场景动态目标的三维重建方法,有效降低了背景对重建模型的干扰,提高了重建模型的可观性,降低了特征点的提取和纹理划分时的计算量,有效的提高了三维重建的速度。
为达到上述目的,本发明的技术方案如下:
一种静态场景动态目标的三维重建方法,包括如下过程:
步骤一,读取视频,截取无动态物体的视频片段,生成背景模型;
步骤二,抽取动态物体出现后的视频帧,使用背景图像提取视频帧中的前景,组成前景集合;
步骤三,使用前景集合进行三维重建,具体如下:
(1)检测特征点,计算描述子,匹配特征点;
(2)计算特征点对应的空间点,BA优化稀疏点云;
(3)以稀疏点云为基础,生成稠密点云,并去除外点;
(4)在稠密点云的基础上,划分三角网格,截取图像集合中的图像,为三角网格贴上纹理。
上述方案中,步骤一具体方法如下:
选取一定时间范围内无任何动态物体的视频片段,设置视频片段的第一帧图像为初始背景图像B0,依次融合视频片段中的每帧图像I更新背景:
Bf=(1-α)×Bf-1+α×If
其中,f表示图像在视频片段中的帧数,α为学习速率,且0<α<1,If为视频片段中的第f帧图像,Bf-1和Bf分别为融合了f-1帧和f帧后的背景图像。
上述方案中,步骤二具体方法如下:
在动态物体出现后的视频序列中每隔15帧抽取1帧图像放入图像集合K中,用于提取前景参与后续的三维重建,对图像集合K中的每一幅图像I作以下处理:
(1)将带有动态目标的图像I与背景图像B相比较,得到图像I与背景图像B在像素层面上的差异值,将差异值少于th的像素设置为0,大于等于th的像素部设置为255,th为自定义阈值;此时获得提取出粗糙前景的二值图;
(2)对粗糙前景二值图做膨胀和腐蚀处理,生成膨胀二值图和腐蚀二值图;组合膨胀二值图和腐蚀二值图后生成一幅初步标记了前景、背景和不确定的区域的标记图;使用分水岭算法处理标记图生成仅标记了背景和前景的标记图,二值化分水岭算法生成的标记图,将前景设置为1,背景设置为0;
(3)在二值化标记图上提取轮廓并获取每个轮廓的重心,每一个轮廓圈出了提取出的前景区域,计算轮廓重心与相机拍摄图像的中心位置的距离D,使用矩形逼近生成每个轮廓对应的矩形,矩形的宽和高分别为wr和hr,计算轮廓矩形的面积S=wr×hr
Figure BDA0002424316740000021
Figure BDA0002424316740000031
其中,mba为轮廓的矩,m的下标b和a的取值为0或1,m00,m10,m01为b和a分别在不同取值情况下计算出的轮廓矩,x为图像中像素的横坐标,y为图像中像素的纵坐标,Pxy为轮廓上一点(x,y)的像素值,W为相机成像图像的宽,H为相机成像图像的高;
(4)遍历图像I的每一个前景轮廓,当轮廓的矩形面积S大于或小于设置的面积阈值时删除该轮廓,当轮廓重心与相机拍摄图像的中心位置的距离D大于设置的距离阈值时删除该轮廓;若执行完上述过滤操作后图像I无前景轮廓,则认为该图像为无用图像不参与后续的三维重建过程;若执行完上述过滤操作后图像I仍存在前景轮廓,则排序各个轮廓对应的矩形面积,保留面积最大的矩形Rect;
根据矩形Rect生成图像I对应的掩码二值图Mask,在掩码二值图Mask上将矩形Rect范围内的像素值设置为255,矩形范围以外的像素值标记为0;将图像I和掩码二值图Mask设置为图像-掩码对存入前景集合K'用于后续的三维重建过程。
上述方案中,步骤三中,在进行三维重建之前预先标定相机的内部参数,获得针孔相机模型内参矩阵C。
上述方案中,步骤(1)检测特征点,计算描述子,匹配特征点的具体方法如下:
提取前景集合K'中的每一幅图像I,读取其对应的掩码二值图Mask,在图像I上检测特征点,仅检测对应在掩码二值图Mask上像素值大于零的像素;计算特征点对应的描述子,比较特征点的描述子,使用暴力匹配方法获取任意两幅图像上的特征点的匹配关系。
上述方案中,步骤(2)计算特征点对应的空间点,BA优化稀疏点云的具体方法如下:
使用增量方法重建稀疏点云,计算前景集合K'中任意两幅图像的匹配得分MS:
Figure BDA0002424316740000032
其中,N为两幅图像的匹配对数量,λ为自定义的权值系数,λ>1,用于提高匹配对数量对匹配得分的影响,σ1为自定义的匹配对数量阈值,σ2为自定义的时间间隔阈值,Δk为选定两幅图像在图像集合K中的索引之差;
设置MS得分高的两幅图像作为初始两视图,使用基于对极约束的八点法计算初始两视图的本质矩阵,使用SVD分解本质矩阵获得初始两视图之间的相对位姿T;
设置初始两视图中的一幅图像的相机坐标系为世界坐标系,计算出的相对位姿都转化为相对于世界坐标系的位姿,使用三角量测生成初始两视图对应的稀疏点云,构造BA代价函数g(δ),优化稀疏点云和相机的位姿,之后不断地添加新的图像生成新的空间点,并执行BA优化:
Figure BDA0002424316740000041
其中,n为相机参与BA优化的图片数量,i为第i幅图像,w为空间点数量,j为第j个空间点,χij表示第j个空间点能否出现在第i幅图像对应的视野中,χij值为0表示不可见,χij值为1表示可见;Ti为图像i对应的相机位姿,Xj为第j个空间点,uij()为将空间点j投影到图像i上的投影公式,
Figure BDA0002424316740000045
为第i幅图像观测第j个空间点生成像素坐标。
上述方案中,步骤(3)以稀疏点云为基础,生成稠密点云,并去除外点的具体方法如下:
读取稀疏点云数据,获得优化后的前景集合中的图像的相机位姿;为前景集合中每一幅图像i创建一个相邻图像集,相邻图像集中的图像为图像i在前景集合序列中的前7幅和后7幅共14图像;
计算相邻图像集中的任意图像k与图像i之间的夹角θik,保留6°<θik<54°范围内的相邻图像,获取相应的图像的相机相对距离dik;计算相邻图像集中相对于图像i的平均相机相对距离
Figure BDA0002424316740000042
移除相邻图像集中相对于图像i较远
Figure BDA0002424316740000043
或较近/>
Figure BDA0002424316740000044
的图像,设置图像i中相邻图像集中θik和dik的乘积最小的图像作为图像i的参考图像;
对于前景图像集合中的每一幅图像i与它的参考图像构成了一对立体匹配对,使用基于双目视觉的立体匹配方法计算图像i的前景掩码区域的深度图,计算前景集合中的每幅图像的深度图;
对于前景图像集合中的每一幅图像i,使用该图像的深度图剔除其相邻图像集合中所有图像的被遮挡及深度相近的深度值;剔除掉这些冗余的深度值后,反投影图像前景掩码区域的像素到三维空间,生成稠密的点云。
通过上述技术方案,本发明提供的一种静态场景动态目标的三维重建方法具有如下有益效果:
1、本发明使用固定相机位置的单目相机重建静态场景中的动态物体,通过仅使用图像中的前景区域参与重建,实现了固定位置的相机对动态物体的三维重建。
2、本发明将前景提取与三维重建相结合,扩展了三维重建技术的应用范围。
3、本发明仅使用前景区域参与重建过程,去除了背景元素,有效降低了背景对重建模型的干扰,提高了重建模型的可观性。
4、本发明仅使用前景区域参与重建过程,大大降低了特征点的提取和纹理划分时的计算量,有效的提高了三维重建的速度。
5、本方面更仅使用前景区域参与重建过程,降低了外点数量,提高了三维重建的鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为粗糙前景二值图的示意图;
图2为分水岭算法生成的前景轮廓的示意图;
图3为输入图像对应的掩码图像示意图;
图4为检测特征点的图像示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种静态场景动态目标的三维重建方法,具体实施例如下:
步骤一,读取视频,截取无动态物体的视频片段,生成背景模型;
选取一定时间范围内无任何动态物体的视频片段,设置视频片段的第一帧图像为初始背景图像B0,依次融合视频片段中的每帧图像I更新背景:
Bf=(1-α)×Bf-1+α×If
其中,f表示图像在视频片段中的帧数,α为学习速率,且0<α<1,If为视频片段中的第f帧图像,Bf-1和Bf分别为融合了f-1帧和f帧后的背景图像。
步骤二,抽取动态物体出现后的视频帧,使用背景图像提取视频帧中的前景,组成前景集合;
在动态物体出现后的视频序列中每隔15帧抽取1帧图像放入图像集合K中,用于提取前景参与后续的三维重建,对图像集合K中的每一幅图像I作以下处理:
(1)将带有动态目标的图像I与背景图像B相比较,得到图像I与背景图像B在像素层面上的差异值,将差异值少于th的像素设置为0,大于等于th的像素部设置为255,th为自定义阈值;此时获得提取出粗糙前景的二值图,如图1所示;
(2)对粗糙前景二值图做膨胀和腐蚀处理,生成膨胀二值图和腐蚀二值图;组合膨胀二值图和腐蚀二值图后生成一幅初步标记了前景、背景和不确定的区域的标记图;使用分水岭算法处理标记图生成仅标记了背景和前景的标记图,如图2所示,二值化分水岭算法生成的标记图,将前景设置为1,背景设置为0;
(3)在二值化标记图上提取轮廓并获取每个轮廓的重心,每一个轮廓圈出了提取出的前景区域,计算轮廓重心与相机拍摄图像的中心位置的距离D,使用矩形逼近生成每个轮廓对应的矩形,矩形的宽和高分别为wr和hr,计算轮廓矩形的面积S=wr×hr
Figure BDA0002424316740000061
Figure BDA0002424316740000062
其中,mba为轮廓的矩,m的下标b和a的取值为0或1,m00,m10,m01为b和a分别在不同取值情况下计算出的轮廓矩,x为图像中像素的横坐标,y为图像中像素的纵坐标,Pxy为轮廓上一点(x,y)的像素值,W为相机成像图像的宽,H为相机成像图像的高;
(4)遍历图像I的每一个前景轮廓,当轮廓的矩形面积S大于或小于设置的面积阈值时删除该轮廓,当轮廓重心与相机拍摄图像的中心位置的距离D大于设置的距离阈值时删除该轮廓;若执行完上述过滤操作后图像I无前景轮廓,则认为该图像为无用图像不参与后续的三维重建过程;若执行完上述过滤操作后图像I仍存在前景轮廓,则排序各个轮廓对应的矩形面积,保留面积最大的矩形Rect;
根据矩形Rect生成图像I对应的掩码二值图Mask,如图3所示,在掩码二值图Mask上将矩形Rect范围内的像素值设置为255,矩形范围以外的像素值标记为0;将图像I和掩码二值图Mask设置为图像-掩码对存入前景集合K'用于后续的三维重建过程。
步骤三,使用前景集合进行三维重建,具体如下:
在进行三维重建之前预先标定相机的内部参数,获得针孔相机模型内参矩阵C。
(1)检测特征点,计算描述子,匹配特征点;
提取前景集合K'中的每一幅图像I,读取其对应的掩码二值图Mask,在图像I上检测特征点,如图4所示,仅检测对应在掩码二值图Mask上像素值大于零的像素;计算特征点对应的描述子,特征点可以选择ORB,SIFT,SURF等。比较特征点的描述子,使用暴力匹配方法获取任意两幅图像上的特征点的匹配关系。
(2)计算特征点对应的空间点,BA优化稀疏点云;
在本发明中相机保持不动,物体在转动,提取图像中的前景后计算相机为位姿时,将整个运动模型转换为目标不动,相机绕目标旋转。
使用增量方法重建稀疏点云,计算前景集合K'中任意两幅图像的匹配得分MS:
Figure BDA0002424316740000071
其中,N为两幅图像的匹配对数量,λ为自定义的权值系数,λ>1,用于提高匹配对数量对匹配得分的影响,σ1为自定义的匹配对数量阈值,σ2为自定义的时间间隔阈值,Δk为选定两幅图像在图像集合K中的索引之差;
设置MS得分高的两幅图像作为初始两视图,使用基于对极约束的八点法计算初始两视图的本质矩阵,使用SVD分解本质矩阵获得初始两视图之间的相对位姿T;
设置初始两视图中的一幅图像的相机坐标系为世界坐标系,计算出的相对位姿都转化为相对于世界坐标系的位姿,使用三角量测生成初始两视图对应的稀疏点云,构造BA代价函数g(δ),优化稀疏点云和相机的位姿,之后不断地添加新的图像生成新的空间点,并执行BA优化:
Figure BDA0002424316740000072
其中,n为相机参与BA优化的图片数量,i为第i幅图像,w为空间点数量,j为第j个空间点,χij表示第j个空间点能否出现在第i幅图像对应的视野中,χij值为0表示不可见,χij值为1表示可见;Ti为图像i对应的相机位姿,Xj为第j个空间点,uij()为将空间点j投影到图像i上的投影公式,
Figure BDA0002424316740000073
为第i幅图像观测第j个空间点生成像素坐标。
(3)以稀疏点云为基础,生成稠密点云,并去除外点;
读取稀疏点云数据,获得优化后的前景集合中的图像的相机位姿;为前景集合中每一幅图像i创建一个相邻图像集,相邻图像集中的图像为图像i在前景集合序列中的前7幅和后7幅共14图像;
计算相邻图像集中的任意图像k与图像i之间的夹角θik,保留6°<θik<54°范围内的相邻图像,获取相应的图像的相机相对距离dik;计算相邻图像集中相对于图像i的平均相机相对距离
Figure BDA0002424316740000081
移除相邻图像集中相对于图像i较远
Figure BDA0002424316740000082
或较近/>
Figure BDA0002424316740000083
的图像,设置图像i中相邻图像集中θik和dik的乘积最小的图像作为图像i的参考图像;
对于前景图像集合中的每一幅图像i与它的参考图像构成了一对立体匹配对,使用基于双目视觉的立体匹配方法计算图像i的前景掩码区域的深度图,计算前景集合中的每幅图像的深度图;
对于前景图像集合中的每一幅图像i,使用该图像的深度图剔除其相邻图像集合中所有图像的被遮挡及深度相近的深度值;剔除掉这些冗余的深度值后,反投影图像前景掩码区域的像素到三维空间,生成稠密的点云。
(4)在稠密点云的基础上,划分三角网格,截取图像集合中的图像,为三角网格贴上纹理。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (3)

1.一种静态场景动态目标的三维重建方法,其特征在于,包括如下过程:
步骤一,读取视频,截取无动态物体的视频片段,生成背景模型;
步骤二,抽取动态物体出现后的视频帧,使用背景图像提取视频帧中的前景,组成前景集合;具体方法如下:
在动态物体出现后的视频序列中每隔15帧抽取1帧图像放入图像集合K中,用于提取前景参与后续的三维重建,对图像集合K中的每一幅图像I作以下处理:
(1)将带有动态目标的图像I与背景图像B相比较,得到图像I与背景图像B在像素层面上的差异值,将差异值少于th的像素设置为0,大于等于th的像素部设置为255,th为自定义阈值;此时获得提取出粗糙前景的二值图;
(2)对粗糙前景二值图做膨胀和腐蚀处理,生成膨胀二值图和腐蚀二值图;组合膨胀二值图和腐蚀二值图后生成一幅初步标记了前景、背景和不确定的区域的标记图;使用分水岭算法处理标记图生成仅标记了背景和前景的标记图,二值化分水岭算法生成的标记图,将前景设置为1,背景设置为0;
(3)在二值化标记图上提取轮廓并获取每个轮廓的重心,每一个轮廓圈出了提取出的前景区域,计算轮廓重心与相机拍摄图像的中心位置的距离D,使用矩形逼近生成每个轮廓对应的矩形,矩形的宽和高分别为wr和hr,计算轮廓矩形的面积S=wr×hr
Figure FDA0004212277220000011
Figure FDA0004212277220000012
其中,mba为轮廓的矩,m的下标b和a的取值为0或1,m00,m10,m01为b和a分别在不同取值情况下计算出的轮廓矩,x为图像中像素的横坐标,y为图像中像素的纵坐标,Pxy为轮廓上一点(x,y)的像素值,W为相机成像图像的宽,H为相机成像图像的高;
(4)遍历图像I的每一个前景轮廓,当轮廓的矩形面积S大于或小于设置的面积阈值时删除该轮廓,当轮廓重心与相机拍摄图像的中心位置的距离D大于设置的距离阈值时删除该轮廓;若执行完上述过滤操作后图像I无前景轮廓,则认为该图像为无用图像不参与后续的三维重建过程;若执行完上述过滤操作后图像I仍存在前景轮廓,则排序各个轮廓对应的矩形面积,保留面积最大的矩形Rect;
根据矩形Rect生成图像I对应的掩码二值图Mask,在掩码二值图Mask上将矩形Rect范围内的像素值设置为255,矩形范围以外的像素值标记为0;将图像I和掩码二值图Mask设置为图像-掩码对存入前景集合K'用于后续的三维重建过程;
步骤三,使用前景集合进行三维重建,具体如下:
(1)检测特征点,计算描述子,匹配特征点;
(2)计算特征点对应的空间点,BA优化稀疏点云;
(3)以稀疏点云为基础,生成稠密点云,并去除外点;
(4)在稠密点云的基础上,划分三角网格,截取图像集合中的图像,为三角网格贴上纹理;
步骤(1)检测特征点,计算描述子,匹配特征点的具体方法如下:
提取前景集合K'中的每一幅图像I,读取其对应的掩码二值图Mask,在图像I上检测特征点,仅检测对应在掩码二值图Mask上像素值大于零的像素;计算特征点对应的描述子,比较特征点的描述子,使用暴力匹配方法获取任意两幅图像上的特征点的匹配关系;
步骤(2)计算特征点对应的空间点,BA优化稀疏点云的具体方法如下:
使用增量方法重建稀疏点云,计算前景集合K'中任意两幅图像的匹配得分MS:
Figure FDA0004212277220000021
其中,N为两幅图像的匹配对数量,λ为自定义的权值系数,λ>1,用于提高匹配对数量对匹配得分的影响,σ1为自定义的匹配对数量阈值,σ2为自定义的时间间隔阈值,Δk为选定两幅图像在图像集合K中的索引之差;
设置MS得分高的两幅图像作为初始两视图,使用基于对极约束的八点法计算初始两视图的本质矩阵,使用SVD分解本质矩阵获得初始两视图之间的相对位姿T;
设置初始两视图中的一幅图像的相机坐标系为世界坐标系,计算出的相对位姿都转化为相对于世界坐标系的位姿,使用三角量测生成初始两视图对应的稀疏点云,构造BA代价函数g(δ),优化稀疏点云和相机的位姿,之后不断地添加新的图像生成新的空间点,并执行BA优化:
Figure FDA0004212277220000022
其中,n为相机参与BA优化的图片数量,i为第i幅图像,w为空间点数量,j为第j个空间点,χij表示第j个空间点能否出现在第i幅图像对应的视野中,χij值为0表示不可见,χij值为1表示可见;Ti为图像i对应的相机位姿,Xj为第j个空间点,uij()为将空间点j投影到图像i上的投影公式,
Figure FDA0004212277220000031
为第i幅图像观测第j个空间点生成像素坐标;
步骤(3)以稀疏点云为基础,生成稠密点云,并去除外点的具体方法如下:
读取稀疏点云数据,获得优化后的前景集合中的图像的相机位姿;为前景集合中每一幅图像i创建一个相邻图像集,相邻图像集中的图像为图像i在前景集合序列中的前7幅和后7幅共14图像;
计算相邻图像集中的任意图像k与图像i之间的夹角θik,保留6°<θik<54°范围内的相邻图像,获取相应的图像的相机相对距离dik;计算相邻图像集中相对于图像i的平均相机相对距离
Figure FDA0004212277220000032
移除相邻图像集中相对于图像i较远
Figure FDA0004212277220000033
或较近/>
Figure FDA0004212277220000034
的图像,设置图像i中相邻图像集中θik和dik的乘积最小的图像作为图像i的参考图像;
对于前景图像集合中的每一幅图像i与它的参考图像构成了一对立体匹配对,使用基于双目视觉的立体匹配方法计算图像i的前景掩码区域的深度图,计算前景集合中的每幅图像的深度图;
对于前景图像集合中的每一幅图像i,使用该图像的深度图剔除其相邻图像集合中所有图像的被遮挡及深度相近的深度值;剔除掉这些冗余的深度值后,反投影图像前景掩码区域的像素到三维空间,生成稠密的点云。
2.根据权利要求1所述的一种静态场景动态目标的三维重建方法,其特征在于,步骤一具体方法如下:
选取一定时间范围内无任何动态物体的视频片段,设置视频片段的第一帧图像为初始背景图像B0,依次融合视频片段中的每帧图像I更新背景:
Bf=(1-α)×Bf-1+α×If
其中,f表示图像在视频片段中的帧数,α为学习速率,且0<α<1,If为视频片段中的第f帧图像,Bf-1和Bf分别为融合了f-1帧和f帧后的背景图像。
3.根据权利要求1所述的一种静态场景动态目标的三维重建方法,其特征在于,步骤三中,在进行三维重建之前预先标定相机的内部参数,获得针孔相机模型内参矩阵C。
CN202010215627.4A 2020-03-25 2020-03-25 一种静态场景动态目标的三维重建方法 Active CN111524233B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010215627.4A CN111524233B (zh) 2020-03-25 2020-03-25 一种静态场景动态目标的三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010215627.4A CN111524233B (zh) 2020-03-25 2020-03-25 一种静态场景动态目标的三维重建方法

Publications (2)

Publication Number Publication Date
CN111524233A CN111524233A (zh) 2020-08-11
CN111524233B true CN111524233B (zh) 2023-06-13

Family

ID=71901323

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010215627.4A Active CN111524233B (zh) 2020-03-25 2020-03-25 一种静态场景动态目标的三维重建方法

Country Status (1)

Country Link
CN (1) CN111524233B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113724368B (zh) * 2021-07-23 2023-02-07 北京百度网讯科技有限公司 图像采集系统、三维重建方法、装置、设备以及存储介质
CN114004927A (zh) * 2021-10-25 2022-02-01 北京字节跳动网络技术有限公司 3d视频模型重建方法、装置、电子设备及存储介质
CN114049464A (zh) * 2021-11-15 2022-02-15 聚好看科技股份有限公司 一种三维模型的重建方法及设备
CN116320357A (zh) * 2023-05-17 2023-06-23 浙江视觉智能创新中心有限公司 一种3d结构光相机系统、方法、电子设备和可读存储介质
CN116310227B (zh) * 2023-05-18 2023-09-12 海纳云物联科技有限公司 三维稠密重建方法、装置、电子设备及介质
CN116958439B (zh) * 2023-07-28 2024-02-23 南京安透可智能系统有限公司 一种满水环境中基于多传感融合的管道三维重建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110517348A (zh) * 2019-07-23 2019-11-29 西安电子科技大学 基于图像前景分割的目标物体三维点云重建方法
CN110738676A (zh) * 2019-09-17 2020-01-31 湖南大学 一种结合RGBD数据的GrabCut自动分割算法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107958482B (zh) * 2016-10-17 2021-06-18 杭州海康威视数字技术股份有限公司 一种三维场景模型构建方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110517348A (zh) * 2019-07-23 2019-11-29 西安电子科技大学 基于图像前景分割的目标物体三维点云重建方法
CN110738676A (zh) * 2019-09-17 2020-01-31 湖南大学 一种结合RGBD数据的GrabCut自动分割算法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
林连庆 ; 杨志刚 ; .一种基于图像集合的三维重建方法.电子世界.2016,(第12期),第181-183页. *
王燕玲等.公路视频中实时车流密度检测算法.《科学技术与工程》.2015,第第15卷卷(第第15卷期),第168-174页. *
龙宇航 ; 吴德胜 ; .高空遥感图像空间特征信息三维虚拟重建仿真.计算机仿真.2019,(第12期),第57-61页. *

Also Published As

Publication number Publication date
CN111524233A (zh) 2020-08-11

Similar Documents

Publication Publication Date Title
CN111524233B (zh) 一种静态场景动态目标的三维重建方法
CN110264567B (zh) 一种基于标记点的实时三维建模方法
CN110853075B (zh) 一种基于稠密点云与合成视图的视觉跟踪定位方法
CN110728671B (zh) 基于视觉的无纹理场景的稠密重建方法
CN110689562A (zh) 一种基于生成对抗网络的轨迹回环检测优化方法
KR20180054487A (ko) Dvs 이벤트 처리 방법 및 장치
CN110853151A (zh) 一种基于视频的三维立体点集恢复方法
EP2294555A1 (en) Three dimensional mesh modeling
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN113744315B (zh) 一种基于双目视觉的半直接视觉里程计
CN112630469B (zh) 一种基于结构光和多光场相机的三维检测方法
CN112862736B (zh) 一种基于点的实时三维重建与优化方法
CN114782628A (zh) 基于深度相机的室内实时三维重建方法
CN112270694B (zh) 基于激光雷达扫描图进行城市环境动态目标检测的方法
Ann et al. Study on 3D scene reconstruction in robot navigation using stereo vision
CN111105451A (zh) 一种克服遮挡效应的驾驶场景双目深度估计方法
CN110514140B (zh) 一种三维成像方法、装置、设备以及存储介质
CN106651921B (zh) 运动检测方法及躲避和跟踪运动目标的方法
CN114935316B (zh) 基于光学跟踪与单目视觉的标准深度图像生成方法
Ren et al. Application of stereo vision technology in 3D reconstruction of traffic objects
CN113129348B (zh) 一种基于单目视觉的道路场景中车辆目标的三维重建方法
Chowdhury et al. Fast window based stereo matching for 3D scene reconstruction.
RU2716311C1 (ru) Устройство для восстановления карты глубины с поиском похожих блоков на основе нейронной сети
CN113808070A (zh) 一种双目数字散斑图像相关的视差测量方法
CN115729250A (zh) 一种无人机的飞行控制方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant