CN106056630A - 基于图像序列光流与三角网格的遮挡区域检测方法 - Google Patents

基于图像序列光流与三角网格的遮挡区域检测方法 Download PDF

Info

Publication number
CN106056630A
CN106056630A CN201610392312.0A CN201610392312A CN106056630A CN 106056630 A CN106056630 A CN 106056630A CN 201610392312 A CN201610392312 A CN 201610392312A CN 106056630 A CN106056630 A CN 106056630A
Authority
CN
China
Prior art keywords
image
pixel
delta
shaped region
field picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610392312.0A
Other languages
English (en)
Other versions
CN106056630B (zh
Inventor
张聪炫
陈震
和世熙
汪明润
江少锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang Hangkong University
Original Assignee
Nanchang Hangkong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang Hangkong University filed Critical Nanchang Hangkong University
Priority to CN201610392312.0A priority Critical patent/CN106056630B/zh
Publication of CN106056630A publication Critical patent/CN106056630A/zh
Application granted granted Critical
Publication of CN106056630B publication Critical patent/CN106056630B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图像序列光流与三角网格的遮挡区域检测方法,该方法通过计算图像序列连续两帧间的光流;对第一帧图像进行Delaunay三角网格划分;计算图像像素点和各三角形区域在两帧图像间的亮度变化;根据第一帧图像三角形寻找对应的第二帧图像三角形区域,并检查第二帧图像对应三角形区域是否有嵌入像素点,确定存在遮挡的三角形区域;根据嵌入像素点和三角形区域的亮度变化确定是嵌入像素点被遮挡或三角形区域被遮挡;对图像中所有三角形区域进行遍历,以检测整个图像的遮挡区域。与现有方法相比,本方法具有更高的遮挡检测精度与可靠性。

Description

基于图像序列光流与三角网格的遮挡区域检测方法
技术领域
本发明涉及检测技术,特别涉及一种基于图像序列光流与三角网格的遮挡区域检测方法。
背景技术
当图像序列存在遮挡现象时,图像中的遮挡区域的像素点在连续帧图像中出现“时有时无”的现象,这一问题会导致图像序列运动目标检测、跟踪以及三维重建结果的准确性与可靠性面临较大挑战。因此,图像序列遮挡区域检测是图像处理、计算机视觉等研究领域的一项重要研究内容,其研究成果在机器人视觉、无人机导航、车辆辅助驾驶等领域具有重要的应用意义。
传统的图像序列遮挡区域检测方法通常采用基于特征匹配的策略,由于特征匹配的方法仅依靠单一像素点在连续两帧图像是否存在对应关系来判断像素点的遮挡,因此特征点匹配的鲁棒性与准确性对遮挡区域检测影响较大,常常导致遮挡区域检测结果并不满足实际需求。
发明内容
本发明的目的是提供一种基于图像序列光流与三角网格的遮挡区域检测方法,利用Delaunay三角网格对图像进行三角形划分,并利用两帧图像光流进行遮挡区域的检测技术,能准确地对图像序列中的遮挡区域进行检测、提取。
为了解决上述技术问题,本发明采取以下技术方案。基于图像序列光流与三角网格的遮挡区域检测方法,其步骤如下:
1)计算图像序列连续两帧间的光流;
2)利用Delaunay三角网格对第一帧图像进行三角形划分;
3)根据Delaunay三角网格划分结果和图像间光流,分别计算各像素点在第二帧图像的坐标,并根据第一帧图像三角网格划分结果,在第二帧图像建立对应的三角形网格区域;
4)根据两帧间图像光流与第一帧图像像素点坐标,计算各像素点在两帧图像间的亮度变化:
ΛIP=I(x+w)-I(x); (1)
式中:P表示第一帧图像中任意像素点;x表示点P的图像坐标;w表示点P在两帧图像间的光流;ΛIP表示点P在两帧图像间的亮度变化;
5)根据图像Delaunay三角网格划分与各像素点在两帧图像间的亮度变化,计算各三角形区域在两帧图像间的亮度变化:
ΛIΔ=α1·ΛIP12·ΛIP23·ΛIP3; (2)
式中:ΛIΔ表示图像各三角形区域在两帧图像中的亮度变化;ΛIP1、ΛIP2、ΛIP3表示组成三角形的三个像素点在两帧图像间的亮度变化;α1、α2、α3表示组成三角形的三个像素点在计算三角形区域亮度变化时的权重,取即各像素点所占权重相同;
6)根据两帧图像对应的三角网格划分结果,以及图像Delaunay三角网格划分的各三角形区域亮度变化ΛIΔ和组成该三角形的三个像素点在两帧图像间的亮度变化ΛIP(i)(i=1,2,3),对图像序列中各三角形区域是否存在遮挡进行判断,判断规则如下:
a)当第一帧图像的三角形区域在第二帧图像中的对应三角形区域没有像素点嵌入,则该三角形区域没有遮挡现象;
b)当第一帧图像的三角形区域在第二帧图像中的对应三角形区域有像素点嵌入,则该三角形区域存在遮挡现象,则采用式(3)进行下一步判断:
式中:ΛIp表示嵌入第二帧图像三角形区域的任意像素点p的两帧图像间亮度变化;
7)对图像Delaunay三角网格划分的所有三角形进行上述步骤的判断,存在遮挡的像素点将其灰度值设为1,未遮挡像素点灰度值设为0,最终生成图像遮挡区域。
本发明能够得到更为准确、可靠的图像序列遮挡区域检测结果,算法实现的复杂度较低,具有更高的遮挡检测精度与可靠性,并为下一步的运动目标检测、跟踪及三维重建奠定基础。
附图说明
图1a和图1b是RubberWhale图像序列连续两帧图像;
(其中:图1a是第一帧图像,图1b是第二帧图像;)
图2是计算所得的RubberWhale图像序列光流;
图3是对RubberWhale图像序列第一帧图像进行Delaunay三角网格划分的示意图;
图4a和图4b是第一帧图像的三角形区域在第二帧图像中的对应三角形区域变化情况示意图;
图5是根据本发明检测到的RubberWhale图像序列遮挡区域,图中白色区域为遮挡区域。
具体实施方式
以下结合附图和实施例对本发明作进一步说明。基于图像序列光流与三角网格的遮挡区域检测方法,使用RubberWhale图像序列遮挡区域检测实验进行说明:
1)图1a和图1b是RubberWhale图像序列连续两帧图像;其中:图1a是第一帧图像,图1b是第二帧图像;
图2是计算所得的RubberWhale图像序列连续两帧间的光流;
2)如图3所示,利用Delaunay三角网格对第一帧图像进行三角形划分;
3)根据Delaunay三角网格划分结果和图像间光流分别计算各像素点在第二帧图像的坐标,并根据第一帧图像三角网格划分结果在第二帧图像建立对应的三角形网格区域;
4)根据两帧间图像光流与第一帧图像像素点坐标计算各像素点在两帧图像间的亮度变化:
ΛIP=I(x+w)-I(x); (1)
式(1)中,P表示第一帧图像中任意像素点,x表示点P的图像坐标,w表示点P在两帧图像间的光流,ΛIP表示点P在两帧图像间的亮度变化;
5)根据图像Delaunay三角网格划分与各像素点在两帧图像间的亮度变化计算各三角形区域在两帧图像间的亮度变化:
ΛIΔ=α1·ΛIP12·ΛIP23·99P3; (2)
式(2)中,ΛIΔ表示图像各三角形区域在两帧图像中的亮度变化,ΛIP1、ΛIP2、ΛIP3表示组成三角形的三个像素点在两帧图像间的亮度变化;α1、α2、α3表示组成三角形的三个像素点在计算三角形区域亮度变化时的权重,取即各像素点所占权重相同;
6)根据两帧图像对应的三角网格划分结果以及图像Delaunay三角网格划分的各三角形区域亮度变化ΛIΔ和组成该三角形的三个像素点在两帧图像间的亮度变化ΛIP(i)(i=1,2,3)对图像序列中各三角形区域是否存在遮挡进行判断,判断规则如下:
a)如图4(a)所示,当第一帧图像的三角形区域在第二帧图像中的对应三角形区域没有像素点嵌入,则该三角形区域没有遮挡现象;
b)如图4(b)所示,当第一帧图像的三角形区域在第二帧图像中的对应三角形区域有像素点嵌入,则该三角形区域存在遮挡现象,则采用式(3)进行下一步判断:
式(3)中,ΛIp表示嵌入第二帧图像三角形区域的任意像素点p的两帧图像间亮度变化;
7)对图像Delaunay三角网格划分的所有三角形进行上述步骤的判断,存在遮挡的像素点将其灰度值设为1,未遮挡像素点灰度值设为0,最终生成图像遮挡区域如图5所示。

Claims (1)

1.基于图像序列光流与三角网格的遮挡区域检测方法,其特征在于,其步骤如下:
1)计算图像序列连续两帧间的光流;
2)利用Delaunay三角网格对第一帧图像进行三角形划分;
3)根据Delaunay三角网格划分结果和图像间光流,分别计算各像素点在第二帧图像的坐标,并根据第一帧图像三角网格划分结果,在第二帧图像建立对应的三角形网格区域;
4)根据两帧间图像光流与第一帧图像像素点坐标,计算各像素点在两帧图像间的亮度变化:
ΛIP=I(x+w)-I(x); (1)
式中:P表示第一帧图像中任意像素点;x表示点P的图像坐标;w表示点P在两帧图像间的光流;ΛIP表示点P在两帧图像间的亮度变化;
5)根据图像Delaunay三角网格划分与各像素点在两帧图像间的亮度变化,计算各三角形区域在两帧图像间的亮度变化:
ΛIΔ=α1·ΛIP12·ΛIP2+α3·ΛIP3; (2)
式中:ΛIΔ表示图像各三角形区域在两帧图像中的亮度变化;ΛIP1、ΛIP2、ΛIP3表示组成三角形的三个像素点在两帧图像间的亮度变化;α1、α2、α3表示组成三角形的三个像素点在计算三角形区域亮度变化时的权重,取即各像素点所占权重相同;
6)根据两帧图像对应的三角网格划分结果,以及图像Delaunay三角网格划分的各三角形区域亮度变化和组成该三角形的三个像素点在两帧图像间的亮度变化,对图像序列中各三角形区域是否存在遮挡进行判断,判断规则如下:
a)当第一帧图像的三角形区域在第二帧图像中的对应三角形区域没有像素点嵌入,则该三角形区域没有遮挡现象;
b)当第一帧图像的三角形区域在第二帧图像中的对应三角形区域有像素点嵌入,则该三角形区域存在遮挡现象,则采用式(3)进行下一步判断:
式中:ΛIp表示嵌入第二帧图像三角形区域的任意像素点p的两帧图像间亮度变化;
7)对图像Delaunay三角网格划分的所有三角形进行上述步骤的判断,存在遮挡的像素点将其灰度值设为1,未遮挡像素点灰度值设为0,最终生成图像遮挡区域。
CN201610392312.0A 2016-06-06 2016-06-06 基于图像序列光流与三角网格的遮挡区域检测方法 Active CN106056630B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610392312.0A CN106056630B (zh) 2016-06-06 2016-06-06 基于图像序列光流与三角网格的遮挡区域检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610392312.0A CN106056630B (zh) 2016-06-06 2016-06-06 基于图像序列光流与三角网格的遮挡区域检测方法

Publications (2)

Publication Number Publication Date
CN106056630A true CN106056630A (zh) 2016-10-26
CN106056630B CN106056630B (zh) 2018-09-21

Family

ID=57169464

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610392312.0A Active CN106056630B (zh) 2016-06-06 2016-06-06 基于图像序列光流与三角网格的遮挡区域检测方法

Country Status (1)

Country Link
CN (1) CN106056630B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108986150A (zh) * 2018-07-17 2018-12-11 南昌航空大学 一种基于非刚性稠密匹配的图像光流估计方法及系统
CN110782415A (zh) * 2019-11-01 2020-02-11 合肥图鸭信息科技有限公司 一种图像补全方法、装置及终端设备
CN111402292A (zh) * 2020-03-10 2020-07-10 南昌航空大学 基于特征变形误差遮挡检测的图像序列光流计算方法
CN112669294A (zh) * 2020-12-30 2021-04-16 深圳云天励飞技术股份有限公司 相机遮挡检测方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102129708A (zh) * 2010-12-10 2011-07-20 北京邮电大学 增强现实环境中快速多层次虚实遮挡处理方法
CN104504724A (zh) * 2015-01-15 2015-04-08 杭州国策商图科技有限公司 一种不受障碍物影响的运动物体跟踪及提取算法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102129708A (zh) * 2010-12-10 2011-07-20 北京邮电大学 增强现实环境中快速多层次虚实遮挡处理方法
CN104504724A (zh) * 2015-01-15 2015-04-08 杭州国策商图科技有限公司 一种不受障碍物影响的运动物体跟踪及提取算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
RYAN KENNEDY等: "Optical Flow with Geometric Occlusion Estimation and Fusion of Multiple Frames", 《INTERNATIONAL WORKSHOP ON ENERGY MINIMIZATION METHODS IN COMPUTER VISION AND PATTERN RECOGNITION》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108986150A (zh) * 2018-07-17 2018-12-11 南昌航空大学 一种基于非刚性稠密匹配的图像光流估计方法及系统
CN108986150B (zh) * 2018-07-17 2020-05-22 南昌航空大学 一种基于非刚性稠密匹配的图像光流估计方法及系统
CN110782415A (zh) * 2019-11-01 2020-02-11 合肥图鸭信息科技有限公司 一种图像补全方法、装置及终端设备
CN111402292A (zh) * 2020-03-10 2020-07-10 南昌航空大学 基于特征变形误差遮挡检测的图像序列光流计算方法
CN112669294A (zh) * 2020-12-30 2021-04-16 深圳云天励飞技术股份有限公司 相机遮挡检测方法、装置、电子设备及存储介质
CN112669294B (zh) * 2020-12-30 2024-04-02 深圳云天励飞技术股份有限公司 相机遮挡检测方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN106056630B (zh) 2018-09-21

Similar Documents

Publication Publication Date Title
US11003897B2 (en) Three-dimensional real face modeling method and three-dimensional real face camera system
US9245344B2 (en) Method and apparatus for acquiring geometry of specular object based on depth sensor
CN106056630A (zh) 基于图像序列光流与三角网格的遮挡区域检测方法
CN102445165B (zh) 基于单幅彩色编码光栅的立体视觉测量方法
CN106408513B (zh) 深度图超分辨率重建方法
US11295516B2 (en) Reconstruction method, reconstruction device, and generation method for generating a three-dimensional (3D) model
CN102892021B (zh) 一种合成虚拟视点图像的新方法
KR101681095B1 (ko) 컬러 영상과 시점 및 해상도가 동일한 깊이 영상 생성 방법 및 장치
JP2008082870A (ja) 画像処理プログラム及びこれを用いた路面状態計測システム
CN107967697B (zh) 基于彩色随机二元编码结构照明的三维测量方法和系统
Guzmán et al. Towards ubiquitous autonomous driving: The CCSAD dataset
BR112016010089B1 (pt) dispositivo de estimação de posição de corpo em movimento e método de estimação de posição de corpo em movimento
CN108986150B (zh) 一种基于非刚性稠密匹配的图像光流估计方法及系统
US11803982B2 (en) Image processing device and three-dimensional measuring system
CN110307791A (zh) 基于三维车辆边界框的车辆长度及速度计算方法
CN104200453A (zh) 基于图像分割和可信度的视差图像校正方法
CN107545586A (zh) 基于光场极限平面图像局部的深度获取方法及系统
CN106033614A (zh) 一种强视差下的移动相机运动目标检测方法
Caspi et al. Vertical parallax from moving shadows
CN105701787B (zh) 基于置信度的深度图融合方法
Zhang et al. Automatic terrain extraction using multiple image pair and back matching
KR101634283B1 (ko) 단일영상에서의 3차원 카메라교정을 통한 3차원 공간모델링 형성제어장치 및 방법
Um et al. Three-dimensional scene reconstruction using multiview images and depth camera
Zhang et al. High quality depth maps from stereo matching and ToF camera
Jaw et al. Building roof reconstruction by fusing laser range data and aerial images

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant