CN108681753B - 一种基于语义分割及神经网络的图像立体匹配方法及系统 - Google Patents

一种基于语义分割及神经网络的图像立体匹配方法及系统 Download PDF

Info

Publication number
CN108681753B
CN108681753B CN201810529435.3A CN201810529435A CN108681753B CN 108681753 B CN108681753 B CN 108681753B CN 201810529435 A CN201810529435 A CN 201810529435A CN 108681753 B CN108681753 B CN 108681753B
Authority
CN
China
Prior art keywords
disparity map
semantic segmentation
neural network
image
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810529435.3A
Other languages
English (en)
Other versions
CN108681753A (zh
Inventor
曹晶
陈星辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Huanyu Zhixing Technology Co ltd
Original Assignee
Wuhan Huanyu Zhixing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Huanyu Zhixing Technology Co ltd filed Critical Wuhan Huanyu Zhixing Technology Co ltd
Priority to CN201810529435.3A priority Critical patent/CN108681753B/zh
Publication of CN108681753A publication Critical patent/CN108681753A/zh
Application granted granted Critical
Publication of CN108681753B publication Critical patent/CN108681753B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于语义分割及神经网络的图像立体匹配方法及系统,其中方法包括:首先获取场景图像的初始视差图;利用语义分割图获取场景图像的感兴趣区域,将感兴趣区域和初始视差图一起输入残差网络中;利用反卷积模块将感兴趣区域映射到视差图中得到精确视差图。本发明中的语义分割图为网络提供了丰富的信息,且只对图像中感兴趣的区域进行了处理,又由于采用了残差网络,使得本发明在匹配精度与速度上,都得到了提升。

Description

一种基于语义分割及神经网络的图像立体匹配方法及系统
技术领域
本发明涉及人工智能技术领域,尤其是涉及一种基于语义分割及神经网络的图像立体匹配方法及系统。
背景技术
图像的立体匹配是场景三维重建等应用的关键步骤,传统的立体匹配算法包括4个步骤:cost computation(匹配代价计算),cost aggregation(代价汇总),disparitycomputation(视差计算),and refinement(视差细化)。cost computation主要计算每个像素在所有可能的视差值上的计算代价;在cost aggregation步骤中,将一定区域内所有像素的计算代价进行聚合;在disparity computation步骤中,使用全局或局部算法计算视差值;最后,在后续处理步骤中对视差进行校正,选择合适的视差。传统的立体匹配算法在计算速度和精度上已经不能满足目前场景三维重建的需要。
发明内容
本发明的目的在于克服上述技术不足,提出一种基于语义分割及神经网络的图像立体匹配方法及系统,解决现有技术中的上述技术问题。
为达到上述技术目的,本发明的技术方案提供一种基于语义分割及神经网络的图像立体匹配方法,包括:
S1、获取场景图像的初始视差图;
S2、利用语义分割图获取场景图像的感兴趣区域,将感兴趣区域和初始视差图一起输入残差网络中;
S3、利用反卷积模块将感兴趣区域映射到视差图中得到精确视差图。
本发明还提供一种基于语义分割及神经网络的图像立体匹配系统,包括:
初始视差图获取模块:用于获取场景图像的初始视差图;
残差网络输入模块:用于利用语义分割图获取场景图像的感兴趣区域,将感兴趣区域和初始视差图一起输入残差网络中;
精确视差图获取模块:用于利用反卷积模块将感兴趣区域映射到视差图中得到精确视差图。
与现有技术相比,本发明的有益效果包括:获取场景图像的初始视差图;利用语义分割图获取场景图像的感兴趣区域,将感兴趣区域和初始视差图一起输入残差网络中;利用反卷积模块将感兴趣区域映射到视差图中得到精确视差图。本发明中的语义分割图为网络提供了丰富的信息,且只对图像中感兴趣的区域进行了处理,又由于采用了残差网络,使得本发明在匹配精度与速度上,都得到了提升。
附图说明
图1是本发明提供的一种基于语义分割及神经网络的图像立体匹配方法流程图;
图2是本发明提供的一种基于语义分割及神经网络的图像立体匹配系统结构框图。
附图中:1、基于语义分割及神经网络的图像立体匹配系统,11、初始视差图获取模块,12、残差网络输入模块,13、精确视差图获取模块。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供了一种基于语义分割及神经网络的图像立体匹配方法,包括:
S1、获取场景图像的初始视差图;
S2、利用语义分割图获取场景图像的感兴趣区域,将感兴趣区域和初始视差图一起输入残差网络中;
S3、利用反卷积模块将感兴趣区域映射到视差图中得到精确视差图。
本发明所述的基于语义分割及神经网络的图像立体匹配方法,步骤S3中获取场景图像的精确视差图之后,还包括:
检测精确视差图中像素点的异常值,采取左右一致性检查来减少异常值,并使用双边滤波器对精确视差图进行平滑处理,使得其边缘的模糊程度降低;
具体的,由于精确视差图仍然会存在深度不连续等问题,所以采取检测精确视差图中像素点的异常值,采取左右一致性检查来减少异常值并对精确视差图进行平滑处理,以进一步获取更加精确的视差图。
本发明所述的基于语义分割及神经网络的图像立体匹配方法,步骤S1中获取场景图像的初始视差图的方法为:
将场景图像输入卷积神经网络,卷积神经网络计算场景图像的匹配代价,并输出场景图像的初始视差图;该卷积神经网络包括3x3滤波器、1x1填充层,以及ReLU非线性层。
本发明所述的基于语义分割及神经网络的图像立体匹配方法,残差网络输出精确视差图采用WTA(winner take al l)策略,即残差网络选取像素点匹配代价最小的视差作为最终视差,各像素点的最终视差形成精确视差图。由于残差网络可以训练很深,因此训练并利用残差网络输出的精确视差图的精度较为优异。
本发明所述的基于语义分割及神经网络的图像立体匹配方法,步骤S2中场景图像的语义分割图是基于PSPNet获取的语义分割图。
本发明还提供一种基于语义分割及神经网络的图像立体匹配系统1,包括:
初始视差图获取模块11:用于获取场景图像的初始视差图;
残差网络输入模块12:用于利用语义分割图获取场景图像的感兴趣区域,将感兴趣区域和初始视差图一起输入残差网络中;
精确视差图获取模块13:用于利用反卷积模块将感兴趣区域映射到视差图中得到精确视差图。
本发明所述的基于语义分割及神经网络的图像立体匹配系统1,还包括矫正模块:用于检测精确视差图中像素点的异常值,采取左右一致性检查来减少异常值,并使用双边滤波器对精确视差图进行平滑处理,使得其边缘的模糊程度降低。
本发明所述的基于语义分割及神经网络的图像立体匹配系统1,初始视差图获取模块11用于将场景图像输入卷积神经网络,卷积神经网络计算场景图像的匹配代价,并输出场景图像的初始视差图。
本发明所述的基于语义分割及神经网络的图像立体匹配系统1,精确视差图获取模块13用于利用残差网络选取像素点匹配代价最小的视差作为最终视差,并将各像素点的最终视差形成精确视差图。
本发明所述的基于语义分割及神经网络的图像立体匹配系统1,残差网络输入模块12中场景图像的语义分割图是基于PSPNet获取的语义分割图。
与现有技术相比,本发明的有益效果包括:获取场景图像的初始视差图;利用语义分割图获取场景图像的感兴趣区域,将感兴趣区域和初始视差图一起输入残差网络中;利用反卷积模块将感兴趣区域映射到视差图中得到精确视差图。本发明中的语义分割图为网络提供了丰富的信息,且只对图像中感兴趣的区域进行了处理,又由于采用了残差网络,使得本发明在匹配精度与速度上,都得到了提升。
以上所述本发明的具体实施方式,并不构成对本发明保护范围的限定。任何根据本发明的技术构思所做出的各种其他相应的改变与变形,均应包含在本发明权利要求的保护范围内。

Claims (8)

1.一种基于语义分割及神经网络的图像立体匹配方法,其特征在于,包括:
S1、获取场景图像的初始视差图;
S2、利用语义分割图获取场景图像的感兴趣区域,将感兴趣区域和初始视差图一起输入残差网络中;
S3、利用反卷积模块将感兴趣区域映射到视差图中得到精确视差图;
步骤S1中获取场景图像的初始视差图的方法为:
将场景图像输入卷积神经网络,卷积神经网络计算场景图像的匹配代价,并输出场景图像的初始视差图,该卷积神经网络包括3x3滤波器、1x1填充层,以及ReLU非线性层。
2.如权利要求1所述的基于语义分割及神经网络的图像立体匹配方法,其特征在于,步骤S3中获取场景图像的精确视差图之后,还包括:
检测所述精确视差图中像素点的异常值,采取左右一致性检查来减少异常值,并使用双边滤波器对所述精确视差图进行平滑处理,使得其边缘的模糊程度降低。
3.如权利要求1所述的基于语义分割及神经网络的图像立体匹配方法,其特征在于,步骤S3中选取像素点匹配代价最小的视差作为最终视差,各像素点的最终视差形成所述精确视差图。
4.如权利要求1所述的基于语义分割及神经网络的图像立体匹配方法,其特征在于,步骤S2中所述语义分割图是基于PSPNet获取的语义分割图。
5.一种基于语义分割及神经网络的图像立体匹配系统,其特征在于,包括:
初始视差图获取模块:用于获取场景图像的初始视差图;
残差网络输入模块:用于利用语义分割图获取场景图像的感兴趣区域,将感兴趣区域和初始视差图一起输入残差网络中;
精确视差图获取模块:用于利用反卷积模块将感兴趣区域映射到视差图中得到精确视差图;
初始视差图获取模块用于将场景图像输入卷积神经网络,所述卷积神经网络计算场景图像的匹配代价,并输出场景图像的所述初始视差图,该卷积神经网络包括3x3滤波器、1x1填充层,以及ReLU非线性层。
6.如权利要求5所述的基于语义分割及神经网络的图像立体匹配系统,其特征在于,还包括校正模块:用于检测所述精确视差图中像素点的异常值,采取左右一致性检查来减少异常值,并使用双边滤波器对所述精确视差图进行平滑处理,使得其边缘的模糊程度降低。
7.如权利要求5所述的基于语义分割及神经网络的图像立体匹配系统,其特征在于,精确视差图获取模块用于选取像素点匹配代价最小的视差作为最终视差,并将各像素点的最终视差形成所述精确视差图。
8.如权利要求5所述的基于语义分割及神经网络的图像立体匹配系统,其特征在于,残差网络输入模块中所述语义分割图是基于PSPNet获取的语义分割图。
CN201810529435.3A 2018-05-29 2018-05-29 一种基于语义分割及神经网络的图像立体匹配方法及系统 Active CN108681753B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810529435.3A CN108681753B (zh) 2018-05-29 2018-05-29 一种基于语义分割及神经网络的图像立体匹配方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810529435.3A CN108681753B (zh) 2018-05-29 2018-05-29 一种基于语义分割及神经网络的图像立体匹配方法及系统

Publications (2)

Publication Number Publication Date
CN108681753A CN108681753A (zh) 2018-10-19
CN108681753B true CN108681753B (zh) 2021-03-30

Family

ID=63808579

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810529435.3A Active CN108681753B (zh) 2018-05-29 2018-05-29 一种基于语义分割及神经网络的图像立体匹配方法及系统

Country Status (1)

Country Link
CN (1) CN108681753B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919993B (zh) * 2019-03-12 2023-11-07 腾讯科技(深圳)有限公司 视差图获取方法、装置和设备及控制系统
CN110245553B (zh) * 2019-04-29 2022-02-22 清华大学 路面测距方法及装置
CN110287964B (zh) * 2019-06-13 2021-08-03 浙江大华技术股份有限公司 一种立体匹配方法及装置
US11556784B2 (en) 2019-11-22 2023-01-17 Samsung Electronics Co., Ltd. Multi-task fusion neural network architecture

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013100790A1 (en) * 2011-12-30 2013-07-04 Intel Corporation Coarse-to-fine multple disparity candidate stereo matching
CN103226821A (zh) * 2013-04-27 2013-07-31 山西大学 基于视差图像素分类校正优化的立体匹配方法
CN105005988A (zh) * 2015-06-30 2015-10-28 陕西师范大学 一种基于交互式图像分割的立体匹配方法
CN105550675A (zh) * 2016-02-02 2016-05-04 天津大学 一种基于优化聚合积分通道的双目行人检测方法
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
CN107832764A (zh) * 2017-11-27 2018-03-23 山东鲁能智能技术有限公司 一种电力设备状态检测方法及装置
CN107886477A (zh) * 2017-09-20 2018-04-06 武汉环宇智行科技有限公司 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103236053B (zh) * 2013-04-07 2016-08-31 南京理工大学 一种移动平台下运动目标检测的mof方法
CN104835175B (zh) * 2015-05-26 2019-11-05 西南科技大学 一种基于视觉注意机制的核环境中目标检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013100790A1 (en) * 2011-12-30 2013-07-04 Intel Corporation Coarse-to-fine multple disparity candidate stereo matching
CN103226821A (zh) * 2013-04-27 2013-07-31 山西大学 基于视差图像素分类校正优化的立体匹配方法
CN105005988A (zh) * 2015-06-30 2015-10-28 陕西师范大学 一种基于交互式图像分割的立体匹配方法
CN105550675A (zh) * 2016-02-02 2016-05-04 天津大学 一种基于优化聚合积分通道的双目行人检测方法
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
CN107886477A (zh) * 2017-09-20 2018-04-06 武汉环宇智行科技有限公司 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法
CN107832764A (zh) * 2017-11-27 2018-03-23 山东鲁能智能技术有限公司 一种电力设备状态检测方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Detect, Replace, Refine: Deep Structured Prediction For Pixel Wise Labeling;Spyros Gidaris等;《2017 IEEE Conference on Computer Vision and Pattern Recognition》;20171209;第7187-7196页 *
Improved Stereo Matching with Constant Highway Networks and Reflective Confidence Learning;Amit Shaked等;《2017 IEEE Conference on Computer Vision and Pattern Recognition》;20171209;第6901-6910页 *
基于双目立体视觉的心脏软组织三维重构技术研究;马波涛;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180215;第2018年卷(第2期);I138-2320 *

Also Published As

Publication number Publication date
CN108681753A (zh) 2018-10-19

Similar Documents

Publication Publication Date Title
CN108681753B (zh) 一种基于语义分割及神经网络的图像立体匹配方法及系统
CN106780590B (zh) 一种深度图的获取方法及系统
CN111062905A (zh) 一种基于显著图增强的红外和可见光融合方法
CN106875437B (zh) 一种面向rgbd三维重建的关键帧提取方法
CN107316326B (zh) 应用于双目立体视觉的基于边的视差图计算方法和装置
CN103440653A (zh) 双目视觉立体匹配方法
CN113362247A (zh) 一种激光融合多目相机的语义实景三维重建方法及系统
CN106651897B (zh) 一种基于超像素分割的视差修正方法
CN103914820A (zh) 一种基于图像分层增强的图像去雾方法及系统
CN110443874B (zh) 基于卷积神经网络的视点数据生成方法和装置
CN105791803A (zh) 一种将二维图像转化为多视点图像的显示方法及系统
CN102447917A (zh) 立体图像匹配方法及其设备
CN111223059A (zh) 一种基于引导滤波器的鲁棒深度图结构重建和去噪方法
CN110060283A (zh) 一种多测度半全局密集匹配算法
CN105335968A (zh) 一种基于置信度传播算法的深度图提取方法及装置
CN104200453A (zh) 基于图像分割和可信度的视差图像校正方法
CN111462211B (zh) 一种基于卷积神经网络的双目视差计算方法
CN108805841B (zh) 一种基于彩色图引导的深度图恢复及视点合成优化方法
CN111652922B (zh) 一种基于双目视觉的单目视频深度估计方法
US9113142B2 (en) Method and device for providing temporally consistent disparity estimations
Farid et al. Edge enhancement of depth based rendered images
CN109816710B (zh) 一种双目视觉系统高精度且无拖影的视差计算方法
Kao Stereoscopic image generation with depth image based rendering
CN107610070B (zh) 基于三摄像采集的自由立体匹配方法
CN109218706B (zh) 一种由单张图像生成立体视觉图像的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant