CN109543502A - 一种基于深度多尺度神经网络的语义分割方法 - Google Patents
一种基于深度多尺度神经网络的语义分割方法 Download PDFInfo
- Publication number
- CN109543502A CN109543502A CN201811146434.7A CN201811146434A CN109543502A CN 109543502 A CN109543502 A CN 109543502A CN 201811146434 A CN201811146434 A CN 201811146434A CN 109543502 A CN109543502 A CN 109543502A
- Authority
- CN
- China
- Prior art keywords
- image
- training
- network
- depth
- semantic segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度多尺度神经网络的语义分割方法,包括下列步骤:收集包含各种不同类别物体的图像,并标注每张图像中的所有感兴趣物体,标注内容每个像素点的所属物体类别,以其作为图像标签信息;图像集划分;将收集的图像划分为训练集,验证集和测试集,训练集用于训练卷积神经网络,验证集用于选择最佳的训练模型,测试集为后续测试模型效果或者实际应用时使用;设计基于深度多尺度神经网络结构,用以有效实现物体检测,输入数据,前向计算预测结果和损失代价,通过反向传播算法计算参数的梯度并更新参数;迭代的更新参数,待代价函数曲线收敛时,模型训练完毕。
Description
技术领域
本发明属于深度学习和神经网络领域,特别涉及一种深度多尺度神经网络的语义分割方法。
背景技术
深度学习(Deep Learning,DL)近年迅速发展,已经广泛应用于计算机视觉(Computer Vison,CV)和自然语言处理(Natural Language Processing,NLP)等领域。
在计算机视觉中,基于深度学习的卷积神经网络被广泛应用。语义分割是计算机视觉中的一个经典任务,我们需要将视觉输入分为不同的语义可解释类别,即分类类别在真实世界中是有意义的(语义的可解释性)。在自动驾驶的应用中,我们需要对车辆可行驶区域进行像素级的分割,这就要求我们的分割网络满足高精度和实时性。
现阶段领先的语义分割方法有FCN[1],SegNet[2]和DeepLab[3-6]系列。FCN是一种端到端的神经网络结构,它将传统卷积神经网络的全连接层用卷积层代替,这种方法在一定程度上提高了网络性能但对图像细节处理不好。SegNet是一种编解码的网络结构,它将传统卷积神经网络的全连接层用上采样代替,最终的softmax层输出每个像素点的概率。DeepLab系列算法是当前最先进的语义分割算法,通过采用膨胀卷积,多尺度和条件随机场等方法大大提高了神经网络的性能。
现阶段的已有的语义分割算法引入多尺度的概念,从不同语义层级对图像进行处理,在一定程度上提高了网络的性能,但这些算法没有考虑这些语义层级间的关系。本发明提出了一种基于深度多尺度神经网络的语义分割方法,通过深度跨链接操作将不同语义层级联合并加以处理
[1]Long J,Shelhamer E,Darrell T.Fully convolutional networks forsemantic segmentation[C]//Computer Vision and Pattern Recognition.IEEE,2015:3431-3440.
[2]Badrinarayanan V,Kendall A,Cipolla R.SegNet:A Deep ConvolutionalEncoder-Decoder Architecture for Scene Segmentation.[J].IEEE Transactions onPattern Analysis &Machine Intelligence,2017,PP(99):2481-2495.
[3]Chen L C,Papandreou G,Kokkinos I,et al.Semantic Image Segmentationwith Deep Convolutional Nets and Fully Connected CRFs[J].Computer Science,2014(4):357-361.
[4]Chen L C,Papandreou G,Kokkinos I,et al.DeepLab:Semantic ImageSegmentation with Deep Convolutional Nets,Atrous Convolution,and FullyConnected CRFs.arXiv preprint arXiv:1606.00915,2016
[5]Chen L C,Papandreou G,SchroffF,et al.RethinkingAtrous Convolutionfor Semantic Image Segmentation[J].2017.
[6]Chen L C,Yukun Zhu,Papandreou G,SchroffF,et al.Encoder-Decoderwith Atrous Separable Convolution for Semantic Image Segmentation.arXivpreprint arXiv:1802.02611,2018.
发明内容
本发明提出了一种基于深度多尺度神经网络的语义分割方法,采用深度连接膨胀卷积的神经网络结构,以加强不同语义层级的联系,达到提高网络性能的目的。技术方案如下:
一种基于深度多尺度神经网络的语义分割方法,包括下列步骤:
1)收集包含各种不同类别物体的图像,并标注每张图像中的所有感兴趣物体,标注内容每个像素点的所属物体类别,以其作为图像标签信息;
2)图像集划分;将收集的图像划分为训练集,验证集和测试集,训练集用于训练卷积神经网络,验证集用于选择最佳的训练模型,测试集为后续测试模型效果或者实际应用时使用;
3)设计基于深度多尺度神经网络结构,用以有效实现物体检测,包括:
①设计主干网络;
②设计语义分割网络:语义分割网络由三个3×3的卷积神经网络串联而成,采用bottleneck的结构,在每个3×3的卷积层前后分别加1×1的卷积层,前边的用来提高特征图的通道数,后边的用来降低特征图的通道数,采用dense结构连接3×3卷积层;
③设计解码网络:将语义分割网络的输出上采样,与主干网络中的低层级语义特征相加后通过一个3×3的卷积层再上采样,得到最终的分割结果;
④选择合适的损失函数,设置训练迭代次数,初始化参数;
4)输入数据,前向计算预测结果和损失代价,通过反向传播算法计算参数的梯度并更新参数;迭代的更新参数,待代价函数曲线收敛时,模型训练完毕;
5)将训练好的模型应用于测试或实际应用中,当输入图像时,通过该模型可以计算得到图像语义分割结果,辅助实际应用场景中的决策。
本发明网络包含编码结构和解码结构两个部分。在编码结构中,本发明采用三个不同膨胀率的膨胀卷积来获取不同尺度的特征图。为了进一步加强不同尺度的联系,本发明采用了深度跨连接结构。某一个膨胀卷积层对所有比它尺度大的特征图进行卷积操作。在解码结构中,本发明将低层语义的特征图和高层语义的特征图相结合,进一步提高了网络对图像细节的处理能力。另外在每个膨胀卷积层前后,本发明通过引入1×1的卷积层来改变通道数,以达到减少计算量的目的,使网络更容易训练。本发明所述的方法实现简单,在保证效率的同时,大大提高了语义分割的精度,对图像细节也能进行较好的处理。
附图说明
图1深度多尺度神经网络结构
图2 bottleneck结构
图3自动驾驶系统
具体实施方式
下面将以自动驾驶为例对本发明的技术方案进行描述,显然自动驾驶只是本发明的一个应用场景,本发明同样适用于其他语义分割场景。
在自动驾驶中,需要从摄像头得到的图像中分割出人行道和汽车的可行驶区域,当紧急情况发生时,要求系统能快速做出反应,这就要求我们的方法需同时兼顾准确率和速度。
将本发明应用于实际语义分割任务中,包含三个步骤:准备数据集;设计并训练网络;测试训练模型。具体步骤描述如下:
第一步:准备训练所用的数据集.
1)选定合适的语义分割数据集。数据集包含图片和标注,标注为像素级的分类标注。
2)处理数据集。将数据集分为训练数据集,验证数据集和测试数据集。训练数据集用来训练模型,验证数据集用来调节网络结构和调整模型参数,测试数据集用来评价模型的最终性能。
3)数据增强。为了进一步提高模型的分割精度,可对训练数据集采用随机翻转,随机裁剪,随机缩放等方法。
第二步:设计基于深度多尺度的神经网络以适用于语义分割。
⑤设计主干网络。主干网络主要由多个卷基层、池化层、非线性激活层等模块组成。为了可以利用ImageNet上的初始化模型对网络进行初始化,本专利的主干网络选取经典的ResNet。
⑥设计语义分割网络。网络由三个3×3的卷积神经网络串联而成,为了提高网络性能而又不增加计算量,本发明采用bottleneck的结构,在每个3×3的卷积层前后分别加1×1的卷积层,前边的用来提高特征图的通道数,后边的用来降低特征图的通道数(见图2)。为了获得更加稠密的上下文信息,本发明采用dense结构连接3×3卷积层。
⑦设计解码网络。将语义分割网络的输出上采样,与主干网络中的低层级语义特征相加后通过一个3×3的卷积层再上采样,得到最终的分割结果。
⑧选择合适的损失函数,设置训练迭代次数,初始化参数。
第三步:训练本发明的基于深度多尺度神经网络用于语义分割
将训练数据批量输入神经网络,具体步骤如下:
a)将训练数据从主干网络输入,进行前向传播。
b)计算损失函数并反向传播,采用梯度下降法更新网络权重。
c)循环a)和b)的操作,损失函数收敛,得到训练好的权重。
第四步:将训练好的模型应用于测试或者实际应用中
1)测试集:将测试集图像输入网络,得到语义分割结果和测试集的标注比较,计算出mIOU,评价模型的好坏。
2)实际应用:将摄像头获取的视频或之前保存的实际视频输入网络,得出语义分割的结果。
为了验证本发明的效果,我们对比当前效果较好的FCN,SegNet和DeepLab,实验数据为在语义分割中广泛使用的Pascal VOC 2012数据集。表1给出了对比实验结果。
表1对比实验结果
Claims (1)
1.一种基于深度多尺度神经网络的语义分割方法,包括下列步骤:
1)收集包含各种不同类别物体的图像,并标注每张图像中的所有感兴趣物体,标注内容每个像素点的所属物体类别,以其作为图像标签信息;
2)图像集划分;将收集的图像划分为训练集,验证集和测试集,训练集用于训练卷积神经网络,验证集用于选择最佳的训练模型,测试集为后续测试模型效果或者实际应用时使用;
3)设计基于深度多尺度神经网络结构,用以有效实现物体检测,包括:
①设计主干网络;
②设计语义分割网络:语义分割网络由三个3×3的卷积神经网络串联而成,采用bottleneck的结构,在每个3×3的卷积层前后分别加1×1的卷积层,前边的用来提高特征图的通道数,后边的用来降低特征图的通道数,采用dense结构连接3×3卷积层;
③设计解码网络:将语义分割网络的输出上采样,与主干网络中的低层级语义特征相加后通过一个3×3的卷积层再上采样,得到最终的分割结果;
④选择合适的损失函数,设置训练迭代次数,初始化参数;
4)输入数据,前向计算预测结果和损失代价,通过反向传播算法计算参数的梯度并更新参数;迭代的更新参数,待代价函数曲线收敛时,模型训练完毕;
5)将训练好的模型应用于测试或实际应用中,当输入图像时,通过该模型可以计算得到图像语义分割结果,辅助实际应用场景中的决策。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811146434.7A CN109543502B (zh) | 2018-09-27 | 2018-09-27 | 一种基于深度多尺度神经网络的语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811146434.7A CN109543502B (zh) | 2018-09-27 | 2018-09-27 | 一种基于深度多尺度神经网络的语义分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109543502A true CN109543502A (zh) | 2019-03-29 |
CN109543502B CN109543502B (zh) | 2023-06-06 |
Family
ID=65843661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811146434.7A Active CN109543502B (zh) | 2018-09-27 | 2018-09-27 | 一种基于深度多尺度神经网络的语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109543502B (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110222754A (zh) * | 2019-05-28 | 2019-09-10 | 天津大学 | 基于张量分析的全分辨率深度卷积神经网络图像分类方法 |
CN110223349A (zh) * | 2019-05-05 | 2019-09-10 | 华南农业大学 | 一种采摘点定位方法 |
CN110245665A (zh) * | 2019-05-13 | 2019-09-17 | 天津大学 | 基于注意力机制的图像语义分割方法 |
CN110866494A (zh) * | 2019-11-14 | 2020-03-06 | 三亚中科遥感研究所 | 一种基于光学遥感影像的城镇群提取方法及系统 |
CN111179272A (zh) * | 2019-12-10 | 2020-05-19 | 中国科学院深圳先进技术研究院 | 一种面向道路场景的快速语义分割方法 |
CN111210435A (zh) * | 2019-12-24 | 2020-05-29 | 重庆邮电大学 | 一种基于局部和全局特征增强模块的图像语义分割方法 |
CN111242037A (zh) * | 2020-01-15 | 2020-06-05 | 华南理工大学 | 基于结构信息的车道线检测方法 |
CN111489366A (zh) * | 2020-04-15 | 2020-08-04 | 上海商汤临港智能科技有限公司 | 神经网络的训练、图像语义分割方法及装置 |
CN111626370A (zh) * | 2020-05-29 | 2020-09-04 | 展讯通信(上海)有限公司 | 基于神经网络的镂空识别方法及装置、存储介质、终端 |
CN111639544A (zh) * | 2020-05-07 | 2020-09-08 | 齐齐哈尔大学 | 基于多分支跨连接卷积神经网络的表情识别方法 |
CN111899169A (zh) * | 2020-07-02 | 2020-11-06 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于语义分割的人脸图像的分割网络的方法 |
WO2020238734A1 (zh) * | 2019-05-27 | 2020-12-03 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法、装置、计算机设备和存储介质 |
CN112101449A (zh) * | 2020-09-11 | 2020-12-18 | 南京邮电大学 | 基于语义损失的卫星云图反演雷达数据方法 |
CN112561480A (zh) * | 2020-12-16 | 2021-03-26 | 中国平安人寿保险股份有限公司 | 智能推动工作流方法、设备及计算机存储介质 |
CN112669335A (zh) * | 2021-01-27 | 2021-04-16 | 东软睿驰汽车技术(沈阳)有限公司 | 车辆感知方法、装置、电子设备以及机器可读存储介质 |
CN112800998A (zh) * | 2021-02-05 | 2021-05-14 | 南京邮电大学 | 融合注意力机制和dmcca的多模态情感识别方法及系统 |
CN113486856A (zh) * | 2021-07-30 | 2021-10-08 | 大连海事大学 | 一种基于语义分割和卷积神经网络的驾驶员不规范行为检测方法 |
CN113610097A (zh) * | 2021-08-09 | 2021-11-05 | 西安电子科技大学 | 基于多尺度相似指导网络的sar舰船目标分割方法 |
CN114391827A (zh) * | 2022-01-06 | 2022-04-26 | 普昶钦 | 一种基于卷积神经网络的院前肺气肿诊断装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107346436A (zh) * | 2017-06-29 | 2017-11-14 | 北京以萨技术股份有限公司 | 一种融合图像分类的视觉显著性检测方法 |
CN107480707A (zh) * | 2017-07-26 | 2017-12-15 | 天津大学 | 一种基于信息无损池化的深度神经网络方法 |
US20180033144A1 (en) * | 2016-09-21 | 2018-02-01 | Realize, Inc. | Anomaly detection in volumetric images |
WO2018076212A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院自动化研究所 | 基于反卷积神经网络的场景语义分割方法 |
-
2018
- 2018-09-27 CN CN201811146434.7A patent/CN109543502B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180033144A1 (en) * | 2016-09-21 | 2018-02-01 | Realize, Inc. | Anomaly detection in volumetric images |
WO2018076212A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院自动化研究所 | 基于反卷积神经网络的场景语义分割方法 |
CN107346436A (zh) * | 2017-06-29 | 2017-11-14 | 北京以萨技术股份有限公司 | 一种融合图像分类的视觉显著性检测方法 |
CN107480707A (zh) * | 2017-07-26 | 2017-12-15 | 天津大学 | 一种基于信息无损池化的深度神经网络方法 |
Non-Patent Citations (4)
Title |
---|
ZENG, TAO等: "Recurrent Encoder-Decoder Networks for Time-Varying Dense Prediction" * |
代具亭等: "基于彩色-深度图像和深度学习的场景语义分割网络" * |
孙汉卿;庞彦伟;: "一种自学习不确定度的神经网络架构" * |
蒋应锋等: "一种新的多尺度深度学习图像语义理解方法研究" * |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223349A (zh) * | 2019-05-05 | 2019-09-10 | 华南农业大学 | 一种采摘点定位方法 |
CN110245665A (zh) * | 2019-05-13 | 2019-09-17 | 天津大学 | 基于注意力机制的图像语义分割方法 |
CN110245665B (zh) * | 2019-05-13 | 2023-06-06 | 天津大学 | 基于注意力机制的图像语义分割方法 |
US11961233B2 (en) | 2019-05-27 | 2024-04-16 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for training image segmentation model, computer device, and storage medium |
WO2020238734A1 (zh) * | 2019-05-27 | 2020-12-03 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法、装置、计算机设备和存储介质 |
CN110222754B (zh) * | 2019-05-28 | 2023-06-06 | 天津大学 | 基于张量分析的全分辨率深度卷积神经网络图像分类方法 |
CN110222754A (zh) * | 2019-05-28 | 2019-09-10 | 天津大学 | 基于张量分析的全分辨率深度卷积神经网络图像分类方法 |
CN110866494A (zh) * | 2019-11-14 | 2020-03-06 | 三亚中科遥感研究所 | 一种基于光学遥感影像的城镇群提取方法及系统 |
CN110866494B (zh) * | 2019-11-14 | 2022-09-06 | 三亚中科遥感研究所 | 一种基于光学遥感影像的城镇群提取方法及系统 |
CN111179272A (zh) * | 2019-12-10 | 2020-05-19 | 中国科学院深圳先进技术研究院 | 一种面向道路场景的快速语义分割方法 |
CN111179272B (zh) * | 2019-12-10 | 2024-01-05 | 中国科学院深圳先进技术研究院 | 一种面向道路场景的快速语义分割方法 |
CN111210435A (zh) * | 2019-12-24 | 2020-05-29 | 重庆邮电大学 | 一种基于局部和全局特征增强模块的图像语义分割方法 |
CN111242037A (zh) * | 2020-01-15 | 2020-06-05 | 华南理工大学 | 基于结构信息的车道线检测方法 |
CN111242037B (zh) * | 2020-01-15 | 2023-03-21 | 华南理工大学 | 基于结构信息的车道线检测方法 |
CN111489366A (zh) * | 2020-04-15 | 2020-08-04 | 上海商汤临港智能科技有限公司 | 神经网络的训练、图像语义分割方法及装置 |
CN111639544A (zh) * | 2020-05-07 | 2020-09-08 | 齐齐哈尔大学 | 基于多分支跨连接卷积神经网络的表情识别方法 |
CN111639544B (zh) * | 2020-05-07 | 2022-08-09 | 齐齐哈尔大学 | 基于多分支跨连接卷积神经网络的表情识别方法 |
CN111626370A (zh) * | 2020-05-29 | 2020-09-04 | 展讯通信(上海)有限公司 | 基于神经网络的镂空识别方法及装置、存储介质、终端 |
CN111626370B (zh) * | 2020-05-29 | 2022-07-12 | 展讯通信(上海)有限公司 | 基于神经网络的镂空识别方法及装置、存储介质、终端 |
CN111899169A (zh) * | 2020-07-02 | 2020-11-06 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于语义分割的人脸图像的分割网络的方法 |
CN111899169B (zh) * | 2020-07-02 | 2024-01-26 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于语义分割的人脸图像的分割网络的方法 |
CN112101449B (zh) * | 2020-09-11 | 2022-07-15 | 南京邮电大学 | 基于语义损失的卫星云图反演雷达数据方法 |
CN112101449A (zh) * | 2020-09-11 | 2020-12-18 | 南京邮电大学 | 基于语义损失的卫星云图反演雷达数据方法 |
CN112561480A (zh) * | 2020-12-16 | 2021-03-26 | 中国平安人寿保险股份有限公司 | 智能推动工作流方法、设备及计算机存储介质 |
CN112669335A (zh) * | 2021-01-27 | 2021-04-16 | 东软睿驰汽车技术(沈阳)有限公司 | 车辆感知方法、装置、电子设备以及机器可读存储介质 |
CN112800998B (zh) * | 2021-02-05 | 2022-07-29 | 南京邮电大学 | 融合注意力机制和dmcca的多模态情感识别方法及系统 |
CN112800998A (zh) * | 2021-02-05 | 2021-05-14 | 南京邮电大学 | 融合注意力机制和dmcca的多模态情感识别方法及系统 |
CN113486856B (zh) * | 2021-07-30 | 2024-01-02 | 大连海事大学 | 一种驾驶员不规范行为检测方法 |
CN113486856A (zh) * | 2021-07-30 | 2021-10-08 | 大连海事大学 | 一种基于语义分割和卷积神经网络的驾驶员不规范行为检测方法 |
CN113610097B (zh) * | 2021-08-09 | 2023-05-05 | 西安电子科技大学 | 基于多尺度相似指导网络的sar舰船目标分割方法 |
CN113610097A (zh) * | 2021-08-09 | 2021-11-05 | 西安电子科技大学 | 基于多尺度相似指导网络的sar舰船目标分割方法 |
CN114391827A (zh) * | 2022-01-06 | 2022-04-26 | 普昶钦 | 一种基于卷积神经网络的院前肺气肿诊断装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109543502B (zh) | 2023-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109543502A (zh) | 一种基于深度多尺度神经网络的语义分割方法 | |
CN110210551B (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN109685072B (zh) | 一种基于生成对抗网络的复合降质图像高质量重建方法 | |
CN106021364B (zh) | 图片搜索相关性预测模型的建立、图片搜索方法和装置 | |
CN104850845B (zh) | 一种基于非对称卷积神经网络的交通标志识别方法 | |
CN107679462A (zh) | 一种基于小波的深度多特征融合分类方法 | |
CN109325547A (zh) | 非机动车图像多标签分类方法、系统、设备及存储介质 | |
CN110533024B (zh) | 基于多尺度roi特征的双二次池化细粒度图像分类方法 | |
US20210158166A1 (en) | Semi-structured learned threshold pruning for deep neural networks | |
CN109559315A (zh) | 一种基于多路径深度神经网络的水面分割方法 | |
CN111523546A (zh) | 图像语义分割方法、系统及计算机存储介质 | |
CN111046917B (zh) | 基于深度神经网络的对象性增强目标检测方法 | |
CN110852295B (zh) | 一种基于多任务监督学习的视频行为识别方法 | |
CN110751212A (zh) | 一种移动设备上高效的细粒度图像识别方法 | |
CN113034506B (zh) | 遥感图像语义分割方法、装置、计算机设备和存储介质 | |
CN110276445A (zh) | 基于Inception卷积模块的国内交通标志分类方法 | |
CN110458178A (zh) | 多模态多拼接的rgb-d显著性目标检测方法 | |
EP4232957A1 (en) | Personalized neural network pruning | |
CN112395953A (zh) | 一种道面异物检测系统 | |
CN115797629A (zh) | 基于检测增强和多阶段边界框特征细化的实例分割方法 | |
CN117237559A (zh) | 面向数字孪生城市的三维模型数据智能分析方法及系统 | |
CN114399661A (zh) | 一种实例感知主干网络训练方法 | |
CN114022727A (zh) | 一种基于图像知识回顾的深度卷积神经网络自蒸馏方法 | |
CN116188501B (zh) | 基于多尺度交叉注意力的医学图像分割方法 | |
CN112084897A (zh) | 一种gs-ssd的交通大场景车辆目标快速检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |