CN108710881B - 神经网络模型、候选目标区域生成方法、模型训练方法 - Google Patents
神经网络模型、候选目标区域生成方法、模型训练方法 Download PDFInfo
- Publication number
- CN108710881B CN108710881B CN201810501440.3A CN201810501440A CN108710881B CN 108710881 B CN108710881 B CN 108710881B CN 201810501440 A CN201810501440 A CN 201810501440A CN 108710881 B CN108710881 B CN 108710881B
- Authority
- CN
- China
- Prior art keywords
- feature map
- edge
- edge feature
- original image
- candidate target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种神经网络模型、候选目标区域生成方法、模型训练方法。其中,神经网络模型包括:边缘特征生成层,用于根据原始图像和与原始图像对应的特征图生成边缘特征图;候选区域生成层,用于根据边缘特征图确定候选目标区域。发明提供的神经网络模型、候选目标区域生成方法、模型训练方法,结合原始图像和与原始图像对应的特征图,获取边缘特征图,再基于边缘特征图确定候选目标区域,可在提升检测效率的同时降低计算复杂度。
Description
技术领域
本发明涉及图像识别和深度学习技术领域,尤其涉及一种神经网络模型及候选目标区域生成方法、模型训练方法。
背景技术
目前,基于深度学习的神经网络模型是用于对图像进行目标检测的主流技术。为了获取更好的性能,神经网络模型本身也需要不断地优化和改进。当前,如图1所示,用于对图像进行目标检测的神经网络模型包括:
特征生成层101,用于输出特征图;
候选区域生成层102,用于输出候选区域参数;
区域筛选识别层103,用于结合特征图和候选区域参数对候选区域进行识别,根据识别结果合并或删除候选区域,以及根据调整后的候选区域参数输出检测结果;
区域参数回归104,用于对候选区域参数进行调整。
从理论上分析,上述方案存在如下三方面的技术缺陷:
第一,候选区域生成层使用内容特征计算区域参数,对所有的内容都进行分析,定位不准确;
第二,采用回归的方式对区域参数进行调整,相当于对区域参数计算两次,计算量大且计算速度比较慢;
第三,基于回归方法的区域参数的计算方式本身具有诸多的限制条件,不具有普遍适用性。
综上,现有技术中的用于对图像进行目标检测的神经网络模型在计算速度和适用范围上有待提高。
发明内容
本发明要解决的技术问题是提供一种神经网络模型、候选目标区域生成方法、模型训练方法,结合原始图像和与原始图像对应的特征图,获取边缘特征图,再基于边缘特征图确定候选目标区域,可在提升检测效率的同时降低计算复杂度。
为解决上述技术问题,本发明提供的技术方案如下:
第一方面,本发明实施例提供了一种神经网络模型,用于生成候选目标区域,模型包括:
边缘特征生成层,用于根据原始图像和与原始图像对应的特征图生成边缘特征图;
候选区域生成层,用于根据边缘特征图确定候选目标区域。
进一步地,边缘特征生成层,用于:
将特征图的分辨率变换至与原始图像的分辨率相同;
将变换后的特征图和原始图像在特征维度组合,形成第一维度数据集;
对第一维度数据集进行卷积处理,以提取原始图像的边缘特征,获取第二维度数据集;
对第二维度数据集进行降维处理,生成边缘特征图。
进一步地,边缘特征生成层,还用于:
基于边缘特征图中的最小像素值对边缘特征图进行偏置处理;
对偏置处理后的边缘特征图中各像素点进行像素值归一化处理,以将偏置处理后的边缘特征图转换成灰度图像。
进一步地,候选区域生成层,用于:
根据第一判定阈值将边缘特征图转换成二值图像;
将像素值为1的相连像素点确定为一个目标集合,获取二值图像对应的包括至少一个目标集合的集合组;
确定集合组中各目标集合的组合方式;
针对每一种组合方式,获取包含相应组合方式对应的目标集合的组合的全部像素的最小矩形;
将相应组合方式对应的最小矩形确定为候选目标区域。
进一步地,候选区域生成层,还用于:
删除集合组中像素点数量少于第二判定阈值的目标集合。
进一步地,候选区域生成层,还用于:
在候选目标区域的面积小于第三判定阈值时,将候选目标区域删除。
第二方面,本发明实施例提供了一种候选目标区域生成方法,方法包括:
根据原始图像和原始图像对应的特征图生成边缘特征图;
根据边缘特征图确定候选目标区域。
进一步地,根据原始图像和原始图像对应的特征图生成边缘特征图,包括:
将特征图的分辨率变换至与原始图像的分辨率相同;
将变换后的特征图和原始图像在特征维度组合,形成第一维度数据集;
对第一维度数据集进行卷积处理,以提取原始图像的边缘特征,获取第二维度数据集;
对第二维度数据集进行降维处理,生成边缘特征图。
进一步地,根据边缘特征图确定候选目标区域,包括:
根据第一判定阈值将边缘特征图转换成二值图像;
将像素值为1的相连像素点确定为一个目标集合,获取二值图像对应的包括至少一个目标集合的集合组;
确定集合组中各目标集合的组合方式;
针对每一种组合方式,获取包含相应组合方式对应的目标集合的组合的全部像素的最小矩形;
将相应组合方式对应的最小矩形确定为候选目标区域。
第三方面,本发明实施例提供了一种模型训练方法,用于训练上述任一项的神经网络模型,包括:
获取包含至少一个训练图像及对应的边缘标记图像的边缘特征训练数据集;
将边缘特征训练数据集输入神经网络模型;
针对每个训练图像,根据预设的边缘特征损失函数,计算神经网络模型基于相应训练图像生成的边缘特征图与对应的边缘标记图像的边缘特征损失;
统计边缘特征损失小于设定损失阈值的频次,在频次大于设定频次阈值时,确定神经网络模型训练完成。
本发明实施例提供的神经网络模型、候选目标区域生成方法、模型训练方法,边缘特征生成层根据原始图像和与原始图像对应的特征图生成边缘特征图;候选区域生成层根据边缘特征图确定候选目标区域。由于结合原始图像和与原始图像对应的特征图,获取边缘特征图,所获得的边缘特征图能够准确描述检测目标的边缘特征,此外,候选区域生成层基于边缘特征图确定候选目标区域,比及现有技术中基于内容特征确定候选目标区域,计算量显著降低,可实现在提升检测效率的同时降低计算复杂度。
附图说明
图1是现有技术提供的用于对图像进行目标检测的神经网络模型的结构示意图;
图2是本发明实施例提供的神经网络模型的结构示意图;
图3是本发明实施例提供的目标集合的组合方式示意图;
图4是本发明实施例提供的候选目标区域生成方法的流程图;
图5是本发明实施例提供的用于目标检测的神经网络模型结构图;
图6是本发明实施例提供的示出了本发明实施例提供的模型训练方法的流程图。
具体实施方式
下面通过具体的实施例进一步说明本发明,但是,应当理解为,这些实施例仅仅是用于更详细具体地说明之用,而不应理解为用于以任何形式限制本发明。
实施例一
结合图2,本实施例提供的神经网络模型,用于生成候选目标区域,模型包括:
边缘特征生成层201,用于根据原始图像和与原始图像对应的特征图生成边缘特征图;
候选区域生成层202,用于根据边缘特征图确定候选目标区域。
本发明实施例提供的神经网络模型,边缘特征生成层根据原始图像和与原始图像对应的特征图生成边缘特征图;候选区域生成层根据边缘特征图确定候选目标区域。由于结合原始图像和与原始图像对应的特征图,获取边缘特征图,所获得的边缘特征图能够准确描述检测目标的边缘特征,此外,候选区域生成层基于边缘特征图确定候选目标区域,比及现有技术中基于内容特征确定候选目标区域,计算量显著降低,可实现在提升检测效率的同时降低计算复杂度。
优选地,边缘特征生成层201,用于:
将特征图的分辨率变换至与原始图像的分辨率相同;
将变换后的特征图和原始图像在特征维度组合,形成第一维度数据集;
对第一维度数据集进行卷积处理,以提取原始图像的边缘特征,获取第二维度数据集;
对第二维度数据集进行降维处理,生成边缘特征图。
本实施例中,具体地,边缘特征生成层201主要包括如下三个部分:
1)第一部分:首先,对原始图像对应的特征图进行线性插值上采样操作,让特征图和原始图像具有相同的分辨率;随后,将特征图和原始图像在特征维度组合,输出W×H×(D1+3)维度的数据,其中W和H是原始图像的宽度和高度,D1是输入的特征图的特征维度。
2)第二部分:为卷积网络,结构与一般卷积网络基本相同,但是不做降分辨率处理。这里,输入W×H×(D1+3)维度的数据,输出W×H×D2维度的数据。D2为降维后的维度,其中,D2的值设定取决于任务,一般在8到1024之间。
3)第三部分:对数据进行最终处理,首先,在特征维度上进行取最大值操作,将数据维度降为W×H×1。具体地,针对每一个像素点位置,取D2个数据值中的最大值作为特征图在该像素点位置处的像素值。
进一步优选地,边缘特征生成层201,还用于:
基于边缘特征图中的最小像素值对边缘特征图进行偏置处理;
对偏置处理后的边缘特征图中各像素点进行像素值归一化处理,以将偏置处理后的边缘特征图转换成灰度图像。
本实施例中,具体地,为了对模型的性能进行优化,对特征图进行偏置和归一化处理,具体为,首先,搜索到特征图中的最小像素值,基于最小像素值对特征图进行偏置处理,即,对特征图中的每一个像素点的像素值加上同一偏置参数;随后,搜索到特征图中的最大像素值,基于最大像素值对特征图中的每一个像素点的像素值乘以同一归一化参数,如此,实现将特征图变换成最小像素值为0的灰度图。
优选地,候选区域生成层202,用于:
根据第一判定阈值将边缘特征图转换成二值图像;
将像素值为1的相连像素点确定为一个目标集合,获取二值图像对应的包括至少一个目标集合的集合组;
确定集合组中各目标集合的组合方式;
针对每一种组合方式,获取包含相应组合方式对应的目标集合的组合的全部像素的最小矩形;
将相应组合方式对应的最小矩形确定为候选目标区域。
进一步优选地,候选区域生成层202,还用于:
删除集合组中像素点数量少于第二判定阈值的目标集合。
进一步优选地,候选区域生成层202,还用于:
在候选目标区域的面积小于第三判定阈值时,将候选目标区域删除。
本实施例中,具体地,候选区域生成层202采用如下算法实现:
1)将边缘特征图按第一判定阈值转变为二值图像;
2)将值为1且空间上相互连接的像素归为一个目标集合,记录目标集合中所有像素坐标;
3)删除目标集合中像素数量小于第二判定阈值的目标集合;
5)删除面积小于第三判定阈值的候选目标区域。
这里,针对上述步骤4)中的K个目标集合,一共具有种组合方式,具体地,图3为K=3时对应的6种组合方式,其中,图3A为从三个目标集合中任选一个的组合方式,图3B为从三个目标集合中任选二个的组合方式,图3C为选中三个目标集合的组合方式。
此外,需要说明的是,第一判定阈值、第二判定阈值和第三判定阈值的值可以结合实际需求进行设定,本实施例不做具体限定。
实施例二
结合图4,本发明实施例提供了一种候选目标区域生成方法,方法包括:
步骤S401:根据原始图像和原始图像对应的特征图生成边缘特征图;
步骤S402:根据边缘特征图确定候选目标区域。
优选地,步骤S401,包括:
将特征图的分辨率变换至与原始图像的分辨率相同;
将变换后的特征图和原始图像在特征维度组合,形成第一维度数据集;
对第一维度数据集进行卷积处理,以提取原始图像的边缘特征,获取第二维度数据集;
对第二维度数据集进行降维处理,生成边缘特征图。
优选地,步骤S401,还包括:
基于边缘特征图中的最小像素值对边缘特征图进行偏置处理;
对偏置处理后的边缘特征图中各像素点进行像素值归一化处理,以将偏置处理后的边缘特征图转换成灰度图像。
优选地,步骤S402,包括:
根据第一判定阈值将边缘特征图转换成二值图像;
将像素值为1的相连像素点确定为一个目标集合,获取二值图像对应的包括至少一个目标集合的集合组;
确定集合组中各目标集合的组合方式;
针对每一种组合方式,获取包含相应组合方式对应的目标集合的组合的全部像素的最小矩形;
将相应组合方式对应的最小矩形确定为候选目标区域。
进一步优选地,步骤S402,还包括:
删除集合组中像素点数量少于第二判定阈值的目标集合。
进一步优选地,步骤S402,还包括:
在候选目标区域的面积小于第三判定阈值时,将候选目标区域删除。
上述实施例提供的候选目标区域生成方法与神经网络模型实施例属于同一构思,其具体实现过程详见神经网络模型实施例,这里不再赘述。
实施例三
本实施例为上述神经网络模型实施例的一个具体应用,本应用实施例中,将实施例一中的神经网络模型用于对图像进行目标检测。如图5所示,本应用实施例中,用于对图像进行目标检测的神经网络模型包括:
特征生成层501,用于输出特征图;
用于生成候选目标区域的神经网络层502,用于基于原始图像和特征图生成候选目标区域;
区域筛选识别层503,用于基于候选目标区域识别出检测结果。
需要说明的是,本实施例中,区域筛选识别层503将神经网络层502获得的至少一个候选目标区域进行筛选识别,最终确定出检测结果。
实施例四
结合图6,本发明实施例提供了一种模型训练方法,用于训练实施例一中的神经网络模型,包括:
步骤S601:获取包含至少一个训练图像及对应的边缘标记图像的边缘特征训练数据集;
步骤S602:将边缘特征训练数据集输入神经网络模型;
步骤S603:针对每个训练图像,根据预设的边缘特征损失函数,计算神经网络模型基于相应训练图像生成的边缘特征图与对应的边缘标记图像的边缘特征损失;
步骤S604:统计边缘特征损失小于设定损失阈值的频次,在频次大于设定频次阈值时,确定神经网络模型训练完成。
其中,边缘特征损失函数为:
其中,ai为边缘特征图中第i个像素的像素值,bi为对应的边缘标记图像中第i个像素的像素值,N为边缘特征图中像素总数。
此外,需要说明的是,在对神经网络模型进行训练时,需要先获得可靠的边缘特征训练数据集。本实施例中,可以采用在现有的内容标注数据集的基础上针对边缘特征进行标注,以获取边缘特征训练数据集。具体可以为:
1)对于边框标注训练数据,将位于矩形框上的像素值设为1,其它像素值设为0;对于像素标注数据,使用边缘检测算法计算边缘,并将边缘像素值设为1,其它像素值设为0;这里,对边框(即,矩形框)和边缘都进行标注,且对边框标注的方式为直接标注,即,将边框对应的像素点的像素值设置为1,其它像素点的像素值设置为0。对边缘标注的方式则是先对训练图像进行边缘检测,对检测获得的边缘像素点的像素值设置为1,其它像素点的像素值设置为0,基于对边框和边缘进行标注的方式,可以准确标注,获得准确的边缘特征训练数据集。
2)将结果进行高斯模糊;这里,进行高斯模糊处理,旨在提升神经网络模型的检测性能。
3)乘以一个常数,使得图像中最大像素值为1。这里,常数为最大像素值的倒数,用于对图像进行归一化,旨在提升模型性能。
以上,仅为本发明的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。
尽管本发明已进行了一定程度的描述,明显地,在不脱离本发明的精神和范围的条件下,可进行各个条件的适当变化。可以理解,本发明不限于所述实施方案,而归于权利要求的范围,其包括所述每个因素的等同替换。
Claims (3)
1.一种神经网络模型系统,其特征在于,用于生成候选目标区域,所述模型包括:
边缘特征生成层,用于根据原始图像和与所述原始图像对应的特征图生成边缘特征图;
候选区域生成层,用于根据所述边缘特征图确定候选目标区域;
所述边缘特征生成层,用于:
将所述特征图的分辨率变换至与所述原始图像的分辨率相同;
将变换后的特征图和所述原始图像在特征维度组合,形成第一维度数据集;
对所述第一维度数据集进行卷积处理,以提取所述原始图像的边缘特征,获取第二维度数据集;
对所述第二维度数据集进行降维处理,生成边缘特征图;
所述边缘特征生成层,还用于:
基于所述边缘特征图中的最小像素值对所述边缘特征图进行偏置处理;
对偏置处理后的边缘特征图中各像素点进行像素值归一化处理,以将所述偏置处理后的边缘特征图转换成灰度图像;
所述候选区域生成层,用于:
根据第一判定阈值将所述边缘特征图转换成二值图像;
将像素值为1的相连像素点确定为一个目标集合,获取所述二值图像对应的包括至少一个目标集合的集合组;
确定所述集合组中各目标集合的组合方式;
针对每一种组合方式,获取包含相应组合方式对应的目标集合的组合的全部像素的最小矩形;
将所述相应组合方式对应的最小矩形确定为候选目标区域;
所述候选区域生成层,还用于:
删除所述集合组中像素点数量少于第二判定阈值的目标集合;
所述候选区域生成层,还用于:
在所述候选目标区域的面积小于第三判定阈值时,将所述候选目标区域删除。
2.一种候选目标区域生成方法,其特征在于,所述方法包括:
根据原始图像和所述原始图像对应的特征图生成边缘特征图;
根据所述边缘特征图确定候选目标区域;
所述根据原始图像和所述原始图像对应的特征图生成边缘特征图,包括:
将所述特征图的分辨率变换至与所述原始图像的分辨率相同;
将变换后的特征图和所述原始图像在特征维度组合,形成第一维度数据集;
对所述第一维度数据集进行卷积处理,以提取所述原始图像的边缘特征,获取第二维度数据集;
对所述第二维度数据集进行降维处理,生成边缘特征图;
所述根据所述边缘特征图确定候选目标区域,包括:
根据第一判定阈值将所述边缘特征图转换成二值图像;
将像素值为1的相连像素点确定为一个目标集合,获取所述二值图像对应的包括至少一个目标集合的集合组;
确定所述集合组中各目标集合的组合方式;
针对每一种组合方式,获取包含相应组合方式对应的目标集合的组合的全部像素的最小矩形;
将所述相应组合方式对应的最小矩形确定为候选目标区域;
还包括:
删除所述集合组中像素点数量少于第二判定阈值的目标集合;
在所述候选目标区域的面积小于第三判定阈值时,将所述候选目标区域删除。
3.一种模型训练方法,其特征在于,用于训练如权利要求1所述的神经网络模型系统,包括:
获取包含至少一个训练图像及对应的边缘标记图像的边缘特征训练数据集;
将所述边缘特征训练数据集输入所述神经网络模型;
针对每个训练图像,根据预设的边缘特征损失函数,计算所述神经网络模型基于相应训练图像生成的边缘特征图与对应的边缘标记图像的边缘特征损失;
统计边缘特征损失小于设定损失阈值的频次,在所述频次大于设定频次阈值时,确定所述神经网络模型训练完成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810501440.3A CN108710881B (zh) | 2018-05-23 | 2018-05-23 | 神经网络模型、候选目标区域生成方法、模型训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810501440.3A CN108710881B (zh) | 2018-05-23 | 2018-05-23 | 神经网络模型、候选目标区域生成方法、模型训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108710881A CN108710881A (zh) | 2018-10-26 |
CN108710881B true CN108710881B (zh) | 2020-12-29 |
Family
ID=63868534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810501440.3A Active CN108710881B (zh) | 2018-05-23 | 2018-05-23 | 神经网络模型、候选目标区域生成方法、模型训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108710881B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109615649A (zh) * | 2018-10-31 | 2019-04-12 | 阿里巴巴集团控股有限公司 | 一种图像标注方法、装置及系统 |
CN111767979B (zh) * | 2019-04-02 | 2024-04-23 | 京东方科技集团股份有限公司 | 神经网络的训练方法、图像处理方法、图像处理装置 |
CN110472638A (zh) * | 2019-07-30 | 2019-11-19 | 精硕科技(北京)股份有限公司 | 一种目标检测方法、装置及设备、存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927723A (zh) * | 2014-04-18 | 2014-07-16 | 江南大学 | 基于神经模糊系统和边缘检测的图像滤波方法 |
CN105354530A (zh) * | 2015-09-22 | 2016-02-24 | 浙江宇视科技有限公司 | 一种车身颜色识别方法及装置 |
CN106228124A (zh) * | 2016-07-17 | 2016-12-14 | 西安电子科技大学 | 基于卷积神经网络的sar图像目标检测方法 |
CN106250874A (zh) * | 2016-08-16 | 2016-12-21 | 东方网力科技股份有限公司 | 一种服饰及随身物品的识别方法和装置 |
CN107844750A (zh) * | 2017-10-19 | 2018-03-27 | 华中科技大学 | 一种水面全景图像目标检测识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7324979B2 (en) * | 2003-08-29 | 2008-01-29 | Bbn Technologies Corp. | Genetically adaptive neural network classification systems and methods |
US8195580B2 (en) * | 2008-05-30 | 2012-06-05 | The University Of Memphis Research Foundation | Methods of detection of propogating phase gradients using model field theory of non-gaussian mixtures |
-
2018
- 2018-05-23 CN CN201810501440.3A patent/CN108710881B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927723A (zh) * | 2014-04-18 | 2014-07-16 | 江南大学 | 基于神经模糊系统和边缘检测的图像滤波方法 |
CN105354530A (zh) * | 2015-09-22 | 2016-02-24 | 浙江宇视科技有限公司 | 一种车身颜色识别方法及装置 |
CN106228124A (zh) * | 2016-07-17 | 2016-12-14 | 西安电子科技大学 | 基于卷积神经网络的sar图像目标检测方法 |
CN106250874A (zh) * | 2016-08-16 | 2016-12-21 | 东方网力科技股份有限公司 | 一种服饰及随身物品的识别方法和装置 |
CN107844750A (zh) * | 2017-10-19 | 2018-03-27 | 华中科技大学 | 一种水面全景图像目标检测识别方法 |
Non-Patent Citations (3)
Title |
---|
Aircraft tracking using weak detectors with hidden Markov chain;Yunfeng Sui;《2017 IEEE 2nd Information Technology, Networking, Electronic and Automation Control Conference (ITNEC)》;20171117;291-194 * |
基于多任务深度卷积神经网络的显著性对象检测算法;杨帆 等;《计算机应用》;20180110;91-96 * |
基于深度学习的图像目标定位识别研究;程欣;《中国优秀硕士学位论文全文数据库(信息科技辑)》;20170215;I138-2900 * |
Also Published As
Publication number | Publication date |
---|---|
CN108710881A (zh) | 2018-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287826B (zh) | 一种基于注意力机制的视频目标检测方法 | |
US20070253040A1 (en) | Color scanning to enhance bitonal image | |
CN110647795B (zh) | 一种表格识别方法 | |
JP5082637B2 (ja) | 画像処理プログラム、画像処理方法及び画像処理装置 | |
CN110020692B (zh) | 一种基于印刷体模板的手写体分离与定位方法 | |
CN108710881B (zh) | 神经网络模型、候选目标区域生成方法、模型训练方法 | |
CN108154149B (zh) | 基于深度学习网络共享的车牌识别方法 | |
KR100957716B1 (ko) | 가변 피부색 모델을 이용한 피부색 영역 검출 방법 | |
EP2605186B1 (en) | Method and apparatus for recognizing a character based on a photographed image | |
JP2016516245A (ja) | モバイル装置を用いた画像内のオブジェクトの分類 | |
CN110135446B (zh) | 文本检测方法及计算机存储介质 | |
US8538191B2 (en) | Image correction apparatus and method for eliminating lighting component | |
CN111209858A (zh) | 一种基于深度卷积神经网络的实时车牌检测方法 | |
CN104408728A (zh) | 一种基于噪声估计的伪造图像检测方法 | |
CN112215079B (zh) | 一种全局多阶段目标跟踪方法 | |
CN111461101A (zh) | 工服标志的识别方法、装置、设备及存储介质 | |
CN113657225B (zh) | 一种目标检测方法 | |
CN111259792A (zh) | 基于dwt-lbp-dct特征的人脸活体检测方法 | |
JP4565396B2 (ja) | 画像処理装置および画像処理プログラム | |
CN114140416A (zh) | 一种基于机器视觉的玻璃边缘检测方法和系统 | |
CN112101113B (zh) | 一种轻量化的无人机图像小目标检测方法 | |
JP2011170890A (ja) | 顔検出方法および装置並びにプログラム | |
CN110705568B (zh) | 一种图像特征点提取的优化方法 | |
CN115035397A (zh) | 一种基于水下移动目标识别方法、装置 | |
CN113516103A (zh) | 一种基于支持向量机的表格图像倾斜角度确定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220928 Address after: 610041 No. two, No. two, South Ring Road, Chengdu, Sichuan, 17 Patentee after: THE SECOND RESEARCH INSTITURE OF CAAC Patentee after: CHENGDU CIVIL AVIATION AIR TRAFFIC CONTROL SCIENCE & TECHNOLOGY Co.,Ltd. Address before: 610041 No. two, No. two, South Ring Road, Chengdu, Sichuan, 17 Patentee before: THE SECOND RESEARCH INSTITURE OF CAAC |