CN106651765A - 一种采用深度神经网络的缩略图自动生成的方法 - Google Patents
一种采用深度神经网络的缩略图自动生成的方法 Download PDFInfo
- Publication number
- CN106651765A CN106651765A CN201611252938.8A CN201611252938A CN106651765A CN 106651765 A CN106651765 A CN 106651765A CN 201611252938 A CN201611252938 A CN 201611252938A CN 106651765 A CN106651765 A CN 106651765A
- Authority
- CN
- China
- Prior art keywords
- thumbnail
- height
- width
- ratio
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 230000007935 neutral effect Effects 0.000 title abstract 2
- 238000012549 training Methods 0.000 claims abstract description 23
- 230000008569 process Effects 0.000 claims abstract description 4
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 230000000644 propagated effect Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 238000005192 partition Methods 0.000 claims description 3
- 230000035945 sensitivity Effects 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G06T3/04—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明中提出的一种采用深度神经网络的缩略图自动生成的方法,其主要内容包括:数据集训练、边界框的预测、输入图像和缩略尺寸对、模型训练、快速自动缩略图生成FATG实现,其过程为,首先采用互联网图片建立数据库进行训练,输入原图和目标缩略尺寸,采用FATG模型,结合RPN(区域建议网络)和R‑FCN(基于区域的全卷积网络),预测边界框位置确定包含重要信息的区域,并在此预测框的中心产生一个宽高比等于目标缩略图尺寸的边界框,扩展直至触及边界即生成所需尺寸的缩略图。本发明突破缩略图生成耗时且易丢失重要信息的问题,更为快速准确地获得所需尺寸下的缩略图,使得图片缩略更加精准且实时,方便人们日常浏览和上传图像。
Description
技术领域
本发明涉及缩略图生成领域,尤其是涉及了一种采用深度神经网络的缩略图自动生成的方法。
背景技术
缩略图用于方便地浏览图像集合,经济使用显示空间,并减少传输时间。缩略图是原始图像的较小版本,这意味着其仍可有效描绘原始图像。诸如微信,微博等社交媒体网站,发布的内容来源广泛,但图片均需按固定分辨率显示。微信订阅上一个普通文章就包含数十张图像,若要保证显示效果,其本质上都是较大图像的缩略图。因此,确保每个缩略图能显示原始图像中最有用的信息是非常重要的。由于缩略图无所不在而且手动生成缩略图非常耗时,所以自动生成缩略图有相当的研究意义。
创建缩略图的传统方法是利用显著图来识别图像中可作为优质裁剪的区域来创建缩略图,而最近的方法在实际操作上也需要60秒来产生单个缩略图。
本发明提出了一种采用深度神经网络的缩略图自动生成的方法即FATG(快速自动缩略图生成),采用互联网图片库进行训练,输入原图,设置目标缩略尺寸,采用FATG模型,通过训练学习针对不同的宽高比的不同滤波器。FATG模型采用RPN(区域建议网络)和R-FCN(基于区域的全卷积网络),结合了这两种网络,预测边界框位置确定包含重要信息的图像区域,并在此预测框的中心产生一个宽高比和目标缩略图相等的新边界框,扩展直到触及图片边界即完成重要信息得以保留的基础下生成所需尺寸下的缩略图,使得图片缩略更加精准且实时,方便人们日常浏览和上传图像。
发明内容
针对缩略图生成耗时且易丢失重要信息等问题,本发明的目的在于提供一种采用深度神经网络的缩略图自动生成的方法,使用互联网图片建立数据库进行训练,采用FATG模型,包括RPN(区域建议网络)和R-FCN(基于区域的全卷积网络)预测最优边界框,使得图片缩略更加精准且实时,方便人们日常浏览和上传图像。
为解决上述问题,本发明提供一种利用深度学习快速生成缩略图的方法,其主要内容包括:
(一)数据集训练;
(二)边界框的预测;
(三)输入图像和缩略尺寸对;
(四)模型训练;
(五)快速自动缩略图生成FATG实现。
其中,所述的数据集训练,采用互联网图片建立数据库,称为互联网图片库,其中收集了包括人物、动物、建筑、风景、运动等类别,总数高达100000张图片;对于每张图片,数据集中给出了图片的原图、缩略图,缩略图大小为130*130左右。
其中,所述的边界框的预测,采用深度卷积神经网络学习最优边界框来产生缩略图,包含RPN(区域建议网络)和R-FCN(基于区域的全卷积网络)。
进一步地,所述的RPN(区域建议网络),可使计算时间显著减少,此外通过引入一个由特定类别的位置敏感滤波器组成的卷积层来减少建议特征前向传播的计算成本;
具体来说,若有C类物体要检测,那么这个新的卷积层将产生k2(C+1)个特征图,k2个位置敏感分数图对应于目标的k×k个均匀分割的单元,这k2个特征图对应不同相对位置的空间网格,对于每个类别诸如(左上,...,左下);k=3,则对应于一个3×3的空间网格、以及每个类有9个位置敏感滤波器,每个类(包括背景),将关联k2个特征图,不是通过两个全连接层前向传播,而是正敏感池化后分数平均,生成一个(C+1)-d向量并且用于预测各个类别的softmax结果。
进一步地,所述的R-FCN(基于区域的全卷积网络),其特征在于,通过引入一组特定宽高比的滤波器组来修改R-FCN用于缩略图创建;引入一组A点,宽高比在[0.5,2]的范围内,以恒定因子(几何序列)增长,例如,
此处可求得
最后一个卷积层的滤波器组在R-FCN中被修改成A个对,每一对共具有k2个滤波器,每一对均与集合S中的单个元素相关联,与R-FCN类似,位置敏感池化、计算均值,然后用这两个值产生softmax代表性预测。
进一步地,所述的缩略图生成,其架构应完全卷积,因为包括完全连接层也需要固定的输入尺寸,如果图像的宽高比和固定输入尺寸之间不匹配,图像除了缩放外,还必须裁剪,缩略图裁剪(边界框)可以达到图像的边界甚至延伸到整个图像,所以裁剪图像区域的预处理可能导致次优预测,因为图像的一些部分已被删除。
其中,所述的输入图像和缩略尺寸对,与目标检测不同,此缩略图生成网络接收两个输入:图像和缩略图的宽高比。
其中,所述的模型训练,接收两个输入,分别为图像、缩略图尺寸对,图像通过卷积层前向传播直到最后一个卷积层;计算缩略图的宽高比,从S中挑选出与其值最接近的元素,将这个对关联到训练的要素,忽略其他部分;这个对,接收建议,然后与目标检测类似,基于它们和真实数据的交集(IoU),将正/负标签分配给建议;
具体来说,如果IoU≥0.5即标为正,否则为负,类似地,A个特定宽高比的回归器被训练,与S中的每个元素一一对应;这些类似于特定类的回归器。
进一步地,对于给定的建议,采用以下损失函数:
其中li是ignore=0或factor-in=1,即
s*是由第i个对预测所得的代表性得分,s*是真实数据标签,Lcls是交叉熵损失函数;lambda是回归损失的权重,设为1;除了最近的宽高比外,回归损失都为0;对于与最近宽高比对应的滤波器,Lreg是平滑L1损耗,ti是第i个回归器所做的边界框预测,t*是真实边界框;
因为每个回归器负责一定范围内的输入的缩略图大小,所以测试时间里所有回归器做出的预测可具有不同于目标缩略图的宽高比,因此输出边界框必须被矫正到具有和目标缩略图相等的宽高比,以消除缩小时任何可能的变形;我们采用一种简单的方法,将一个宽高比和目标缩略图相等的新边界框放置在预测框的中心,并扩展它,直到触及边界,而由于预测框的宽高比已经很接近缩略图,所以矫正框和预测框之间的差别不明显。
其中,所述的快速自动缩略图生成FATG实现,是在一个端到端的学习框架下,基于Resnet-101网络,学习率为0.001,动量为0.9,权重衰减为0.0005,采用近似联合训练,学习针对不同的宽高比的不同滤波器,在推理过程中,根据目标缩略图的尺寸选择合适的滤波器对,产生最优边界框,在保证重要信息得到保留的情况下,快速实现缩略图的自动生成。
附图说明
图1是本发明一种采用深度神经网络的缩略图自动生成的方法的系统流程图。
图2是本发明一种采用深度神经网络的缩略图自动生成的方法的互联网图片库。
图3是本发明一种采用深度神经网络的缩略图自动生成的方法的输入图像定位搜索的流程图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种采用深度神经网络的缩略图自动生成的方法的系统流程图。主要包括数据集训练;边界框的预测;输入图像和缩略尺寸对;模型训练;快速自动缩略图生成FATG实现。
其中,所述的数据集训练,采用互联网图片建立数据库,称为互联网图片库,其中收集了包括人物、动物、建筑、风景、运动等类别,总数高达100000张图片;对于每张图片,数据集中给出了图片的原图、缩略图,缩略图大小为130*130左右。
其中,所述的边界框的预测,采用深度卷积神经网络学习最优边界框来产生缩略图,包含RPN(区域建议网络)和R-FCN(基于区域的全卷积网络)。
进一步地,所述的RPN(区域建议网络),可使计算时间显著减少,此外通过引入一个由特定类别的位置敏感滤波器组成的卷积层来减少建议特征前向传播的计算成本;
具体来说,若有C类物体要检测,那么这个新的卷积层将产生k2(C+1)个特征图,k2个位置敏感分数图对应于目标的k×k个均匀分割的单元,这k2个特征图对应不同相对位置的空间网格,对于每个类别诸如(左上,...,左下);k=3,则对应于一个3×3的空间网格、以及每个类有9个位置敏感滤波器,每个类(包括背景),将关联k2个特征图,不是通过两个全连接层前向传播,而是正敏感池化后分数平均,生成一个(C+1)-d向量并且用于预测各个类别的softmax结果。
进一步地,所述的R-FCN(基于区域的全卷积网络),其特征在于,通过引入一组特定宽高比的滤波器组来修改R-FCN用于缩略图创建;引入一组A点,宽高比在[0.5,2]的范围内,以恒定因子(几何序列)增长,例如,
此处可求得
最后一个卷积层的滤波器组在R-FCN中被修改成A个对,每一对共具有k2个滤波器,每一对均与集合S中的单个元素相关联,与R-FCN类似,位置敏感池化、计算均值,然后用这两个值产生softmax代表性预测。
进一步地,所述的缩略图生成,其架构应完全卷积,因为包括完全连接层也需要固定的输入尺寸,如果图像的宽高比和固定输入尺寸之间不匹配,图像除了缩放外,还必须裁剪,缩略图裁剪(边界框)可以达到图像的边界甚至延伸到整个图像,所以裁剪图像区域的预处理可能导致次优预测,因为图像的一些部分已被删除。
其中,所述的输入图像和缩略尺寸对,与目标检测不同,此缩略图生成网络接收两个输入:图像和缩略图的宽高比。
其中,所述的模型训练,接收两个输入,分别为图像、缩略图尺寸对,图像通过卷积层前向传播直到最后一个卷积层;计算缩略图的宽高比,从S中挑选出与其值最接近的元素,将这个对关联到训练的要素,忽略其他部分;这个对,接收建议,然后与目标检测类似,基于它们和真实数据的交集(IoU),将正/负标签分配给建议;
具体来说,如果IoU≥0.5即标为正,否则为负,类似地,A个特定宽高比的回归器被训练,与S中的每个元素一一对应;这些类似于特定类的回归器。
进一步地,对于给定的建议,采用以下损失函数:
其中li是ignore=0或factor-in=1,即
s*是由第i个对预测所得的代表性得分,s*是真实数据标签,Lcls是交叉熵损失函数;lambda是回归损失的权重,设为1;除了最近的宽高比外,回归损失都为0;对于与最近宽高比对应的滤波器,Lreg是平滑L1损耗,ti是第i个回归器所做的边界框预测,t*是真实边界框;
因为每个回归器负责一定范围内的输入的缩略图大小,所以测试时间里所有回归器做出的预测可具有不同于目标缩略图的宽高比,因此输出边界框必须被矫正到具有和目标缩略图相等的宽高比,以消除缩小时任何可能的变形;我们采用一种简单的方法,将一个宽高比和目标缩略图相等的新边界框放置在预测框的中心,并扩展它,直到触及边界,而由于预测框的宽高比已经很接近缩略图,所以矫正框和预测框之间的差别不明显。
其中,所述的快速自动缩略图生成FATG实现,是在一个端到端的学习框架下,基于Resnet-101网络,学习率为0.001,动量为0.9,权重衰减为0.0005,采用近似联合训练,学习针对不同的宽高比的不同滤波器,在推理过程中,根据目标缩略图的尺寸选择合适的滤波器对,产生最优边界框,在保证重要信息得到保留的情况下,快速实现缩略图的自动生成。
图2是本发明一种采用深度神经网络的缩略图自动生成的方法的数据库。采用互联网图片建立数据库,称为互联网图片库,其中收集了包括人物、动物、建筑、风景、运动等类别,总数高达100000张图片;对于每张图片,数据集中给出了图片的原图、缩略图,缩略图大小为130*130左右。
图3是本发明一种采用深度神经网络的缩略图自动生成的方法的流程图。在生成缩略图时,输入原图和目标缩略尺寸,采用FATG模型,结合RPN(区域建议网络)和R-FCN(基于区域的全卷积网络)两种网络,预测边界框位置确定包含重要信息的图像区域,并在此预测框的中心产生一个宽高比和目标缩略图相等的新边界框,扩展直到触及图片边界即生成所需尺寸的缩略图,使得图片缩略更加精准且实时,方便人们日常浏览和上传图像。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种采用深度神经网络的缩略图自动生成的方法,其特征在于,主要包括数据集训练(一);边界框的预测(二);输入图像和缩略尺寸对(三);模型训练(四);快速自动缩略图生成FATG实现(五)。
2.基于权利要求书1所述的数据集训练(一),其特征在于,采用互联网图片建立数据库,称为互联网图片库,其中收集了包括人物、动物、建筑、风景、运动等类别,总数高达100000张图片;对于每张图片,数据集中给出了图片的原图、缩略图,缩略图大小为130*130左右。
3.基于权利要求书1所述的边界框的预测(二),其特征在于,采用深度卷积神经网络学习最优边界框来产生缩略图,包含RPN(区域建议网络)和R-FCN(基于区域的全卷积网络)。
4.基于权利要求书3所述的RPN(区域建议网络),其特征在于,可使计算时间显著减少,此外通过引入一个由特定类别的位置敏感滤波器组成的卷积层来减少建议特征前向传播的计算成本;
具体来说,若有C类物体要检测,那么这个新的卷积层将产生k2(C+1)个特征图,k2个位置敏感分数图对应于目标的k×k个均匀分割的单元,这k2个特征图对应不同相对位置的空间网格,对于每个类别诸如(左上,...,左下);k=3,则对应于一个3×3的空间网格、以及每个类有9个位置敏感滤波器,每个类(包括背景),将关联k2个特征图,不是通过两个全连接层前向传播,而是正敏感池化后分数平均,生成一个(C+1)-d向量并且用于预测各个类别的softmax结果。
5.基于权利要求书3所述的R-FCN(基于区域的全卷积网络),其特征在于,通过引入一组特定宽高比的滤波器组来修改R-FCN用于缩略图创建;引入一组A点,宽高比在[0.5,2]的范围内,以恒定因子(几何序列)增长,例如,
此处可求得
最后一个卷积层的滤波器组在R-FCN中被修改成A个对,每一对共具有k2个滤波器,每一对均与集合S中的单个元素相关联,与R-FCN类似,位置敏感池化、计算均值,然后用这两个值产生softmax代表性预测。
6.基于权利要求书3所述的缩略图生成,其特征在于,生成缩略图的架构应完全卷积,因为包括完全连接层也需要固定的输入尺寸,如果图像的宽高比和固定输入尺寸之间不匹配,图像除了缩放外,还必须裁剪,缩略图裁剪(边界框)可以达到图像的边界甚至延伸到整个图像,所以裁剪图像区域的预处理可能导致次优预测,因为图像的一些部分已被删除。
7.基于权利要求书1所述的输入图像和缩略尺寸对(三),其特征在于,与目标检测不同,此缩略图生成网络接收两个输入:图像和缩略图的宽高比。
8.基于权利要求书1所述的模型训练(四),其特征在于,接收图像、缩略图尺寸对,图像通过卷积层前向传播直到最后一个卷积层;计算缩略图的宽高比,从S中挑选出与其值最接近的元素,将这个对关联到训练的要素,忽略其他部分;这个对,接收建议,然后与目标检测类似,基于它们和真实数据的交集(IoU),将正/负标签分配给建议;
具体来说,如果IoU≥0.5即标为正,否则为负,类似地,A个特定宽高比的回归器被训练,与S中的每个元素一一对应;这些类似于特定类的回归器。
9.基于权利要求书8所述的建议,其特征在于,对于给定的建议,采用以下损失函数:
其中li是ignore=0或factor-in=1,即
s*是由第i个对预测所得的代表性得分,s*是真实数据标签,Lcls是交叉熵损失函数;lambda是回归损失的权重,设为1;除了最近的宽高比外,回归损失都为0;对于与最近宽高比对应的滤波器,Lreg是平滑L1损耗,ti是第i个回归器所做的边界框预测,t*是真实边界框;
因为每个回归器负责一定范围内的输入的缩略图大小,所以测试时间里所有回归器做出的预测可具有不同于目标缩略图的宽高比,因此输出边界框必须被矫正到具有和目标缩略图相等的宽高比,以消除缩小时任何可能的变形;我们采用一种简单的方法,将一个宽高比和目标缩略图相等的新边界框放置在预测框的中心,并扩展它,直到触及边界,而由于预测框的宽高比已经很接近缩略图,所以矫正框和预测框之间的差别不明显。
10.基于权利要求书1所述的快速自动缩略图生成FATG实现(五),其特征在于,在一个端到端的学习框架下,基于Resnet-101网络,学习率为0.001,动量为0.9,权重衰减为0.0005,采用近似联合训练,学习针对不同的宽高比的不同滤波器,在推理过程中,根据目标缩略图的尺寸选择合适的滤波器对,产生最优边界框,在保证重要信息得到保留的情况下,快速实现缩略图的自动生成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611252938.8A CN106651765A (zh) | 2016-12-30 | 2016-12-30 | 一种采用深度神经网络的缩略图自动生成的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611252938.8A CN106651765A (zh) | 2016-12-30 | 2016-12-30 | 一种采用深度神经网络的缩略图自动生成的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106651765A true CN106651765A (zh) | 2017-05-10 |
Family
ID=58836714
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611252938.8A Withdrawn CN106651765A (zh) | 2016-12-30 | 2016-12-30 | 一种采用深度神经网络的缩略图自动生成的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106651765A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107194343A (zh) * | 2017-05-16 | 2017-09-22 | 西北工业大学 | 基于位置相关的卷积与Fire模型的红绿灯检测方法 |
CN107808376A (zh) * | 2017-10-31 | 2018-03-16 | 上海交通大学 | 一种基于深度学习的举手检测方法 |
CN107945134A (zh) * | 2017-11-30 | 2018-04-20 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
CN108052909A (zh) * | 2017-12-15 | 2018-05-18 | 中国人民解放军总医院 | 一种基于心血管oct影像的薄纤维帽斑块自动检测方法和装置 |
CN108492319A (zh) * | 2018-03-09 | 2018-09-04 | 西安电子科技大学 | 基于深度全卷积神经网络的运动目标检测方法 |
CN108596102A (zh) * | 2018-04-26 | 2018-09-28 | 北京航空航天大学青岛研究院 | 基于rgb-d的室内场景物体分割分类器构造方法 |
CN111108507A (zh) * | 2017-09-22 | 2020-05-05 | 祖克斯有限公司 | 根据二维图像和点云数据生成三维边界框 |
CN111508269A (zh) * | 2020-04-23 | 2020-08-07 | 深圳智优停科技有限公司 | 一种基于图像识别的开放式停车位车辆判别方法与装置 |
CN112818161A (zh) * | 2021-02-24 | 2021-05-18 | 西安博达软件股份有限公司 | 基于深度学习的融媒体资源库缩略图识别原图的方法 |
CN115545189A (zh) * | 2022-11-29 | 2022-12-30 | 支付宝(杭州)信息技术有限公司 | 训练图生成网络、训练图神经网络的方法及装置 |
CN116542859A (zh) * | 2023-07-06 | 2023-08-04 | 武汉船舶职业技术学院 | 用于智能建造的建筑结构柱图像缩略图智能生成方法 |
-
2016
- 2016-12-30 CN CN201611252938.8A patent/CN106651765A/zh not_active Withdrawn
Non-Patent Citations (1)
Title |
---|
SEYED A. ESMAEILI等: "Fast-AT: Fast Automatic Thumbnail Generation using Deep Neural Networks", 《ARXIV:1612.04811V1》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107194343B (zh) * | 2017-05-16 | 2019-11-22 | 西北工业大学 | 基于位置相关的卷积与Fire模型的红绿灯检测方法 |
CN107194343A (zh) * | 2017-05-16 | 2017-09-22 | 西北工业大学 | 基于位置相关的卷积与Fire模型的红绿灯检测方法 |
CN111108507B (zh) * | 2017-09-22 | 2024-01-12 | 祖克斯有限公司 | 根据二维图像和点云数据生成三维边界框 |
CN111108507A (zh) * | 2017-09-22 | 2020-05-05 | 祖克斯有限公司 | 根据二维图像和点云数据生成三维边界框 |
CN107808376A (zh) * | 2017-10-31 | 2018-03-16 | 上海交通大学 | 一种基于深度学习的举手检测方法 |
CN107808376B (zh) * | 2017-10-31 | 2022-03-11 | 上海交通大学 | 一种基于深度学习的举手检测方法 |
CN107945134B (zh) * | 2017-11-30 | 2020-10-09 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
CN107945134A (zh) * | 2017-11-30 | 2018-04-20 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
CN108052909A (zh) * | 2017-12-15 | 2018-05-18 | 中国人民解放军总医院 | 一种基于心血管oct影像的薄纤维帽斑块自动检测方法和装置 |
CN108492319A (zh) * | 2018-03-09 | 2018-09-04 | 西安电子科技大学 | 基于深度全卷积神经网络的运动目标检测方法 |
CN108492319B (zh) * | 2018-03-09 | 2021-09-03 | 西安电子科技大学 | 基于深度全卷积神经网络的运动目标检测方法 |
CN108596102A (zh) * | 2018-04-26 | 2018-09-28 | 北京航空航天大学青岛研究院 | 基于rgb-d的室内场景物体分割分类器构造方法 |
CN108596102B (zh) * | 2018-04-26 | 2022-04-05 | 北京航空航天大学青岛研究院 | 基于rgb-d的室内场景物体分割分类器构造方法 |
CN111508269B (zh) * | 2020-04-23 | 2021-05-18 | 深圳智优停科技有限公司 | 一种基于图像识别的开放式停车位车辆判别方法与装置 |
CN111508269A (zh) * | 2020-04-23 | 2020-08-07 | 深圳智优停科技有限公司 | 一种基于图像识别的开放式停车位车辆判别方法与装置 |
CN112818161A (zh) * | 2021-02-24 | 2021-05-18 | 西安博达软件股份有限公司 | 基于深度学习的融媒体资源库缩略图识别原图的方法 |
CN115545189A (zh) * | 2022-11-29 | 2022-12-30 | 支付宝(杭州)信息技术有限公司 | 训练图生成网络、训练图神经网络的方法及装置 |
CN115545189B (zh) * | 2022-11-29 | 2023-04-18 | 支付宝(杭州)信息技术有限公司 | 训练图生成网络、训练图神经网络的方法及装置 |
CN116542859A (zh) * | 2023-07-06 | 2023-08-04 | 武汉船舶职业技术学院 | 用于智能建造的建筑结构柱图像缩略图智能生成方法 |
CN116542859B (zh) * | 2023-07-06 | 2023-09-01 | 武汉船舶职业技术学院 | 用于智能建造的建筑结构柱图像缩略图智能生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106651765A (zh) | 一种采用深度神经网络的缩略图自动生成的方法 | |
CN107403141B (zh) | 人脸检测方法及装置、计算机可读存储介质、设备 | |
CN105574827B (zh) | 一种图像去雾的方法、装置 | |
CN106682697A (zh) | 一种基于卷积神经网络的端到端物体检测方法 | |
CN107369166A (zh) | 一种基于多分辨率神经网络的目标跟踪方法及系统 | |
CN110175596A (zh) | 基于双流卷积神经网络的虚拟学习环境微表情识别与交互方法 | |
CN110188720A (zh) | 一种基于卷积神经网络的目标检测方法及系统 | |
CN106874914A (zh) | 一种基于深度卷积神经网络的工业机械臂视觉控制方法 | |
CN109493303A (zh) | 一种基于生成对抗网络的图像去雾方法 | |
CN108073888A (zh) | 一种教学辅助方法及采用该方法的教学辅助系统 | |
CN106127248A (zh) | 基于深度学习的车牌分类方法及系统 | |
CN107463953A (zh) | 在标签含噪情况下基于质量嵌入的图像分类方法及系统 | |
CN110414380A (zh) | 一种基于目标检测的学生行为检测方法 | |
CN106920243A (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN110163836A (zh) | 基于深度学习用于高空巡检下的挖掘机检测方法 | |
Kumar et al. | An object-oriented shared data model for GIS and distributed hydrologic models | |
CN110084304A (zh) | 一种基于合成数据集的目标检测方法 | |
CN106203625A (zh) | 一种基于多重预训练的深层神经网络训练方法 | |
CN109711401A (zh) | 一种基于Faster Rcnn的自然场景图像中的文本检测方法 | |
CN110211173A (zh) | 一种基于深度学习的古生物化石定位和识别方法 | |
CN106951830A (zh) | 一种基于先验条件约束的图像场景多对象标记方法 | |
Cheng et al. | Building simplification using backpropagation neural networks: a combination of cartographers' expertise and raster-based local perception | |
CN106803124A (zh) | 基于流形正则和范数正则的领域迁移极限学习机方法 | |
CN104182970A (zh) | 一种基于摄影构图规则的留念照人像站位推荐方法 | |
CN107146237A (zh) | 一种基于在线状态学习与估计的目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20170510 |
|
WW01 | Invention patent application withdrawn after publication |