CN107392244A - 基于深度神经网络与级联回归的图像美感增强方法 - Google Patents
基于深度神经网络与级联回归的图像美感增强方法 Download PDFInfo
- Publication number
- CN107392244A CN107392244A CN201710587701.3A CN201710587701A CN107392244A CN 107392244 A CN107392244 A CN 107392244A CN 201710587701 A CN201710587701 A CN 201710587701A CN 107392244 A CN107392244 A CN 107392244A
- Authority
- CN
- China
- Prior art keywords
- image
- neural network
- primitive
- cascade
- deep
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 32
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 19
- 239000013598 vector Substances 0.000 claims abstract description 8
- 238000011478 gradient descent method Methods 0.000 claims abstract description 7
- 238000011176 pooling Methods 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 12
- 230000002708 enhancing effect Effects 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract description 3
- 238000010008 shearing Methods 0.000 abstract 1
- 238000011156 evaluation Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000009336 multiple cropping Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明实施例提供一种基于深度神经网络与级联回归的图像美感增强方法,包括以下步骤:S1,提供尺寸为C0的原始图像,通过级联回归算法进行求解获得最小化目标;S2,通过AVA数据集与CHUKPQ数据集训练深度卷积神经网络的提取图像特征功能;S3,通过深度卷积神经网络提取深度特征xt,并通过深度卷积神经网络的空间金字塔池化层将尺寸为C0原始图像变转化为(2*2+3*3+4*4)*32的特征向量;S4,将提取的深度特征xt应用于随机蕨回归器中,并采用梯度下降方法学习获得基元回归器,通过级联回归器来输出候选结果Cj(1≤j≤4);不断迭代直到误差不再减小,获得基元回归器的最小化目标函数;S5,将步骤S4中获得的基元回归器与深度特征xt按照迭代的方式进行T次循环,通过多级循环剪切获得最终裁剪图像。
Description
技术领域
本发明涉及计算机视觉的技术领域,具体而言,涉及一种基于深度神经网络与级联回归的图像美感增强方法。
背景技术
人类感知世界一个重要来源就通过图像信息,研究表明人类获取外界信息中大约有80%~90%的信息来自于人类眼睛获取的图像信息。而图像信息的理解不仅包括图像分类,物体检测,物体追踪等常见的计算机视觉任务,也包含图像的语义美感信息理解。图像的美感信息的理解有着丰富的应用,比如可以在图像存储库中向用户提供令人产生愉快的美感图像。一般消费者或者设计师可以利用来自动化的图像美感增强系统做出更好的决策。因此,运用计算机视觉实现自动图像美感增强具有重要的现实意义。
目前在学术界,图像美感增强是一个具有挑战性的问题。因为图像美感评价是一种高度主观的评价,难以使用详细的数学方法进行解释。尽管图像美感评价是主观的,人们仍然尝试使用图像中的美学特性来进行美感评价。例如,在2006年,Datta等人提出采用颜色,纹理以及其他低级视觉特征进行训练的分类树模型来进行图像美感评价,从而实现图像美感增强。具体来说,首先对美感图像提取手工设计的特征,然后训练机器学习模型,找出哪些视觉属性在美感评价中具有关键的作用,同时对这些部分进行增强。
原始图像的裁剪是图像美感增强中的重要的一步,目前学术界主流的图像裁剪方法可以分为三类。三大类第一类的方法是基于注意力的,这种裁剪方法围绕着原始图像中的信息对象,信息对象可以是原始图像中较为凸显的部分。例如,Marchesotti等人提出的视觉显著性框架,该框架对原始图像进行检测并从中获取一个或多个显著图。显著图通常是显著的前景区域而非信息对象则成为背景的一部分。Fang等还通过使用空间金字塔显著图方式对原始图像进行裁剪。第二类的方法则是基于裁剪结果的美学评价。采用机器学习的方式来定义裁剪区域同时也考虑了美学元素的空间分布,但是这种方法对如何保留原始图片过于关注。为克服上述问题,Yan等人提出了属于第三种的图像裁剪方法,这种方法称之为基于经验的图像裁剪方法。在该方法中,他们构建了多个裁剪数据集并由三名专业摄影人员对图像裁剪结果进行了注释。然后,提取各种手工特征训练了分类器对专业摄影人员的注释进行了回归。这种方法强调专业人士的经验以及由图像裁剪的操纵引起的变化。尽管这种方法取得了较好的结果,但仍然存在一些缺点。
发明内容
有鉴于此,本发明实施例的目的在于提供一种基于深度神经网络与级联回归的图像美感增强方法,以改善现有技术中数据缺乏标记、图像过于关注原图导致美感增强效果较差的问题。
本发明较佳实施例提供了基于深度神经网络与级联回归的图像美感增强方法,所述图像美感增强方法包括以下步骤:
S1,提供尺寸为C0的原始图像,通过级联回归算法进行求解获得最小化目标为:
其中,代表一个矩形区域,C为裁剪后图像的尺寸,为数据集提供的图像裁剪尺寸;
S2,通过AVA数据集与CHUKPQ数据集提供的预训练图像数据,训练深度卷积神经网络的提取图像特征功能;
S3,通过深度卷积神经网络提取原图像的深度特征xt,并通过深度卷积神经网络的空间金字塔池化层将尺寸为C0原始图像变转化为特征向量;
S4,将提取的深度特征xt应用于随机蕨回归器中,并采用梯度下降方法学习获得基元回归器,通过级联回归器来输出候选结果Cj(1≤j≤4);
其中,被称为基元回归器,不断迭代直到误差不再减小,获得基元回归器的最小化目标函数;
S5,将步骤S4中获得的基元回归器与深度特征xt按照迭代的方式进行T次循环,通过多级循环剪切获得最终裁剪图像。
进一步的,步骤S3中,通过深度卷积神经网络的空间金字塔池化层将尺寸为C0原始图像变转化为特征向量,特征向量表示为(2*2+3*3+4*4)*32。
进一步的,步骤S4中,通过级联回归器输出的候选结果Cj(1≤j≤4)是通过累加前j-1次基元回归器的回归值并加上图像初始尺寸值得到:
其中,基元回归器的最小化目标函数表示为:
其中,Yij被称为目标标注,每一个特征向量对应了一个目标标注;
进一步的,步骤S5中,将步骤S4中获得的基元回归器与深度特征xt按照迭代的方式进行T次循环,通过多级循环剪切获得最终裁剪图像表示为:
其中,λ为收缩率。
进一步的,所述步骤S2中,具体包括以下步骤:
S21,当原始图像尺寸不是C0时,对原始图像缩放或扩大为C0;
S22,将AVA数据集与CHUKPQ数据集提供的预训练图像分为低质量与高质量,每个图像分别用于训练深度卷积神经网络;
优选的,深度卷积神经网络拥有五个卷积层,五个卷积层分别为四个最大池化层和一个金字塔池化层;深度卷积神经网络的最大池化层使用2*2的区域。
优选的,深度卷积神经网络的第一个卷积层拥有32个5*5*3的卷积核,用于输出32个原始图像的特征图;之后采用修正线性单元激活函数以及最大池化层,每个卷积层均输出32个特征图;在最后一层使用空间金字塔池化层。
进一步的,所述步骤S4中,基元回归器通过在一组随机蕨回归器中利用梯度下降方法学习得到。
进一步的,所述步骤S5中,循环次数T大于30次。
本发明的有益效果是:基于深度神经网络与级联回归的图像美感增强方法,通过使用级联回归的方式,引入学习专业摄影师的知识来执行图像裁剪。通过两步学习策略解决数据缺乏标记的问题。首先在大型图像美感数据库上训练深度卷积神经网络并使用深度卷积神经网络对图像提取深度特征,然后运用级联回归算法对图像进行进一步的裁剪获取最终的图像美感增强结果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实例的整体框架图。
图2为本发明实施例的提取卷积神经网络特征例图。
图3为本发明实施例的美感增强结果示意图。
图4为本发明实施例的美感增强结果示意图。
图5为本发明实施例的美感增强结果示意图。
图6为本发明实施例的美感增强结果示意图。
图7为本发明实施例的美感增强结果示意图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的发明构思是:对如何保留原始图片过于关注导致图像美感效果不佳,以及数据缺乏标记的问题。本发明基于深度神经网络与级联回归的图像美感增强方法,通过使用级联回归的方式,引入学习专业摄影师的知识来执行图像裁剪。通过两步学习策略解决数据缺乏标记的问题。首先在大型图像美感数据库上训练深度卷积神经网络并使用深度卷积神经网络对图像提取深度特征,然后运用级联回归算法对图像进行进一步的裁剪获取最终的图像美感增强结果。
基于深度神经网络与级联回归的图像美感增强方法,所述图像美感增强方法包括以下步骤:
S1,提供尺寸为C0的原始图像,通过级联回归算法进行求解获得最小化目标为:
其中,代表一个矩形区域,C为裁剪后图像的尺寸,为数据集提供的图像裁剪尺寸;
S2,通过AVA数据集与CHUKPQ数据集提供的预训练图像数据,训练深度卷积神经网络的提取图像特征功能;
S3,通过深度卷积神经网络提取原图像的深度特征xt,并通过深度卷积神经网络的空间金字塔池化层将尺寸为C0原始图像变转化为特征向量;
S4,将提取的深度特征xt应用于随机蕨回归器中,并采用梯度下降方法学习获得基元回归器,通过级联回归器来输出候选结果Cj(1≤j≤4);
其中,被称为基元回归器,不断迭代直到误差不再减小,获得基元回归器的最小化目标函数;
S5,将步骤S4中获得的基元回归器与深度特征xt按照迭代的方式进行T次循环,通过多级循环剪切获得最终裁剪图像。
进一步的,步骤S3中,通过深度卷积神经网络的空间金字塔池化层将尺寸为C0原始图像变转化为特征向量,特征向量表示为(2*2+3*3+4*4)*32。
进一步的,步骤S4中,通过级联回归器输出的候选结果Cj(1≤j≤4)是通过累加前j-1次基元回归器的回归值并加上图像初始尺寸值得到:
其中,基元回归器的最小化目标函数表示为:
其中,Yij被称为目标标注,每一个特征向量对应了一个目标标注;
进一步的,步骤S5中,将步骤S4中获得的基元回归器与深度特征xt按照迭代的方式进行T次循环,通过多级循环剪切获得最终裁剪图像表示为:
其中,λ为收缩率。
所述步骤S2中,具体包括以下步骤:
S21,当原始图像尺寸不是C0时,对原始图像缩放或扩大为C0;
S22,将AVA数据集与CHUKPQ数据集提供的预训练图像分为低质量与高质量,每个图像分别用于训练深度卷积神经网络;
具体的,AVA数据集包含25万张图片,每张图片有210人打分,打分范围为1到10,将打分低于5的划分为低质量图像,将打分高于5的划分为高质量图像。CHUKPQ数据集包含从各种摄影网站收集的约30,000张图像,这些图像被标记为低质量或高质量。基于这两个数据集,分别用训练深度卷积神经网络提取图像的深度特征。
优选的,深度卷积神经网络拥有五个卷积层,五个卷积层分别为四个最大池化层和一个金字塔池化层;深度卷积神经网络的最大池化层使用2*2的区域。
优选的,深度卷积神经网络的第一个卷积层拥有32个5*5*3的卷积核,用于输出32个原始图像的特征图;之后采用修正线性单元激活函数以及最大池化层,每个卷积层均输出32个特征图;在最后一层使用空间金字塔池化层。
进一步的,所述步骤S4中,基元回归器通过在一组随机蕨回归器中利用梯度下降方法学习得到。
进一步的,所述步骤S5中,循环次数T大于30次。
本发明方法与其余算法在方法3所提供的美感区域裁剪数据集上的美感评价结果如下表所示(算法结果评价采用算法裁剪区域与专业摄影师裁剪区域的交并比计算得到):
方法 | 数据集1 | 数据集2 | 数据集3 |
方法1 | 0.203 | 0.178 | 0.199 |
方法2 | 0.396 | 0.394 | 0.386 |
方法3 | 0.749 | 0.729 | 0.732 |
方法4 | 0.797 | 0.786 | 0.772 |
本发明的方法 | 0.850 | 0.837 | 0.828 |
方法1对应为F.Stentiford等人提出的方法F.Stentiford,Attention basedauto image cropping,ICVS Workshop on Computational Attention&Application,2007.);
方法2对应为M.Nishiyama等人提出的方法(M.Nishiyama,T.Okabe,Y.Sato,andI.Sato,Sensation-based photo cropping,in ACM MM,2009,pp.669–672.)。
方法3对应为J.Yan等人提出的方法(J.Yan,S.Lin,S.B.Kang,and X.Tang,Learning the change for automatic image cropping,in Proc.IEEEConf.Comput.Vis.Pattern Recognit.(CVPR),2013,pp.971–978.)。
方法4对应为J.Yan等人提出的方法(J.Yan,S.Lin,S.Kang,and X.Tang,Change-based image cropping with exclusion and compositional features,InternationalJournal of Computer Vision(IJCV),vol.114,pp.1–14,2015.)
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.基于深度神经网络与级联回归的图像美感增强方法,其特征在于,所述图像美感增强方法包括以下步骤:
S1,提供尺寸为C0的原始图像,通过级联回归算法进行求解获得最小化目标为:
其中, 代表一个矩形区域,C为裁剪后图像的尺寸,为数据集提供的图像裁剪尺寸;
S2,通过AVA数据集与CHUKPQ数据集提供的预训练图像数据,训练深度卷积神经网络的提取图像特征功能;
S3,通过深度卷积神经网络提取原图像的深度特征xt,并通过深度卷积神经网络的空间金字塔池化层将尺寸为C0原始图像变转化为特征向量;
S4,将提取的深度特征xt应用于随机蕨回归器中,并采用梯度下降方法学习获得基元回归器,通过级联回归器来输出候选结果Cj(1≤j≤4);
其中,被称为基元回归器,不断迭代直到误差不再减小,获得基元回归器的最小化目标函数;
S5,将步骤S4中获得的基元回归器与深度特征xt按照迭代的方式进 行T次循环,通过多级循环剪切获得最终裁剪图像。
2.根据权利要求1所述的基于深度神经网络与级联回归的图像美感增强方法,其特征在于,步骤S3中,通过深度卷积神经网络的空间金字塔池化层将尺寸为C0原始图像变转化为特征向量,特征向量表示为(2*2+3*3+4*4)*32。
3.根据权利要求2所述的基于深度神经网络与级联回归的图像美感增强方法,其特征在于,步骤S4中,通过级联回归器输出的候选结果Cj(1≤j≤4)是通过累加前j-1次基元回归器的回归值并加上图像初始尺寸值得到:
其中,基元回归器的最小化目标函数表示为:
其中,Yij被称为目标标注,每一个特征向量对应了一个目标标注。
4.根据权利要求3所述的基于深度神经网络与级联回归的图像美感增强方法,其特征在于,步骤S5中,将步骤S4中获得的基元回归器与深度特征xt按照迭代的方式进行T次循环,通过多级循环剪切获得最终裁剪图像表示为:
其中,λ为收缩率。
5.根据权利要求1所述的基于深度神经网络与级联回归的图像美感增强方法,其特征在于,所述步骤S2中,具体包括以下步骤:
S21,当原始图像尺寸不是C0时,对原始图像缩放或扩大为C0;
S22,将AVA数据集与CHUKPQ数据集提供的预训练图像分为低质量与高质量,每个图像分别用于训练深度卷积神经网络;
6.根据权利要求5所述的基于深度神经网络与级联回归的图像美感增强方法,其特征在于,深度卷积神经网络拥有五个卷积层,五个卷积层分别为四个最大池化层和一个金字塔池化层;深度卷积神经网络的最大池化层使用2*2的区域。
7.根据权利要求6所述的基于深度神经网络与级联回归的图像美感增强方法,其特征在于,深度卷积神经网络的第一个卷积层拥有32个5*5*3的卷积核,用于输出32个原始图像的特征图;之后采用修正线性单元激活函数以及最大池化层,每个卷积层均输出32个特征图;在最后一层使用空间金字塔池化层。
8.根据权利要求1所述的基于深度神经网络与级联回归的图像美感增强方法,其特征在于,所述步骤S4中,基元回归器通过在一组随机蕨回归器中利用梯度下降方法学习得到。
9.根据权利要求1所述的基于深度神经网络与级联回归的图像美感增 强方法,其特征在于,所述步骤S5中,循环次数T大于30次。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710587701.3A CN107392244B (zh) | 2017-07-18 | 2017-07-18 | 基于深度神经网络与级联回归的图像美感增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710587701.3A CN107392244B (zh) | 2017-07-18 | 2017-07-18 | 基于深度神经网络与级联回归的图像美感增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107392244A true CN107392244A (zh) | 2017-11-24 |
CN107392244B CN107392244B (zh) | 2020-08-28 |
Family
ID=60340095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710587701.3A Expired - Fee Related CN107392244B (zh) | 2017-07-18 | 2017-07-18 | 基于深度神经网络与级联回归的图像美感增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107392244B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108986124A (zh) * | 2018-06-20 | 2018-12-11 | 天津大学 | 结合多尺度特征卷积神经网络视网膜血管图像分割方法 |
CN109146892A (zh) * | 2018-07-23 | 2019-01-04 | 北京邮电大学 | 一种基于美学的图像裁剪方法及装置 |
CN109886317A (zh) * | 2019-01-29 | 2019-06-14 | 中国科学院自动化研究所 | 基于注意力机制的通用图像美学评估方法、系统及设备 |
CN109949240A (zh) * | 2019-03-11 | 2019-06-28 | 厦门美图之家科技有限公司 | 一种图像处理方法及计算设备 |
CN110147833A (zh) * | 2019-05-09 | 2019-08-20 | 北京迈格威科技有限公司 | 人像处理方法、装置、系统和可读存储介质 |
CN111523403A (zh) * | 2020-04-03 | 2020-08-11 | 咪咕文化科技有限公司 | 图片中目标区域的获取方法及装置、计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160034788A1 (en) * | 2014-07-30 | 2016-02-04 | Adobe Systems Incorporated | Learning image categorization using related attributes |
CN105528757A (zh) * | 2015-12-08 | 2016-04-27 | 华南理工大学 | 一种基于内容的图像美学质量提升方法 |
CN106650737A (zh) * | 2016-11-21 | 2017-05-10 | 中国科学院自动化研究所 | 图像自动裁剪方法 |
-
2017
- 2017-07-18 CN CN201710587701.3A patent/CN107392244B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160034788A1 (en) * | 2014-07-30 | 2016-02-04 | Adobe Systems Incorporated | Learning image categorization using related attributes |
CN105528757A (zh) * | 2015-12-08 | 2016-04-27 | 华南理工大学 | 一种基于内容的图像美学质量提升方法 |
CN106650737A (zh) * | 2016-11-21 | 2017-05-10 | 中国科学院自动化研究所 | 图像自动裁剪方法 |
Non-Patent Citations (3)
Title |
---|
YUBIN DENG ET.AL: "Image Aesthetic Assessment:An Experimental Survey", 《ARXIV:1610.00838V2 [CS.CV]》 * |
YUEYING KAO ET.AL: "VISUAL AESTHETIC QUALITY ASSESSMENT WITH A REGRESSION MODEL", 《2015 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP)》 * |
王伟凝 等: "基于并行深度卷积神经网络的图像美感分类", 《自动化学报》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108986124A (zh) * | 2018-06-20 | 2018-12-11 | 天津大学 | 结合多尺度特征卷积神经网络视网膜血管图像分割方法 |
CN109146892A (zh) * | 2018-07-23 | 2019-01-04 | 北京邮电大学 | 一种基于美学的图像裁剪方法及装置 |
CN109146892B (zh) * | 2018-07-23 | 2020-06-19 | 北京邮电大学 | 一种基于美学的图像裁剪方法及装置 |
CN109886317A (zh) * | 2019-01-29 | 2019-06-14 | 中国科学院自动化研究所 | 基于注意力机制的通用图像美学评估方法、系统及设备 |
CN109886317B (zh) * | 2019-01-29 | 2021-04-27 | 中国科学院自动化研究所 | 基于注意力机制的通用图像美学评估方法、系统及设备 |
CN109949240A (zh) * | 2019-03-11 | 2019-06-28 | 厦门美图之家科技有限公司 | 一种图像处理方法及计算设备 |
CN110147833A (zh) * | 2019-05-09 | 2019-08-20 | 北京迈格威科技有限公司 | 人像处理方法、装置、系统和可读存储介质 |
CN111523403A (zh) * | 2020-04-03 | 2020-08-11 | 咪咕文化科技有限公司 | 图片中目标区域的获取方法及装置、计算机可读存储介质 |
CN111523403B (zh) * | 2020-04-03 | 2023-10-20 | 咪咕文化科技有限公司 | 图片中目标区域的获取方法及装置、计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN107392244B (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107392244B (zh) | 基于深度神经网络与级联回归的图像美感增强方法 | |
Li et al. | A closed-form solution to photorealistic image stylization | |
Jung et al. | Unsupervised deep image fusion with structure tensor representations | |
CN108470320B (zh) | 一种基于cnn的图像风格化方法及系统 | |
CN109493350B (zh) | 人像分割方法及装置 | |
CN110781895B (zh) | 一种基于卷积神经网络的图像语义分割方法 | |
CN109919830B (zh) | 一种基于美学评价的带参考人眼图像修复方法 | |
CN109815826B (zh) | 人脸属性模型的生成方法及装置 | |
Kucer et al. | Leveraging expert feature knowledge for predicting image aesthetics | |
CA3137297C (en) | Adaptive convolutions in neural networks | |
Chen et al. | Towards Deep Style Transfer: A Content-Aware Perspective. | |
CN111241963B (zh) | 基于交互建模的第一人称视角视频交互行为识别方法 | |
Liu et al. | Painting completion with generative translation models | |
Jiang et al. | Consensus style centralizing auto-encoder for weak style classification | |
CN107563319A (zh) | 一种基于图像的亲子间人脸相似性度量计算方法 | |
Lee et al. | Property-specific aesthetic assessment with unsupervised aesthetic property discovery | |
CN117994623A (zh) | 一种图像特征向量的获取方法 | |
Ni et al. | Composition-guided neural network for image cropping aesthetic assessment | |
CN112016592B (zh) | 基于交叉领域类别感知的领域适应语义分割方法及装置 | |
CN116137023B (zh) | 基于背景建模和细节增强的低照度图像增强方法 | |
DE102023131135A1 (de) | Detektieren von Objektbeziehungen und Bearbeiten von Digitalbildern auf Grundlage der Objektbeziehungen | |
DE102023125641A1 (de) | Entfernen von störenden Objekten aus Digitalbildern | |
CN106469437B (zh) | 图像处理方法和图像处理装置 | |
Dong et al. | Effective and efficient photo quality assessment | |
CN112734655B (zh) | 一种基于卷积神经网络图像对crm增强的低光图像增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP02 | Change in the address of a patent holder | ||
CP02 | Change in the address of a patent holder |
Address after: Siming District of Xiamen city in Fujian Province, 361005 South Siming Road No. 422, Xiamen University Patentee after: XIAMEN University Address before: Siming District of Xiamen city in Fujian Province, 361005 South Siming Road No. 422, Xiamen University, College of chemistry and chemical engineering Patentee before: XIAMEN University |
|
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200828 |