CN110136226B - 一种基于图像组协同描述生成的新闻自动配图方法 - Google Patents
一种基于图像组协同描述生成的新闻自动配图方法 Download PDFInfo
- Publication number
- CN110136226B CN110136226B CN201910274529.5A CN201910274529A CN110136226B CN 110136226 B CN110136226 B CN 110136226B CN 201910274529 A CN201910274529 A CN 201910274529A CN 110136226 B CN110136226 B CN 110136226B
- Authority
- CN
- China
- Prior art keywords
- image
- news
- description
- representing
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013507 mapping Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 4
- 238000005065 mining Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000013135 deep learning Methods 0.000 abstract description 7
- 230000000694 effects Effects 0.000 abstract description 5
- 238000013527 convolutional neural network Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 241000282472 Canis lupus familiaris Species 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/535—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5846—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明属于深度学习和计算机视觉技术领域,涉及一种基于图像组协同描述生成的新闻自动配图方法,包括:制作用于图像描述生成的新闻类中文数据集;使用新闻类中文数据集,构建及训练图像组协同描述生成模型;基于训练好的图像组描述生成模型,进行新闻自动化配图。本发明以更具体、更丰富的图像描述提高新闻配图的准确率,解决了目前新闻配图方法独立提取图片特征和文字特征后做匹配,深度学习对图片特征和文字特征的处理存在差异导致匹配效果不佳的问题。
Description
技术领域
本发明属于深度学习和计算机视觉技术领域,涉及一种基于图像组协同描述生成的新闻自动配图方法。
背景技术
图像描述(Image Captioning)作为图像自动化处理的基础,受到越来越多的关注,被广泛应用于自动配图、图像搜索等方向。
图像描述生成技术的发展经历了早期的典型关联成分分析、传统机器学习方法及当前热门的深度学习方法的变迁。基于深度学习方法,常用CNN+LSTM的组合框架,百度团队于2014年提出的基于多模态循环神经网络是使用CNN+RNN结构进行图片描述的开山之作。其后,谷歌的NIC模型利用端到端的思想直接产生图像描述,进一步推动了图像描述的发展。然而,图像描述生成方法仍存在许多待改进空间:
(1)缺乏中文训练数据集。现有的图片描述数据集如MSCOCO、Flickr等都为英文标注,图像描述生成的中文训练数据集仍空白。
(2)传统新闻自动配图对文本特征和图片特征独立处理,未考虑深度学习方法对图片特征和文本特征的处理方式不同,缺乏足够的说服力。
(3)现有图像描述生成方法多对图片单独处理,缺乏实体间的相关性及多样性的考量,生成的图片描述过于单一且不够精准。
发明内容
针对现有技术的不足,本发明提供一种基于图像组协同描述生成的新闻自动配图方法。
本发明采用如下技术方案实现:
一种基于图像组协同描述生成的新闻自动配图方法,包括:
S1.制作用于图像描述生成的新闻类中文数据集;
S2.使用新闻类中文数据集,构建及训练图像组协同描述生成模型;
S3.基于训练好的图像组描述生成模型,进行新闻自动配图。
进一步地,S3包括:
S31.输入新闻及备选图片组;
S32.由图像组协同描述生成模型对备选图片生成描述;
S33.计算备选图片的图像描述文本特征向量与新闻文本特征向量之间的距离,输出TOP-K作为新闻最终的配图。
优选地,新闻类中文数据集每条新闻对应3-10张图片。每张图片标注有三句描述语句,包括:1)新闻标题;2)图片地点或核心人物或人物动作等表现图片内容的描述;3)场景简要说明。
优选地,S2包括:采用CNN进行图像视觉特征的提取及实体的挖掘,构建VP Tree表示图像组内实体相关性和多样性,LSTM结合VP Tree对图像进行描述生成。
进一步地,VP Tree的构建过程包括:
①定义:其中h表示表示节点特征,l表示树层数,dn表示节点特征的维度,jl表示节点所在层的索引;
②基于以上的定义,对于CNN提取的特征G有:
其中:Fsem为自定义语义映射函数,将视觉特征映射到图像的实体/关系上,表示索引为第一层/第一个叶子节点的参数,相当于初始化赋值;基于以上的定义和函数映射转换,从而构建组内图像间实体关系。
优选地,LSTM生成图像描述过程中损失函数表示为:
其中:i表示目标图像,j表示目标图像内的第j个节点,|S|表示提取的全局特征个数,T表示输出序列的长度,K表示VP Tree的节点个数,表示图像i对应状态t输出的词,表示目标图像i中第j个节点的实体/关系的类别,ΘT表示VP Tree的参数,ΘC是多样性、相关性参数,ΘL表示LSTM本身的参数,UR表示组内图像间相关性关系集合,UD表示组内图像间多样性关系集合。
进一步地,在进行图像描述生成的过程中,l(ΘT,ΘC,ΘL)表示总体loss函数,表示基于组内图像实体相关性下的损失考量、/>表示基于组内图像实体多样性下的损失考量,则令整体的l(ΘT,ΘC,ΘL)损失最小化,最终获得的输出就是图像组内协同约束下可获得的最优输出。
优选地,采用CNN进行图像视觉特征的提取及实体的挖掘时,使用3*3的卷积核进行卷积操作,同时卷积步长设置为1,下采样使用最大池化,最大池化的窗口是2*2,步长是2,并在下采样之后采用全连接层处理。
优选地,使用TF-IDF规则计算图像描述文本及新闻文本特征向量之间的距离。
本发明相对于现有技术具有如下的优点及效果:
(1)对图像组内的候选图片基于组内图像协同描述生成,自动新闻配图时,对这些图像协同描述生成的文字描述和新闻文本进行特征匹配,以更具体、更丰富的图像描述提高新闻配图的准确率,解决了目前新闻配图方法独立提取图片特征和文字特征以后做匹配,而深度学习对图片特征和文字特征处理存在差异导致的匹配效果不佳的问题。
(2)在生成图像描述时考虑组内的图像,由于组内是一些相关的图像,它们之间存在实体的多样性和相关性关系,以组的方式可使图像描述有弥补和细化的效果。
(3)在LSTM生成图像描述中通过VP Tree将图像组内实体间的多样性及相关性考量在内,使得图像的描述结果更加具体、丰富。
(4)制作的图像描述中文数据集,弥补了训练数据的局限性。
附图说明
图1是本发明一个实施例中基于图像组协同描述生成的新闻自动配图方法流程图;
图2是本发明一个实施例中图像描述新闻类中文训练数据集示例;
图3是本发明一个实施例中实体相关性示例;
图4是本发明一个实施例中实体多样性示例;
图5是本发明一个实施例中的新闻自动配图测试输入示意图;
图6是本发明一个实施例中CNN特征提取及实体挖掘示意图;
图7是本发明一个实施例中构建的VP Tree及描述输出结果。
具体实施方式
为使本发明的目的、技术方案及实际效果更为清晰,下面将结合附图,对本发明实施例中的技术方案进行完整的流程描述。需要指出的是,本实施例只是本发明的一部分实施例,不包括整个所有适用场景下的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图像描述(Image Captioning)作为图像自动化处理的基础,受到越来越多的关注,被广泛应用于自动配图、图像搜索等方向。现有图像描述生成方法中文训练数据集缺失,同时由于图像描述生成中对图片进行单独处理,所以生成的图像描述比较单一和模糊,故本发明提供一种基于图像组协同描述生成的新闻自动配图方法。
一种基于图像组协同描述生成的新闻自动配图方法,包括:
S1.制作用于图像描述生成的新闻类中文数据集;
新闻类中文数据集每条新闻对应3-10张图片,每张图片标注有三句描述语句,包括:1)新闻标题;2)图片中地点或核心人物或人物动作等表现图片内容的描述;3)场景简要说明。
本实施例中,新闻类中文数据集每条新闻对应3张图片,该数据集目前主要包括娱乐、金融、体育、社会、生活等类别。新闻类中文训练数据集的一个样例如图2所示,该新闻标题为“小女孩举办5岁生日聚会”,包含3张图片,除标题外,每张图片还有两句描述语句作为图像描述。图2中(a)的图像描述为:“小女孩举办5岁生日聚会”、“男人手棒鲜花蛋糕让小女孩许愿”、“小女孩和大家一起庆祝自己的生日”;(b)的图像描述为:“小女孩举办5岁生日聚会”、“小女孩对着鲜花蛋糕许愿”、“小女孩生日场景”;(c)的图像描述为:“小女孩举办5岁生日聚会”、“两个男人牵着小女孩站在写着5的生日蛋糕前照相”、“小女孩在生日会上和大家合影留念”。
S2.使用S1制作的数据集,构建及训练图像组协同描述生成模型;
图像组协同描述生成模型综合考量图像组内实体相关性及实体多样性,权衡组内图像间的关系,使得图像描述生成结果更加具体和丰富。基于CNN提取的特征构建VP Tree表示图像组内实体相关度和多样性,并将其纳入LSTM中以生成更为精细的图像描述,以优化当前的新闻配图方法。
①实体相关性
设有两幅差不多主题下的图片,如图3所示,格子填充颜色越深表示二者相关性越强,则两幅图中黑格子内的实体(A、C、G)相同,实体相关性大是由于同一组图片内,共同实体或动作一起出现的概率很大,这些实体之间不独立,相互关联,产生延伸,则第一列中有些实体如“蛋糕”虽没检测到,但可以通过实体相关性,从而知道与“生日”场景相关的对象也包括“蛋糕”。
②实体多样性
实体多样性如图4所示,设格子填充颜色越深表示实体多样性强,则在第一列中A使用“小女孩”、G中使用“生日”,而在第二列中a却采用“女人”、g使用“聚会”,上述实体或关系实则是一个组内同一个概念实体,却使用了不同的语义进行表征。实体多样性可以达到组内图像相互间纠正,从而使得图像的描述更加细化。
本实施例中,图像组协同描述生成模型中LSTM生成最终图像描述时对实体相关性及实体多样性的考量通过VP Tree实现。VP Tree是一种可基于CNN提取特征,构建出图像组内语义实体多样性及相关性的一种结构,具体地,VP Tree的构建过程如下所示:
①定义:其中h表示表示节点特征,l表示树层数,dn表示节点特征的维度,jl表示节点所在层的索引;
②基于以上的定义,对于CNN提取的特征G有:
其中:Fsem为自定义语义映射函数,将视觉特征映射到图像的实体/关系上,表示索引为第一层/第一个叶子节点的参数,相当于初始化赋值;基于以上的定义和函数映射转换,从而可以构建组内图像间实体关系。
LSTM结合VP Tree对输入图像进行描述语句的输出,LSTM生成图像描述过程中损失函数表示为:
其中:i表示目标图像,j表示目标图像内的第j个节点,|S|表示提取的全局特征个数,T表示输出序列的长度,K表示VP Tree的节点个数,表示图像i对应状态t输出的词,表示目标图像i中第j个节点的实体/关系的类别,ΘT表示VP Tree的参数,ΘC是多样性、相关性参数,ΘL是LSTM本身的参数,UR表示组内图像间相关性关系集合,UD表示组内图像间多样性关系集合。
在进行图像描述生成的过程中,l(ΘT,ΘC,ΘL)表示总体loss函数,表示基于组内图像实体相关性下的损失考量、/>表示基于组内图像实体多样性下的损失考量,则令整体的l(ΘT,ΘC,ΘL)损失最小化,最终获得的输出就是图像组内协同约束下可获得的最优输出。
在图像组协同描述生成模型训练的过程中,通过输入新闻、新闻配图及其对应图片描述,训练图像组协同描述生成模型充分学习如何提取图片特征及进行图片描述,将参数调整到最优。
S3.基于S2训练好的图像组描述生成模型,进行新闻自动配图。
如图1所示,在新闻自动化配图过程中,针对输入新闻及备选图片,基于图像组协同描述生成模型,使用CNN获取实体特征后由图像组内实体间的多样性及相关性构建VPTree并输入到LSTM中生成对应的图像描述,将图像描述文本特征与新闻特征对比,选出最为契合的TOP-K作为新闻配图。包括:
S31.输入新闻及备选图片组;
S32.由图像组协同描述生成模型对备选图片生成描述;
图像组协同描述生成模型在生成图像描述过程中,使用CNN模型提取实体特征,并基于VP Tree构建图像组内的实体多样性及相关性,并在LSTM生成描述的过程中,考量图像组内实体间的相关性及多样性。
本实施例中,以图5为例子,输入新闻标题为“家有萌狗”,备选图片为4张,以备选图片(a)的描述生成为例。首先采用CNN进行图像视觉特征的提取及实体的挖掘,如图6所示,输入图像大小为224*224,使用3*3的卷积核进行卷积操作,同时卷积步长设置为1,下采样使用最大池化,最大池化的窗口是2*2,步长是2,并在下采样之后采用全连接层处理并输出最终实体结果,对备选图片(a)最终输出实体属于“狗”、“小狗”、“椅子”、“领带”等实体的概率分布。
然后,构建图像对应的VP Tree,对应的VP Tree及输出如图7所示,LSTM从VP Tree中最底层获得最大概率实体为“小狗”、“椅子”及“领带”,从中间层锁定连接词“和”,并在最后一层获得动词“戴”,经过LSTM的调整,最终输出的描述语句为“一只白的和灰的小狗戴着领带坐在椅子前”。如果仅仅使用单张图片生成描述模型,生成的描述可能为“一只灰白的狗坐在椅子上”。对比标准输出“戴着领带的灰白相间的狗坐在地毯上”,基于组内协同描述,对狗的细节描述更为具体。对剩余的其它备选图片,基于同样的处理流程输出图像描述。
S33.计算备选图片的图像描述文本特征向量与新闻文本特征向量之间的距离,输出TOP-K作为新闻最终的配图。
新闻备选图片组内每张图片的图像描述生成之后,使用TF-IDF规则计算图像描述文本及新闻文本特征向量之间的距离,输出TOP-K,并将这些图选作最终的新闻配图。本实施例中,设K=2,最终新闻配图为备选图片(a)和备选图片(b),因为这两张图片的描述更符合新闻标题“家”及“狗”的范畴,至此完成基于图像组协同描述生成的新闻自动配图。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (7)
1.一种基于图像组协同描述生成的新闻自动配图方法,其特征在于,包括:
S1.制作用于图像描述生成的新闻类中文数据集;
S2.使用新闻类中文数据集,构建及训练图像组协同描述生成模型,具体为:采用CNN进行图像视觉特征的提取及实体的挖掘,构建VP Tree表示图像组内实体相关性和多样性,LSTM结合VP Tree对图像进行描述生成;
所述VP Tree的构建过程包括:
①定义:其中h表示节点特征,l表示树层数,dn表示节点特征的维度,jl表示节点所在层的索引;
②基于以上的定义,对于CNN提取的特征G有:
其中:Fsem为自定义语义映射函数,将视觉特征映射到图像的实体/关系上,表示索引为第一层/第一个叶子节点的参数,相当于初始化赋值;基于以上的定义和函数映射转换,从而构建组内图像间实体关系;
所述LSTM生成图像描述过程中损失函数表示为:
其中:i表示目标图像,j表示目标图像内的第j个节点,|S|表示提取的全局特征个数,T表示输出序列的长度,K表示VP Tree的节点个数,表示图像i对应状态t输出的词,/>表示目标图像i中第j个节点的实体/关系的类别,ΘT表示VP Tree的参数,ΘC是多样性、相关性参数,ΘL表示LSTM本身的参数,UR表示组内图像间相关性关系集合,UD表示组内图像间多样性关系集合,/>表示基于组内图像实体相关性下的损失考量、/>表示基于组内图像实体多样性下的损失考量;
S3.基于训练好的图像组描述生成模型,进行新闻自动配图。
2.根据权利要求1所述的新闻自动配图方法,其特征在于,S3包括:
S31.输入新闻及备选图片组;
S32.由图像组协同描述生成模型对备选图片生成描述;
S33.计算备选图片的图像描述文本特征向量与新闻文本特征向量之间的距离,输出TOP-K作为新闻最终的配图。
3.根据权利要求1或2所述的新闻自动配图方法,其特征在于,新闻类中文数据集每条新闻对应3-10张图片。
4.根据权利要求3所述的新闻自动配图方法,其特征在于,每张图片标注有三句描述语句,包括:1)新闻标题;2)图片地点或核心人物或人物动作表现图片内容的描述;3)场景简要说明。
5.根据权利要求1所述的新闻自动配图方法,其特征在于,在进行图像描述生成的过程中,l(ΘT,ΘC,ΘL)表示总体loss函数,表示基于组内图像实体相关性下的损失考量、/>表示基于组内图像实体多样性下的损失考量,则令整体的l(ΘT,ΘC,ΘL)损失最小化,最终获得的输出就是图像组内协同约束下可获得的最优输出。
6.根据权利要求1所述的新闻自动配图方法,其特征在于,采用CNN进行图像视觉特征的提取及实体的挖掘时,使用3*3的卷积核进行卷积操作,同时卷积步长设置为1,下采样使用最大池化,最大池化的窗口是2*2,步长是2,并在下采样之后采用全连接层处理。
7.根据权利要求2所述的新闻自动配图方法,其特征在于,使用TF-IDF规则计算图像描述文本及新闻文本特征向量之间的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910274529.5A CN110136226B (zh) | 2019-04-08 | 2019-04-08 | 一种基于图像组协同描述生成的新闻自动配图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910274529.5A CN110136226B (zh) | 2019-04-08 | 2019-04-08 | 一种基于图像组协同描述生成的新闻自动配图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110136226A CN110136226A (zh) | 2019-08-16 |
CN110136226B true CN110136226B (zh) | 2023-12-22 |
Family
ID=67569331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910274529.5A Active CN110136226B (zh) | 2019-04-08 | 2019-04-08 | 一种基于图像组协同描述生成的新闻自动配图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110136226B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113220834B (zh) * | 2021-05-07 | 2023-08-29 | 上海财联社金融科技有限公司 | 基于新闻内容语义分析的多媒体智能配图方法 |
CN113449135B (zh) | 2021-08-31 | 2021-11-19 | 阿里巴巴达摩院(杭州)科技有限公司 | 图像生成系统与方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102364473A (zh) * | 2011-11-09 | 2012-02-29 | 中国科学院自动化研究所 | 融合地理信息与视觉信息的网络新闻检索系统及方法 |
CN106650789A (zh) * | 2016-11-16 | 2017-05-10 | 同济大学 | 一种基于深度lstm网络的图像描述生成方法 |
CN108009154A (zh) * | 2017-12-20 | 2018-05-08 | 哈尔滨理工大学 | 一种基于深度学习模型的图像中文描述方法 |
CN108171283A (zh) * | 2017-12-31 | 2018-06-15 | 厦门大学 | 一种基于结构化语义嵌入的图像内容自动描述方法 |
CN108304359A (zh) * | 2018-02-06 | 2018-07-20 | 中国传媒大学 | 无监督学习统一特征提取器构建方法 |
CN108733779A (zh) * | 2018-05-04 | 2018-11-02 | 百度在线网络技术(北京)有限公司 | 文本配图的方法和装置 |
CN109271628A (zh) * | 2018-09-03 | 2019-01-25 | 东北大学 | 一种图像描述生成方法 |
CN109344391A (zh) * | 2018-08-23 | 2019-02-15 | 昆明理工大学 | 基于神经网络的多特征融合中文新闻文本摘要生成方法 |
-
2019
- 2019-04-08 CN CN201910274529.5A patent/CN110136226B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102364473A (zh) * | 2011-11-09 | 2012-02-29 | 中国科学院自动化研究所 | 融合地理信息与视觉信息的网络新闻检索系统及方法 |
CN106650789A (zh) * | 2016-11-16 | 2017-05-10 | 同济大学 | 一种基于深度lstm网络的图像描述生成方法 |
CN108009154A (zh) * | 2017-12-20 | 2018-05-08 | 哈尔滨理工大学 | 一种基于深度学习模型的图像中文描述方法 |
CN108171283A (zh) * | 2017-12-31 | 2018-06-15 | 厦门大学 | 一种基于结构化语义嵌入的图像内容自动描述方法 |
CN108304359A (zh) * | 2018-02-06 | 2018-07-20 | 中国传媒大学 | 无监督学习统一特征提取器构建方法 |
CN108733779A (zh) * | 2018-05-04 | 2018-11-02 | 百度在线网络技术(北京)有限公司 | 文本配图的方法和装置 |
CN109344391A (zh) * | 2018-08-23 | 2019-02-15 | 昆明理工大学 | 基于神经网络的多特征融合中文新闻文本摘要生成方法 |
CN109271628A (zh) * | 2018-09-03 | 2019-01-25 | 东北大学 | 一种图像描述生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110136226A (zh) | 2019-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107391609B (zh) | 一种双向多模态递归网络的图像描述方法 | |
CN108399428B (zh) | 一种基于迹比准则的三元组损失函数设计方法 | |
CN107239801B (zh) | 视频属性表示学习方法及视频文字描述自动生成方法 | |
CN112215837B (zh) | 多属性图像语义分析方法和装置 | |
CN109389037B (zh) | 一种基于深度森林和迁移学习的情感分类方法 | |
CN105930877B (zh) | 一种基于多模态深度学习的遥感影像分类方法 | |
CN111858954A (zh) | 面向任务的文本生成图像网络模型 | |
CN110533737A (zh) | 基于结构引导汉字字体生成的方法 | |
CN111462282A (zh) | 一种场景图生成方法 | |
CN109711465B (zh) | 基于mll和asca-fr的图像字幕生成方法 | |
US11914841B2 (en) | Automatic generation of stylized icons | |
US20080243905A1 (en) | Attribute extraction using limited training data | |
CN111488931A (zh) | 文章质量评估方法、文章推荐方法及其对应的装置 | |
CN110795858B (zh) | 家装设计图纸的生成方法和装置 | |
CN107967258B (zh) | 文本信息的情感分析方法和系统 | |
CN112966091B (zh) | 一种融合实体信息与热度的知识图谱推荐系统 | |
CN101131690A (zh) | 简体汉字和繁体汉字相互转换方法及其系统 | |
CN110136226B (zh) | 一种基于图像组协同描述生成的新闻自动配图方法 | |
US20240212162A1 (en) | Semantic segmentation method for cross-satellite remote sensing images based on unsupervised bidirectional domain adaptation and fusion | |
CN104156464A (zh) | 基于微视频特征数据库的微视频检索方法及装置 | |
CN115809327B (zh) | 一种多模融合和话题的实时社交网络谣言检测方法 | |
CN107766853B (zh) | 一种图像的文本信息的生成、显示方法及电子设备 | |
CN104462063A (zh) | 基于语义位置模型的位置信息结构化提取方法及系统 | |
CN112580636A (zh) | 一种基于跨模态协同推理的图像美学质量评价方法 | |
CN110782448A (zh) | 渲染图像的评价方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |