CN107169031A - 一种基于深度表达的图片素材推荐方法 - Google Patents

一种基于深度表达的图片素材推荐方法 Download PDF

Info

Publication number
CN107169031A
CN107169031A CN201710248113.7A CN201710248113A CN107169031A CN 107169031 A CN107169031 A CN 107169031A CN 201710248113 A CN201710248113 A CN 201710248113A CN 107169031 A CN107169031 A CN 107169031A
Authority
CN
China
Prior art keywords
picture
article
neutral net
dimension
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710248113.7A
Other languages
English (en)
Other versions
CN107169031B (zh
Inventor
蔡瑞初
李俊峰
郝志峰
温雯
许柏炎
黄俊宁
陈炳丰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201710248113.7A priority Critical patent/CN107169031B/zh
Publication of CN107169031A publication Critical patent/CN107169031A/zh
Application granted granted Critical
Publication of CN107169031B publication Critical patent/CN107169031B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及数据挖掘、机器学习及神经网络技术领域,更具体地,涉及一种基于深度表达的图片素材推荐方法,在基于反向传播技术的神经网络模型下,利用Show And Tell技术、Doc2Vec技术及Image2Vec技术对文章及图片进行深度表达处理,并构建一个用于计算文章和图片匹配度的神经网络并对其进行训练和测试,最终得到一个准确率高的计算文章和图片匹配度的神经网络,将一篇文章和多张图片组成多个组合(D,I),将多个组合一一输入该神经网络计算出各个组合的匹配度,即能为该篇文章推荐出匹配度最高的一幅图片,减轻使用者的劳动强度,为使用者带来便利。

Description

一种基于深度表达的图片素材推荐方法
技术领域
本发明涉及数据挖掘、机器学习及神经网络技术领域,更具体地,涉及一种基于深度表达的图片素材推荐方法。
背景技术
现今,图片推荐应用于各大领域,有为视频内容推荐图片的推荐系统,有根据地理位置推荐图片的系统,也有为某个用户兴趣推荐喜爱的图片的系统,这些系统都为我们带来了不少的便利。
而对于在新闻媒体去发布新闻信息的时候,往往会根据新闻的内容加上相应的图片,这样做会丰富信息的内容,使读者不单单只是阅读文字而感到枯燥。编者在为文章配上一个图片素材时对侯选库的每一幅图片进行浏览,而对一个大型的图片库来说,人工为文章匹配一幅合适的图片需要很大的精力,这就需要我们利用机器学习、神经网络等相关技术,去训练我们的计算机去自动地根据我们的文章内容去推荐出一幅图片,这样会大大减轻编者的工作。
在机器学习和相关领域中,神经网络模型依赖于大量的输入、传递及反馈来估计逼近一个目标函数。而这样的估计过程需要大量与我们的实验目的相关的输入,输入的准确度和合适程度会直接地影响目标函数与我们想要的理想的函数之间的差距。我们的目标是为文章的内容推荐一幅相关的图片,文章和图片自然就会成为神经网络的输入,但是文章和图片并不能直接输入到网络中,必须将其表达成一个特征向量或者矩阵等方式(以下简称特征输入),神经网络才可以接受这样的特征输入并进行训练,怎样将文章或者图片去转换成一个准确的特征输入就成为一个难题。近年来,各种各样的表达技术层出不穷,如何选取合适的技术去准确地表达文章和图片,并将其输入到神经网络中进行学习它们的匹配程度,从而建立一个为文章推荐图片的图片素材推荐系统具有一定的研究价值和意义。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于深度表达的图片素材推荐方法,该方法能准确、快速地识别文章与图片的匹配度,为文章推荐最合适的图片,减轻使用者的劳动强度,为使用者带来便利。
为达到上述目的,本发明采用的技术方案是:
提供一种基于深度表达的图片素材推荐方法,包括如下步骤:
S1.准备包含M组(D,I)的数据集:D1,D2,…DM为文章,I1,I2,…IM为图片,下标相同的D和I为匹配正确的组合,下标不同的D和I为匹配不正确的组合;把D1…DN和I1…IN归入训练集,把DN+1…DM和IN+1…IM归入测试集;
S2.Show And Tell网络构建:利用Show And Tell的技术构建出一个能用于生成图片描述文字的网络,以将S1中的每张图片描述成文字;
S3.Doc2Vec网络构建:利用语料库区根据上下文的信息训练出一个基于Doc2Vec技术的网络,利用该网络计算出文章D1,D2,…DM分别所对应的K维的文章特征向量和文章中的单词向量的W维平均值向量,以及用于计算图片I1,I2,…IM由Show And Tell技术生成的图片描述文字中的单词向量的W维平均值向量;
S4.Image2Vec网络构建:将收集的图片I1,I2,…IM一一输入进一个CNN网络,将该网络的中间卷积层的任意一层激活值或全部层激活值作为对应图片的特征向量,每张图片的特征向量的维度为J维;
S5.构建用于计算文章和图片匹配度的神经网络:对J维的图片特征向量利用多层神经网络方法通过维度递减的全连接层进行降维,将降维后维度为Jn维的图片特征向量、维度为K的文章特征向量、维度为W的文章中的单词向量的平均值向量及维度为W的由ShowAnd Tell技术生成的图片描述文字中的单词向量的平均值向量拼接形成混合特征层,对混合特征层利用多层神经网络方法通过维度递减的全连接层进行处理,直至全连接层Dm的维度降为一维,将Dm作为输出匹配程度的输出层;
S6.对步骤S5构建的神经网络进行训练:将步骤S1中的训练集里的数据组成匹配正确的组合(D,I)与匹配不正确的组合(D,I)输入步骤S5构建的神经网络中,根据输出和目标值的误差得到Loss函数,基于神经网络残差反向传播的技术,计算出S5构建的神经网络的全连接层中的所有结点的残差,利用这些残差更新全连接层和Image2Vec网络的参数,以使Loss函数的值下降,迭代计算直至Loss函数收敛则结束训练;
S7.对步骤S6训练好的神经网络进行测试:将测试集里的一篇文章与测试集里的全部图片进行一一组合得到多组(D,I),并将该文章与图片的各个组合(D,I)输入到步骤S6训练好的神经网络以计算该文章和测试集内各个图片的匹配度,按照匹配度从大到小对(D,I)组合进行排序,以测试该用于计算文章和图片匹配度的神经网络的准确率;如果如果该文章与匹配正确的图片的组合(D,I)在TOP10中,则视为已为该文章推荐到正确的图片,如果该文章与匹配正确的图片的组合(D,I)不在TOP10中,则视为不能为该文章推荐到正确的图片;对测试集内的每一篇文章均重复此过程,最后得到总共已经正确推荐的文章占测试集内所有文章的比例,若比例大于等于预设值,将此时的神经网络作为测试好的计算文章和图片匹配度的神经网络,若比例小于预设值,则重复神经网络的训练与测试直至正确推荐的比例大于等于预设值为止;
S8.运用测试好的用于计算文章和图片匹配度的神经网络:将要为其推荐图片的文章与侯选库中的多个图片组成多个组合(D,I),并将多个组合(D,I)输入该测试好的用于计算文章和图片匹配度的神经网络中,计算出该文章和各个图片的匹配度,最高匹配度的组合(D,I)中的图片为该文章最合适的图片。
本发明一种基于深度表达的图片素材推荐方法,在基于反向传播技术的神经网络模型下,利用Show And Tell技术、Doc2Vec技术及Image2Vec技术对文章及图片进行深度表达处理,并构建一个用于计算文章和图片匹配度的神经网络并对其进行训练和测试,最终得到一个准确率高的计算文章和图片匹配度的神经网络,将一篇文章和多张图片组成多个组合(D,I),将多个组合一一输入该神经网络计算出各个组合的匹配度,即能为该篇文章推荐出匹配度最高的一幅图片,减轻使用者的劳动强度,为使用者带来便利。
优选地,步骤S4中将中间卷积层的最顶层的激活值作为对应图片的特征向量。激活值就是结点的输出值,用最顶层的激活值做图片分类时,分来效果最佳,因此最顶层的激活值能更好地表达一张图片。
优选地,步骤S4中的CNN网络为图片分类top-5测试错误率达6.67%的GoogLeNetInception v1的CNN网络。
与现有技术相比,本发明的有益效果是:
本发明一种基于深度表达的图片素材推荐方法,在基于反向传播技术的神经网络模型下,利用Show And Tell技术、Doc2Vec技术及Image2Vec技术对文章及图片进行深度表达处理,并构建一个用于计算文章和图片匹配度的神经网络并对其进行训练和测试,最终得到一个准确率高的计算文章和图片匹配度的神经网络,将一篇文章和多张图片组成多个组合(D,I),将多个组合一一输入该神经网络计算出各个组合的匹配度,即可能为该篇文章推荐出匹配度最高的一幅图片,减轻使用者的劳动强度,为使用者带来便利;能减少对文章和图片进行过多的预处理时丢失的信息,能保留更多的特征信息,强化计算匹配度的能力:通过构建混合特征层,对图片和文章进行不同方位的表达,能更好地获得图片和文章的信息:不仅仅对图片特征向量降维的网络和混合特征层降维后的网络进行参数更新训练,而且还会根据输出的结果误差,对Image2Vec网络进行参数更新训练,以达到更好的效果。
附图说明
图1为本实施例一种基于深度表达的图片素材推荐方法的处理流程图。
图2为本实施例构建的用于计算文章和图片匹配度的神经网络的结构图。
具体实施方式
下面结合具体实施方式对本发明作进一步的说明。其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本专利的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
实施例
本实施例一种基于深度表达的图片素材推荐方法的处理流程图如图1所示,包括如下步骤:
S1.准备包含M组(D,I)的数据集:D1,D2,…DM为文章,I1,I2,…IM为图片,下标相同的D和I为匹配正确的组合,下标不同的D和I为匹配不正确的组合;把D1…DN和I1…IN归入训练集,把DN+1…DM和IN+1…IM归入测试集;
S2.Show And Tell网络构建,即图文描述文字生成网络构建:利用Show And Tell的技术构建出一个能用于生成图片描述文字的网络,以将S1中的每张图片描述成文字;
S3.Doc2Vec网络构建,即文章特征向量以及单词特征向量生成网络构建:利用语料库区根据上下文的信息训练出一个基于Doc2Vec技术的网络,利用该网络计算出文章D1,D2,…DM分别所对应的K维的文章特征向量和文章中的单词向量的W维平均值向量,以及用于计算图片I1,I2,…IM由Show And Tell技术生成的图片描述文字中的单词向量的W维平均值向量;
S4.Image2Vec网络构建,即图片特征向量生成网络构建:将收集的图片I1,I2,…IM一一输入进一个CNN网络,将该网络的中间卷积层的任意一层激活值或全部层激活值作为对应图片的特征向量,每张图片的特征向量的维度为J维;
S5.构建用于计算文章和图片匹配度的神经网络:由于由Image2Vec网络生成的图片特征向量的维度比文章特征向量的维度高很多,而且图片特征向量是稀疏的,因此需要对J维的图片特征向量利用多层神经网络方法通过维度递减的全连接层进行降维,具体地,使J维的图片特征向量先分别通过J1、J2…Jn维度递减的全连接层,快速降维到与文章特征向量维度相近的Jn维,再将降维后维度为Jn维的图片特征向量、维度为K的文章特征向量、维度为W的文章中的单词向量的平均值向量及维度为W的由Show And Tell技术生成的图片描述文字中的单词向量的平均值向量拼接形成混合特征层,该混合特征层的维度为Jn+K+W+W,对混合特征层利用多层神经网络方法通过D1、D2…Dm维度递减的全连接层进行处理,直至全连接层Dm的维度降为一维,将Dm作为输出匹配程度的输出层,本实施例中,全连接层的结点的激活函数为Sigmoid函数,图2为构建的用于计算文章和图片匹配度的神经网络的结构图,图2中的省略号为省略的结点或全连接层;
S6.对步骤S5构建的神经网络进行训练:将步骤S1中的训练集里的数据组成匹配正确的组合(D,I)与匹配不正确的组合(D,I)输入步骤S5构建的神经网络中,匹配正确的组合(D,I)为下标相同的(D,I)且其训练目标为1,匹配不正确的组合(D,I)为下标不同的(D,I)且其训练目标为0,根据输出和目标值的误差得到Loss函数,基于神经网络残差反向传播的技术,计算出S5构建的神经网络的全连接层中的所有结点的残差,利用这些残差更新全连接层和Image2Vec网络的参数,以使Loss函数的值下降,迭代计算直至Loss函数收敛则结束训练;
S7.对步骤S6训练好的神经网络进行测试:将测试集里的一篇文章与测试集里的全部图片进行一一组合得到多组(D,I),并将该文章与图片的各个组合(D,I)输入到步骤S6训练好的神经网络以计算该文章和测试集内各个图片的匹配度,按照匹配度从大到小对(D,I)组合进行排序,以测试该用于计算文章和图片匹配度的神经网络的准确率;如果如果该文章与匹配正确的图片的组合(D,I)在TOP10中,则视为已为该文章推荐到正确的图片,如果该文章与匹配正确的图片的组合(D,I)不在TOP10中,则视为不能为该文章推荐到正确的图片;对测试集内的每一篇文章均重复此过程,最后得到总共已经正确推荐的文章占测试集内所有文章的比例,若比例大于等于预设值,将此时的神经网络作为测试好的计算文章和图片匹配度的神经网络,若比例小于预设值,则重复神经网络的训练与测试直至正确推荐的比例大于等于预设值为止;本实施例中,预设值为70%;S8.运用测试好的用于计算文章和图片匹配度的神经网络:将要为其推荐图片的文章与侯选库中的多个图片组成多个组合(D,I),并将多个组合(D,I)输入该测试好的用于计算文章和图片匹配度的神经网络中,计算出该文章和各个图片的匹配度,最高匹配度的组合(D,I)中的图片为该文章最合适的图片。
本发明一种基于深度表达的图片素材推荐方法,在基于反向传播技术的神经网络模型下,利用Show And Tell技术、Doc2Vec技术及Image2Vec技术对文章及图片进行深度表达处理,并构建一个用于计算文章和图片匹配度的神经网络并对其进行训练和测试,最终得到一个准确率高的计算文章和图片匹配度的神经网络,将一篇文章和多张图片组成多个组合(D,I),将多个组合一一输入该神经网络计算出各个组合的匹配度,即能为该篇文章推荐出匹配度最高的一幅图片,减轻使用者的劳动强度,为使用者带来便利。
其中,步骤S4中将中间卷积层的最顶层的激活值作为对应图片的特征向量。激活值就是结点的输出值,用最顶层的激活值做图片分类时,分来效果最佳,因此最顶层的激活值能更好地表达一张图片。
另外,步骤S4中的CNN网络为图片分类top-5测试错误率达6.67%的GoogLeNetInception v1的CNN网络。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (3)

1.一种基于深度表达的图片素材推荐方法,其特征在于,包括如下步骤:
S1.准备包含M组(D,I)的数据集:D1,D2,…DM为文章,I1,I2,…IM为图片,下标相同的D和I为匹配正确的组合,下标不同的D和I为匹配不正确的组合;把D1…DN和I1…IN归入训练集,把DN+1…DM和IN+1…IM归入测试集;
S2.Show And Tell网络构建:利用Show And Tell的技术构建出一个能用于生成图片描述文字的网络,以将S1中的每张图片描述成文字;
S3.Doc2Vec网络构建:利用语料库区根据上下文的信息训练出一个基于Doc2Vec技术的网络,利用该网络计算出文章D1,D2,…DM分别所对应的K维的文章特征向量和文章中的单词向量的W维平均值向量,以及用于计算图片I1,I2,…IM由Show And Tell技术生成的图片描述文字中的单词向量的W维平均值向量;
S4.Image2Vec网络构建:将收集的图片I1,I2,…IM一一输入进一个CNN网络,将该网络的中间卷积层的任意一层激活值或全部层激活值作为对应图片的特征向量,每张图片的特征向量的维度为J维;
S5.构建用于计算文章和图片匹配度的神经网络:对J维的图片特征向量利用多层神经网络方法通过维度递减的全连接层进行降维,将降维后维度为Jn维的图片特征向量、维度为K的文章特征向量、维度为W的文章中的单词向量的平均值向量及维度为W的由Show AndTell技术生成的图片描述文字中的单词向量的平均值向量拼接形成混合特征层,对混合特征层利用多层神经网络方法通过维度递减的全连接层进行处理,直至全连接层Dm的维度降为一维,将Dm作为输出匹配程度的输出层;
S6.对步骤S5构建的神经网络进行训练:将步骤S1中的训练集里的数据组成匹配正确的组合(D,I)与匹配不正确的组合(D,I)输入步骤S5构建的神经网络中,根据输出和目标值的误差得到Loss函数,基于神经网络残差反向传播的技术,计算出S5构建的神经网络的全连接层中的所有结点的残差,利用这些残差更新全连接层和Image2Vec网络的参数,以使Loss函数的值下降,迭代计算直至Loss函数收敛则结束训练;
S7.对步骤S6训练好的神经网络进行测试:将测试集里的一篇文章与测试集里的全部图片进行一一组合得到多组(D,I),并将该文章与图片的各个组合(D,I)输入到步骤S6训练好的神经网络以计算该文章和测试集内各个图片的匹配度,按照匹配度从大到小对(D,I)组合进行排序,以测试该用于计算文章和图片匹配度的神经网络的准确率;如果如果该文章与匹配正确的图片的组合(D,I)在TOP10中,则视为已为该文章推荐到正确的图片,如果该文章与匹配正确的图片的组合(D,I)不在TOP10中,则视为不能为该文章推荐到正确的图片;对测试集内的每一篇文章均重复此过程,最后得到总共已经正确推荐的文章占测试集内所有文章的比例,若比例大于等于预设值,将此时的神经网络作为测试好的计算文章和图片匹配度的神经网络,若比例小于预设值,则重复神经网络的训练与测试直至正确推荐的比例大于等于预设值为止;
S8.运用测试好的用于计算文章和图片匹配度的神经网络:将要为其推荐图片的文章与侯选库中的多个图片组成多个组合(D,I),并将多个组合(D,I)输入该测试好的用于计算文章和图片匹配度的神经网络中,计算出该文章和各个图片的匹配度,最高匹配度的组合(D,I)中的图片为该文章最合适的图片。
2.根据权利要求1所述的一种基于深度表达的图片素材推荐方法,其特征在于,步骤S4中将中间卷积层的最顶层的激活值作为对应图片的特征向量。
3.根据权利要求1至2任一项所述的一种基于深度表达的图片素材推荐方法,其特征在于,步骤S4中的CNN网络为图片分类top-5测试错误率达6.67%的GoogLeNet Inception v1的CNN网络。
CN201710248113.7A 2017-04-17 2017-04-17 一种基于深度表达的图片素材推荐方法 Active CN107169031B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710248113.7A CN107169031B (zh) 2017-04-17 2017-04-17 一种基于深度表达的图片素材推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710248113.7A CN107169031B (zh) 2017-04-17 2017-04-17 一种基于深度表达的图片素材推荐方法

Publications (2)

Publication Number Publication Date
CN107169031A true CN107169031A (zh) 2017-09-15
CN107169031B CN107169031B (zh) 2020-05-19

Family

ID=59849136

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710248113.7A Active CN107169031B (zh) 2017-04-17 2017-04-17 一种基于深度表达的图片素材推荐方法

Country Status (1)

Country Link
CN (1) CN107169031B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107748779A (zh) * 2017-10-20 2018-03-02 百度在线网络技术(北京)有限公司 信息生成方法和装置
CN108038496A (zh) * 2017-12-04 2018-05-15 华南师范大学 基于大数据与深度学习的婚恋对象匹配数据处理方法、装置、计算机设备和存储介质
CN108595595A (zh) * 2018-04-19 2018-09-28 北京理工大学 一种基于交互式差分进化计算的用户知识需求获取方法
CN109376844A (zh) * 2018-10-30 2019-02-22 银河水滴科技(北京)有限公司 基于云平台和模型推荐的神经网络自动训练方法和装置
CN109636451A (zh) * 2018-11-30 2019-04-16 深圳信息职业技术学院 一种养老模式自动推荐方法、装置及终端设备
CN109948401A (zh) * 2017-12-20 2019-06-28 北京京东尚科信息技术有限公司 用于文本的数据处理方法及其系统
CN110069651A (zh) * 2017-10-23 2019-07-30 腾讯科技(北京)有限公司 图片筛选方法及装置、存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104794504A (zh) * 2015-04-28 2015-07-22 浙江大学 基于深度学习的图形图案文字检测方法
CN104915386A (zh) * 2015-05-25 2015-09-16 中国科学院自动化研究所 一种基于深度语义特征学习的短文本聚类方法
CN104966097A (zh) * 2015-06-12 2015-10-07 成都数联铭品科技有限公司 一种基于深度学习的复杂文字识别方法
CN105989067A (zh) * 2015-02-09 2016-10-05 华为技术有限公司 从图片生成文本摘要的方法、用户设备及训练服务器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105989067A (zh) * 2015-02-09 2016-10-05 华为技术有限公司 从图片生成文本摘要的方法、用户设备及训练服务器
CN104794504A (zh) * 2015-04-28 2015-07-22 浙江大学 基于深度学习的图形图案文字检测方法
CN104915386A (zh) * 2015-05-25 2015-09-16 中国科学院自动化研究所 一种基于深度语义特征学习的短文本聚类方法
CN104966097A (zh) * 2015-06-12 2015-10-07 成都数联铭品科技有限公司 一种基于深度学习的复杂文字识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
孙俊: "基于卷积神经网络的电商图片物体识别", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107748779A (zh) * 2017-10-20 2018-03-02 百度在线网络技术(北京)有限公司 信息生成方法和装置
CN110069651A (zh) * 2017-10-23 2019-07-30 腾讯科技(北京)有限公司 图片筛选方法及装置、存储介质
CN110069651B (zh) * 2017-10-23 2023-04-07 腾讯科技(北京)有限公司 图片筛选方法及装置、存储介质
CN108038496A (zh) * 2017-12-04 2018-05-15 华南师范大学 基于大数据与深度学习的婚恋对象匹配数据处理方法、装置、计算机设备和存储介质
CN109948401A (zh) * 2017-12-20 2019-06-28 北京京东尚科信息技术有限公司 用于文本的数据处理方法及其系统
CN108595595A (zh) * 2018-04-19 2018-09-28 北京理工大学 一种基于交互式差分进化计算的用户知识需求获取方法
CN109376844A (zh) * 2018-10-30 2019-02-22 银河水滴科技(北京)有限公司 基于云平台和模型推荐的神经网络自动训练方法和装置
CN109636451A (zh) * 2018-11-30 2019-04-16 深圳信息职业技术学院 一种养老模式自动推荐方法、装置及终端设备

Also Published As

Publication number Publication date
CN107169031B (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN107169031A (zh) 一种基于深度表达的图片素材推荐方法
US11829874B2 (en) Neural architecture search
CN110472642B (zh) 基于多级注意力的细粒度图像描述方法及系统
CN107967255A (zh) 一种判定文本相似性的方法和系统
CN108664632A (zh) 一种基于卷积神经网络和注意力机制的文本情感分类算法
CN107194433A (zh) 一种基于深度自编码网络的雷达一维距离像目标识别方法
CN104598611B (zh) 对搜索条目进行排序的方法及系统
Hong et al. Sentiment analysis with deeply learned distributed representations of variable length texts
CN108304921A (zh) 卷积神经网络的训练方法及图像处理方法、装置
Wang et al. A hybrid GA-PSO method for evolving architecture and short connections of deep convolutional neural networks
CN109657229A (zh) 一种意图识别模型生成方法、意图识别方法及装置
CN109166144A (zh) 一种基于生成对抗网络的图像深度估计方法
Soma et al. Neural network reconstruction of the dense matter equation of state from neutron star observables
CN107132516A (zh) 一种基于深度置信网络的雷达一维距离像目标识别方法
EP3218854A1 (en) Generating natural language descriptions of images
CN107729312A (zh) 基于序列标注建模的多粒度分词方法及系统
CN105608690A (zh) 一种基于图论和半监督学习相结合的图像分割方法
CN104850844B (zh) 一种基于快速构建图像特征金字塔的行人检测方法
CN106780645A (zh) 动态mri图像重建方法及装置
CN117218498A (zh) 基于多模态编码器的多模态大语言模型训练方法及系统
CN107862329A (zh) 一种基于深度置信网络的雷达一维距离像真假目标识别方法
CN109086463B (zh) 一种基于区域卷积神经网络的问答社区标签推荐方法
CN116561260A (zh) 一种基于语言模型的习题生成方法、设备及介质
CN117152573A (zh) 基于Transformer和数据增强的网络媒体多模态信息抽取方法
Nie et al. Prediction of liquid magnetization series data in agriculture based on enhanced CGAN

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant