CN111382619B - 图片推荐模型的生成、图片推荐方法、装置、设备及介质 - Google Patents

图片推荐模型的生成、图片推荐方法、装置、设备及介质 Download PDF

Info

Publication number
CN111382619B
CN111382619B CN201811627763.3A CN201811627763A CN111382619B CN 111382619 B CN111382619 B CN 111382619B CN 201811627763 A CN201811627763 A CN 201811627763A CN 111382619 B CN111382619 B CN 111382619B
Authority
CN
China
Prior art keywords
training
picture
training picture
pair
recommendation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811627763.3A
Other languages
English (en)
Other versions
CN111382619A (zh
Inventor
梁德澎
王俊东
张树业
张壮辉
梁柱锦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bigo Technology Singapore Pte Ltd
Original Assignee
Guangzhou Baiguoyuan Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Baiguoyuan Information Technology Co Ltd filed Critical Guangzhou Baiguoyuan Information Technology Co Ltd
Priority to CN201811627763.3A priority Critical patent/CN111382619B/zh
Publication of CN111382619A publication Critical patent/CN111382619A/zh
Application granted granted Critical
Publication of CN111382619B publication Critical patent/CN111382619B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明公开了一种图片推荐模型的生成、图片推荐方法、装置、设备及介质。该方法包括:获取训练集,训练集包括至少两个训练图片对以及与各训练图片对所对应的标注信息,标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系;将训练集输入至神经网络模型中,得到各训练图片的预测推荐分数;根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定训练集的损失函数;根据训练集的损失函数调整神经网络模型的网络参数,直至训练集的损失函数的输出值小于等于第一预设阈值,则将神经网络模型作为图片推荐模型。本发明实施例使得图片推荐模型针对不同质量的图片输出不同的预测推荐分数从而提高了图片推荐模型的预测精度。

Description

图片推荐模型的生成、图片推荐方法、装置、设备及介质
技术领域
本发明实施例涉及计算机视觉技术,尤其涉及一种图片推荐模型的生成、图片推荐方法、装置、设备及介质。
背景技术
为了提高某视频的播放量,可以从该视频的各视频帧中选择某视频帧作为该视频的展示封面,以此来吸引用户观看该视频。此时,要求作为视频的展示封面的视频帧的质量相对最高。上述从视频中选择视频帧作为展示封面的问题可以归结为图片推荐问题。
针对图片推荐问题,现有技术中可以采用基于神经网络模型的图片推荐方法,其中,可以通过如下方式训练神经网络模型,具体的:获取训练集,训练集包括至少两张训练图片和各训练图片的原始推荐分数;将训练集输入至待训练的神经网络模型中,得到各训练图片的预测推荐分数;根据各训练图片的原始推荐分数和各训练图片的预测推荐分数确定训练集的损失函数;根据损失函数调整神经网络模型的网络参数,直至损失函数的输出值小于等于预设阈值,则得到已训练完成的神经网络模型。同时,可将已训练完成的神经网络模型作为图片推荐模型。其中,各训练图片的原始推荐分数是需要事先标注的。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:由于如何定义图片的质量,具有很大的主观性。因此,在对图片标注其对应的推荐分数时,也具有很大的主观性。上述使得训练得到的图片推荐模型的预测精度不高。
发明内容
本发明实施例提供一种图片推荐模型的生成、图片推荐方法、装置、设备及介质,以提高图片推荐模型的预测精度。
第一方面,本发明实施例提供了一种图片推荐模型的生成方法,该方法包括:
获取训练集,所述训练集包括至少两个训练图片对以及用于各训练图片对所对应的标注信息,所述标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系;
将所述训练集输入至神经网络模型中,得到各训练图片的预测推荐分数;
根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定所述训练集的损失函数;
根据所述训练集的损失函数调整所述神经网络模型的网络参数,直至所述训练集的损失函数的输出值小于等于第一预设阈值,则将所述神经网络模型作为所述图片推荐模型。
第二方面,本发明实施例还提供了一种图片推荐方法,该方法包括:
获取待推荐图片集,所述待推荐图片集包括至少两张待推荐图片;
将所述待推荐图片集输入至预先训练的图片推荐模型中,得到各待推荐图片的预测推荐分数,所述图片推荐模型为本发明实施例第一方面所述的图片推荐模型;
根据各待推荐图片的预测推荐分数确定推荐图片。
第三方面,本发明实施例还提供了一种图片推荐模型的生成装置,该装置包括:
训练集获取模块,用于获取训练集,所述训练集包括至少两个训练图片对以及与各训练图片对所对应的标注信息,所述标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系;
第一预测推荐分数生成模块,用于将所述训练集输入至神经网络模型中,得到各训练图片的预测推荐分数;
损失函数确定模块,用于根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定所述训练集的损失函数;
图片推荐模型生成模块,用于根据所述训练集的损失函数调整所述神经网络模型的网络参数,直至所述训练集的损失函数的输出值小于等于第一预设阈值,则将所述神经网络模型作为所述图片推荐模型。
第四方面,本发明实施例还提供了一种图片推荐装置,该装置包括:
待推荐图片集获取模块,用于获取待推荐图片集,所述待推荐图片集包括至少两张待推荐图片;
第二预测推荐分数生成模块,用于将所述待推荐图片集输入至预先训练的图片推荐模型中,得到各待推荐图片的预测推荐分数,所述图片推荐模型为本发明实施例第一方面所述的图片推荐模型;
推荐图片确定模块,用于根据各待推荐图片的预测推荐分数确定推荐图片。
第五方面,本发明实施例还提供了一种设备,该设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明实施例第一方面或者第二方面所述的方法。
第六方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例第一方面或者第二方面所述的方法。
本发明实施例通过获取训练集,训练集包括至少两个训练图片对以及与各训练图片对所对应的标注信息,标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系,将训练集输入至神经网络模型中,得到各训练图片的预测推荐分数,根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定训练集的损失函数,根据训练集的损失函数调整神经网络模型的网络参数,直至训练集的损失函数的输出值小于等于第一预设阈值,则将神经网络模型作为图片推荐模型,上述通过根据各训练图片对的标注信息和各训练图片对的预测推荐分数确定各训练图片对的损失函数,使得损失函数可以体现训练图片对中两张训练图片的预测推荐分数的相对关系,再根据损失函数对神经网络模型进行训练时,实质上是训练一种相对关系,即使得图片推荐模型对质量较高的图片输出高的预测推荐分数,而对质量较低的图片输出低的预测推荐分数,从而提高了图片推荐模型的预测精度。
附图说明
图1是本发明实施例中的一种视频展示封面的示意图;
图2是本发明实施例中的一种视频包含的视频帧的示意图;
图3是本发明实施例中的一种图片推荐模型的生成方法的流程图;
图4是本发明实施例中的另一种图片推荐模型的生成方法的流程图;
图5是本发明实施例中的一种图片推荐模型的生成方法的应用示意图;
图6是本发明实施例中的一种图片推荐方法的流程图;
图7是本发明实施例中的一种图片推荐方法的应用示意图;
图8是本发明实施例中的一种图片推荐模型的生成装置的结构示意图;
图9是本发明实施例中的一种图片推荐装置的结构示意图;
图10是本发明实施例中的一种设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例
为了提高某视频的播放量,可以从该视频的各视频帧中选择某视频帧作为该视频的展示封面,以此来吸引用户观看该视频。示例性的,如图1所示,给出了一种视频展示封面的示意图。该视频选择了包含兔子的视频帧作为该视频的展示封面。
此时,要求作为视频的展示封面的视频帧的质量相对最高,其中,这里所述的质量相对最高的标准可以为视频帧的清晰程度相对最高或视频帧的吸引用户程度相对最高。可以理解到,如何定义视频帧的清晰程度相对最高或视频帧的吸引用户程度相对最高,其具有很大的主观性,即如何定义标准具有很大的主观性。示例性的,如图2所示,给出了视频包含的视频帧的示意图。图2中显示该视频包含四帧视频帧,从上到下,从左到右分别称为第一视频帧、第二视频帧、第三视频帧和第四视频帧,现需要从该四帧视频帧中选择一帧视频帧作为该视频的展示封面。对于用户A来说,其认为第一视频帧的清晰程度在该四帧视频帧中最高,因此,用户A选择第一视频帧作为该视频的展示封面;对于用户B来说,其认为第四视频帧的吸引程度在该四帧视频帧中最高,因此,用户B选择第四视频帧作为该视频的展示封面。由此可见,对于如何定义视频帧的清晰程度相对最高或视频帧的吸引用户程度相对最高,具有很大的主观性。由于视频帧可以理解为图片,因此,上述从视频中选择视频帧作为展示封面的问题可以归结为图片推荐问题。
针对图片推荐问题,传统技术中可以采用基于神经网络模型的图片推荐方法,其中,可以通过如下方式训练神经网络模型,具体的:获取训练集,训练集包括至少两张训练图片和各训练图片的原始推荐分数;将训练集输入至待训练的神经网络模型中,得到各训练图片的预测推荐分数;根据各训练图片的原始推荐分数和各训练图片的预测推荐分数确定训练集的损失函数;根据损失函数调整神经网络模型的网络参数,直至损失函数的输出值小于等于预设阈值,则得到已训练完成的神经网络模型。同时,可将已训练完成的神经网络模型作为图片推荐模型。其中,各训练图片的原始推荐分数是需要事先标注的。
后续便可以根据图片推荐模型从待推荐图片集中,确定推荐图片,具体的:获取待推荐图片集,待推荐图片集包括至少两张待推荐图片;将待推荐图片集输入至预先训练的图片推荐模型中,得到各待推荐图片的预测推荐分数;根据各待推荐图片的预测推荐分数确定推荐图片。
根据前文所述可知,由于如何定义视频帧的清晰程度相对最高或视频帧的吸引用户程度相对最高,具有很大的主观性,即如何定义图片的清晰程度相对最高或图片的吸引用户程度相对最高,具有很大的主观性,而上述图片的清晰程度或吸引用户程度可以通过推荐分数的高低来表示,即如果认为图片的清晰程度或吸引用户程度相对最高,则可标注该图片的推荐分数相对最高;如果认为图片的清晰程度或吸引用户程度相对次高,则可标注该图片的推荐分数相对次高,依此类推。因此,在对图片标注其对应的推荐分数时,也具有很大的主观性。示例性的,针对前文所述的图2的示例,对于用户A来说,由于其认为第一视频帧的清晰程度在该四帧视频帧中最高,因此,将标注第一视频帧的推荐分数在该四帧视频帧中最高;对于用户B来说,由于其认为第四视频帧的吸引程度在该四帧视频帧中最高,因此,将标注第四视频帧的推荐分数在该四帧视频帧中最高。上述体现了对图片标注推荐分数也具有很大的主观性。
可以理解到,图片推荐模型性能的好坏将影响图片推荐模型的预测精度的高低,而图片推荐模型是基于训练集的损失函数调整神经网络模型的网络参数得到,因此,损失函数的准确性将影响图片推荐模型性能的好坏,进而影响图片推荐模型的预测精度的高低。基于上述,可以理解到,损失函数的准确性是解决上述图片推荐问题的关键。这里所述的损失函数的准确性可以理解为损失函数的合理性,即构建的损失函数是否合理。传统技术中,由于损失函数是根据各训练图片的预测推荐分数与各训练图片的原始推荐分数生成的,各训练图片的原始推荐分数是需要预先标注的,而标注各训练图片的原始推荐分数具有很大程度的主观性,因此,基于上述方式构建的损失函数可能并不合理,进而,根据损失函数对待训练的神经网络模型进行训练得到的训练完成的神经网络模型的性能可能并不高,即根据损失函数得到的图片推荐模型的性能可能并不高。后续根据该图片推荐模型确定的推荐图片可能也并不符合要求,如根据图片推荐模型得到某待推荐图片的预测推荐分数最高,则便将该待推荐图片作为推荐图片,但实际上,该待推荐图片的清晰程度很低。
基于上述,可以理解到,为了使图片推荐模型的预测精度较高,需要保证损失函数的合理性。同时,还可以理解到,传统技术中所构建的损失函数并不合理的主要原因在于:标记各训练图片的原始推荐分数具有很大的主观性,即并不客观。因而,为了保证损失函数的合理性,可考虑降低主观性的影响,即使所构建的损失函数相对客观。
上述所述的定义图片的清晰程度相对最高或图片的吸引用户程度相对最高,具有很大的主观性,以及,在此基础上,对图片标注推荐分数也具有很大的主观性,均是针对单张图片而言的。可以理解到,针对单张图片而言,由于没有比较对象,因此,主观性影响相对较大。当出现比较对象时,可降低主观性影响,即相对更加客观。
基于上述,可考虑将两张训练图片组成训练图片对,定义训练图片对中哪张训练图片的清晰程度或吸引用户程度相对更高,即标注训练图片对中哪张训练图片的原始推荐分数相对更高,换句话说,标注训练图片对中两张训练图片的原始推荐分数的大小关系,需要说明的是,这里标注的并不是两张训练图片的原始推荐分数具体是多少,而是两张训练图片的原始推荐分数的大小关系。后续可以根据各训练图片对所标注的两张训练图片的原始推荐分数的大小关系构造损失函数。本发明实施例的技术方案将采用标注训练图片对中两张训练图片的原始推荐分数的大小关系的方式来构造损失函数,使根据损失函数训练得到的图片推荐模型可以准确区分图片的清晰程度和吸引用户程度,即使图片推荐模型的预测精度较高。
上述根据损失函数训练得到的图片推荐模型可以准确区分图片的清晰程度和吸引用户程度的原因在于:假设标注的大小关系为训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数,损失函数可以体现训练图片对中两张训练图片的推荐分数的大小关系,后续根据损失函数对模型进行训练的过程,即是对训练图片对中两张训练图片的推荐分数的大小关系进行训练的过程,训练的结果是使得图片推荐模型输出的训练图片对中第一训练图片的预测推荐分数大于第二训练图片的预测推荐分数,各训练图片对均是如此,即使得图片推荐模型对图片的清晰程度或吸引用户程度相对更高的图片(即各训练图片对中的第一训练图片)输出高的预测推荐分数,而对图片的清晰程度或吸引用户程度相对低的图片(即各训练图片对中的第二训练图片)输出低的预测推荐分数。
基于上述,由于图片推荐模型可以对图片的清晰程度或吸引用户程度相对更高的图片输出高的预测推荐分数,而对图片的清晰程度或吸引用户程度相对低的图片输出低的预测推荐分数,后续可根据图片推荐模型对各图片的预测推荐分数的高低确定推荐图片,因此,根据损失函数训练得到的图片推荐模型可以准确区分图片的清晰程度和吸引用户程度。下面将结合具体实施例对上述内容进行进一步说明。
图3为本发明实施例提供的一种图片推荐模型的生成方法的流程图,本实施例可适用于提高图片推荐模型的预测精度的情况,该方法可以由图片推荐模型的生成装置来执行,该装置可以采用软件和/或硬件的方式实现,该装置可以配置于设备中,例如典型的是计算机或移动终端等。如图3所示,该方法具体包括如下步骤:
步骤110、获取训练集,训练集包括至少两个训练图片对以及与各训练图片对所对应的标注信息,标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系。
在本发明的实施例中,获取训练集,训练集是由至少两个训练图片对以及与各训练图片对的标注信息组成的,其中,标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系,这里所述对应关系可以为大小关系,即标注信息为训练图片对中两张训练图片的原始推荐分数的大小关系,示例性的,如标注信息为训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数的大小关系,又如标注信息为训练图片对中第一训练图片的原始推荐分数小于第二训练图片的原始推荐分数,具体可根据实际情况设定,在此不作具体限定。
步骤120、将训练集输入至神经网络模型中,得到各训练图片的预测推荐分数。
步骤130、根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定训练集的损失函数。
在本发明的实施例中,神经网络模型是基于生物学中细胞神经单元的基本原理,在理解和抽象了神经细胞组成及其对外界刺激响应的机制后,以网络拓扑知识为理论基础,模拟人脑的神经系统对复杂信息的处理机制的一种数学模型。该模型具体是依靠系统的复杂程度,通过调整内部大量节点(神经元)之间相互连接的权值,来实现处理信息的。由于神经网络具有自学习、自适应、自组织、非线性和运算可并行的优点。
神经网络可以包括卷积神经网络、循环神经网络和深度神经网络,下面以卷积神经网络为例进行说明,卷积神经网络解决的核心问题就是如何自动提取并抽象特征,进而将特征映射到任务目标解决实际问题,一个卷积神经网络一般由以下三部分组成,第一部分是输入层,第二部分由卷积层、激励层和池化层(或下采样层)组合而成,第三部分由一个全连结的多层感知机分类器构成。卷积神经网络具有权值共享特性,权值共享即指可以通过一个卷积核的卷积操作提取整张图片不同位置的同一特征,换句话说,即是在一张图片中的不同位置的相同目标,它们的局部特征是基本相同的。可以理解到,使用一个卷积核只能得到一种特征,可以通过设置多核卷积,用每个卷积核来学习不同的特征来提取图片的特征。可以理解到,在图片处理中,卷积层的作用是将低层次的特征抽取并聚合为高层次特征,低层次的特征是基本特征,诸如纹理和边缘等局部特征,高层次特征如人脸和物体的形状等,更能表现样本的全局属性,这个过程就是卷积神经网络对目标物体层级概括性。
将训练集输入至神经网络模型中,得到各训练图片的预测推荐分数,也即得到各训练图片对的预测推荐分数,并根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定各训练图片对的损失函数,根据各训练对的损失函数确定训练集的损失函数,其中,每个训练图片对的标注信息可以用于确定该训练图片对中两张训练图片的预测推荐分数在损失函数中所占据的变量位置。
步骤140、根据训练集的损失函数调整神经网络模型的网络参数,直至训练集的损失函数的输出值小于等于第一预设阈值,则将神经网络模型作为图片推荐模型。
在本发明的实施例中,神经网络模型的训练过程是经过前向传播计算神经网络模型的损失函数,即训练集的损失函数,并计算损失函数对网络参数的偏导数,采用反向梯度传播方法,对神经网络模型的网络参数进行调整,直至训练集的损失函数的输出值达到第一预设阈值。当训练集的损失函数的输出值达到第一预设阈值时,表示神经网络模型已训练完成,此时,神经网络模型的网络参数也得以确定。在此基础上,将神经网络模型作为图片推荐模型。其中,第一预设阈值可用于作为神经网络模型是否训练完成的标准,具体数值可根据实际情况进行设定,在此不作具体限定。
需要说明的是,本发明实施例所提供的技术方案,对于每个训练图片对而言,由于其损失函数是根据该训练图片对的标注信息和该训练图片对中两张训练图片的预测推荐分数确定的,因此,该训练图片对的损失函数可以体现该训练图片对中两张训练图片的预测推荐分数的相对关系。基于上述,后续根据损失函数对神经网络模型进行训练时,实质上是训练一种相对关系,即使得图片推荐模型对质量较高的图片输出高的预测推荐分数,而对质量较低的图片输出低的预测推荐分数,从而提高了图片推荐模型的预测精度。这里所述的质量较高的图片可以理解为图片的清晰程度或吸引用户程度相对更高,质量较低的图片可以理解为图片的清晰程度或吸引用户程度相对较低。
本实施例的技术方案,通过获取训练集,训练集包括至少两个训练图片对以及与各训练图片对所对应的标注信息,标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系,将训练集输入至神经网络模型中,得到各训练图片的预测推荐分数,根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定训练集的损失函数,根据训练集的损失函数调整神经网络模型的网络参数,直至训练集的损失函数的输出值小于等于第一预设阈值,则将神经网络模型作为图片推荐模型,上述通过根据各训练图片对的标注信息和各训练图片对的预测推荐分数确定各训练图片对的损失函数,使得损失函数可以体现训练图片对中两张训练图片的预测推荐分数的相对关系,再根据损失函数对神经网络模型进行训练时,实质上是训练一种相对关系,即使得图片推荐模型对质量较高的图片输出高的预测推荐分数,而对质量较低的图片输出低的预测推荐分数,从而提高了图片推荐模型的预测精度。
可选的,在上述技术方案的基础上,根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定训练集的损失函数,具体可以包括:对于每个训练图片对,标注信息为训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数的大小关系,则将第二预设阈值与第一训练图片的预测推荐分数的差,加上第二训练图片的预测推荐分数作为训练图片对的标准函数的输出值。标注信息为训练图片对中第一训练图片的原始推荐分数小于第二训练图片的原始推荐分数的大小关系,则将第二预设阈值与第二训练图片的预测推荐分数的差,加上第一训练图片的预测推荐分数作为训练图片对的标准函数的输出值。根据训练图片对的标准函数的输出值与第三预设阈值确定训练图片对的损失函数。根据各训练图片对的损失函数确定训练集的损失函数。
在本发明的实施例中,在根据各训练图片对的标注信息和各训练图片对的预测推荐分数确定训练集的损失函数的过程中,可构建各训练图片对的标准函数,各训练图片对的标准函数可以根据各训练图片对中两张训练图片的预测推荐分数所对应的预测推荐函数以及第二预设阈值生成,再根据各训练图片对的标准函数的输出值与第三预设阈值确定各训练图片对的损失函数,根据各训练图片对的损失函数确定训练集的损失函数。具体的:
对于每个训练图片对,如果标注信息为训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数的大小关系,则可以计算第二预设阈值与第一训练图片的预测推荐分数的差值,将该差值加上第二训练图片的预测推荐分数得到该训练图片对的标准函数的输出值;如果标注信息为训练图片对中第一训练图片的原始推荐分数小于第二训练图片的原始推荐分数的大小关系,则可以计算第二预设阈值与第二训练图片的预测推荐分数的差值,将该差值加上第一训练图片的预测推荐分数得到该训练图片对的标准函数的输出值。比较该训练图片对的标准函数的输出值与第三预设阈值的大小,根据比较结果确定该训练图片对的损失函数。每个训练图片对的损失函数均可通过上述方式确定。当各训练图片对的损失函数确定后,可根据各训练图片的损失函数确定训练集的损失函数,其中,根据各训练图片对的损失函数确定训练集的损失函数,具体可以包括:对各训练图片对的损失函数进行求和,将求和结果作为训练集的损失函数。或者,对各训练图片对的损失函数进行求和,并加上正则项,将计算结果作为训练集的损失函数。
需要说明的是,各训练图片对的标注信息可用于确定各训练图片对的标准函数,在确定各训练图片对的标准函数的基础上,再根据各训练图片对的标准函数的输出值与第三预设阈值的大小关系,确定各训练图片对的损失函数。
可选的,在上述技术方案的基础上,根据训练图片对的标准函数的输出值与第三预设阈值确定训练图片对的损失函数,具体可以包括:训练图片对的标准函数的输出值小于等于第三预设阈值,则将训练图片对的第一损失函数作为训练图片对的损失函数,第一损失函数根据训练图片对的ReLU函数确定。训练图片对的标准函数的输出值大于第三预设阈值,则将训练图片对的第二损失函数作为训练图片对的损失函数,第二损失函数根据训练图片对的ReLU函数和第三预设阈值确定。
在本发明的实施例中,根据训练图片对的标准函数的输出值与第三预设阈值确定训练图片对的损失函数,可作如下理解:如果训练图片对的标准函数的输出值小于等于第三预设阈值,则可将训练图片对的第一损失函数作为训练图片对的损失函数,其中,第一损失函数可根据训练图片对的ReLU函数确定;如果训练图片对的标准函数的输出值大于第三预设阈值,则可将训练图片对的第二损失函数作为训练图片对的损失函数,第二损失函数可根据训练图片对的ReLU函数和第三预设阈值确定。其中,ReLU函数是神经网络模型中常用的激活函数之一,定义为f(x)=max(0,x),其表明,如果x>0,则f(x)=x;如果x<0,则f(x)=0。
需要说明的是,由于训练图片对的标准函数的输出值由第二预设阈值、该训练图片对中第一训练图片的预测推荐函数和第二训练图片的预测推荐分数确定,因此,
可选的,在上述技术方案的基础上,标注信息为训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数的大小关系。第一损失函数、第二损失函数和训练图片对的标准函数分别通过如下公式计算:
Figure GDA0004082875110000091
μi(f(xi +),f(xi -))=θ-f(xi +)+f(xi -)
g1(f(xi +),f(xi -))=a(max(0,μi(f(xi +),f(xi -))))2
g2(f(xi +),f(xi -))=δ|max(0,μi(f(xi +),f(xi -)))|-bδ2
其中,i表示第i训练图片对,i∈{1,2,......,N};f(xi +)表示第i训练图片对中第一训练图片的预测推荐分数对应的预测推荐函数,f(xi -)表示第i训练图片对中第二训练图片的预测推荐分数对应的预测推荐函数;li(f(xi +),f(xi -))表示第i训练图片对的损失函数;g1(f(xi +),f(xi -))表示第i训练图片对的第一损失函数,g2(f(xi +),f(xi -))表示第i训练图片对的第二损失函数;μi(f(xi +),f(xi -))表示第i训练图片对的标准函数;max(0,μi(f(xi +),f(xi -)))表示第i训练图片对的ReLU函数;εi表示第i训练图片对的标准函数的输出值;θ表示第二预设阈值;δ表示第三预设阈值;a表示第一比例系数;b表示第二比例系数。
在本发明的实施例中,标注信息为各训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数的大小关系,在此基础上,第i训练图片对的标准函数可以为:μi(f(xi +),f(xi -))=θ-f(xi +)+f(xi -),其中,i表示第i训练图片对,i∈{1,2,......,N},f(xi +)表示第i训练图片对中第一训练图片的预测推荐分数所对应的预测推荐函数,f(xi -)表示第i训练图片对中第二训练图片的预测推荐分数所对应的预测推荐函数。
在确定第i训练图片对的标准函数后,可将第i训练图片对中第一训练图片的预测推荐分数f(xi +)和第i训练图片对中第二训练图片的预测推荐分数f(xi -)代入上述第i训练图片对的标准函数μi(f(xi +),f(xi -))中,得到第i训练图片对的标准函数的输出值,第i训练图片对的标准函数的输出值可用εi表示。再比较第i训练图片对的标准函数的输出值εi与第三预设阈值δ的大小,根据比较结果确定第i训练图片对的损失函数。基于上述,可以理解到,由于比较结果的不同,因此,各训练图片对所确定的训练图片对的损失函数的表达形式也不同,即由于比较结果的不同,因此,各训练图片对所述确定的训练图片对的损失函数并不为同一表达形式。换个角度理解,所提供的训练图片对的损失函数在表达形式上是一个分段函数,划分标准是训练图片对的标准函数的输出值与第三预设阈值的大小关系,即通过比较训练图片对的标准函数的输出值与第三预设阈值的大小,根据比较结果确定采用的损失函数的具体表达形式。以第i训练图片对为例进行说明,具体的:
如果第i训练图片对的标准函数的输出值εi小于等于第三预设阈值δ,则可将第i训练图片对的第一损失函数g1(f(xi +),f(xi -))作为第i训练图片对的损失函数li(f(xi +),f(xi -));如果第i训练图片对的标准函数的输出值εi大于第三预设阈值δ,则可将第i训练图片对的第二损失函数g2(f(xi +),f(xi -))作为第i训练图片对的损失函数li(f(xi +),f(xi -))。基于上述,第i训练图片对的损失函数li(f(xi +),f(xi -))可表示为:
Figure GDA0004082875110000101
根据前文所述可知,训练图片对的第一损失函数由训练图片对的ReLU函数确定,训练图片对的第二损失函数由训练图片对的ReLU函数和第三预设阈值确定,针对第i训练图片对来说,其ReLU函数可表示为:max(0,μi(f(xi+),f(xi-))),相应的,第i训练图片对的第一损失函数可表示为:g1(f(xi +),f(xi -))=a(max(0,μi(f(xi +),f(xi -))))2,第i训练图片对的第二损失函数可表示为:g2(f(xi +),f(xi -))=δ|max(0,μi(f(xi +),f(xi -)))|-bδ2。其中,a表示第一比例系数,b表示第二比例系数,第一比例系数a和第二比例系数b的具体数值可根据实际情况进行设定,在此不作具体限定。示例性的,如
Figure GDA0004082875110000111
训练图片对的损失函数采用分段函数的表现形式的原因在于:需要降低神经网络模型对异常值的惩罚。具体的:根据前文所述可知,期望训练得到的图片推荐模型可以对图片的清晰程度或吸引用户程度相对更高的图片输出高的预测推荐分数,而对图片的清晰程度或吸引用户程度相对低的图片输出低的预测推荐分数,以便于图片推荐模型可以准确区分图片的清晰程度和吸引用户程度。上述对神经网络模型的训练过程提出了相应要求,即在对神经网络模型进行训练过程中,要求训练图片对中两张训练图片的预测推荐分数的差值尽可能地大,以此实现上述训练得到的图片推荐模型可以对图片的清晰程度或吸引用户程度相对更高的图片输出高的预测推荐分数,而对图片的清晰程度或吸引用户程度相对低的图片输出低的预测推荐分数。但训练图片对中两张训练图片的预测推荐分数的差值需要满足一定条件,如果训练图片对中两张训练图片的预测推荐分数的差值不满足该条件,则将导致训练得到的图片推荐模型的性能并不好。由于训练图片对的标准函数的输出值是根据训练图片对的标注信息,对训练图片对的预测推荐分数和第二预设阈值进行计算得到的,因此,可将上述训练图片对中两张训练图片的预测推荐分数的差值需要满足一定条件归结为训练图片对的标准函数的输出值需要满足一定条件。上述所述的一定条件可以为不能大于某一数值,这个数值可理解为本发明实施例所述的第三预设阈值。同时,将训练图片对的标准函数的输出值大于第三预设阈值所对应的第一训练图片的预测推荐分数和第二训练图片的预测推荐分数称为神经网络模型的异常值。
由于是经过前向传播计算神经网络模型的损失函数,即训练集的损失函数,并计算损失函数对网络参数的偏导数,采用反向梯度传播方法,对神经网络模型的网络参数进行调整,直至训练集的损失函数的输出值达到第一预设阈值,上述所述的神经网络模型的异常值情况,可在计算损失函数对网络参数的偏导数时体现。为了降低神经网络模型对异常值的惩罚,可考虑使损失函数对网络参数的偏导数的输出值为某一数值,即使损失函数对网络参数的偏导数的输出值并不随训练图片对中第一训练图片的预测推荐分数和第二训练图片的预测推荐分数的变化而变化,也即使损失函数对网络参数的偏导数的输出值并不随训练图片对的标准函数的输出值的变化而变化。简而言之,如果训练图片对的标准函数的输出值大于第三预设阈值,则可使损失函数对网络参数的偏导数的输出值为某一数值。上述所述的数值可以为第三预设阈值。基于上述,下面将从损失函数对网络参数的偏导数角度说明本发明实施例所提供的技术方案中训练图片对的损失函数采用分段函数的表现形式的原因。具体的:
需要说明的是,前文所述的神经网络模型的网络参数可以包括权值和偏置,分别可用ω和t表示。训练图片对中两张训练图片的预测推荐分数所对应的预测推荐分数函数是关于权值和偏置的函数。同时,由于训练图片对的标准函数是关于训练图片对中两张训练图片的预测推荐分数所对应的预测推荐分数函数的函数,训练图片对的第一损失函数和第二损失函数均是关于训练图片对的标准函数的函数,因此,为了计算损失函数对网络参数的偏导数,可考虑采用链式法则进行处理。下面以计算第i训练图片对的损失函数li(f(xi +),f(xi -))对权值ω的偏导数为例进行说明,具体的:设定第i训练图片对的标准函数的输出值εi小于第三预设阈值δ,则第i训练图片对的损失函数li(f(xi +),f(xi -))对权值ω的偏导数具体可表示为:
Figure GDA0004082875110000121
Figure GDA0004082875110000122
其中,
Figure GDA0004082875110000123
Figure GDA0004082875110000124
上述求偏导数的过程中
Figure GDA0004082875110000125
Figure GDA0004082875110000126
可以体现训练图片对的损失函数采用分段函数的表现形式,可以降低神经网络模型对异常值的惩罚,即如果训练图片对的标准函数的输出值大于第三预设阈值,则可使损失函数对网络参数的偏导数的输出值为某一数值。下面给出
Figure GDA0004082875110000127
Figure GDA0004082875110000128
具体的:
由于
Figure GDA0004082875110000131
μi(f(xi +),f(xi -))=θ-f(xi +)+f(xi -),g1(f(xi +),f(xi -))=a(max(0,μi(f(xi +),f(xi -))))2,g2(f(xi +),f(xi -))=δ|max(0,μi(f(xi +),f(xi -)))|-bδ2,因此,针对
Figure GDA0004082875110000132
当εi≤0时,
Figure GDA0004082875110000133
当0<εi≤δ时,
Figure GDA0004082875110000134
当εi>δ时,
Figure GDA0004082875110000135
针对
Figure GDA0004082875110000136
当εi≤0时,
Figure GDA0004082875110000137
当0<εi≤δ时,
Figure GDA0004082875110000138
当εi>δ时,
Figure GDA0004082875110000139
基于上述,
Figure GDA00040828751100001310
Figure GDA0004082875110000141
从中可以看出,如果第i训练图片对的标准函数的输出值εi大于第三预设阈值δ,则
Figure GDA0004082875110000142
即使得损失函数对网络参数的偏导数的输出值为固定数值,从而实现了降低神经网络模型对异常值的惩罚。可以理解到,上述正是由于如果第i训练图片对的标准函数的输出值εi大于第三预设阈值δ,则li(f(xi +),f(xi -))=g2(f(xi +),f(xi -))=δ|max(0,μi(f(xi +),f(xi -)))|-bδ2所致,而如果仅设置li(f(xi +),f(xi -))=g1(f(xi +),f(xi -))=a(max(0,μi(f(xi +),f(xi -))))2,即无论第i训练图片对的标准函数的输出值是否大于第三预设阈值δ,均采用li(f(xi +),f(xi -))=g1(f(xi +),f(xi -))=a(max(0,μi(f(xi +),f(xi -))))2来计算第i训练图片对的损失函数li(f(xi +),f(xi -)),则
Figure GDA0004082875110000143
Figure GDA0004082875110000144
上述如果第i训练图片对的标准函数的输出值εi大于第三预设阈值δ,则
Figure GDA0004082875110000151
Figure GDA0004082875110000152
上述将无法使损失函数对网络参数的偏导数的输出值为固定数值,进而降低神经网络模型对异常值的惩罚。
综上,正是由于训练图片对的损失函数采用分段函数的表现形式,并具体根据训练图片对的标准函数的输出值与第三预设阈值的大小关系,确定训练图片对的损失函数的具体表现形式,此外,通过设置第三预设阈值,使得训练图片对的标准函数的输出值大于第三预设阈值时,损失函数对网络参数的偏导数的输出值为固定数值,而与训练图片对的标准函数的输出值无关,因而降低了神经网络模型对异常值的惩罚。
基于上述,下面对第三预设阈值所起的作用进行说明,具体的:可对第i训练图片对的标准函数μi(f(xi +),f(xi -))=θ-f(xi +)+f(xi -)作如下变形,即μi(f(xi +),f(xi -))=θ-(f(xi +)-f(xi -)),其中,当计算第i训练图片对的标准函数μi(f(xi +),f(xi -))的输出值εi时,将第i训练图片对中第一训练图片的预测推荐分数和第二训练图片的预测推荐分数代入f(xi +)-f(xi -),将得到第i训练图片对中第一训练图片的预测推荐分数减去第二训练图片的预测推荐分数的差值。现设定第i训练图片对的标注信息为第i训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数,则将第i训练图片对中第一训练图片的预测推荐分数代入f(xi +)中,将第i训练图片对中第二训练图片的预测推荐分数代入f(xi -)中,也即前文所述的f(xi +)表示第i训练图片对中第一训练图片的预测推荐分数,f(xi -)表示第i训练图片对中第二训练图片的预测推荐分数。
如果第i训练图片对的标注信息与第i训练图片对中两张训练图片的预测推荐分数的大小关系匹配,则两者的差值越大越好,且可以理解到,两者差值为正值;如果第i训练图片对的标注信息与第i训练图片对中两张训练图片的预测推荐分数的大小关系不匹配,则两者的差值为负值,且两者的差值的绝对值大于某一数值,便认为此时两张训练图片的预测推荐分数为神经网络模型的异常值。又由于第i训练图片对的标准函数为μi(f(xi +),f(xi -))=θ-(f(xi +)-f(xi -)),因此,两者的差值的绝对值大于某一数值时,第i训练图片对的标准函数μi(f(xi +),f(xi -))的输出值εi也将大于另一数值,该另一数值便可以理解为本发明实施例所述的第三预设阈值。简而言之,如果第i训练图片对的标注信息与第i训练图片对中两张训练图片的预测推荐分数的大小关系不匹配,则当第i训练图片对的标准函数μi(f(xi +),f(xi -))的输出值εi大于第三预设阈值δ时,便可认为此时两张训练图片的预测推荐分数为神经网络模型的异常值。同时,当第i训练图片对的标准函数μi(f(xi +),f(xi -))的输出值εi大于第三预设阈值δ时,将第i训练图片对的第二损失函数g2(f(xi +),f(xi -))作为第i训练图片对的损失函数li(f(xi +),f(xi -)),使得损失函数对网络参数的偏导数的输出值为固定数值,从而实现了降低神经网络模型对异常值的惩罚。
需要说明的是,上述所述的匹配可作如下理解:由于设定第i训练图片对的标注信息为第i训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数,因此,如果第i训练图片对中第一训练图片的预测推荐分数f(xi +)大于第二训练图片的预测推荐分数f(xi -),则可以说明第i训练图片对的标注信息与第i训练图片对中两张训练图片的预测推荐分数的大小关系匹配。相应的,可以理解到,如果第i训练图片对中第一训练图片的预测推荐分数f(xi +)小于第二训练图片的预测推荐分数f(xi -),则可以说明第i训练图片对的标注信息与第i训练图片对中两张训练图片的预测推荐分数的大小关系不匹配。
需要说明的是,上述所述公式中f(xi +)表示第i训练图片对中第一训练图片的预测推荐分数对应的预测推荐函数,以及,f(xi -)表示第i训练图片对中第二训练图片的预测推荐分数对应的预测推荐函数是建立在标注信息为训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数的大小关系的基础上的。可以理解到,如果标注信息为训练图片对中第一训练图片的原始推荐分数小于第二训练图片的原始推荐分数的大小关系,则f(xi +)将表示第i训练图片对中第二训练图片的预测推荐分数对应的预测推荐函数,以及,f(xi -)表示将第i训练图片对中第一训练图片的预测推荐分数对应的预测推荐函数。基于上述,可以理解到,f(xi +)均表示大小关系中较大的训练图片的预测推荐分数对应的预测推荐函数,而f(xi -)表示大小关系中较小的训练图片的预测推荐分数对应的预测推荐函数。也可以理解到,训练图片对的标注信息用于确定f(xi +)和f(xi -)所是代表哪张训练图片的预测推荐分数对应的预测推荐函数。换个角度理解,也可将大小关系中较大的训练图片均设定为第一训练图片,而将大小关系中较小的训练图片设定为第二训练图片。
可选的,在上述技术方案的基础上,第二预设阈值可以为1。
可选的,在上述技术方案的基础上,第三预设阈值可以为1.5。
在本发明的实施例中,第二预设阈值可以为1,第三预设阈值可以为1.5,当然可以理解到,第二预设阈值和第三预设阈值还可以为其它数值,具体可根据实际情况进行设定,在此不作具体限定。
图4为本发明实施例提供的另一种图片推荐模型的生成方法的流程图,本实施例可适用于提高图片推荐模型的预测精度的情况,该方法可以由图片推荐模型的生成装置来执行,该装置可以采用软件和/或硬件的方式实现,该装置可以配置于设备中,例如典型的是计算机或移动终端等。如图4所示,该方法具体包括如下步骤:
步骤210、获取训练集,训练集包括至少两个训练图片对以及与各训练图片对所对应的标注信息,标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系。
步骤220、将训练集输入至神经网络模型中,得到各训练图片的预测推荐分数。
步骤230、对于每个训练图片对,标准信息为训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数的大小关系,则将第二预设阈值与第一训练图片的预测推荐分数的差,加上第二训练图片的预测推荐分数作为训练图片对的标准函数的输出值。
步骤240、对于每个训练图片对,标准信息为训练图片对中第一训练图片的原始推荐分数小于第二训练图片的原始推荐分数的大小关系,则将第二预设阈值与第二训练图片的预测推荐分数的差,加上第一训练图片的预测推荐分数作为训练图片对的标准函数的输出值。
步骤250、训练图片对的标准函数的输出值是否小于等于第三预设阈值;若是,则执行步骤260;若否,则执行步骤270。
步骤260、将训练图片对的第一损失函数作为训练图片对的损失函数,第一损失函数根据训练图片对的ReLU函数确定。
步骤270、将训练图片对的第二损失函数作为训练图片对的损失函数,第二损失函数根据训练图片对的ReLU函数和第三预设阈值确定。
步骤280、根据各训练图片对的损失函数确定训练集的损失函数。
步骤290、根据训练集的损失函数调整神经网络模型的网络参数,直至训练集的损失函数的输出值小于等于第一预设阈值,则将神经网络神经模型作为图片推荐模型。
在本发明的实施例中,为了更好的理解本发明实施例所提供的技术方案,下面以具体示例进行说明。具体的:
如图5所示,给出了一种图片推荐模型的生成方法的应用示意图。图5中训练集包括四个训练图片对以及与各训练图片对所对应的标注信息,其中,将每个训练图片对中左侧的训练图片称为第一训练图片,将每个训练图片对中右侧的训练图片称为第二训练图片,从上到下,依次称为第一训练图片对、第二训练图片对、第三训练图片对和第四训练图片对。标注信息为训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数的大小关系。第二预设阈值为1,第三预设阈值为1.5。
将训练集输入至神经网络模型中,得到各训练图片的预测推荐分数,对于每个训练图片对,将第二预设阈值与第一训练图片的预测推荐分数的差,加上第二训练图片的预测推荐分数作为训练图片对的标准函数的输出值。
确定第一训练图片对的标准函数的输出值小于零,而零小于第三预设阈值1.5,则确定第一训练图片对的标准函数的输出值小于第三预设阈值,则将第一训练图片对的第一损失函数g1作为第一训练图片对的损失函数l1;确定第二训练图片对的标准函数的输出值大于零小于第三预设阈值,则将第二训练图片对的第一损失函数g1作为第二训练图片对的损失函数l2;确定第三训练图片对的标准函数的输出值大于第三预设阈值,则将第三训练图片对的第二损失函数g2作为第三训练图片对的损失函数l3;确定第四训练图片对的标准函数的输出值小于零,而零小于第三预设阈值1.5,则确定第四训练图片对的标准函数的输出值小于第三预设阈值,则将第四训练图片对的第一损失函数g1作为第四训练图片对的损失函数l4
根据各训练图片对的损失函数确定训练集的损失函数
Figure GDA0004082875110000191
上述确定训练图集的损失函数的过程为前向传播计算过程,在此基础上,可根据链式求导法则计算损失函数对网络参数的偏导数,网络参数包括权值和偏置,分别可用ω和t表示,需要说明的是,图5中仅示出部分,未体现
Figure GDA0004082875110000192
Figure GDA0004082875110000193
采用反向梯度传播方法,对神经网络模型的网络参数进行调整,直至训练集的损失函数小于等于第一预设阈值,则表示神经网络模型已训练完成,得以确定神经网络模型中的网络参数,将训练完成的神经网络模型作为图片推荐模型。
本实施例的技术方案,通过获取训练集,训练集包括至少两个训练图片对以及与各训练图片对所对应的标注信息,标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系,将训练集输入至神经网络模型中,得到各训练图片的预测推荐分数,根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定训练集的损失函数,根据训练集的损失函数调整神经网络模型的网络参数,直至训练集的损失函数的输出值小于等于第一预设阈值,则将神经网络模型作为图片推荐模型,上述通过根据各训练图片对的标注信息和各训练图片对的预测推荐分数确定各训练图片对的损失函数,使得损失函数可以体现训练图片对中两张训练图片的预测推荐分数的相对关系,再根据损失函数对神经网络模型进行训练时,实质上是训练一种相对关系,即使得图片推荐模型对质量较高的图片输出高的预测推荐分数,而对质量较低的图片输出低的预测推荐分数,从而提高了图片推荐模型的预测精度。
图6为本发明实施例提供的一种图片推荐方法的流程图,本实施例可适用于从待推荐图片中选择合适的推荐图片的情况,该方法可以由图片推荐装置来执行,该装置可以采用软件和/或硬件的方式实现,该装置可以配置于设备中,例如典型的是计算机或移动终端等。如图6所示,该方法具体包括如下步骤:
步骤310、获取待推荐图片集,待推荐图片集包括至少两张待推荐图片。
步骤320、将待推荐图片集输入至预先训练的图片推荐模型中,得到各待推荐图片的预测推荐分数。
步骤330、根据各待推荐图片的预测推荐分数确定推荐图片。
在本发明的实施例中,需要说明的是,这里所述的图片推荐模型即为前文所述的通过对神经网络模型进行训练得到的图片推荐模型。
获取待训练图片集,待训练图片集包括至少两张待推荐图片,将待推荐图片集输入至预先训练的图片推荐模型中,得到各待推荐图片的预测推荐分数。再根据各待推荐图片的预测推荐分数确定推荐图片,其中,根据各待推荐图片的预测推荐分数确定推荐图片,可作如下理解:将各待推荐图片的预测推荐分数按升序方式进行排序,将排序最后一位的预测推荐分数所对应的待推荐图片作为推荐图片;或者,将各待推荐图片的预测推荐分数按降序方式进行排序,将排序第一的预测推荐分数所对应的待推荐图片作为推荐图片。可以理解到,这里所述的排序最后一位和排序第一所包含的预测推荐分数的个数可能不止一个,即出现了预测推荐分数相同的情况,此时,可将排序最后一位或排序第一的所有预测推荐分数所对应的待推荐图片均作为推荐图片,后续可由人工确定选择哪张推荐图片作为最终的推荐图片。
为了更好的理解本发明实施例所提供的技术方案,下面将以具体示例进行说明,具体的:
如图7所示,给出了一种图片推荐方法的应用示意图。图7中待推荐图片集包括八张待推荐图片,从下到上依次称为第一待推荐图片、第二待推荐图片、……、第七待推荐图片和第八待推荐图片,最上面为第八待推荐图片。
将待推荐图片集输入至预先训练的图片推荐模型中,得到各待推荐图片的预测推荐分数,并将各待推荐图片的预测推荐分数按升序方式进行排序,由于第七待推荐图片的预测推荐分数为最后一位,则将第七待推荐图片作为推荐图片。
本实施例的技术方案,通过获取待推荐图片集,待推荐图片集包括至少两张待推荐图片,将待推荐图片集输入至预先训练的图片推荐模型中,得到各待推荐图片的预测推荐分数,根据各待推荐图片的预测推荐分数确定推荐图片,由于图片推荐模型为本发明实施例的技术方案所提供的图片推荐模型,因此,提高了图片推荐的精确度。
图8为本发明实施例提供的一种图片推荐模型的生成装置的结构示意图,本实施例可适用于提高图片推荐模型的预测精度的情况,该装置可以采用软件和/或硬件的方式实现,该装置可以配置于设备中,例如典型的是计算机或移动终端等。如图8所示,该装置具体包括:
训练集获取模块410,用于获取训练集,训练集包括至少两个训练图片对以及与各训练图片对所对应的标注信息,标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系。
第一预测推荐分数生成模块420,用于将训练集输入至神经网络模型中,得到各训练图片的预测推荐分数。
损失函数确定模块430,用于根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定训练集的损失函数。
图片推荐模型生成模块440,用于根据训练集的损失函数调整神经网络模型的网络参数,直至训练集的损失函数的输出值小于等于第一预设阈值,则将神经网络模型作为图片推荐模型。
本实施例的技术方案,通过获取训练集,训练集包括至少两个训练图片对以及与各训练图片对所对应的标注信息,标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系,将训练集输入至神经网络模型中,得到各训练图片的预测推荐分数,根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定训练集的损失函数,根据训练集的损失函数调整神经网络模型的网络参数,直至训练集的损失函数的输出值小于等于第一预设阈值,则将神经网络模型作为图片推荐模型,上述通过根据各训练图片对的标注信息和各训练图片对的预测推荐分数确定各训练图片对的损失函数,使得损失函数可以体现训练图片对中两张训练图片的预测推荐分数的相对关系,再根据损失函数对神经网络模型进行训练时,实质上是训练一种相对关系,即使得图片推荐模型对质量较高的图片输出高的预测推荐分数,而对质量较低的图片输出低的预测推荐分数,从而提高了图片推荐模型的预测精度。
可选的,损失函数确定模块,具体可以包括:
第一标准函数的输出值生成子模块,用于对于每个训练图片对,标注信息为训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数的大小关系,则将第二预设阈值与第一训练图片的预测推荐分数的差,加上第二训练图片的预测推荐分数作为训练图片对的标准函数的输出值。
第二标准函数的输出值生成子模块,用于标注信息为训练图片对中第一训练图片的原始推荐分数小于第二训练图片的原始推荐分数的大小关系,则将第二预设阈值与第二训练图片的预测推荐分数的差,加上第一训练图片的预测推荐分数作为训练图片对的标准函数的输出值。
训练图片对的损失函数确定子模块,用于根据训练图片对的标准函数的输出值与第三预设阈值确定训练图片对的损失函数。
训练集的损失函数确定子模块,用于根据各训练图片对的损失函数确定训练集的损失函数。
可选的,在上述技术方案的基础上,训练图片对的损失函数确定子模块,具体可以包括:
第一训练图片对的损失函数确定单元,用于训练图片对的标准函数的输出值小于等于第三预设阈值,则将训练图片对的第一损失函数作为训练图片对的损失函数,第一损失函数根据训练图片对的ReLU函数确定。
第二训练图片对的损失函数确定单元,用于训练图片对的标准函数的输出值大于第三预设阈值,则将训练图片对的第二损失函数作为训练图片对的损失函数,第二损失函数根据训练图片对的ReLU函数和第三预设阈值确定。
可选的,在上述技术方案的基础上,标注信息为训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数的大小关系。
第一损失函数、第二损失函数和训练图片对的标准函数分别可以通过如下公式计算:
Figure GDA0004082875110000211
μi(f(xi +),f(xi -))=θ-f(xi +)+f(xi -)
g1(f(xi +),f(xi -))=a(max(0,μi(f(xi +),f(xi -))))2
g2(f(xi +),f(xi -))=δ|max(0,μi(f(xi +),f(xi -)))|-bδ2
其中,i表示第i训练图片对,i∈{1,2,......,N};f(xi +)表示第i训练图片对中第一训练图片的预测推荐分数对应的预测推荐函数,f(xi -)表示第i训练图片对中第二训练图片的预测推荐分数对应的预测推荐函数;li(f(xi +),f(xi -))表示第i训练图片对的损失函数;g1(f(xi +),f(xi -))表示第i训练图片对的第一损失函数,g2(f(xi +),f(xi -))表示第i训练图片对的第二损失函数;μi(f(xi +),f(xi -))表示第i训练图片对的标准函数;max(0,μi(f(xi +),f(xi -)))表示第i训练图片对的ReLU函数;εi表示第i训练图片对的标准函数的输出值;θ表示第二预设阈值;δ表示第三预设阈值;a表示第一比例系数;b表示第二比例系数。
可选的,在上述技术方案的基础上,第二预设阈值可以为1。
可选的,在上述技术方案的基础上,第三预设阈值可以为1.5。
本发明实施例所提供的图片推荐模型的生成装置可执行本发明任意实施例所提供的图片推荐模型的生成方法,具备执行方法相应的功能模块和有益效果。
图9为本发明实施例提供的一种图片推荐装置的结构示意图,本实施例可适用于从待推荐图片中选择合适的推荐图片的情况,该装置可以采用软件和/或硬件的方式实现,该装置可以配置于设备中,例如典型的是计算机或移动终端等。如图9所示,该装置具体包括:
待推荐图片集获取模块510,用于获取待推荐图片集,待推荐图片集包括至少两张待推荐图片。
第二预测推荐分数生成模块520,用于将待推荐图片集输入至预先训练的图片推荐模型中,得到各待推荐图片的预测推荐分数。
推荐图片确定模块530,用于根据各待推荐图片的预测推荐分数确定推荐图片。
在本发明的实施例中,需要说明的是,这里所述的图片推荐模型即为前文所述的通过对神经网络模型进行训练得到的图片推荐模型。
本实施例的技术方案,通过获取待推荐图片集,待推荐图片集包括至少两张待推荐图片,将待推荐图片集输入至预先训练的图片推荐模型中,得到各待推荐图片的预测推荐分数,根据各待推荐图片的预测推荐分数确定推荐图片,由于图片推荐模型为本发明实施例的技术方案所提供的图片推荐模型,因此,提高了图片推荐的精确度。
本发明实施例所提供的图片推荐装置可执行本发明任意实施例所提供的图片推荐方法,具备执行方法相应的功能模块和有益效果。
图10为本发明实施例提供的一种设备的结构示意图。图10示出了适于用来实现本发明实施方式的示例性设备612的框图。图10显示的设备612仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图10所示,设备612以通用计算设备的形式表现。设备612的组件可以包括但不限于:一个或者多个处理器616,系统存储器628,连接于不同系统组件(包括系统存储器628和处理器616)的总线618。
总线618表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Instruction Set Architecture,ISA)总线,微通道体系结构(Micro Channel Architecture,MCA)总线,增强型(Instruction Set Architecture,ISA)总线、视频电子标准协会(Video ElectronicsStandards Association,VESA)局域总线以及外围组件互连(Peripheral ComponentInterconnect,PCI)总线。
设备612典型地包括多种计算机系统可读介质。这些介质可以是任何能够被移动终端612访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器628可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)630和/或高速缓存存储器632。设备612可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统634可以用于读写不可移动的、非易失性磁介质(图10未显示,通常称为“硬盘驱动器”)。尽管图10中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如(Computer Disc Read-Only Memory,CD-ROM),数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线618相连。存储器628可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块642的程序/实用工具640,可以存储在例如存储器628中,这样的程序模块642包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块642通常执行本发明所描述的实施例中的功能和/或方法。
设备612也可以与一个或多个外部设备614(例如键盘、指向设备、显示器624等)通信,还可与一个或者多个使得用户能与该设备612交互的设备通信,和/或与使得该设备612能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口622进行。并且,设备612还可以通过网络适配器620与一个或者多个网络(例如局域网(Local Area Network,LAN),广域网(Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器620通过总线618与设备612的其它模块通信。应当明白,尽管图10中未示出,可以结合设备612使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays ofIndependent Disks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理器616通过运行存储在系统存储器628中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的一种图片推荐模型的生成方法,该方法包括:
获取训练集,训练集包括至少两个训练图片对以及与各训练图片对所对应的标注信息,标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系。
将训练集输入至神经网络模型中,得到各训练图片的预测推荐分数。
根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定训练集的损失函数。
根据训练集的损失函数调整神经网络模型的网络参数,直至训练集的损失函数的输出值小于等于第一预设阈值,则将神经网络模型作为图片推荐模型。
本发明实施例还提供了另一种设备,其包括:一个或多个处理器;存储器,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明实施例所提供的一种图片推荐方法,该方法包括:
获取待推荐图片集,待推荐图片集包括至少两张待推荐图片。
将待推荐图片集输入至预先训练的图片推荐模型中,得到各待推荐图片的预测推荐分数。
根据各待推荐图片的预测推荐分数确定推荐图片。
当然,本领域技术人员可以理解,处理器还可以实现本发明任意实施例所提供应用于设备的图片推荐模型的生成方法的技术方案或者应用于设备的图片推荐方法的技术方案。该设备的硬件结构以及功能可参见实施例的内容解释。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所提供的一种图片推荐模型的生成方法,该方法包括:
获取训练集,训练集包括至少两个训练图片对以及与各训练图片对所对应的标注信息,标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系。
将训练集输入至神经网络模型中,得到各训练图片的预测推荐分数。
根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定训练集的损失函数。
根据训练集的损失函数调整神经网络模型的网络参数,直至训练集的损失函数的输出值小于等于第一预设阈值,则将神经网络模型作为图片推荐模型。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(Random AccessMemory,RAM)、只读存储器(Read-Only Memory,ROM)、可擦式可编程只读存储器(ErasableProgrammable Read Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Computer Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、射频等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——局域网(Local AreaNetwork,LAN)或广域网(Wide Area Network,WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
本发明实施例还提供了另一种计算机可读存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种图片推荐方法,该方法包括:
获取待推荐图片集,待推荐图片集包括至少两张待推荐图片。
将待推荐图片集输入至预先训练的图片推荐模型中,得到各待推荐图片的预测推荐分数。
根据各待推荐图片的预测推荐分数确定推荐图片。
当然,本发明实施例所提供的一种计算机可读存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的设备的图片推荐模型的生成方法和图片推荐方法中的相关操作。对存储介质的介绍可参见实施例中的内容解释。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (11)

1.一种图片推荐模型的生成方法,其特征在于,包括:
获取训练集,所述训练集包括至少两个训练图片对以及与各训练图片对所对应的标注信息,所述标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系;
将所述训练集输入至神经网络模型中,得到各训练图片的预测推荐分数;
根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定所述训练集的损失函数;
根据所述训练集的损失函数调整所述神经网络模型的网络参数,直至所述训练集的损失函数的输出值小于等于第一预设阈值,则将所述神经网络模型作为所述图片推荐模型。
2.根据权利要求1所述的方法,其特征在于,所述根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定所述训练集的损失函数,包括:
对于每个训练图片对,所述标注信息为所述训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数的大小关系,则将第二预设阈值与第一训练图片的预测推荐分数的差,加上第二训练图片的预测推荐分数作为所述训练图片对的标准函数的输出值;
所述标注信息为所述训练图片对中第一训练图片的原始推荐分数小于第二训练图片的原始推荐分数的大小关系,则将第二预设阈值与第二训练图片的预测推荐分数的差,加上第一训练图片的预测推荐分数作为所述训练图片对的标准函数的输出值;
根据所述训练图片对的标准函数的输出值与第三预设阈值确定所述训练图片对的损失函数;
根据各训练图片对的损失函数确定所述训练集的损失函数。
3.根据权利要求2所述的方法,其特征在于,所述根据所述训练图片对的标准函数的输出值与第三预设阈值确定所述训练图片对的损失函数,包括:
所述训练图片对的标准函数的输出值小于等于所述第三预设阈值,则将所述训练图片对的第一损失函数作为所述训练图片对的损失函数,所述第一损失函数根据所述训练图片对的修正线性单元ReLU函数确定;
所述训练图片对的标准函数的输出值大于所述第三预设阈值,则将所述训练图片对的第二损失函数作为所述训练图片对的损失函数,所述第二损失函数根据所述训练图片对的ReLU函数和所述第三预设阈值确定。
4.根据权利要求3所述的方法,其特征在于,所述标注信息为所述训练图片对中第一训练图片的原始推荐分数大于第二训练图片的原始推荐分数的大小关系;
所述第一损失函数、所述第二损失函数和所述训练图片对的标准函数分别通过如下公式计算:
Figure FDA0004082875090000011
μi(f(xi +),f(xi -))=θ-f(xi +)+f(xi -)
g1(f(xi +),f(xi -))=a(max(0,μi(f(xi +),f(xi -))))2
g2(f(xi +),f(xi -))=δ|max(0,μi(f(xi +),f(xi -)))|-bδ2
其中,i表示第i训练图片对,i∈{1,2,......,N};f(xi +)表示第i训练图片对中第一训练图片的预测推荐分数对应的预测推荐函数,f(xi -)表示第i训练图片对中第二训练图片的预测推荐分数对应的预测推荐函数;li(f(xi +),f(xi -))表示第i训练图片对的损失函数;g1(f(xi +),f(xi -))表示第i训练图片对的第一损失函数,g2(f(xi +),f(xi -))表示第i训练图片对的第二损失函数;μi(f(xi +),f(xi -))表示第i训练图片对的标准函数;max(0,μi(f(xi +),f(xi -)))表示第i训练图片对的ReLU函数;εi表示第i训练图片对的标准函数的输出值;θ表示第二预设阈值;δ表示第三预设阈值;a表示第一比例系数;b表示第二比例系数。
5.根据权利要求2所述的方法,其特征在于,所述第二预设阈值为1。
6.根据权利要求2所述的方法,其特征在于,所述第三预设阈值为1.5。
7.一种图片推荐方法,其特征在于,包括:
获取待推荐图片集,所述待推荐图片集包括至少两张待推荐图片;
将所述待推荐图片集输入至预先训练的图片推荐模型中,得到各待推荐图片的预测推荐分数,所述图片推荐模型为权利要求1-6任一所述的图片推荐模型;
根据各待推荐图片的预测推荐分数确定推荐图片。
8.一种图片推荐模型的生成装置,其特征在于,包括:
训练集获取模块,用于获取训练集,所述训练集包括至少两个训练图片对以及与各训练图片对所对应的标注信息,所述标注信息为训练图片对中两张训练图片的原始推荐分数的对应关系;
第一预测推荐分数生成模块,用于将所述训练集输入至神经网络模型中,得到各训练图片的预测推荐分数;
损失函数确定模块,用于根据各训练图片对的预测推荐分数和各训练图片对的标注信息确定所述训练集的损失函数;
图片推荐模型生成模块,用于根据所述训练集的损失函数调整所述神经网络模型的网络参数,直至所述训练集的损失函数的输出值小于等于第一预设阈值,则将所述神经网络模型作为所述图片推荐模型。
9.一种图片推荐装置,其特征在于,包括:
待推荐图片集获取模块,用于获取待推荐图片集,所述待推荐图片集包括至少两张待推荐图片;
第二预测推荐分数生成模块,用于将所述待推荐图片集输入至预先训练的图片推荐模型中,得到各待推荐图片的预测推荐分数,所述图片推荐模型权利要求1-6任一所述的图片推荐模型;
推荐图片确定模块,用于根据各待推荐图片的预测推荐分数确定推荐图片。
10.一种图片推荐模型的生成设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7任一所述的方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7任一所述的方法。
CN201811627763.3A 2018-12-28 2018-12-28 图片推荐模型的生成、图片推荐方法、装置、设备及介质 Active CN111382619B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811627763.3A CN111382619B (zh) 2018-12-28 2018-12-28 图片推荐模型的生成、图片推荐方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811627763.3A CN111382619B (zh) 2018-12-28 2018-12-28 图片推荐模型的生成、图片推荐方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN111382619A CN111382619A (zh) 2020-07-07
CN111382619B true CN111382619B (zh) 2023-04-18

Family

ID=71217754

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811627763.3A Active CN111382619B (zh) 2018-12-28 2018-12-28 图片推荐模型的生成、图片推荐方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN111382619B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115237B (zh) * 2020-10-09 2024-01-19 湖北中烟工业有限责任公司 烟草科技文献数据推荐模型的构建方法及装置
CN112860941A (zh) * 2021-02-04 2021-05-28 百果园技术(新加坡)有限公司 一种封面推荐方法、装置、设备及介质
CN112801536B (zh) * 2021-02-20 2024-04-30 北京金山云网络技术有限公司 图像处理方法、装置和电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874936A (zh) * 2017-01-17 2017-06-20 腾讯科技(上海)有限公司 图像传播监测方法及装置
WO2018068416A1 (zh) * 2016-10-14 2018-04-19 广州视源电子科技股份有限公司 基于神经网络的多层图像特征提取建模、图像识别方法及装置
CN108304435A (zh) * 2017-09-08 2018-07-20 腾讯科技(深圳)有限公司 信息推荐方法、装置、计算机设备及存储介质
CN108319723A (zh) * 2018-02-27 2018-07-24 百度在线网络技术(北京)有限公司 一种图片分享方法和装置、终端、存储介质
CN108805259A (zh) * 2018-05-23 2018-11-13 北京达佳互联信息技术有限公司 神经网络模型训练方法、装置、存储介质及终端设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018068416A1 (zh) * 2016-10-14 2018-04-19 广州视源电子科技股份有限公司 基于神经网络的多层图像特征提取建模、图像识别方法及装置
CN106874936A (zh) * 2017-01-17 2017-06-20 腾讯科技(上海)有限公司 图像传播监测方法及装置
CN108304435A (zh) * 2017-09-08 2018-07-20 腾讯科技(深圳)有限公司 信息推荐方法、装置、计算机设备及存储介质
CN108319723A (zh) * 2018-02-27 2018-07-24 百度在线网络技术(北京)有限公司 一种图片分享方法和装置、终端、存储介质
CN108805259A (zh) * 2018-05-23 2018-11-13 北京达佳互联信息技术有限公司 神经网络模型训练方法、装置、存储介质及终端设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张嘉新 ; 赵建平 ; 蒋振刚 ; .基于Spark优化的协同过滤推荐算法研究.长春理工大学学报(自然科学版).2018,(第05期),全文. *

Also Published As

Publication number Publication date
CN111382619A (zh) 2020-07-07

Similar Documents

Publication Publication Date Title
US20220222920A1 (en) Content processing method and apparatus, computer device, and storage medium
US11380034B2 (en) Semantically-consistent image style transfer
CN111062951B (zh) 一种基于语义分割类内特征差异性的知识蒸馏方法
WO2022007823A1 (zh) 一种文本数据处理方法及装置
CN111754596B (zh) 编辑模型生成、人脸图像编辑方法、装置、设备及介质
CN108895981B (zh) 一种三维测量方法、装置、服务器和存储介质
US11977967B2 (en) Memory augmented generative temporal models
US20190026609A1 (en) Personalized Digital Image Aesthetics in a Digital Medium Environment
CN111382619B (zh) 图片推荐模型的生成、图片推荐方法、装置、设备及介质
KR20190031318A (ko) 도메인 분리 뉴럴 네트워크들
CN107545301B (zh) 页面展示方法及装置
CN114332578A (zh) 图像异常检测模型训练方法、图像异常检测方法和装置
WO2023134082A1 (zh) 图像描述语句生成模块的训练方法及装置、电子设备
CN107679564A (zh) 样本数据推荐方法及其装置
CN113095129A (zh) 姿态估计模型训练方法、姿态估计方法、装置和电子设备
CN109408680A (zh) 自动问答方法、装置、设备和计算机可读存储介质
CN112052865A (zh) 用于生成神经网络模型的方法和装置
CN117391497A (zh) 一种新闻稿件质量主客观评分一致性评价方法及系统
US11568303B2 (en) Electronic apparatus and control method thereof
CN116186301A (zh) 基于多模态分层图的多媒体推荐方法、电子设备及存储介质
CN112801201B (zh) 一种基于标准化的深度学习视觉惯导组合导航设计方法
WO2021083312A1 (zh) 训练语句复述模型的方法、语句复述方法及其装置
CN114491289A (zh) 一种双向门控卷积网络的社交内容抑郁检测方法
CN113658173A (zh) 基于知识蒸馏的检测模型的压缩方法、系统和计算设备
CN114298961A (zh) 图像处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20231010

Address after: 31a, 15th floor, building 30, maple commercial city, bangrang Road, Brazil

Patentee after: Baiguoyuan Technology (Singapore) Co.,Ltd.

Address before: 511400 floor 23-39, building B-1, Wanda Plaza North, Wanbo business district, 79 Wanbo 2nd Road, Nancun Town, Panyu District, Guangzhou City, Guangdong Province

Patentee before: GUANGZHOU BAIGUOYUAN INFORMATION TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right