CN111797663A - 搭配场景识别方法和装置 - Google Patents

搭配场景识别方法和装置 Download PDF

Info

Publication number
CN111797663A
CN111797663A CN201910712944.4A CN201910712944A CN111797663A CN 111797663 A CN111797663 A CN 111797663A CN 201910712944 A CN201910712944 A CN 201910712944A CN 111797663 A CN111797663 A CN 111797663A
Authority
CN
China
Prior art keywords
scene
article
collocation
theme
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910712944.4A
Other languages
English (en)
Inventor
赖瑞欣
刘金根
梅涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Jingdong Shangke Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Priority to CN201910712944.4A priority Critical patent/CN111797663A/zh
Publication of CN111797663A publication Critical patent/CN111797663A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供一种搭配场景识别方法和装置。搭配场景识别装置在物品集合中,计算物品u与物品v的搭配值d(u,v),在与每个主题场景p相对应的图Gp中,将搭配值d(u,v)作为节点U和节点V之间的边的值,在图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,将具有超过预设门限的主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。本公开能够为不同类型的服饰搭配确定相应的搭配场景。

Description

搭配场景识别方法和装置
技术领域
本公开涉及信息处理领域,特别涉及一种搭配场景识别方法和装置。
背景技术
在相关技术中,为了确定不同类型的服饰是否搭配,通过将与服饰相关联的数据进行深度学习,以便得到不同服饰之间的关联性,进而利用该关联性确定不同类型的服饰是否适于搭配组合。
发明内容
发明人通过研究发现,通过传统的深度学习,只能得到不同类型的服饰是否能够进行搭配的结论,但并不能给出这些服饰适于在何种场景下进行搭配的结论。
为此,本公开提供一种确定不同类型的服饰适于何种搭配场景的方案。
根据本公开实施例的第一方面,提供一种搭配场景识别方法,包括:在物品集合中,计算物品u与物品v的搭配值d(u,v),其中u、v为自然数,1≤u≤M,1≤v≤M,u≠v,M为所述物品集合中的物品总数;在与每个主题场景p相对应的图Gp中,将所述搭配值d(u,v)作为节点U和节点V之间的边的值,其中所述图Gp图中的节点与所述物品集合中的物品一一对应,p为自然数,1≤p≤P,P为主题场景总数;在所述图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,其中节点U和节点V之间的边的权值为物品u与物品v相对于主题p的主题参数;将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
在一些实施例中,计算物品u与物品v的搭配值d(u,v)包括:将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u);将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v);将特征向量f(u)与特征向量f(v)的差异作为物品u与物品v的搭配程度值。
在一些实施例中,将特征向量f(u)与特征向量f(v)的距离作为物品u与物品v的搭配程度值包括:利用预设的特征掩码对特征向量f(u)进行处理,以得到第一特征向量;利用预设的特征掩码对特征向量f(v)进行处理,以得到第二特征向量;将第一特征向量与第二特征向量的差异作为物品u与物品v的搭配程度值。
在一些实施例中,在所述图Gp中,对各边的值进行加权处理包括:在所述图Gp中,将每个边的值与相应的权值相乘,以得到加权结果;将得到的加权结果求和,以得到相应的主题场景值。
在一些实施例中,将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景包括:查询超过预设门限的主题场景值的图的数量;若超过预设门限的主题场景值的图的数量仅有一个,则将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
在一些实施例中,若超过预设门限的主题场景值的图的数量大于一个,则将具有最大主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
根据本公开实施例的第二方面,提供一种搭配场景识别装置,包括:搭配模块,被配置为在物品集合中,计算物品u与物品v的搭配值d(u,v),其中u、v为自然数,1≤u≤M,1≤v≤M,u≠v,M为所述物品集合中的物品总数;配置模块,被配置为在与每个主题场景p相对应的图Gp中,将所述搭配值d(u,v)作为节点U和节点V之间的边的值,其中所述图Gp中的节点与所述物品集合中的物品一一对应,p为自然数,1≤p≤P,P为主题场景总数;加权处理模块,被配置为在所述图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,其中节点U和节点V之间的边的权值为物品u与物品v相对于主题p的主题参数;场景确定模块,被配置为将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
在一些实施例中,搭配模块被配置为将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u),将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v),将特征向量f(u)与特征向量f(v)的差异作为物品u与物品v的搭配程度值。
在一些实施例中,搭配模块被配置为利用预设的特征掩码对特征向量f(u)进行处理,以得到第一特征向量,利用预设的特征掩码对特征向量f(v)进行处理,以得到第二特征向量,将第一特征向量与第二特征向量的差异作为物品u与物品v的搭配程度值。
在一些实施例中,加权处理模块被配置为在所述图Gp中,将每个边的值与相应的权值相乘,以得到加权结果,将得到的加权结果求和,以得到相应的主题场景值。
在一些实施例中,场景确定模块被配置为查询超过预设门限的主题场景值的图的数量,若超过预设门限的主题场景值的图的数量仅有一个,则将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
在一些实施例中,场景确定模块被配置为若超过预设门限的主题场景值的图的数量大于一个,则将具有最大主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
根据本公开实施例的第四方面,提供一种搭配场景识别装置,包括:存储器,被配置为存储指令;处理器,耦合到存储器,处理器被配置为基于存储器存储的指令执行实现如上述任一实施例涉及的方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其中,计算机可读存储介质存储有计算机指令,指令被处理器执行时实现如上述任一实施例涉及的方法。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开一个实施例的搭配场景识别方法的流程示意图;
图2为本公开一个实施例的搭配场景识别架构的结构示意图;
图3为本公开一个实施例的搭配场景识别装置的结构示意图;
图4为本公开另一个实施例的搭配场景识别装置的结构示意图;
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。
在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
发明人注意到,某些服饰的搭配,在有些场景下是合适的,而在另一些场景下是不合适的。例如,对于衬衫、手提包、高跟鞋、牛仔裙的服饰组合来说,对于聚会场景是合适的,而对于商务场景是不合适的。若要与商务场景匹配,可以将牛仔裙换为长裙。又例如,对于衬衫、裙子、手提包和尖头皮鞋的服饰组合来说,对于约会场景是合适的,而对于旅游场景是不合适的。若要与旅游场景匹配,可以将尖头皮鞋换为平底运动鞋。
也就是说,同样的服饰搭配,在某些场景下是合适的,而在另一些场景下是不合适的。因此在考虑服饰搭配时,需要在特定的场景下考虑服饰搭配是否合适。因此,本公开提供一种能够确定不同类型的服饰适于何种搭配场景的方案。
图1为本公开一个实施例的搭配场景识别方法的流程示意图。在一些实施例中,搭配场景识别方法步骤由搭配场景识别装置执行。
在步骤101,在物品集合中,计算物品u与物品v的搭配值d(u,v)。u、v为自然数,1≤u≤M,1≤v≤M,u≠v,M为物品集合中的物品总数。
例如,在一个物品集合中,包括牛仔衣、长裙和凉鞋。在这种情况下,需要分别计算牛仔衣和长裙、牛仔衣和凉鞋、长裙和凉鞋的搭配值。
在一些实施例中,上述计算物品u与物品v的搭配值d(u,v)的步骤包括:将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u)。将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v)。将特征向量f(u)与特征向量f(v)的差异作为物品u与物品v的搭配程度值。这里需要说明的是,所使用的神经网络是经过训练后的神经网络。
例如,将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u;θ),其中θ为神经网络中的相应参数。将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v;θ)。利用下列公式(1)计算物品u与物品v的搭配程度值。
Figure BDA0002154399150000061
在一些实施例中,为了进一步提升处理效率,提升处理精度,上述将特征向量f(u)与特征向量f(v)的距离作为物品u与物品v的搭配程度值的步骤可包括:利用预设的特征掩码(mask)对特征向量f(u)进行处理,以得到第一特征向量。利用预设的特征掩码对特征向量f(v)进行处理,以得到第二特征向量。将第一特征向量与第二特征向量的差异作为物品u与物品v的搭配程度值。
例如,物品u属于服饰U,物品v属于服饰V,则相应的特征掩码为m(U,V),则利用下列公式(2)计算物品u与物品v的搭配程度值。
Figure BDA0002154399150000062
这里需要说明的是,若在一个集合中,U类服饰为T恤衫,V类服饰为长裙,则某件T恤衫
Figure BDA0002154399150000063
和长裙
Figure BDA0002154399150000064
之间的搭配程度为:
Figure BDA0002154399150000065
由此,这个集合中的偏差(Loss)可由下列公式(4)来表示:
Figure BDA0002154399150000066
通过训练m(U,V),以便使得上述公式(4)的结果逼近于零。
在步骤102中,在与每个主题场景p相对应的图Gp中,将搭配值d(u,v)作为节点U和节点V之间的边的值。图Gp中的节点与物品集合中的物品一一对应,p为自然数,1≤p≤P,P为主题场景总数。
在步骤103,在图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,其中节点U和节点V之间的边的权值为物品u与物品v相对于主题p的主题参数。
在一些实施例中,设有7个主题场景,则分别设置有与这7个主题场景相对应的7个图。每个图中有三个节点,节点U、V、W分别对应与物品集合中的物品u、v、w相对应。通过上述计算,将节点U和节点V之间的边的值设置为d(u,v),将节点U和节点W之间的边的值设置为d(u,w),将节点V和节点W之间的边的值设置为d(v,w)。
若物品u属于服饰U,物品v属于服饰V,物品w属于服饰W,在第p个图对应于场景p的情况下,在第p个图中,节点U和节点V之间的边的权值为
Figure BDA0002154399150000071
节点U和节点W之间的边的权值为
Figure BDA0002154399150000072
节点V和节点W之间的边的权值为
Figure BDA0002154399150000073
在第p个图中,将每个边的值与相应的权值相乘,以得到加权结果。将得到的加权结果求和,以得到相应的主题场景值。相应的计算公式如下:
Figure BDA0002154399150000074
若采用特征掩码来计算搭配值,则公式(5)还可表示为:
Figure BDA0002154399150000075
在步骤104,将具有超过预设门限的主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。
在一些实施例中,通过查询超过预设门限的主题场景值的图的数量,若超过预设门限的主题场景值的图的数量仅有一个,则将该具有超过预设门限的主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。若超过预设门限的主题场景值的图的数量大于一个,则将具有最大主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。
例如,对于西服、衬衣、皮鞋的服饰组合,可能既适于商务场景,也适于约会场景,在这种情况下,可将分值最高的商务场景反馈给用户,当然也可将商务场景和约会场景这两个结果都反馈给用户。
在本公开上述实施例提供的搭配场景识别方法中,通过将物品集合中的任意两个物品的搭配程度作为相对应图的相应边的值,进而利用图的各边的值的加权和来确定物品集合所适合的搭配场景。
图2为本公开一个实施例的搭配场景识别架构的结构示意图。
如图2所示,物品集合中包括长裙u、牛仔衣v和凉鞋w。利用神经网络分别计算长裙u和牛仔衣v的搭配值d(u,v),长裙u和凉鞋w的搭配值d(u,w),牛仔衣v和凉鞋w的搭配值d(v,w)。
这里设共有7个主题场景,分别为约会、旅行、聚会、运动、学校、商务和居家。则相应的有7个图,每个图对应一个场景。在每个图中,分别设有节点U、V、W,分别对应于长裙u、牛仔衣v和凉鞋w。在每个图中,任意两个节点之间的线的权重与对应的场景相关联。通过将所得到搭配值d(u,v)、d(u,w)和d(v,w)输入到这7个图中,在每个图中,将d(u,v)作为节点U和节点V之间的边的值、将d(u,w)作为节点U和节点W之间的边的值、将d(v,w)作为节点V和节点W之间的边的值。在每个图中,通过计算各边的值的加权和,从而得到该图的主题场景值。若主题场景值大于门限,在表明长裙u、牛仔衣v和凉鞋w的搭配组合适于该图所对应的场景。
图3为本公开一个实施例的搭配场景识别装置的结构示意图。如图3所示,搭配场景识别装置包括搭配模块31、配置模块32、加权处理模块33和场景确定模块34。
搭配模块31被配置为在物品集合中,计算物品u与物品v的搭配值d(u,v),其中u、v为自然数,1≤u≤M,1≤v≤M,u≠v,M为物品集合中的物品总数。
在一些实施例中,搭配模块31将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u),将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v),将特征向量f(u)与特征向量f(v)的差异作为物品u与物品v的搭配程度值。
在一些实施例中,搭配模块31利用预设的特征掩码对特征向量f(u)进行处理,以得到第一特征向量,利用预设的特征掩码对特征向量f(v)进行处理,以得到第二特征向量,将第一特征向量与第二特征向量的差异作为物品u与物品v的搭配程度值。
配置模块32被配置为在与每个主题场景p相对应的图Gp中,将搭配值d(u,v)作为节点U和节点V之间的边的值,其中图Gp中的节点与物品集合中的物品一一对应,p为自然数,1≤p≤P,P为主题场景总数。
加权处理模块33被配置为在图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,其中节点U和节点V之间的边的权值为物品u与物品v相对于主题p的主题参数。
在一些实施例中,加权处理模块33被配置为在图Gp中,将每个边的值与相应的权值相乘,以得到加权结果,将得到的加权结果求和,以得到相应的主题场景值。
场景确定模块34被配置为将具有超过预设门限的主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。
在一些实施例中,场景确定模块34被配置为查询超过预设门限的主题场景值的图的数量,若超过预设门限的主题场景值的图的数量仅有一个,则将具有超过预设门限的主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。
此外,场景确定模块34还被配置为若超过预设门限的主题场景值的图的数量大于一个,则将具有最大主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。
图4为本公开另一个实施例的搭配场景识别装置的结构示意图。如图4所示,搭配场景识别装置包括存储器41和处理器42。
存储器41用于存储指令,处理器42耦合到存储器41,处理器42被配置为基于存储器存储的指令执行实现如图1中任一实施例涉及的方法。
如图4所示,该装置还包括通信接口43,用于与其它设备进行信息交互。同时,该装置还包括总线44,处理器42、通信接口43、以及存储器41通过总线44完成相互间的通信。
存储器41可以包含高速RAM存储器,也可还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。存储器41也可以是存储器阵列。存储器41还可能被分块,并且块可按一定的规则组合成虚拟卷。
此外处理器42可以是一个中央处理器CPU,或者可以是专用集成电路ASIC,或是被配置成实施本公开实施例的一个或多个集成电路。
本公开同时还涉及一种计算机可读存储介质,其中计算机可读存储介质存储有计算机指令,指令被处理器执行时实现如图1中任一实施例涉及的方法。
在一些实施例中,在上面所描述的功能单元模块可以实现为用于执行本公开所描述功能的通用处理器、可编程逻辑控制器(Programmable Logic Controller,简称:PLC)、数字信号处理器(Digital Signal Processor,简称:DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,简称:ASIC)、现场可编程门阵列(Field-ProgrammableGate Array,简称:FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件或者其任意适当组合。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
本公开的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本公开限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本公开的原理和实际应用,并且使本领域的普通技术人员能够理解本公开从而设计适于特定用途的带有各种修改的各种实施例。

Claims (14)

1.一种搭配场景识别方法,包括:
在物品集合中,计算物品u与物品v的搭配值d(u,v),其中u、v为自然数,1≤u≤M,1≤v≤M,u≠v,M为所述物品集合中的物品总数;
在与每个主题场景p相对应的图Gp中,将所述搭配值d(u,v)作为节点U和节点V之间的边的值,其中所述图Gp中的节点与所述物品集合中的物品一一对应,p为自然数,1≤p≤P,P为主题场景总数;
在所述图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,其中节点U和节点V之间的边的权值为物品u与物品v相对于主题p的主题参数;
将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
2.根据权利要求1所述的方法,其中,计算物品u与物品v的搭配值d(u,v)包括:
将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u);
将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v);
将特征向量f(u)与特征向量f(v)的差异作为物品u与物品v的搭配程度值。
3.根据权利要求2所述的方法,其中,将特征向量f(u)与特征向量f(v)的距离作为物品u与物品v的搭配程度值包括:
利用预设的特征掩码对特征向量f(u)进行处理,以得到第一特征向量;
利用预设的特征掩码对特征向量f(v)进行处理,以得到第二特征向量;
将第一特征向量与第二特征向量的差异作为物品u与物品v的搭配程度值。
4.根据权利要求1所述的方法,其中,在所述图Gp中,对各边的值进行加权处理包括:
在所述图Gp中,将每个边的值与相应的权值相乘,以得到加权结果;
将得到的加权结果求和,以得到相应的主题场景值。
5.根据权利要求1所述的方法,其中,将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景包括:
查询超过预设门限的主题场景值的图的数量;
若超过预设门限的主题场景值的图的数量仅有一个,则将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
6.根据权利要求5所述的方法,还包括:
若超过预设门限的主题场景值的图的数量大于一个,则将具有最大主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
7.一种搭配场景识别装置,包括:
搭配模块,被配置为在物品集合中,计算物品u与物品v的搭配值d(u,v),其中u、v为自然数,1≤u≤M,1≤v≤M,u≠v,M为所述物品集合中的物品总数;
配置模块,被配置为在与每个主题场景p相对应的图Gp中,将所述搭配值d(u,v)作为节点U和节点V之间的边的值,其中所述图Gp中的节点与所述物品集合中的物品一一对应,p为自然数,1≤p≤P,P为主题场景总数;
加权处理模块,被配置为在所述图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,其中节点U和节点V之间的边的权值为物品u与物品v相对于主题p的主题参数;
场景确定模块,被配置为将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
8.根据权利要求7所述的装置,其中,
搭配模块被配置为将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u),将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v),将特征向量f(u)与特征向量f(v)的差异作为物品u与物品v的搭配程度值。
9.根据权利要求8所述的装置,其中,
搭配模块被配置为利用预设的特征掩码对特征向量f(u)进行处理,以得到第一特征向量,利用预设的特征掩码对特征向量f(v)进行处理,以得到第二特征向量,将第一特征向量与第二特征向量的差异作为物品u与物品v的搭配程度值。
10.根据权利要求6所述的装置,其中,
加权处理模块被配置为在所述图Gp中,将每个边的值与相应的权值相乘,以得到加权结果,将得到的加权结果求和,以得到相应的主题场景值。
11.根据权利要求6所述的装置,其中,
场景确定模块被配置为查询超过预设门限的主题场景值的图的数量,若超过预设门限的主题场景值的图的数量仅有一个,则将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
12.根据权利要求11所述的装置,其中,
场景确定模块被配置为若超过预设门限的主题场景值的图的数量大于一个,则将具有最大主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
13.一种搭配场景识别装置,包括:
存储器,被配置为存储指令;
处理器,耦合到存储器,处理器被配置为基于存储器存储的指令执行实现如权利要求1-6中任一项的方法。
14.一种计算机可读存储介质,其中,计算机可读存储介质存储有计算机指令,指令被处理器执行时实现如权利要求1-6中任一项的方法。
CN201910712944.4A 2019-08-02 2019-08-02 搭配场景识别方法和装置 Pending CN111797663A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910712944.4A CN111797663A (zh) 2019-08-02 2019-08-02 搭配场景识别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910712944.4A CN111797663A (zh) 2019-08-02 2019-08-02 搭配场景识别方法和装置

Publications (1)

Publication Number Publication Date
CN111797663A true CN111797663A (zh) 2020-10-20

Family

ID=72805455

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910712944.4A Pending CN111797663A (zh) 2019-08-02 2019-08-02 搭配场景识别方法和装置

Country Status (1)

Country Link
CN (1) CN111797663A (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104835062A (zh) * 2015-05-04 2015-08-12 小米科技有限责任公司 服饰搭配方法及装置
US20150339381A1 (en) * 2014-05-22 2015-11-26 Yahoo!, Inc. Content recommendations
US20160005196A1 (en) * 2014-07-02 2016-01-07 Microsoft Corporation Constructing a graph that facilitates provision of exploratory suggestions
CN107248095A (zh) * 2017-04-14 2017-10-13 北京小度信息科技有限公司 推荐方法及装置
CN107529656A (zh) * 2016-06-22 2018-01-02 腾讯科技(深圳)有限公司 一种社交网络社区的划分方法及服务器
CN108363750A (zh) * 2018-01-29 2018-08-03 广东欧珀移动通信有限公司 服装推荐方法及相关产品
CN108446297A (zh) * 2018-01-24 2018-08-24 北京三快在线科技有限公司 一种推荐方法及装置,电子设备
US10109051B1 (en) * 2016-06-29 2018-10-23 A9.Com, Inc. Item recommendation based on feature match
CN108734557A (zh) * 2018-05-18 2018-11-02 北京京东尚科信息技术有限公司 用于生成服饰推荐信息的方法、装置和系统
CN109241412A (zh) * 2018-08-17 2019-01-18 深圳先进技术研究院 一种基于网络表示学习的推荐方法、系统及电子设备
CN109840336A (zh) * 2017-11-27 2019-06-04 北京京东尚科信息技术有限公司 服装设计样本推荐方法和装置
CN110019783A (zh) * 2017-09-27 2019-07-16 北京国双科技有限公司 属性词聚类方法及装置
CN110033851A (zh) * 2019-04-02 2019-07-19 腾讯科技(深圳)有限公司 信息推荐方法、装置、存储介质及服务器

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150339381A1 (en) * 2014-05-22 2015-11-26 Yahoo!, Inc. Content recommendations
US20160005196A1 (en) * 2014-07-02 2016-01-07 Microsoft Corporation Constructing a graph that facilitates provision of exploratory suggestions
CN104835062A (zh) * 2015-05-04 2015-08-12 小米科技有限责任公司 服饰搭配方法及装置
CN107529656A (zh) * 2016-06-22 2018-01-02 腾讯科技(深圳)有限公司 一种社交网络社区的划分方法及服务器
US10109051B1 (en) * 2016-06-29 2018-10-23 A9.Com, Inc. Item recommendation based on feature match
CN107248095A (zh) * 2017-04-14 2017-10-13 北京小度信息科技有限公司 推荐方法及装置
CN110019783A (zh) * 2017-09-27 2019-07-16 北京国双科技有限公司 属性词聚类方法及装置
CN109840336A (zh) * 2017-11-27 2019-06-04 北京京东尚科信息技术有限公司 服装设计样本推荐方法和装置
CN108446297A (zh) * 2018-01-24 2018-08-24 北京三快在线科技有限公司 一种推荐方法及装置,电子设备
CN108363750A (zh) * 2018-01-29 2018-08-03 广东欧珀移动通信有限公司 服装推荐方法及相关产品
CN108734557A (zh) * 2018-05-18 2018-11-02 北京京东尚科信息技术有限公司 用于生成服饰推荐信息的方法、装置和系统
CN109241412A (zh) * 2018-08-17 2019-01-18 深圳先进技术研究院 一种基于网络表示学习的推荐方法、系统及电子设备
CN110033851A (zh) * 2019-04-02 2019-07-19 腾讯科技(深圳)有限公司 信息推荐方法、装置、存储介质及服务器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
姚静天;王永利;侍秋艳;董振江;: "基于联合物品搭配度的推荐算法框架", 上海理工大学学报, no. 01, 15 February 2017 (2017-02-15) *

Similar Documents

Publication Publication Date Title
Cui et al. Dressing as a whole: Outfit compatibility learning based on node-wise graph neural networks
CN107291945B (zh) 基于视觉注意力模型的高精度服装图像检索方法及系统
Yamaguchi et al. Parsing clothing in fashion photographs
McAuley et al. Inferring networks of substitutable and complementary products
CN109670591B (zh) 一种神经网络的训练方法及图像匹配方法、装置
US11748799B2 (en) Method, medium, and system for information recommendation
TWI762209B (zh) 圖像處理方法、裝置、電腦設備及存儲介質
JP2018522339A (ja) 商品画像特徴に基づく個性化捜索装置および方法
CN109685121A (zh) 图像检索模型的训练方法、图像检索方法、计算机设备
WO2019120031A1 (zh) 服饰搭配推荐方法、装置、存储介质及移动终端
Li et al. Learning the compositional visual coherence for complementary recommendations
CN105426462A (zh) 一种基于图像元素的图像搜索方法和装置
US11727463B2 (en) Systems and methods of image-based neural network apparel recommendation
CN111445426B (zh) 一种基于生成对抗网络模型的目标服装图像处理方法
CN111767817B (zh) 一种服饰搭配方法、装置、电子设备及存储介质
US11586666B2 (en) Feature-based search
US20200090039A1 (en) Learning unified embedding
CN104915860A (zh) 一种商品推荐方法及装置
JP2021531605A (ja) 小売マーケティングの為のアンサンブル生成システム
Lee et al. Instance-wise occlusion and depth orders in natural scenes
Gu et al. Fashion coordinates recommendation based on user behavior and visual clothing style
US20200372560A1 (en) Method for exploring and recommending matching products across categories
CN108664514A (zh) 一种图像搜索方法、服务器及存储介质
Lasserre et al. Studio2shop: from studio photo shoots to fashion articles
CN116127199B (zh) 一种针对服装序列推荐的用户偏好建模方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination