CN111797663A - 搭配场景识别方法和装置 - Google Patents
搭配场景识别方法和装置 Download PDFInfo
- Publication number
- CN111797663A CN111797663A CN201910712944.4A CN201910712944A CN111797663A CN 111797663 A CN111797663 A CN 111797663A CN 201910712944 A CN201910712944 A CN 201910712944A CN 111797663 A CN111797663 A CN 111797663A
- Authority
- CN
- China
- Prior art keywords
- scene
- article
- collocation
- theme
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012545 processing Methods 0.000 claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 6
- 239000010985 leather Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本公开提供一种搭配场景识别方法和装置。搭配场景识别装置在物品集合中,计算物品u与物品v的搭配值d(u,v),在与每个主题场景p相对应的图Gp中,将搭配值d(u,v)作为节点U和节点V之间的边的值,在图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,将具有超过预设门限的主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。本公开能够为不同类型的服饰搭配确定相应的搭配场景。
Description
技术领域
本公开涉及信息处理领域,特别涉及一种搭配场景识别方法和装置。
背景技术
在相关技术中,为了确定不同类型的服饰是否搭配,通过将与服饰相关联的数据进行深度学习,以便得到不同服饰之间的关联性,进而利用该关联性确定不同类型的服饰是否适于搭配组合。
发明内容
发明人通过研究发现,通过传统的深度学习,只能得到不同类型的服饰是否能够进行搭配的结论,但并不能给出这些服饰适于在何种场景下进行搭配的结论。
为此,本公开提供一种确定不同类型的服饰适于何种搭配场景的方案。
根据本公开实施例的第一方面,提供一种搭配场景识别方法,包括:在物品集合中,计算物品u与物品v的搭配值d(u,v),其中u、v为自然数,1≤u≤M,1≤v≤M,u≠v,M为所述物品集合中的物品总数;在与每个主题场景p相对应的图Gp中,将所述搭配值d(u,v)作为节点U和节点V之间的边的值,其中所述图Gp图中的节点与所述物品集合中的物品一一对应,p为自然数,1≤p≤P,P为主题场景总数;在所述图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,其中节点U和节点V之间的边的权值为物品u与物品v相对于主题p的主题参数;将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
在一些实施例中,计算物品u与物品v的搭配值d(u,v)包括:将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u);将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v);将特征向量f(u)与特征向量f(v)的差异作为物品u与物品v的搭配程度值。
在一些实施例中,将特征向量f(u)与特征向量f(v)的距离作为物品u与物品v的搭配程度值包括:利用预设的特征掩码对特征向量f(u)进行处理,以得到第一特征向量;利用预设的特征掩码对特征向量f(v)进行处理,以得到第二特征向量;将第一特征向量与第二特征向量的差异作为物品u与物品v的搭配程度值。
在一些实施例中,在所述图Gp中,对各边的值进行加权处理包括:在所述图Gp中,将每个边的值与相应的权值相乘,以得到加权结果;将得到的加权结果求和,以得到相应的主题场景值。
在一些实施例中,将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景包括:查询超过预设门限的主题场景值的图的数量;若超过预设门限的主题场景值的图的数量仅有一个,则将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
在一些实施例中,若超过预设门限的主题场景值的图的数量大于一个,则将具有最大主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
根据本公开实施例的第二方面,提供一种搭配场景识别装置,包括:搭配模块,被配置为在物品集合中,计算物品u与物品v的搭配值d(u,v),其中u、v为自然数,1≤u≤M,1≤v≤M,u≠v,M为所述物品集合中的物品总数;配置模块,被配置为在与每个主题场景p相对应的图Gp中,将所述搭配值d(u,v)作为节点U和节点V之间的边的值,其中所述图Gp中的节点与所述物品集合中的物品一一对应,p为自然数,1≤p≤P,P为主题场景总数;加权处理模块,被配置为在所述图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,其中节点U和节点V之间的边的权值为物品u与物品v相对于主题p的主题参数;场景确定模块,被配置为将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
在一些实施例中,搭配模块被配置为将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u),将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v),将特征向量f(u)与特征向量f(v)的差异作为物品u与物品v的搭配程度值。
在一些实施例中,搭配模块被配置为利用预设的特征掩码对特征向量f(u)进行处理,以得到第一特征向量,利用预设的特征掩码对特征向量f(v)进行处理,以得到第二特征向量,将第一特征向量与第二特征向量的差异作为物品u与物品v的搭配程度值。
在一些实施例中,加权处理模块被配置为在所述图Gp中,将每个边的值与相应的权值相乘,以得到加权结果,将得到的加权结果求和,以得到相应的主题场景值。
在一些实施例中,场景确定模块被配置为查询超过预设门限的主题场景值的图的数量,若超过预设门限的主题场景值的图的数量仅有一个,则将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
在一些实施例中,场景确定模块被配置为若超过预设门限的主题场景值的图的数量大于一个,则将具有最大主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
根据本公开实施例的第四方面,提供一种搭配场景识别装置,包括:存储器,被配置为存储指令;处理器,耦合到存储器,处理器被配置为基于存储器存储的指令执行实现如上述任一实施例涉及的方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其中,计算机可读存储介质存储有计算机指令,指令被处理器执行时实现如上述任一实施例涉及的方法。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开一个实施例的搭配场景识别方法的流程示意图;
图2为本公开一个实施例的搭配场景识别架构的结构示意图;
图3为本公开一个实施例的搭配场景识别装置的结构示意图;
图4为本公开另一个实施例的搭配场景识别装置的结构示意图;
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。
在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
发明人注意到,某些服饰的搭配,在有些场景下是合适的,而在另一些场景下是不合适的。例如,对于衬衫、手提包、高跟鞋、牛仔裙的服饰组合来说,对于聚会场景是合适的,而对于商务场景是不合适的。若要与商务场景匹配,可以将牛仔裙换为长裙。又例如,对于衬衫、裙子、手提包和尖头皮鞋的服饰组合来说,对于约会场景是合适的,而对于旅游场景是不合适的。若要与旅游场景匹配,可以将尖头皮鞋换为平底运动鞋。
也就是说,同样的服饰搭配,在某些场景下是合适的,而在另一些场景下是不合适的。因此在考虑服饰搭配时,需要在特定的场景下考虑服饰搭配是否合适。因此,本公开提供一种能够确定不同类型的服饰适于何种搭配场景的方案。
图1为本公开一个实施例的搭配场景识别方法的流程示意图。在一些实施例中,搭配场景识别方法步骤由搭配场景识别装置执行。
在步骤101,在物品集合中,计算物品u与物品v的搭配值d(u,v)。u、v为自然数,1≤u≤M,1≤v≤M,u≠v,M为物品集合中的物品总数。
例如,在一个物品集合中,包括牛仔衣、长裙和凉鞋。在这种情况下,需要分别计算牛仔衣和长裙、牛仔衣和凉鞋、长裙和凉鞋的搭配值。
在一些实施例中,上述计算物品u与物品v的搭配值d(u,v)的步骤包括:将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u)。将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v)。将特征向量f(u)与特征向量f(v)的差异作为物品u与物品v的搭配程度值。这里需要说明的是,所使用的神经网络是经过训练后的神经网络。
例如,将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u;θ),其中θ为神经网络中的相应参数。将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v;θ)。利用下列公式(1)计算物品u与物品v的搭配程度值。
在一些实施例中,为了进一步提升处理效率,提升处理精度,上述将特征向量f(u)与特征向量f(v)的距离作为物品u与物品v的搭配程度值的步骤可包括:利用预设的特征掩码(mask)对特征向量f(u)进行处理,以得到第一特征向量。利用预设的特征掩码对特征向量f(v)进行处理,以得到第二特征向量。将第一特征向量与第二特征向量的差异作为物品u与物品v的搭配程度值。
例如,物品u属于服饰U,物品v属于服饰V,则相应的特征掩码为m(U,V),则利用下列公式(2)计算物品u与物品v的搭配程度值。
由此,这个集合中的偏差(Loss)可由下列公式(4)来表示:
通过训练m(U,V),以便使得上述公式(4)的结果逼近于零。
在步骤102中,在与每个主题场景p相对应的图Gp中,将搭配值d(u,v)作为节点U和节点V之间的边的值。图Gp中的节点与物品集合中的物品一一对应,p为自然数,1≤p≤P,P为主题场景总数。
在步骤103,在图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,其中节点U和节点V之间的边的权值为物品u与物品v相对于主题p的主题参数。
在一些实施例中,设有7个主题场景,则分别设置有与这7个主题场景相对应的7个图。每个图中有三个节点,节点U、V、W分别对应与物品集合中的物品u、v、w相对应。通过上述计算,将节点U和节点V之间的边的值设置为d(u,v),将节点U和节点W之间的边的值设置为d(u,w),将节点V和节点W之间的边的值设置为d(v,w)。
在第p个图中,将每个边的值与相应的权值相乘,以得到加权结果。将得到的加权结果求和,以得到相应的主题场景值。相应的计算公式如下:
若采用特征掩码来计算搭配值,则公式(5)还可表示为:
在步骤104,将具有超过预设门限的主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。
在一些实施例中,通过查询超过预设门限的主题场景值的图的数量,若超过预设门限的主题场景值的图的数量仅有一个,则将该具有超过预设门限的主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。若超过预设门限的主题场景值的图的数量大于一个,则将具有最大主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。
例如,对于西服、衬衣、皮鞋的服饰组合,可能既适于商务场景,也适于约会场景,在这种情况下,可将分值最高的商务场景反馈给用户,当然也可将商务场景和约会场景这两个结果都反馈给用户。
在本公开上述实施例提供的搭配场景识别方法中,通过将物品集合中的任意两个物品的搭配程度作为相对应图的相应边的值,进而利用图的各边的值的加权和来确定物品集合所适合的搭配场景。
图2为本公开一个实施例的搭配场景识别架构的结构示意图。
如图2所示,物品集合中包括长裙u、牛仔衣v和凉鞋w。利用神经网络分别计算长裙u和牛仔衣v的搭配值d(u,v),长裙u和凉鞋w的搭配值d(u,w),牛仔衣v和凉鞋w的搭配值d(v,w)。
这里设共有7个主题场景,分别为约会、旅行、聚会、运动、学校、商务和居家。则相应的有7个图,每个图对应一个场景。在每个图中,分别设有节点U、V、W,分别对应于长裙u、牛仔衣v和凉鞋w。在每个图中,任意两个节点之间的线的权重与对应的场景相关联。通过将所得到搭配值d(u,v)、d(u,w)和d(v,w)输入到这7个图中,在每个图中,将d(u,v)作为节点U和节点V之间的边的值、将d(u,w)作为节点U和节点W之间的边的值、将d(v,w)作为节点V和节点W之间的边的值。在每个图中,通过计算各边的值的加权和,从而得到该图的主题场景值。若主题场景值大于门限,在表明长裙u、牛仔衣v和凉鞋w的搭配组合适于该图所对应的场景。
图3为本公开一个实施例的搭配场景识别装置的结构示意图。如图3所示,搭配场景识别装置包括搭配模块31、配置模块32、加权处理模块33和场景确定模块34。
搭配模块31被配置为在物品集合中,计算物品u与物品v的搭配值d(u,v),其中u、v为自然数,1≤u≤M,1≤v≤M,u≠v,M为物品集合中的物品总数。
在一些实施例中,搭配模块31将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u),将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v),将特征向量f(u)与特征向量f(v)的差异作为物品u与物品v的搭配程度值。
在一些实施例中,搭配模块31利用预设的特征掩码对特征向量f(u)进行处理,以得到第一特征向量,利用预设的特征掩码对特征向量f(v)进行处理,以得到第二特征向量,将第一特征向量与第二特征向量的差异作为物品u与物品v的搭配程度值。
配置模块32被配置为在与每个主题场景p相对应的图Gp中,将搭配值d(u,v)作为节点U和节点V之间的边的值,其中图Gp中的节点与物品集合中的物品一一对应,p为自然数,1≤p≤P,P为主题场景总数。
加权处理模块33被配置为在图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,其中节点U和节点V之间的边的权值为物品u与物品v相对于主题p的主题参数。
在一些实施例中,加权处理模块33被配置为在图Gp中,将每个边的值与相应的权值相乘,以得到加权结果,将得到的加权结果求和,以得到相应的主题场景值。
场景确定模块34被配置为将具有超过预设门限的主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。
在一些实施例中,场景确定模块34被配置为查询超过预设门限的主题场景值的图的数量,若超过预设门限的主题场景值的图的数量仅有一个,则将具有超过预设门限的主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。
此外,场景确定模块34还被配置为若超过预设门限的主题场景值的图的数量大于一个,则将具有最大主题场景值的图所对应的主题场景作为物品集合对应的搭配场景。
图4为本公开另一个实施例的搭配场景识别装置的结构示意图。如图4所示,搭配场景识别装置包括存储器41和处理器42。
存储器41用于存储指令,处理器42耦合到存储器41,处理器42被配置为基于存储器存储的指令执行实现如图1中任一实施例涉及的方法。
如图4所示,该装置还包括通信接口43,用于与其它设备进行信息交互。同时,该装置还包括总线44,处理器42、通信接口43、以及存储器41通过总线44完成相互间的通信。
存储器41可以包含高速RAM存储器,也可还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。存储器41也可以是存储器阵列。存储器41还可能被分块,并且块可按一定的规则组合成虚拟卷。
此外处理器42可以是一个中央处理器CPU,或者可以是专用集成电路ASIC,或是被配置成实施本公开实施例的一个或多个集成电路。
本公开同时还涉及一种计算机可读存储介质,其中计算机可读存储介质存储有计算机指令,指令被处理器执行时实现如图1中任一实施例涉及的方法。
在一些实施例中,在上面所描述的功能单元模块可以实现为用于执行本公开所描述功能的通用处理器、可编程逻辑控制器(Programmable Logic Controller,简称:PLC)、数字信号处理器(Digital Signal Processor,简称:DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,简称:ASIC)、现场可编程门阵列(Field-ProgrammableGate Array,简称:FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件或者其任意适当组合。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
本公开的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本公开限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本公开的原理和实际应用,并且使本领域的普通技术人员能够理解本公开从而设计适于特定用途的带有各种修改的各种实施例。
Claims (14)
1.一种搭配场景识别方法,包括:
在物品集合中,计算物品u与物品v的搭配值d(u,v),其中u、v为自然数,1≤u≤M,1≤v≤M,u≠v,M为所述物品集合中的物品总数;
在与每个主题场景p相对应的图Gp中,将所述搭配值d(u,v)作为节点U和节点V之间的边的值,其中所述图Gp中的节点与所述物品集合中的物品一一对应,p为自然数,1≤p≤P,P为主题场景总数;
在所述图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,其中节点U和节点V之间的边的权值为物品u与物品v相对于主题p的主题参数;
将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
2.根据权利要求1所述的方法,其中,计算物品u与物品v的搭配值d(u,v)包括:
将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u);
将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v);
将特征向量f(u)与特征向量f(v)的差异作为物品u与物品v的搭配程度值。
3.根据权利要求2所述的方法,其中,将特征向量f(u)与特征向量f(v)的距离作为物品u与物品v的搭配程度值包括:
利用预设的特征掩码对特征向量f(u)进行处理,以得到第一特征向量;
利用预设的特征掩码对特征向量f(v)进行处理,以得到第二特征向量;
将第一特征向量与第二特征向量的差异作为物品u与物品v的搭配程度值。
4.根据权利要求1所述的方法,其中,在所述图Gp中,对各边的值进行加权处理包括:
在所述图Gp中,将每个边的值与相应的权值相乘,以得到加权结果;
将得到的加权结果求和,以得到相应的主题场景值。
5.根据权利要求1所述的方法,其中,将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景包括:
查询超过预设门限的主题场景值的图的数量;
若超过预设门限的主题场景值的图的数量仅有一个,则将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
6.根据权利要求5所述的方法,还包括:
若超过预设门限的主题场景值的图的数量大于一个,则将具有最大主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
7.一种搭配场景识别装置,包括:
搭配模块,被配置为在物品集合中,计算物品u与物品v的搭配值d(u,v),其中u、v为自然数,1≤u≤M,1≤v≤M,u≠v,M为所述物品集合中的物品总数;
配置模块,被配置为在与每个主题场景p相对应的图Gp中,将所述搭配值d(u,v)作为节点U和节点V之间的边的值,其中所述图Gp中的节点与所述物品集合中的物品一一对应,p为自然数,1≤p≤P,P为主题场景总数;
加权处理模块,被配置为在所述图Gp中,对各边的值进行加权处理,以得到相应的主题场景值,其中节点U和节点V之间的边的权值为物品u与物品v相对于主题p的主题参数;
场景确定模块,被配置为将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
8.根据权利要求7所述的装置,其中,
搭配模块被配置为将物品u的特征信息输入神经网络,以得到物品u的特征向量f(u),将物品v的特征信息输入神经网络,以得到物品v的特征向量f(v),将特征向量f(u)与特征向量f(v)的差异作为物品u与物品v的搭配程度值。
9.根据权利要求8所述的装置,其中,
搭配模块被配置为利用预设的特征掩码对特征向量f(u)进行处理,以得到第一特征向量,利用预设的特征掩码对特征向量f(v)进行处理,以得到第二特征向量,将第一特征向量与第二特征向量的差异作为物品u与物品v的搭配程度值。
10.根据权利要求6所述的装置,其中,
加权处理模块被配置为在所述图Gp中,将每个边的值与相应的权值相乘,以得到加权结果,将得到的加权结果求和,以得到相应的主题场景值。
11.根据权利要求6所述的装置,其中,
场景确定模块被配置为查询超过预设门限的主题场景值的图的数量,若超过预设门限的主题场景值的图的数量仅有一个,则将具有超过预设门限的主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
12.根据权利要求11所述的装置,其中,
场景确定模块被配置为若超过预设门限的主题场景值的图的数量大于一个,则将具有最大主题场景值的图所对应的主题场景作为所述物品集合对应的搭配场景。
13.一种搭配场景识别装置,包括:
存储器,被配置为存储指令;
处理器,耦合到存储器,处理器被配置为基于存储器存储的指令执行实现如权利要求1-6中任一项的方法。
14.一种计算机可读存储介质,其中,计算机可读存储介质存储有计算机指令,指令被处理器执行时实现如权利要求1-6中任一项的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910712944.4A CN111797663A (zh) | 2019-08-02 | 2019-08-02 | 搭配场景识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910712944.4A CN111797663A (zh) | 2019-08-02 | 2019-08-02 | 搭配场景识别方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111797663A true CN111797663A (zh) | 2020-10-20 |
Family
ID=72805455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910712944.4A Pending CN111797663A (zh) | 2019-08-02 | 2019-08-02 | 搭配场景识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111797663A (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104835062A (zh) * | 2015-05-04 | 2015-08-12 | 小米科技有限责任公司 | 服饰搭配方法及装置 |
US20150339381A1 (en) * | 2014-05-22 | 2015-11-26 | Yahoo!, Inc. | Content recommendations |
US20160005196A1 (en) * | 2014-07-02 | 2016-01-07 | Microsoft Corporation | Constructing a graph that facilitates provision of exploratory suggestions |
CN107248095A (zh) * | 2017-04-14 | 2017-10-13 | 北京小度信息科技有限公司 | 推荐方法及装置 |
CN107529656A (zh) * | 2016-06-22 | 2018-01-02 | 腾讯科技(深圳)有限公司 | 一种社交网络社区的划分方法及服务器 |
CN108363750A (zh) * | 2018-01-29 | 2018-08-03 | 广东欧珀移动通信有限公司 | 服装推荐方法及相关产品 |
CN108446297A (zh) * | 2018-01-24 | 2018-08-24 | 北京三快在线科技有限公司 | 一种推荐方法及装置,电子设备 |
US10109051B1 (en) * | 2016-06-29 | 2018-10-23 | A9.Com, Inc. | Item recommendation based on feature match |
CN108734557A (zh) * | 2018-05-18 | 2018-11-02 | 北京京东尚科信息技术有限公司 | 用于生成服饰推荐信息的方法、装置和系统 |
CN109241412A (zh) * | 2018-08-17 | 2019-01-18 | 深圳先进技术研究院 | 一种基于网络表示学习的推荐方法、系统及电子设备 |
CN109840336A (zh) * | 2017-11-27 | 2019-06-04 | 北京京东尚科信息技术有限公司 | 服装设计样本推荐方法和装置 |
CN110019783A (zh) * | 2017-09-27 | 2019-07-16 | 北京国双科技有限公司 | 属性词聚类方法及装置 |
CN110033851A (zh) * | 2019-04-02 | 2019-07-19 | 腾讯科技(深圳)有限公司 | 信息推荐方法、装置、存储介质及服务器 |
-
2019
- 2019-08-02 CN CN201910712944.4A patent/CN111797663A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150339381A1 (en) * | 2014-05-22 | 2015-11-26 | Yahoo!, Inc. | Content recommendations |
US20160005196A1 (en) * | 2014-07-02 | 2016-01-07 | Microsoft Corporation | Constructing a graph that facilitates provision of exploratory suggestions |
CN104835062A (zh) * | 2015-05-04 | 2015-08-12 | 小米科技有限责任公司 | 服饰搭配方法及装置 |
CN107529656A (zh) * | 2016-06-22 | 2018-01-02 | 腾讯科技(深圳)有限公司 | 一种社交网络社区的划分方法及服务器 |
US10109051B1 (en) * | 2016-06-29 | 2018-10-23 | A9.Com, Inc. | Item recommendation based on feature match |
CN107248095A (zh) * | 2017-04-14 | 2017-10-13 | 北京小度信息科技有限公司 | 推荐方法及装置 |
CN110019783A (zh) * | 2017-09-27 | 2019-07-16 | 北京国双科技有限公司 | 属性词聚类方法及装置 |
CN109840336A (zh) * | 2017-11-27 | 2019-06-04 | 北京京东尚科信息技术有限公司 | 服装设计样本推荐方法和装置 |
CN108446297A (zh) * | 2018-01-24 | 2018-08-24 | 北京三快在线科技有限公司 | 一种推荐方法及装置,电子设备 |
CN108363750A (zh) * | 2018-01-29 | 2018-08-03 | 广东欧珀移动通信有限公司 | 服装推荐方法及相关产品 |
CN108734557A (zh) * | 2018-05-18 | 2018-11-02 | 北京京东尚科信息技术有限公司 | 用于生成服饰推荐信息的方法、装置和系统 |
CN109241412A (zh) * | 2018-08-17 | 2019-01-18 | 深圳先进技术研究院 | 一种基于网络表示学习的推荐方法、系统及电子设备 |
CN110033851A (zh) * | 2019-04-02 | 2019-07-19 | 腾讯科技(深圳)有限公司 | 信息推荐方法、装置、存储介质及服务器 |
Non-Patent Citations (1)
Title |
---|
姚静天;王永利;侍秋艳;董振江;: "基于联合物品搭配度的推荐算法框架", 上海理工大学学报, no. 01, 15 February 2017 (2017-02-15) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cui et al. | Dressing as a whole: Outfit compatibility learning based on node-wise graph neural networks | |
CN107291945B (zh) | 基于视觉注意力模型的高精度服装图像检索方法及系统 | |
Yamaguchi et al. | Parsing clothing in fashion photographs | |
McAuley et al. | Inferring networks of substitutable and complementary products | |
CN109670591B (zh) | 一种神经网络的训练方法及图像匹配方法、装置 | |
US11748799B2 (en) | Method, medium, and system for information recommendation | |
TWI762209B (zh) | 圖像處理方法、裝置、電腦設備及存儲介質 | |
JP2018522339A (ja) | 商品画像特徴に基づく個性化捜索装置および方法 | |
CN109685121A (zh) | 图像检索模型的训练方法、图像检索方法、计算机设备 | |
WO2019120031A1 (zh) | 服饰搭配推荐方法、装置、存储介质及移动终端 | |
Li et al. | Learning the compositional visual coherence for complementary recommendations | |
CN105426462A (zh) | 一种基于图像元素的图像搜索方法和装置 | |
US11727463B2 (en) | Systems and methods of image-based neural network apparel recommendation | |
CN111445426B (zh) | 一种基于生成对抗网络模型的目标服装图像处理方法 | |
CN111767817B (zh) | 一种服饰搭配方法、装置、电子设备及存储介质 | |
US11586666B2 (en) | Feature-based search | |
US20200090039A1 (en) | Learning unified embedding | |
CN104915860A (zh) | 一种商品推荐方法及装置 | |
JP2021531605A (ja) | 小売マーケティングの為のアンサンブル生成システム | |
Lee et al. | Instance-wise occlusion and depth orders in natural scenes | |
Gu et al. | Fashion coordinates recommendation based on user behavior and visual clothing style | |
US20200372560A1 (en) | Method for exploring and recommending matching products across categories | |
CN108664514A (zh) | 一种图像搜索方法、服务器及存储介质 | |
Lasserre et al. | Studio2shop: from studio photo shoots to fashion articles | |
CN116127199B (zh) | 一种针对服装序列推荐的用户偏好建模方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |