CN116615752A - 用于确定与用户的服装协调的至少一种颜色的方法 - Google Patents

用于确定与用户的服装协调的至少一种颜色的方法 Download PDF

Info

Publication number
CN116615752A
CN116615752A CN202180080849.2A CN202180080849A CN116615752A CN 116615752 A CN116615752 A CN 116615752A CN 202180080849 A CN202180080849 A CN 202180080849A CN 116615752 A CN116615752 A CN 116615752A
Authority
CN
China
Prior art keywords
color
coordinated
user
interest
colors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180080849.2A
Other languages
English (en)
Inventor
蒂芙妮·詹姆斯
格雷瓜尔·沙罗
阿尔迪纳·萨旺托
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/139,454 external-priority patent/US11900434B2/en
Application filed by LOreal SA filed Critical LOreal SA
Priority claimed from PCT/EP2021/086978 external-priority patent/WO2022144232A1/en
Publication of CN116615752A publication Critical patent/CN116615752A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Color Image Communication Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种用于确定与用户的服装协调的至少一种颜色的方法包括:‑导入包含用户的服装的至少一部分的表示的至少一张摄影图像(IM)的步骤(IMP);‑分割所述至少一张图像(IM)以识别服装中的至少一个感兴趣区域(S1,S2,S3)的步骤(SEG);‑确定所述至少一个感兴趣区域(S1,S2,S3)的颜色的步骤(DET);以及‑基于根据协调颜色数据库(PAL1‑PAL4)或用于获得协调颜色的计算法则(RGL,11‑71)确定的所述感兴趣区域(S1,S2,S3)的颜色来生成与用户的服装协调的所述至少一种颜色的步骤(GEN)。

Description

用于确定与用户的服装协调的至少一种颜色的方法
实施方式和实施例涉及例如在帮助或提供关于选择化妆品产品的推荐的背景下确定与用户的服装协调的一种或多种颜色。
与服装“协调”的颜色是指与服装的颜色在审美上一致、即调和的颜色。
存在由具有色彩协调领域资格的个人(化妆师)提供的服务,由此推荐协调颜色的组合,即,根据普遍接受的标准、主观标准或甚至与时尚相关的标准相当搭配的颜色的组合。
由于这种类型的推荐的主观方面,在事先不知道服装的情况下,很难提供用于确定与服装协调的颜色的自动技术。
然而,需要根据给定的服装、每次改变的服装,立即向没有化妆师资格的化妆品消费者提供关于协调颜色的推荐(即,无需通过预约咨询具有本领域资格的人)。
因此,关于协调颜色的推荐可以用于帮助化妆品消费者做出审美选择,或者甚至潜在地用于获得具有与服装协调的该颜色的产品。
具体地,用于消费化妆产品的新“连接”方法正在兴起,例如使得可以在家中获得配方独特且由智能电话控制的设备制造的化妆产品。2020年12月31日提交的美国专利申请号17/139,338和2020年12月31日提交的美国专利申请号17/139,340中描述的化妆产品分配器尤其如此。
因此,可以每天使用所确定的与给定服装协调的颜色,以每天即时生成恰好具有该协调颜色的化妆产品。
在这一点上,根据一方面提供了一种用于在计算系统内自动确定与用户的服装协调的化妆产品(例如化妆品产品)的至少一种颜色的方法,该方法包括:
-导入包含用户的服装的至少一部分的表示的至少一张摄影图像的步骤;
-分割所述至少一张图像以识别服装中的至少一个感兴趣区域的步骤;
-确定所述至少一个感兴趣区域的颜色的步骤;以及
-基于根据协调颜色数据库或用于获得协调颜色的计算法则确定的所述感兴趣区域的颜色来生成与用户的服装协调的所述至少一种颜色的步骤。
计算系统例如可以是单独的用户计算设备(比如单独的智能电话、触摸屏平板计算机或计算机),或者实际上是能够彼此通信和交互的用户计算设备和外部服务器。
因此,根据这方面的方法可以例如借助单个用户计算设备(比如智能电话)自动实施以确定与服装协调的颜色,而无需事先知道服装。
因此,该方法可以根据用户的衣服并可选地根据其偏好向用户提供化妆品的一种或多种颜色。
此外,该方法可能使得可以用于基于颜色的关联性来推荐购买完整的化妆产品,或者实际上为每套服装定制“理想”配方,该配方由比如前述已连接的化妆产品分配器等个人设备制作。
根据一种实施方式,根据协调颜色数据库执行的生成步骤包括:
-在包含预先选择的彼此协调的有限数量颜色的颜色库中识别包含与所述所确定感兴趣区域的颜色最接近的颜色的颜色库的步骤;以及
-从所识别的库的颜色中选择与服装协调的所述至少一种颜色的步骤。
根据一种实施方式,根据用于获得协调颜色的计算法则执行的生成步骤包括:
-计算步骤,该计算步骤包括将所述所确定的感兴趣区域的颜色转换为合适的颜色空间中的第一点,以及对该点应用至少一种数学变换,所述至少一种数学变换被预先选择,以便作为结果在所述空间中获得颜色与第一点的颜色协调的至少一个第二点;以及
-从所述至少一个第二点的一种或多种颜色中选择与服装协调的所述至少一种颜色的步骤。
根据一种实施方式,选择步骤包括从所获得的颜色中选择所述至少一种协调颜色,这些颜色属于由用户选择的色系。
该色系可以对应于用户的偏好,或者实际上对应于给定装载到个人设备(例如前述已连接的化妆产品分配器)中的管壳的情况下可能的配方的色系。
根据一种实施方式,生成步骤是使用机器学习模型实施的。
有利地,机器学习模型被配置为根据用户关于在该方法的先前实施中确定的协调颜色的先前选择来定制选择步骤。
该机器学习模型可以例如可以是卷积神经网络,并且使得可以从生成与服装协调的颜色的极高精度受益,这在这种审美主义和色彩调和背景下特别有利。
根据一种实施方式,分割步骤是使用机器学习模型自动实施的。
机器学习模型仍可以是卷积神经网络,这使得一方面可以避免由于分割出不相关部分(例如身体部位或背景的一部分)而导致的错误,另一方面可以检测服装的有利细节(比如对不采用机器学习的技术来说太精细而无法检测的配饰或珠宝或服装上的小图案的颜色)。
根据一种实施方式,分割步骤包括向用户发送表示所述至少一种感兴趣区域在图像中的位置的请求。
根据一种实施方式,确定步骤包括使用机器学习模型对所述至少一张图像执行颜色处理,所述机器学习模型适合于校正用户的服装的所述至少一部分的表示的颜色畸变,该颜色畸变是由照片的照明条件和/或捕获照片的设备造成的。
例如,适合于校正颜色畸变的机器学习模型可以比如是2021年2月3日提交的法国专利申请号FR2101039中描述的机器学习模型。
根据另一方面,提供了一种计算系统,例如单独的用户计算设备或实际上能够彼此通信和交互的用户计算设备和外部服务器,所述系统旨在确定与用户的服装协调的、化妆产品的至少一种颜色,并且包括:
-通信装置,该通信装置被配置为导入包含所述用户的服装的至少一部分的表示的至少一张摄影图像;
-处理装置,该处理装置被配置为:
--分割所述至少一张图像以识别服装中的至少一个感兴趣区域;
--确定所述至少一个感兴趣区域的颜色;以及
--基于根据协调颜色数据库或用于获得协调颜色的计算法则确定的所述感兴趣区域的颜色来生成与所述用户的服装协调的所述至少一种颜色。
根据一个实施例,该处理装置进一步被配置为实施如上定义的方法的分割步骤、确定步骤和生成步骤。
根据一个实施例,该系统包括用户计算设备,该用户计算设备被配置为捕获所述至少一张摄影图像或将所述至少一张摄影图像存储在存储器中,以及在所述导入步骤中向处理装置传送所述至少一张摄影图像。
根据另一方面,还提供了一种计算机程序产品,所述产品包括指令,当该程序被计算机执行时,这些指令使计算机实施如上定义的方法。
根据另一方面,还提供了一种计算机可读介质,所述介质包括指令,这些指令当被计算机执行时使计算机实施如上定义的方法。
通过研读实施方式和实施例的决非限制性的详细描述以及附图,本发明的其他优点和特征将变得显而易见,在附图中:
[图1];
[图2]展示了本发明的实施方式和实施例。
图1展示了用于确定与用户的服装协调的至少一种颜色CC的方法100的一个实施方式示例。
方法100例如旨在由比如智能电话、触摸屏平板计算机、或计算机等计算设备来实施。可选地,方法100可以在如下的配置中与外部服务器协作实施:该服务器接收输入数据(图像IM),执行方法100的步骤的(在SEG、DET、GEN、SEL之中)的至少某些操作,并递送输出数据(CC)。
因此,方法100实际上可以由计算机程序产品来体现,该计算机程序产品包括指令,当该程序被计算机执行时,这些指令使计算机实施方法100。
方法100在实践中也可以以计算机可读介质的形式体现,该计算机可读介质包括指令,这些指令当被计算机执行时使计算机执行方法100。
用于确定与用户的服装协调的至少一种颜色CC的方法100例如可以作为服务提供给用户,以期根据给定的服装、每次改变的服装立即从审美角度向用户提供关于例如化妆品的协调颜色的推荐(即,无需通过预约咨询具有本领域资格的化妆师)。
因此,关于协调颜色的推荐可以用于帮助没有化妆师资格的化妆品消费者做出审美选择,或者甚至潜在地用于获得具有与服装协调的一种或多种颜色的一个或多个可商购产品。
具体地,方法100还可以用于基于颜色的关联性来推荐购买完整的化妆产品,或者实际上为每套服装定制“理想”配方,该配方由比如已连接的化妆产品分配器等个人设备制作。
在这一点上,方法100包括导入包含用户的服装的至少一部分的表示的至少一张摄影图像IM的步骤IMP。
例如,导入摄影图像的步骤IMP可以由用户以自拍模式或可选地通过拍摄他们在镜子中的映像执行的捕获来产生。
接下来,方法100包括分割所述至少一张图像IM以识别服装中的至少一个感兴趣区域S1、S2、S3的步骤SEG。
分割步骤SEG可以使用图像分割算法自动实施,该算法例如被配置为识别对象、定义轮廓、识别图案、去除背景或执行其他合适且已知的图像处理操作。
具体地,分割步骤SEG被配置为识别图像IM中存在的服装的称为“感兴趣区域”的元素S1、S2、S3。
分割步骤SEG例如能够检测服装中靠近面部的上半部分的元素S1,比如衬衫、T恤或紧身连衣裤。
分割步骤SEG例如能够检测服装中靠近骨盆的中间部分的元素S2,比如裤子、半身裙或连衣裙。
分割步骤SEG例如能够检测服装中靠近脚部的底部部分的元素S3,比如鞋子、袜子或者裤子、半身裙或连衣裙的底部。
当然,在图像中识别出的元素S1、S2、S3取决于捕获照片的方式,例如,鞋子可能不会出现在图像IM中。
在图1所展示的示例中,中间感兴趣区域S2和底部感兴趣区域S3都对应于长半身裙的一部分。在这种情况下,分割步骤SEG例如被配置为识别和隔离图案并去除感兴趣区域S2中半身裙的背景颜色,以及识别和隔离半身裙的背景颜色并去除感兴趣区域S3中的图案。
此外,分割步骤SEG可以用卷积神经网络等传统机器学习模型自动实施。这使得一方面可以避免由于分割出不相关部分(例如身体部位或背景的一部分)而导致的错误,另一方面可以检测服装的有利细节(比如对不采用机器学习的技术来说太精细而无法检测的配饰或珠宝或服装上的小图案的颜色)。
可替代地,如下文将参考图2描述的,分割步骤SEG可以由用户“手动”执行,例如通过向用户发送标识所述至少一个感兴趣区域在图像IM中的位置的请求。
基于在分割步骤SEG中识别出的感兴趣区域S1、S2、S3,方法100包括确定感兴趣区域S1、S2、S3的颜色的步骤DET。
颜色确定步骤DET可以例如提取每个感兴趣区域S1、S2、S3的主色,或者可选地对每个感兴趣区域S1、S2、S3中存在的颜色求平均。
有利地,确定DET步骤包括对图像IM应用颜色处理,所述处理适合于校正图像中由照片的照明条件和/或由捕获照片的设备引起的颜色畸变。
具体地,颜色可能会由于捕获照片的设备的特性而畸变。存在一些方法用于补偿由给定硬件造成的畸变。
此外,照明条件也可能改变对颜色的感知:通常,如果照明条件(即拍摄场景中的光源)较冷,则颜色的色温将较冷;而如果照明条件较暖,颜色的色温将较暖。
可以有利地提供机器学习模型来校正颜色的畸变,例如考虑图像捕获所处的地理位置(室内或室外)、图像捕获的时间戳(白天或晚上)、图像捕获当时的天气(晴天、多云、下雨、下雪)。允许估计校正的参数可能比上面呈现的基本元素更复杂。
机器学习模型例如可以是卷积神经网络。使用机器学习模型使得可以从确定DET用户服装的感兴趣区域S1、S2、S3的颜色的极高精度受益,这在这种审美主义和色彩调和背景下特别有利。
在已经确定DET感兴趣区域S1、S2、S3的“实际”颜色之后,方法100包括生成与用户的服装协调的至少一种颜色CC的步骤GEN。
该生成GEN基于在确定步骤DET中确定的一种或多种“实际”颜色来执行。
在这一点上,ID-SEL、RGL-SEL两种方法都是可能的。
第一种方法RGL-SEL可以使用“色彩调和的七大科学法则”来针对在服装颜色与协调颜色之间的某种类型的关系的形成。
在该第一种方法RGL-SEL中,生成步骤GEN根据用于获得协调颜色的计算法则RGL来执行,并且在计算步骤RGL之后包括选择步骤SEL。
计算步骤RGL包括将感兴趣区域的所确定的颜色转换为合适的颜色空间(例如“HSV”空间)的第一点“dep”,并对该“起始”点dep应用至少一种数学变换11、21、31、41、51、61、71。
该数学变换是根据色彩调和的七大科学法则预先选择的,以便作为结果在所述空间中获得颜色与第一点的颜色协调的至少一个第二点。
色彩调和的七大科学法则在很适合人类用来表征色彩的“HSV”或“色相-饱和度-明度”颜色空间中以如下方式定义:
第一法则11是单色变换,即变换到与起始颜色dep相同色相的各种饱和度和明度。
第二法则21是起始颜色dep的互补变换,即,在色相圆盘表示中投影到与起始颜色的色相径向相对的色相。
第三法则31是相邻互补变换,即,投影到与起始颜色dep互补的色相相邻的色相。
第四法则41是到相邻颜色的变换,即,投影到与起始颜色dep的色相相邻的色相。
第五法则51是正方形变换,即,投影与起始色相dep形成以色相圆盘为中心的正方形的三种色相。
第六法则61是三角形变换,即,投影与起始色相dep形成以色相圆盘为中心的等腰三角形的两个色相。
第七法则71是矩形变换,即,投影与起始色相dep形成以色相圆盘为中心的矩形的三种色相。
有利地,在除单色第一法则11之外的所有法则21-71中,起始颜色的饱和度和明度将在通过各种变换21-71获得的颜色中保留(即,保持相同)。
基于经由各种变换11-71获得的颜色,生成GEN协调颜色CC包括从一种或多种所得颜色中选择SEL至少一种协调颜色CCD(j.i-k)。
例如,可以根据用户选择的色系中的成员来选择所得颜色。例如,在比如粉底或口红等化妆品的背景下,色系可以是“红色”、“橙色”、“紫红色”或“裸色”。
该色系可以对应于用户的偏好PREF(图2),或者实际上对应于给定装载到个人设备(例如已连接的化妆产品分配器)中的管壳的情况下可能的配方的色系。
此外,生成步骤GEN可以利用机器学习模型来实施,该机器学习模型被配置和训练以选择根据色彩调和的七大科学法则得到的最适合给定类型的化妆品的颜色。
此外,机器学习模型被有利地配置为根据用户关于在方法100的先前实施中确定的协调颜色的先前选择来定制选择步骤SEL。
同样,机器学习模型例如可以是卷积神经网络。同样使用机器学习模型使得可以从生成与服装协调的颜色CC的极高精度受益,这在这种审美主义和色彩调和背景下特别有利。
第二种方法ID-SEL可以基于化妆师鉴于季节风格结合服装颜色的推荐预先确定的调色板。
在这一点上,参考图2。
图2在第二种方法ID-SEL的背景下展示了方法100直到生成协调颜色CC的步骤。
在该第二种方法ID-SEL中,生成步骤GEN是根据协调颜色的数据库PALi执行的(1≤i≤4),并且在识别步骤ID之后包括选择步骤SEL。
颜色库或“调色板”PAL1、PAL2、PAL3、PAL4各自包含有限数量的颜色,其由化妆师预先定义,以包含在审美上彼此协调的颜色。
例如,每个调色板PALi(1≤i≤4)可以对应于季节风格:“冬”、“春”、“夏”、“秋”。
识别步骤ID(图1)包括在颜色库PAL1、PAL2、PAL3、PAL4中识别包含与所述所确定的感兴趣区域S1、S2、S3的颜色最接近的颜色的颜色库PALi(1≤i≤4)。
基于经由各种变换11-71获得的颜色,生成GEN协调颜色CC包括从一个或多个所识别的库PALi(1≤i≤4)的颜色中选择SEL至少一种协调颜色CC(j.i-k,例如j=3,i=2,k=1或2或3)。
例如,可以根据用户选择PREF的色系FAMj(1≤j≤4)中的成员来选择所得颜色。例如,在比如粉底或口红等化妆品的背景下,色系可以是“红色”、“橙色”、“紫红色”或“裸色”。
该色系FAMj(1≤j≤4)可以对应于用户2的偏好PREF,或者实际上对应于给定装载到个人设备(例如已连接的化妆产品分配器)中的管壳的情况下可能的配方的色系。
因此,可以通过在表中对应于所识别的调色板PALi的行“i”(1≤i≤4)以及对应于所选色系FAMj(1≤j≤4)的列“j”处获得的配对j.i来识别协调颜色CC。可以针对给定配对j.i选择多个协调颜色CC,然后由附加索引“k”标识每个协调颜色。例如,三种协调颜色3.2-1、3.2-2、3.2-3(即j=3、i=2、k=1或2或3)是在“春”调色板PAL2中从FAM3“紫红色”色系获得的。
当分别针对多个感兴趣区域S1、S2、S3识别出多个调色板PALi(1≤i≤4)时,有利地优先考虑在图像IM中与用户面部最接近的感兴趣区域S1。
因此,对于所选色系FAMj(j=J),如果识别出单个调色板PALi(i=I),则选择步骤SEL递送K个协调颜色J.I-k(1≤k≤K),例如K=3。
对于所选色系FAMj(j=J),如果识别出两个调色板PALi(i=I1或I2),则选择步骤SEL递送K1个协调颜色J1.I1-k(1≤k≤K1);和K2个协调颜色J1.I2-k(1≤k≤K2),其中K1+K2=K且K2≤K1,例如K1=2并且K2=1。
对于所选色系FAMj(j=J),如果识别出三个调色板PALi(i=I1或I2或I3),则选择步骤SEL递送K1个协调颜色J1.I1-k(1≤k≤K1);K2个协调颜色J1.I2-k(1≤k≤K2);和K3个协调颜色J1.I3-k(1≤k≤K3),其中K1+K2+K3=K并且K3≤K2≤K1,例如K1=1,K2=1并且K3=1。
此外,生成步骤可以用机器学习模型来实施,该机器学习模型被配置和训练以生成属于给定调色板PALi并且最适合给定类型的化妆品的颜色。
此外,机器学习模型被有利地配置为根据用户关于在方法100的先前实施中确定的协调颜色的先前选择来定制选择步骤SEL。
同样,机器学习模型例如可以是卷积神经网络。同样使用机器学习模型使得可以从生成与服装协调的颜色CC的极高精度受益,这在这种审美主义和色彩调和背景下特别有利。
此外,作为参考图1描述的自动分割SEG的替代方案,图2展示了由用户“手动”执行分割SEG的示例。
具体地,用户可以将探头S1、S2、S3定位在他选择的服装的感兴趣区域上(例如借助显示图像IM的触摸屏)。从例如由智能电话SMPH执行方法100的角度来看,分割步骤SEG包括向用户发送标识所述至少一个感兴趣区域S1、S2、S3在图像IM中的位置的请求。
因此,图2展示了计算系统SYS,其旨在确定与用户的服装协调的至少一种颜色并且适合于实施上述方法100。
系统SYS包括用户计算设备(例如智能电话SMPH)以及可选的外部服务器。
用户计算设备SMPH包括通信装置,该通信装置被配置为执行方法100的导入步骤IMP(例如经由互联网并与服务器的通信装置通信)。
例如,用户计算设备SMPH通常包括摄影传感器CAM,该摄影传感器被配置为捕获摄影图像IM,并且/或者该用户计算设备通常包括存储器,该存储器适合于存储所述至少一个摄影图像IM。
外部服务器或者可替代地用户计算设备SMPH包括处理装置,该处理装置被配置为执行方法100的分割步骤SEG、方法100的确定步骤DET和生成协调颜色CC的步骤GEN。
当处理装置全部并入用户计算设备SMPH时,导入步骤对应于将图像IM的数据从摄影传感器CAM或从存储器中内部传输到处理装置。
换言之,已经描述了方法100和对应的系统使用电话SMPH的相机CAM提取服装(例如衬衫、裤子或鞋子)的某些位(“感兴趣区域”)的颜色。
利用这组颜色,方法100然后通过在预先存在的颜色库PAL1-PAL4中找到最接近的颜色匹配及其对应的颜色体系,将这组颜色中的每一种颜色分类到某一“体系”或特定“季节”(夏、冬、春、秋)。
此外,在用户期望PREF的色系FAMj中进行“子选择”,以在颜色的色相中实现更高的精度。
然后,可以推荐给定体系PALi和可选的给定色系FAMj中的化妆产品,其中,优先考虑与面部最接近的颜色,以便优化用户的妆容与其服装的协调性。
色系FAMj的选择可以对应于已连接的化妆品分配器基于安装在分配器中的一组管壳、基于分配设备中的管壳的数量和类型、并基于用户决定使用的探头的数量和优先级而能够生产的颜色。用户也可以选择另一个色系FAMj,以便查看利用其他管壳可获得的选项。这可能促使用户购买一组新的管壳。
此外,使用人工智能可以为用户提供一种新型的色相推荐服务。通过采用考虑到他们的日常服装的其他元素(比如他们的衣服、鞋子和配饰)的更具包容性的方法,可以经常根据用户的偏好定制推荐。

Claims (14)

1.一种用于在计算系统内自动确定与用户的服装协调的、化妆产品的至少一种颜色的方法,包括:
-导入包含所述用户的服装的至少一部分的表示的至少一张摄影图像(IM)的步骤(IMP);
-分割所述至少一张图像(IM)以识别所述服装中的至少一个感兴趣区域(S1,S2,S3)的步骤(SEG);
-确定所述至少一个感兴趣区域(S1,S2,S3)的颜色的步骤(DET);以及
-基于根据协调颜色数据库(PAL1-PAL4)或用于获得协调颜色的计算法则(RGL,11-71)确定的所述感兴趣区域(S1,S2,S3)的颜色来生成与所述用户的服装协调的所述至少一种颜色的步骤(GEN)。
2.根据权利要求1所述的方法,其中,根据协调颜色数据库(PAL1-PAL4)执行的所述生成步骤(GEN)包括:
-在包含预先选择的彼此协调的有限数量颜色的颜色库(PAL1-PAL4)中识别包含与所确定的感兴趣区域(S1,S2,S3)的颜色最接近的颜色的颜色库(PAL1)的步骤(ID);以及
-从所识别的库(PAL1)的颜色中选择与所述服装协调的所述至少一种颜色(c3.1,c3.2,c3.3)的步骤(SEL)。
3.根据权利要求1和2中任一项所述的方法,其中,根据用于获得协调颜色的计算法则(RGL,11-71)执行的所述生成步骤(GEN)包括:
-计算步骤(RGL),所述计算步骤包括将所确定的感兴趣区域(S1,S2,S3)的颜色转换为合适的颜色空间中的第一点,以及对所述点应用至少一种数学变换(11-71),所述至少一种数学变换(11-71)被预先选择,以便作为结果在所述空间中获得颜色与所述第一点的颜色协调的至少一个第二点;以及
-从所述至少一个第二点的一种或多种颜色中选择与所述服装协调的所述至少一种颜色(c3.1,c3.2,c3.3)的步骤(SEL)。
4.根据权利要求2和3中任一项所述的方法,其中,所述选择步骤(SEL)包括从所获得的颜色中选择所述至少一种协调颜色,这些颜色属于由用户选择的色系(FAMa-FAMd)。
5.根据前述权利要求之一所述的方法,其中,所述生成步骤(GEN)是使用机器学习模型(AI_GEN)实施的。
6.根据与权利要求2至4之一相结合的权利要求5所述的方法,其中,所述机器学习模型(AI_GEN)被配置为根据所述用户关于在所述方法的先前实施中确定的协调颜色的先前选择来定制所述选择步骤(SEL)。
7.根据权利要求1至6之一所述的方法,其中,所述分割步骤(SEG)是使用机器学习模型(AI_TCOL)自动实施的。
8.根据权利要求1至6之一所述的方法,其中,所述分割步骤(SEG)包括向所述用户发送表示所述至少一个感兴趣区域在所述图像中的位置的请求。
9.根据前述权利要求之一所述的方法,其中,所述确定步骤(DET)包括使用机器学习模型(AI_TCOL)对所述至少一张图像(IMk)执行颜色处理(TCOL),所述机器学习模型适合于校正所述用户的服装的所述至少一部分的表示的颜色畸变,所述颜色畸变是由所述照片的照明条件和/或捕获所述照片的设备(CAM)造成的。
10.一种用于确定与用户的服装协调的、化妆产品的至少一种颜色的计算系统,包括:
-通信装置(COM),所述通信装置被配置为导入包含所述用户的服装的至少一部分的表示的至少一张摄影图像(IM);
-处理装置(PU),所述处理装置被配置为:
--分割(SEG)所述至少一张图像(IM)以识别所述服装中的至少一个感兴趣区域(S1,S2,S3);
--确定(DET)所述至少一个感兴趣区域(S1,S2,S3)的颜色;以及
--基于根据协调颜色数据库(PAL1-PAL4)或用于获得协调颜色的计算法则(RGL,11-71)确定的所述感兴趣区域(S1,S2,S3)的颜色来生成(GEN)与所述用户的服装协调的所述至少一种颜色。
11.根据权利要求10所述的系统,其中,所述处理装置(PU)进一步被配置为实施根据权利要求2至9之一所述的分割步骤(SEG)、确定步骤(DET)和生成步骤(GEN)。
12.根据权利要求10和11中任一项所述的系统,包括用户计算设备(APP),所述用户计算设备被配置为捕获所述至少一张摄影图像(IM)或将所述至少一张摄影图像存储在存储器中,以及在所述导入步骤(IMP)中向所述处理装置(PU)传送所述至少一张摄影图像。
13.一种计算机程序产品,包括指令,当所述程序被计算机执行所述程序时,所述指令使所述计算机执行根据权利要求1至9之一所述的方法。
14.一种计算机可读介质,包括指令,所述指令当被计算机执行时使所述计算机执行根据权利要求1至9之一所述的方法。
CN202180080849.2A 2020-12-31 2021-12-21 用于确定与用户的服装协调的至少一种颜色的方法 Pending CN116615752A (zh)

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
US17/139,454 US11900434B2 (en) 2020-01-31 2020-12-31 Ecosystem for dispensing personalized foundation
US17/139,457 2020-12-31
US17/139,340 2020-12-31
US17/139,340 US11935107B2 (en) 2020-01-31 2020-12-31 Ecosystem for dispensing personalized lipstick
US17/139,454 2020-12-31
US17/139,391 US11478063B2 (en) 2020-01-31 2020-12-31 Cleaning system for cosmetic dispensing device
US17/139,391 2020-12-31
US17/139,457 US20210236863A1 (en) 2020-01-31 2020-12-31 Ecosystem for dispensing personalized skincare product
US17/139,338 2020-12-31
US17/139,338 US20210235845A1 (en) 2020-01-31 2020-12-31 Smart swappable cartridge system for cosmetic dispensing device
FR2108455 2021-08-04
PCT/EP2021/086978 WO2022144232A1 (en) 2020-12-31 2021-12-21 Method for determining at least one colour compatible with an outfit of a user

Publications (1)

Publication Number Publication Date
CN116615752A true CN116615752A (zh) 2023-08-18

Family

ID=82160152

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180080849.2A Pending CN116615752A (zh) 2020-12-31 2021-12-21 用于确定与用户的服装协调的至少一种颜色的方法

Country Status (2)

Country Link
CN (1) CN116615752A (zh)
FR (2) FR3118517B1 (zh)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101668451B (zh) * 2007-03-08 2012-05-30 惠普开发有限公司 用于基于从图像估计的皮肤色彩推荐产品的方法和系统
US10347163B1 (en) * 2008-11-13 2019-07-09 F.lux Software LLC Adaptive color in illuminative devices
CN109451292B (zh) * 2018-12-15 2020-03-24 深圳市华星光电半导体显示技术有限公司 图像色温校正方法及装置

Also Published As

Publication number Publication date
FR3118517A1 (fr) 2022-07-01
FR3118517B1 (fr) 2024-03-15
FR3118521A1 (fr) 2022-07-01

Similar Documents

Publication Publication Date Title
US11164240B2 (en) Virtual garment carousel
US20130300761A1 (en) Method and system for color matching and color recommendation
US20230153889A1 (en) Product recommendation device and method based on image database analysis
US9218550B2 (en) Method and system for creating a customized print
KR101140533B1 (ko) 이미지로부터 추정된 피부색에 기초해서 제품을 추천하는 컴퓨터 구현된 방법
US20090251484A1 (en) Avatar for a portable device
US20140306982A1 (en) Method for simulating hair having variable colorimetry and device for implementing said method
KR20180095008A (ko) 워치 페이스를 제시하는 방법 및 장치, 그리고 스마트 워치
CN107080435A (zh) 虚拟衣橱管理系统和方法以及基于该系统的服饰销售方法
US10915744B2 (en) Method for evaluating fashion style using deep learning technology and system therefor
JP6986676B2 (ja) 化粧品提示システム、化粧品提示方法、及び化粧品提示サーバ
CN107248099A (zh) 服饰搭配推荐方法、系统及存储介质
KR20170003046A (ko) 의상 코디 시스템 및 방법
US20220366675A1 (en) Apparatus and method for developing style analysis model based on data augmentation
KR20160049853A (ko) 사용자맞춤형 온라인 패션 코디네이션 자동 매칭방법
KR20200025291A (ko) 사용자 단말기를 이용한 퍼스널 컬러진단을 통한 쇼핑서비스 제공방법 및 그 시스템
KR20110032733A (ko) 퍼스널 이미지 제공 단말기 및 제공 방법
KR20180133121A (ko) 패션 아이템 추천 서버 및 그를 이용한 패션 아이템 추천 방법
JP6178487B1 (ja) コーディネートシステム、コーディネート装置、及びプログラム
CN116615752A (zh) 用于确定与用户的服装协调的至少一种颜色的方法
US20150039994A1 (en) Color-based designs
US20240070751A1 (en) Method for determining at least one colour compatible with an outfit of a user
KR20140139901A (ko) 의류 관리 및 코디네이션 기능을 갖춘 어플리케이션
WO2016052227A1 (ja) コーディネート提案装置及び方法
WO2022144232A1 (en) Method for determining at least one colour compatible with an outfit of a user

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination