CN111971643A - 对个人护理设备的定位 - Google Patents

对个人护理设备的定位 Download PDF

Info

Publication number
CN111971643A
CN111971643A CN201980025510.5A CN201980025510A CN111971643A CN 111971643 A CN111971643 A CN 111971643A CN 201980025510 A CN201980025510 A CN 201980025510A CN 111971643 A CN111971643 A CN 111971643A
Authority
CN
China
Prior art keywords
user
personal care
care device
location
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980025510.5A
Other languages
English (en)
Other versions
CN111971643B (zh
Inventor
V·P·布伊尔
L·J·F·戈伊茨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of CN111971643A publication Critical patent/CN111971643A/zh
Application granted granted Critical
Publication of CN111971643B publication Critical patent/CN111971643B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B21/00Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
    • B26B21/40Details or accessories
    • B26B21/405Electric features; Charging; Computing devices
    • B26B21/4056Sensors or controlling means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B21/00Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
    • B26B21/40Details or accessories
    • B26B21/4081Shaving methods; Usage or wear indication; Testing methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B19/00Clippers or shavers operating with a plurality of cutting edges, e.g. hair clippers, dry shavers
    • B26B19/38Details of, or accessories for, hair clippers, or dry shavers, e.g. housings, casings, grips, guards
    • B26B19/3873Electric features; Charging; Computing devices
    • B26B19/388Sensors; Control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Forests & Forestry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

提供了一种用于确定个人护理设备在用户上的定位的装置(100)。所述装置(100)包括处理器(102),所述处理器被配置为:检测用户的身体的一个或多个部分的定位;当所述个人护理设备在使用中时,检测由所述个人护理设备引起的所述用户的所述身体的所述部分中的至少一个部分的运动;并且基于所述用户的所述身体的所述至少一个部分相对于所述用户的所述身体的所述至少一个部分的所检测的定位的所检测的运动来确定所述个人护理设备在所述用户上的所述定位。所述处理器(102)被配置为:从指向所述用户的成像传感器(108)获取所述用户的图像;并且从所述用户的所获取的图像中检测由所述个人护理设备引起的用户的所述身体的所述一个或多个部分的所述定位以及由所述个人护理设备引起的所述用户的所述身体的所述至少一个部分的所述运动。

Description

对个人护理设备的定位
技术领域
本发明涉及用于确定个人护理设备在用户上的定位的装置和方法。
背景技术
个人护理设备在对适合用户的处置进行调整方面正变得互联、智能和个性化。一些个人护理设备具有感测功能,这种感测功能与使用数据一起用于了解皮肤、毛发和牙齿的状况。
用于向用户提供个性化护理的关键方面是使个人护理设备知道其相对于用户的身体的位置。这种定位信息(或数据)能够允许个人护理设备自动调节设置以优化性能。例如,不同的处置区能够具有不同的特性,从而具有不同的处置要求。此外,定位信息向用户提供了额外的价值,例如,用于使用情况日志记录,用于提供过度处置警告,用于提供建议(例如,基于先前处置的结果对要使用的最佳设置的指示),用于提供反馈(例如,关于处置结果的进展),以及用于确定是否符合处置流程或处置程序。最后,定位信息对个人护理设备的制造商进行设计改进可能是有价值的。例如,组合来自多个用户的信息能够为用户提供新的且更深入的见解,这对于优化个人护理设备的设计以为用户实现最佳结果很有用。
存在多种用于跟踪个人护理设备在用户的身体上的位置的技术。一些现有技术使用(例如被安装在用户附近的)远程相机,该远程相机观察用户以确定个人护理设备相对于用户的身体(例如,面部)的定位。在这样的技术的示例中,使用计算机视觉来跟踪被附接到牙刷的手柄的发光二极管(LED)标记以确定牙刷的绝对旋转取向。这种现有技术能够提供关于在任何给定时间刷到哪颗牙的信息,而无需使用面部识别技术。在另一个示例中,使用计算机视觉经由界标检测来相对于用户的面部跟踪被安装在个人护理设备的处置部分处的红外发光二极管(IR LED)。在又一个示例中,使用计算机视觉来相对于用户的面部跟踪个人护理设备的底部上的特定的三维(3D)基准标记以计算个人护理设备的位置和取向,并且估计处置区相对于面部所在的位置。
然而,依赖于相机的这些现有技术存在问题。具体地,这些现有技术要求以某种方式对个人护理设备进行调整,以便实现对个人护理设备的定位,例如通过向能够被跟踪的个人护理设备添加一个或多个标记(例如,一个或多个灯)来实现对个人护理设备的定位。这增加了个人护理设备的复杂性,并且可能对产品设计产生不可接受的影响。然而,在没有这样的标记的情况下使用相机进行设备定位是困难的,因为在使用期间个人护理设备的部分总是被用户的身体的部分(例如,手)所遮挡。实际上,即使在个人护理设备上添加了标记,在使用期间这些标记也可能被用户的身体的部分(例如,手)所遮挡。
WO 2010/059484公开了一种系统的示例,该系统使用在个人卫生工具上已经存在的作为标记的指定特征以及用户上的指定特征来测量个人卫生工具的至少部分的位置和/或取向。然而,在个人护理设备上使用这些指定的特征仍然存在相同的问题,因为在使用期间这些指定的特征或标记仍然可能被用户的身体的部分(例如,手)所遮挡。该问题会导致个人护理设备在用户上的定位不可靠甚至失败。
US 7344498 B1公开了一种在剃须期间使用数码相机对皮肤应变的光学测量方法,该数码相机记录被施加到皮肤的图案的偏斜。(在剃须期间的)偏斜图像和非偏斜(参考)图像都是必需的,对这两幅图像的比较可用于计算在剃须期间皮肤中的应变。
WO 2015/068068 A1公开了一种可编程毛发修剪系统,该可编程毛发修剪系统包括跟踪系统,该跟踪系统相对于要剪头发的人的头跟踪毛发修剪设备,其中,参考点被附接到毛发修剪设备。
因此,为了解决这些局限性,需要用于确定个人护理设备在用户上的定位的改进的装置和方法。
发明内容
如上所述,用于将个人护理设备定位在用户上的现有技术的局限性在于,现有技术依赖于相机来跟踪个人护理设备或个人护理设备上的标记(其可以是个人护理上的现有标记或被添加到个人护理设备上的标记),并且这可能会导致对设备在用户上的定位不可靠甚至失败,因为用户的身体的部分(例如,手)可能会在相机方向上遮挡个人护理设备或个人护理设备上的标记。因此,提供解决了这些局限性的用于确定个人护理设备在用户上的定位的改进的装置和方法将是有价值的。
因此,根据第一方面,提供了一种用于确定个人护理设备在用户上的定位的装置。所述装置包括处理器,所述处理器被配置为:检测用户的身体的一个或多个部分的定位;并且当所述个人护理设备在使用中时,检测由所述个人护理设备引起的所述用户的所述身体的所述部分中的至少一个部分的运动。所述处理器还被配置为基于所述用户的所述身体的所述至少一个部分相对于所述用户的所述身体的所述至少一个部分的所检测的定位的所检测的运动来确定所述个人护理设备在所述用户上的所述定位。
所述处理器被配置为:从指向所述用户的成像传感器获取所述用户的图像;并且从所述用户的所获取的图像中检测由所述个人护理设备引起的所述用户的所述身体的所述至少一个部分的所述定位以及由所述个人护理设备引起的所述用户的所述身体的所述至少一个部分的所述运动。
在一些实施例中,所述处理器可以被配置为使用欧拉影像放大技术来检测由所述个人护理设备引起的所述用户的所述身体的所述至少一个部分的运动。
在一个实施例中,所述装置可以包括成像(或图像)传感器。在替代实施例中,所述装置可以被配置为与在所述装置外部(即,与所述装置分离或者远离所述装置)的成像传感器通信和/或连接到所述成像传感器。
在一些实施例中,所述处理器可以被配置为:在所述用户的所获取的图像中检测所述用户的一个或多个解剖特征的定位;并且使用在所述用户的所获取的图像中的用户的所述一个或多个解剖特征的所检测的定位来检测所述用户的所述身体的所述一个或多个部分的所述定位。
在一些实施例中,所述处理器可以被配置为识别由所述个人护理设备引起的所述用户的所述身体的所述至少一个部分的所检测的运动的识别标志,其中,所识别的识别标志指示个人护理设备的类型。在这些实施例中,所述处理器还可以被配置为基于所述用户的所述身体的所述至少一个部分相对于所述用户的所述身体的所述至少一个部分的所检测的定位的所检测的运动以及所检测的运动的所识别的识别标志来确定所述个人护理设备在所述用户上的所述定位。
在一些实施例中,所述处理器可以被配置为:估计所述用户的所述身体的所述至少一个部分的所检测的运动的源的定位;并且基于所述用户的所述身体的所述至少一个部分的所检测的运动的所述源的所估计的定位来确定所述个人护理设备在所述用户上的所述定位。
在一些实施例中,所述处理器可以被配置为基于所述用户的所述身体的所述至少一个部分相对于所述用户的所述身体的所述至少一个部分的所检测的定位的所检测的运动以及以下各项中的任何一项或多项来确定所述个人护理设备在所述用户上的所述定位:所述个人护理设备相对于所述用户的所述身体的所述至少一个部分的角度;所述个人护理设备正在以其进行操作的设置;所述个人护理设备的至少一个部件的类型;以及由所述个人护理设备施加在所述用户的所述身体的所述至少一个部分上的压力。
在一些实施例中,所述处理器可以被配置为:跟踪所述个人护理设备在所述用户上的所述定位;并且控制用户接口以基于所述个人护理设备在所述用户上的所跟踪的定位来向所述用户输出指导。
在一些实施例中,所述处理器还可以被配置为基于由所述个人护理设备引起的用户的所述身体的所述至少一个部分的所检测的运动来确定所述用户的所述身体的所述至少一个部分的局部属性。
在一些实施例中,所述处理器还可以被配置为基于所述个人护理设备在所述用户上的所确定的定位来调节所述个人护理设备的一个或多个设置。在这些实施例中的一些实施例中,所述处理器可以被配置为基于所述个人护理设备在所述用户上的所确定的定位以及所述用户的所述身体的所述至少一个部分的所确定的局部属性来调节所述个人护理设备的一个或多个设置。
在一些实施例中,所述个人护理设备可以包括毛发护理设备,并且所述用户的身体的所述至少一个部分包括所述用户的毛发。在一些实施例中,所述个人护理设备可以包括牙齿护理设备,并且所述用户的所述身体的所述至少一个部分包括一颗或多颗牙齿。在一些实施例中,所述个人护理设备可以包括皮肤护理设备,并且所述用户的所述身体的所述至少一个部分包括所述用户的皮肤。
在一些实施例中,所述装置可以包括所述个人护理设备。
根据第二方面,提供了一种操作包括处理器的装置以确定个人护理设备的定位的方法。所述方法包括:检测用户的身体的一个或多个部分的定位;并且当所述个人护理设备在使用中时,检测由所述个人护理设备引起的用户的所述身体的所述至少一个部分中的至少一个部分的运动。所述方法还包括基于所述用户的所述身体的所述至少一个部分相对于所述用户的所述身体的所述至少一个部分的所检测的定位的所检测的运动来确定所述个人护理设备在所述用户上的所述定位。
根据第三方面,提供了一种包括计算机可读介质的计算机程序产品,所述计算机可读介质具有在其中体现的计算机可读代码,所述计算机可读代码被配置为使得在由合适的计算机或处理器运行时令所述计算机或处理器执行上述方法。
根据上述方面和实施例,解决了之前描述的现有技术的局限性。具体地,上述方面和实施例提供了解决了现有技术的局限性的用于确定个人护理设备在用户上的定位的改进的装置和方法。这种改进的装置和方法不需要用于跟踪个人护理设备或个人护理设备上的标记的相机,并且因此解决了由于个人护理设备或个人护理设备上的标记的遮挡而引起的前述问题。因此,提供了用于确定个人护理设备在用户上的定位的更加可靠的装置和方法。
参考下文描述的(一个或多个)实施例,这些方面和其他方面将变得显而易见并且得到阐明。
附图说明
现在将参考以下附图并仅以示例的方式描述示例性实施例,在附图中:
图1是根据实施例的装置的框图;
图2是图示根据实施例的装置的操作方法的流程图;
图3是根据实施例的使用个人护理设备的用户的图像的示意性表示;
图4是根据示例性实施例的在系统中使用的装置的示意性表示;并且
图5是图示根据示例性实施例的操作在系统中使用的装置的方法的流程图。
具体实施方式
本文提供了用于确定个人护理设备在用户上的定位的装置和方法。本文使用的术语“个人护理”是本领域技术人员众所周知的术语。然而,一般而言,该术语是指个人卫生、梳洗和/或美容。因此,术语“个人护理设备”能够指适合用于个人卫生、梳洗和/或美容的任何设备。个人护理设备可以是任何类型的个人护理设备。
个人护理设备的示例包括但不限于毛发护理设备(例如,诸如剪发设备、剃须刀、毛发修剪器或脱毛器之类的脱毛设备,诸如美容仪、发梳、吹风机、头发拉直设备或卷发设备之类的毛发定型设备或用于毛发护理的任何其他类型的设备)、牙齿护理设备或口腔保健设备(例如,牙刷、牙线设备或用于牙齿护理的任何其他类型的设备)、皮肤护理设备(例如,皮肤处置设备、皮肤清洁设备、皮肤按摩器设备、嫩肤设备、皮肤分析仪设备或用于皮肤护理的任何其他类型的设备)或其他任何类型的个人护理设备。在一些实施例中,个人护理设备能够包括电动个人护理设备。在其他实施例中,个人护理设备能够包括手动个人护理设备。
图1图示了本文描述的根据实施例的用于确定个人护理设备在用户上的定位的装置100的框图。如图1所示,装置100包括处理器102。简要地,处理器102被配置为检测用户的身体的一个或多个部分的定位(或位置),检测当个人护理设备在使用中时由个人护理设备引起的用户的身体的部分中的至少一个部分(例如在其上或者在其中)的运动(或移动),并且基于用户的身体的至少一个部分相对于用户的身体的至少一个部分的所检测的定位的所检测的运动来确定个人护理设备在用户上的定位。因此,确定了个人护理设备在用户上的相对定位。
本文所指的用户的身体的至少一个部分是用户的身体的与使用个人护理设备有关的至少一个部分。例如,在个人护理设备包括毛发护理设备的情况下,用户的身体的至少一个部分能够包括用户的毛发。在另一个示例中,在个人护理设备包括牙齿护理设备的情况下,用户的身体的至少一个部分能够包括一颗或多颗牙齿。在又一个示例中,在个人护理设备包括皮肤护理设备的情况下,用户的身体的至少一个部分能够包括用户的皮肤。
本文所指的由个人护理设备引起的用户的身体的至少一个部分的运动能够例如包括由个人护理设备引起的用户的身体的至少一个部分的振动(例如,微振动)。例如,当在面部上使用皮肤清洁设备时,皮肤清洁设备的旋转刷能够在用户的面部的皮肤上引起运动(例如,振动),该运动能够被检测到。如前所述,个人护理设备能够包括电动个人护理设备或手动个人护理设备。通常,与由手动个人护理设备引起的用户的身体的至少一个部分的运动相比,电动个人护理设备引起的用户的身体的至少一个部分的运动更快并且幅度更低。另一方面,与由电动个人护理设备引起的用户的身体的至少一个部分的运动相比,手动个人护理设备引起的用户的身体的至少一个部分的运动更慢并且幅度更高。
由个人护理设备引起的用户的身体的至少一个部分的运动能够包括由个人护理设备引起的重复移动。替代地或额外地,由个人护理设备引起的用户的身体的至少一个部分的运动能够包括皮肤变形。例如,皮肤变形可能是由于个人护理设备在用户的身体的至少一个部分的皮肤上的移动(例如,线性移动)引起的。皮肤变形能够例如包括以下各项中的任何一项或多项:由个人护理设备引起的用户的身体的至少一个部分的皮肤的折叠,由个人护理设备引起的用户的身体的至少一个部分的皮肤的拉伸图案,由个人护理设备引起的用户的身体的至少一个部分的一个或多个皮肤标记(例如,色素、毛囊、任何其他类型的皮肤标记或皮肤标记的任何组合)的移动,或任何其他皮肤变形或皮肤变形的任何组合。
返回图1,能够利用软件和/或硬件以多种方式来实施装置100的处理器102以执行本文描述的各种功能。在特定实施方式中,处理器102能够包括多个软件模块和/或硬件模块,每个软件模块和/或硬件模块被配置为执行或者用于执行本文描述的方法的单个步骤或多个步骤。处理器102可以包括一个或多个处理器(例如,一个或多个微处理器、一个或多个多核处理器和/或一个或多个数字信号处理器(DSP))、一个或多个处理单元和/或一个或多个控制器(例如,一个或多个微控制器),它们可以(例如使用软件或计算机程序代码)被配置或编程以执行本文描述的各种功能。处理器102可以被实施为用于执行一些功能的专用硬件(例如,放大器、前置放大器、模数转换器(ADC)和/或数模转换器(DAC))与用于执行其他功能的处理器(例如,一个或多个经编程的微处理器、DSP和相关联的电路)的组合。
如图1所示,在一些实施例中,装置100可以包括存储器104,或者可以被配置为与装置100外部(即,与装置100分离或者远离装置100)的存储器104通信和/或连接到该存储器104。存储器104可以包括任何类型的非瞬态机器可读介质,例如,高速缓冲存储器或系统存储器,包括易失性和非易失性计算机存储器,例如,随机存取存储器(RAM)、静态RAM(SRAM)、动态RAM(DRAM)、只读存储器(ROM)、可编程ROM(PROM)、可擦除PROM(EPROM)以及电可擦除PROM(EEPROM)。在一些实施例中,存储器104能够被配置为存储程序代码,该程序代码能够由装置100的处理器102运行以令处理器102以本文描述的方式操作。
替代地或额外地,在一些实施例中,存储器104能够被配置为存储源自本文描述方法的或在本文描述方法中使用的信息。例如,在一些实施例中,存储器104可以被配置为存储以下各项中的一项或多项:用户的身体的至少一个部分的所检测的运动,个人护理设备在用户上的所确定的定位或任何其他信息或信息的任何组合,这些信息均源自本文描述的方法或者是在本文描述方法中使用的信息。处理器102能够被配置为控制存储器104以存储源自本文描述的方法的或在本文描述的方法中使用的信息。
如图1所示,在一些实施例中,装置100可以包括用户接口106,或者可以被配置为与装置100外部(即,与装置100分离或者远离装置100)的用户接口106通信和/或连接到该用户接口106。用户接口106能够被配置为绘制(或输出、显示或提供)源自本文描述的方法的或者在本文描述的方法中使用的信息。例如,在一些实施例中,用户接口106可以被配置为绘制(或输出、显示或提供)以下各项中的任何一项或多项:用户的身体的至少一个部分的所检测的运动、个人护理设备在用户上的定位或任何其他信息或信息的任何组合,这些信息均源自本文描述的方法或者是在本文描述方法中使用的信息。替代地或额外地,用户接口106能够被配置为接收用户输入。例如,用户接口106可以允许用户手动输入信息或指令,与装置100交互和/或控制装置100。因此,用户接口106可以是使得能够呈现(或输出、显示或提供)信息并且额外地或替代地使得用户能够提供用户输入的任何用户接口。
例如,用户接口106可以包括一个或多个开关、一个或多个按钮、按键、键盘、鼠标、触摸屏或(例如在诸如平板电脑、智能手机或任何其他智能设备之类的智能设备上的)应用程序、显示器或显示屏、图形用户接口(GUI)(例如,触摸屏)或任何其他视觉部件、一个或多个扬声器、一个或多个麦克风或任何其他音频部件、一个或多个灯(例如,发光二极管LED灯)、用于提供触觉反馈或触知反馈的部件(例如,振动功能或任何其他触觉反馈部件)、增强现实设备(例如,增强现实眼镜或任何其他增强现实设备)、智能设备(例如,智能镜、平板电脑、智能手机、智能手表或任何其他智能设备)或任何其他用户接口或用户接口组合。在一些实施例中,被控制为呈现信息的用户接口可以是与使得用户能够提供用户输入的用户接口相同的用户接口。处理器102能够被配置为控制用户接口106以本文描述的方式操作。
如图1所示,在一些实施例中,装置100可以包括成像(或图像)传感器108,或者可以被配置为与装置100外部(即,与装置100分离或者远离装置100)的成像传感器108通信和/或连接到该成像传感器108。例如,在一些实施例中,物品(例如,标准镜、智能镜或任何其他物品)或除了个人护理设备之外的设备(例如,智能电话、平板电脑或任何其他设备)可以包括成像传感器108。因此,根据一些实施例,成像传感器108能够例如被集成在物品或设备中。在其他实施例中,成像传感器108可以是独立的成像传感器。例如,在一些实施例中,成像传感器108可以被安装在表面上,例如被安装在单元或墙壁上。成像传感器108能够被配置为获取用户的图像。因此,可以使成像传感器108指向用户。例如,能够使成像传感器108指向用户的身体的使用个人护理设备的至少一个部分。成像传感器能够是适合用于获取图像(或视频)的任何传感器。成像传感器108的示例包括但不限于相机、电荷耦合器件(CCD)成像传感器、互补金属氧化物半导体(CMOS)成像传感器或任何其他类型的成像传感器或成像传感器的任何组合。
如图1所示,在一些实施例中,装置100可以包括通信接口(或通信电路)110。通信接口110能够用于使得装置100(或装置100的任何部件,例如,处理器102、存储器104、用户接口106、成像传感器108和/或装置100的任何其他部件)能够与一个或多个其他部件(例如,其他传感器、接口、设备、存储器等)通信和/或连接到该一个或多个其他部件。通信接口110可以使得装置100(或装置100的任何部件)能够以任何合适的方式通信和/或连接。例如,通信接口110可以使得装置100(或装置100的任何部件)能够以无线方式,经由有线连接或者经由任何其他通信(或数据传输)机制进行通信和/或连接。例如,在一些无线实施例中,通信接口110可以使得装置100(或装置100的任何部件)能够使用射频(RF)、蓝牙或任何其他无线通信技术进行通信和/或连接。
虽然在图1中未图示,但是装置100可以包括用于为装置100供电的电池或其他电源或用于将装置100连接到市电电源的单元。还应当理解,装置100可以包括除了本文描述的部件以外的任何其他部件或部件的任何组合。
虽然在图1中未图示,但是在一些实施例中,装置100可以包括个人护理设备。因此,例如,根据一些实施例,装置100本身可以是个人护理设备。在这些实施例中,个人护理设备本身可以包括处理器102并且任选地还包括之前描述的装置100的任何其他部件。在其他实施例中,个人护理设备可以在装置100外部(例如与装置100分离或者远离装置100)。
图2图示了根据实施例的操作(如之前参考图1所描述的)装置100以确定个人护理设备的定位的方法200。如前所述,装置100包括处理器102。通常能够由处理器102或在处理器102的控制下执行如图2所示的方法200。在图2的框202处,检测到用户的身体的一个或多个部分的定位。
在一些实施例中,处理器102能够被配置为从指向用户或者更具体地指向用户的身体的使用个人护理设备的至少一个部分的成像(或图像)传感器108获取用户的图像。如前所述,成像传感器108能够是装置100的成像传感器或装置100外部(即,与装置100分离或者远离装置100)的成像传感器108。在这些实施例中的一些实施例中,处理器102能够被配置为从用户的所获取的图像中检测用户的身体的一个或多个部分的定位。在一些实施例中,处理器102能够被配置为:在用户的所获取的图像中检测用户的一个或多个解剖特征的定位,并且使用用户的所获取的图像中的用户的一个或多个解剖特征(或界标)的所检测的定位来检测用户的身体的一个或多个部分的定位。解剖特征的示例包括但不限于用户的牙齿、额头、脸颊、下巴、鼻子、脖子、毛发区、胸部、背部、比基尼线、大腿、小腿或任何其他解剖特征或用户的解剖特征的任何组合。
处理器102能够被配置为通过任何合适的算法(或技术)来检测用户的身体的一个或多个部分的定位。例如,在一些实施例中,计算机视觉算法可以用于检测用户的身体的一个或多个部分。这样的算法的示例包括但不限于骨骼跟踪、面部跟踪、面部表情识别、肤色检测或任何其他合适的算法或合适算法的任何组合。本领域技术人员将意识到这些算法能够用于检测用户的身体的一个或多个部分的方式。所检测的用户的身体的一个或多个部分能够形成用于对个人护理设备的定位的参考,因为这一个或多个身体部分可以例如在用户的所获取的图像内自己移动。
在图2的框204处,当个人护理设备在使用中时,检测由个人护理设备引起的用户的身体的至少一个部分的运动(或移动)。如前所述,该装置的处理器102被配置为检测由个人护理设备引起的用户的身体的至少一个部分的运动。在一些实施例中,处理器102可以被配置为通过以下各项中的任何一项或多项来检测由个人护理设备引起的用户的身体的至少一个部分的运动:配准由个人护理设备引起的用户的身体的至少一个部分的运动,并且量化由个人护理设备引起的用户的身体的至少一个部分的运动。在处理器102被配置为获取用户的图像的实施例中,处理器102可以被配置为从用户的所获取的图像中检测由个人护理设备引起的用户的身体的至少一个部分的运动。
在一些实施例中,处理器102可以被配置为使用欧拉影像放大技术(EVM)来检测由个人护理设备引起的用户的身体的至少一个部分的运动。例如,处理器102能够被配置为采用计算机视觉算法,该计算机视觉算法使用欧拉影像放大技术(EVM)来检测由个人护理设备引起的用户的身体的至少一个部分的运动。本领域技术人员将意识到能够使用欧拉影像放大技术(EVM)来检测运动的方式,这种方式可以用于检测由个人护理设备引起的用户的身体的至少一个部分的运动。例如,可以采用由Hao-Yu Wu等人在标题为“Eulerian VideoMagnification for Revealing Subtle Changes in the World”的文章中描述的技术。
在一些实施例中,处理器102可以被配置为:获取在用户的所获取的图像(例如,二维图像中的像素或三维图像中的体素)中的任何空间位置处的颜色值的时间系列,并且放大预定时间频带中的变化。能够通过由个人护理设备施加到皮肤的(预期)时间频率来确定时间频带。如果个人护理设备的时间频率是未知的,则处理器102可以被配置为执行频带扫掠以检测用户的身体的至少一个部分的运动。在这些实施例中的一些实施例中,处理器102还可以被配置为在检测到运动时锁定在该频带上。在一些实施例中,处理器102可以被配置为在检测由个人护理设备引起的用户的身体的至少一个部分的运动中应用与在光流公式中使用的亮度恒定假设有关的线性近似。
图3是使用个人护理设备304的用户302的图像300的示意性表示,其中,根据一个示例性实施例,从身体地图308中检测由个人护理设备304引起的用户302的身体的至少一个部分的运动306。在图3所示的示例性实施例中,个人护理设备304是皮肤护理设备,并且用户302的身体的至少一个部分是用户302的面部的皮肤。如图3所示并且如前所述,在一些实施例中,处理器102还能够被配置为在用户302的所获取的图像300中检测用户302的一个或多个解剖特征(或界标)310的定位,以供在检测用户的身体的一个或多个部分中使用。
返回图2,因此,在图2的框204处,当个人护理设备在使用中时,以之前描述的方式检测由个人护理设备引起的用户的身体的至少一个部分的运动。然后,在图2的框206处,基于用户的身体的至少一个部分相对于用户的身体的至少一个部分的所检测的定位的所检测的运动来确定个人护理设备在用户上的定位。例如,能够通过将(例如在用户的所获取的图像中的)所检测的运动的定位映射到用户的身体的至少一个部分的所检测的定位来确定个人护理设备在用户上的定位。在一些实施例中,个人护理设备在用户上的所确定的定位能够是个人护理设备的部分(例如其中心)接触(或触摸)用户之处的定位。在一些实施例中,个人护理设备的与用户接触的部分可以例如是被配置为对用户进行处置的个人护理设备的部分,例如,个人护理设备的处置单元。因此,确定了个人护理设备在用户上的相对定位。
在一些实施例中,处理器102可以被配置为识别由个人护理设备引起的用户的身体的至少一个部分的所检测的运动的识别标志。所识别的识别标志能够例如指示个人护理设备的类型。在这些实施例中,处理器102可以被配置为基于用户的身体的至少一个部分相对于用户的身体的至少一个部分的所检测的定位的所检测的运动以及所检测的运动的所识别的识别标志来确定个人护理设备在用户上的定位。
在一些实施例中,处理器102能够被配置为估计用户的身体的至少一个部分的所检测的运动的源的定位。在这些实施例中,处理器102可以被配置为基于用户的身体的至少一个部分的所检测的运动的源的所估计的定位来确定个人护理设备在用户上的定位。例如,当个人护理设备在使用中时,在被施加到用户的身体的至少一个部分的个人护理设备的部分周围的所有方向上,从个人护理设备的部分施加到用户的身体的至少一个部分的振动能够以一定的方式传播通过用户的身体的至少一个部分。这使得能够估计用户的身体的至少一个部分的所检测的运动的源(或中心)。然后,能够使用用户的身体的至少一个部分的所检测的运动的源来确定个人护理设备在用户上的定位。
在一些实施例中,处理器102能够被配置为基于用户的身体的至少一个部分相对于用户的身体的至少一个部分的所检测的定位的所检测的运动以及一个或多个其他参数来确定个人护理设备在用户上的定位,这一个或多个其他参数例如为以下各项中的任何一项或多项:个人护理设备相对于用户的身体的至少一个部分的角度,以其操作个人护理设备的设置(例如,处置设置),个人护理设备的至少一个部件的类型(例如,牙刷的刷头类型)以及由个人护理设备施加在用户的身体的至少一个部分上的压力。以这种方式,能够改善对个人护理设备的位置估计。在这些实施例中的一些实施例中,个人护理设备可以被配置为将一个或多个其他参数(例如实时地)传达到装置100的处理器102。因此,根据一些实施例,处理器102能够被配置为从个人护理设备获取一个或多个其他参数。
在一些实施例中,处理器102可以被配置为跟踪个人护理设备在用户上的定位。如前所述,处理器102被配置为检测用户的身体的一个或多个部分的定位或者对用户的身体的一个或多个部分进行定位。因此,处理器102可以被配置为相对于用户的身体的所检测的部分中的一个或多个部分来跟踪个人护理设备在用户上的定位,所检测的部分中的一个或多个部分可以是用户的身体的在其上使用个人护理设备的至少一个部分和/或用户的身体的至少一个其他部分。
在一些实施例中,除了身体部分检测之外,处理器102还可以被配置为检测以下各项或者对以下各项进行定位:用户的身体的(或用户的身体的部分(例如,面部、头部、躯干、腿部、任何其他身体部分或身体部分的任何组合)的)一个或多个轮廓,用户的身体(或用户的身体的部分(例如之前提到的部分中的任何部分))上的一个或多个定位,用户的身体(或用户的身体的部分(例如之前提到的部分中的任何部分))上的一个或多个取向和/或用户的身体(或用户的身体的部分(例如之前提到的部分中的任何部分))的一个或多个解剖特征或界标(相对于这一个或多个解剖特征或界标能够跟踪个人护理设备在用户上的定位)。解剖特征或界标的示例包括但不限于牙齿、前额、脸颊、下巴、鼻子、颈部、毛发区、胸部、背部、比基尼线、大腿、小腿或用户的任何其他解剖特征或用户的解剖特征的任何组合。
处理器102可以被配置为采用适合用于(例如三维)身体部分跟踪的任何计算机视觉算法以跟踪个人护理设备在用户上的定位。在一些实施例中,处理器102可以被配置为(如通过图3的示例性实施例所示)在之前描述的所获取的地图或身体地图中跟踪个人护理设备在用户上的定位。这样能够提供更细粒度的算法。例如,根据示例性实施例,如图3所示,可以在所获取的地图或身体地图中识别之前提到的用户的身体(或用户的身体的部分)的解剖特征或界标310中的一个或多个解剖特征或界标。在该示例性实施例中,处理器102能够被配置为相对于在所获取的地图或身体地图中识别出的这些解剖特征或界标310来跟踪个人护理设备在用户上的定位。
在处理器102被配置为跟踪个人护理设备在用户上的定位的一些实施例中,处理器102还可以被配置为基于个人护理设备在用户上的所跟踪的位置来控制用户接口106向用户输出指导。除了所跟踪的定位之外,在一些实施例中,处理器102还可以被配置为还基于以下各项中的任何一项或多项来控制用户接口106向用户输出指导:个人护理设备已经覆盖的区、个人护理设备的先前使用情况、正在其上使用个人护理设备的局部区的状况。如前所述,用户接口106可以是装置100的用户接口,也可以是装置100外部(即,与装置100分离或者远离装置100)的用户接口。
在一些实施例中,由用户接口106输出的指导可以涉及使用个人护理设备的方式。例如,由用户接口106输出的指导可以包括以下各项中的任何一项或多项:关于用户已经处置了哪些区的指示(例如,图示),关于用户尚未处置哪些区的指示(例如,图示),关于用户已经处置了某个区的时间长度的指示,关于自用户已经处置了某个区开始的时间长度的指示,关于哪个区需要格外注意的指示(例如,用户或牙医指示的有问题的牙齿,美容师指示的某些皮肤区等),关于哪个区(例如,眼睛周围的区)需要格外小心的处置的指示,关于针对某个区在个人护理设备上使用某个设置的指示(例如,建议),关于针对某个区避免在个人护理设备上使用某个设置的指示(例如,建议)或任何其他类型的指导或指导的任何组合。
在一些实施例中,除了之前讨论的确定个人护理设备在用户上的定位之外,处理器102还可以被配置为检测以下各项中的任何一项或多项:基于用户的身体的至少一个部分的所检测的运动来检测个人护理设备在用户上的移动方向,以及基于用户的身体的至少一个部分的所检测的运动来检测由个人护理设备施加在用户上的压力。例如,在一些实施例中,能够通过分析用户的身体的至少一个部分的所检测的运动的中心的(例如相对缓慢的)移动来确定个人护理设备在用户上的移动方向。在一些实施例中,能够通过观察由个人护理设备引起的用户的身体的至少一个部分的所检测的运动的特性的变化以及由个人护理设备引起的用户的身体的至少一个部分的所检测的运动(例如,振动)的扩散来分析由个人护理设备施加在用户上的压力。例如,然后可以将所检测的运动的特性的观察到的变化与在存储器104中存储的具有相关联的施加压力的参考特性进行匹配,其中,所存储的参考特性可以指示低施加压力与高施加压力。如前所述,存储器104可以是装置100的存储器,也可以是装置100外部(即,与装置100分离或者远离装置100)的存储器。
在一些实施例中,处理器102还能够被配置为基于由个人护理设备引起的用户的身体的至少一个部分的所检测的运动来确定用户的身体的至少一个部分的局部属性。例如,处理器102可以被配置为:识别由个人护理设备引起的用户的身体的至少一个部分的所检测的运动的特性(或识别标志),并且将所识别的特性与针对个人护理设备的已知运动特性(或识别标志)进行比较。例如,可以将针对个人护理设备的已知运动特性与相关联的属性(例如以查找表的形式)一起存储在存储器104中。如前所述,存储器104可以是装置100的存储器,也可以是装置100外部(即,与装置100分离或者远离装置100)的存储器。在一些实施例中,可以选择能够匹配或最接近地匹配(例如最类似于)用户的身体的至少一个部分的所检测的运动的所识别的特性的、与针对个人护理设备的已知运动特性相关联的特性作为用户的身体的至少一个部分的局部属性。
用户的身体的至少一个部分的局部属性能够是针对特定定位确定的身体的至少一个部分的任何类型的属性。局部属性能够例如指示用户的身体的至少一个部分的局部状况和/或由于使用个人护理设备而引起的用户的身体的至少一个部分的变化(例如,改善)。在个人护理设备是皮肤护理设备的实施例中,局部属性可以是局部皮肤属性,例如,皮肤弹性的局部度量、皮肤厚度的局部度量、皮肤中的脂质(例如,油或脂肪)含量的局部度量、皮肤中的水分含量的局部度量或任何其他局部皮肤属性或局部皮肤属性的任何组合。在个人护理设备是牙齿护理设备的实施例中,局部属性可以是由个人护理设备施加到牙齿的局部压力、个人护理设备与牙齿的局部接近度或任何其他局部牙齿属性或局部牙齿属性的任何组合。在个人护理设备是毛发护理设备的实施例中,局部属性可以是局部毛发湿度、局部毛发干燥度或任何其他局部毛发属性或局部毛发属性的任何组合。
在一些实施例中,处理器102还可以被配置为基于个人护理设备在用户上的所确定的位置来调节个人护理设备的一个或多个设置。根据一些实施例,对个人护理设备的一个或多个设置的调节可以是自动的。在一些实施例中,如前所述,处理器102能够被配置为基于由个人护理设备引起的用户的身体的部分的所检测的运动来确定用户的身体的至少一个部分的局部属性。在这些实施例中的一些实施例中,处理器102然后能够被配置为基于个人护理设备在用户上的所确定的位置和用户的身体的至少一个部分的所确定的局部属性来调节个人护理设备的一个或多个设置。
这一个或多个设置能够例如是控制个人护理设备的操作方式的个人护理设备的一个或多个操作设置。可以调节的一个或多个设置的示例包括但不限于牙刷的洗刷速度、强度和/或模式,皮肤清洁设备的速度、模式和/或方向(例如取决于面部的哪一侧或者基于确定的皮肤局部弹性),剃须刀的切割速度和/或深度(例如,脸颊相对于颈部),修剪器或美容仪的切割速度和/或深度(例如,头部或背部相对于比基尼线),吹风机的热量、气流速度和/或气流方向(例如取决于确定的局部毛发湿度和/或吹风机与毛发的接近度),用于(例如在施加到不适当的区(例如,眼睛)时)停止个人护理设备的操作的停止机构或个人护理设备的任何其他设置或设置组合。
在确定用户的身体的至少一个部分的局部属性的一些实施例中,处理器102可以被配置为基于用户的身体的至少一个部分相对于用户的身体的至少一个部分的所检测的定位的所检测的运动以及用户的身体的至少一个部分的所确定的局部属性来确定个人护理设备在用户上的定位。以这种方式,局部属性能够用于提高个人护理设备在用户上的所确定的定位的可靠性。例如,由个人护理设备引起的运动响应可以基于身体的那些部分的局部属性而在用户的身体的不同部分上有所变化,因此该信息能够帮助准确确定个人护理设备在用户上的定位。
图4图示了根据实施例的在系统400中使用的之前描述的装置100。如图4所示,根据一些实施例,系统400能够包括如前所述的装置100和个人护理设备304。个人护理设备304能由用户302操作。在图4所示的示例性实施例中,包括处理器102的装置100是诸如平板电脑之类的智能设备。根据这个图示的示例性实施例的装置100还包括之前描述的用户接口106和成像传感器108。
图5图示了操作图4所示的示例性实施例的系统400的装置100以确定个人护理设备304在用户302上的定位的方法500。通常能够由装置100的处理器102或者在装置100的处理器102的控制下执行图5所示的方法500。图5的框502处,装置100的处理器102从指向用户302的成像传感器108获取用户的图像。在图5的框504处,处理器102在从用户302获取的图像中检测用户302的身体的一个或多个部分的定位或者在从用户302获取的图像中对用户302的身体的一个或多个部分进行定位。在这个图示的示例性实施例中,用户302的身体的一个或多个所检测的部分是用户302的身体的在其上使用个人护理设备304的一个或多个部分(在这里是用户302的面部)。
在图5的框506处,当个人护理设备304在使用中时,处理器102检测由个人护理设备304引起的用户302的身体的至少一个部分的运动306,并且(例如以前述方式中的任何方式)基于用户302的身体的至少一个部分相对于用户的身体的至少一个部分的所检测的定位的所检测的运动306来确定个人护理设备304在用户302上的定位。因此,确定了个人护理设备304在用户302上的相对定位。在图5的框508处,处理器102基于由个人护理设备304引起的用户302的身体的至少一个部分的所检测的运动来确定用户302的身体的至少一个部分的局部属性。在这个图示的示例性实施例中,局部属性能够例如指示用户302的身体的至少一个部分的局部状况(例如,用户302的面部上的毛发和/或皮肤的局部状况)。在图5的框510处,处理器102基于个人护理设备304在用户302上的所跟踪的位置来控制用户接口106向用户302输出指导,该指导可以包括之前描述的指导中的任何指导。
在图5的框512处,处理器102基于个人护理设备304在用户302上的所确定的定位来确定要调节的个人护理设备304的一个或多个设置,并且在图5的框514处,处理器102以先述方式基于个人护理设备304在用户302上的所确定的位置来调节个人护理设备304的这一个或多个设置。在图5的框516处,处理器102可以从个人护理设备获取能够用于改善(在框506处)对个人护理设备在用户上的定位的确定和/或(在框508处)对局部属性的确定的一个或多个(例如处置)参数。这些参数可以包括例如前面提到的参数中的任何参数,例如以下各项中的任何一项或多项:个人护理设备相对于用户的身体的至少一个部分的角度、以其操作个人护理设备的设置(例如,处置设置)、个人护理设备的至少一个部件的类型(例如,牙刷的刷头类型)以及由个人护理设备施加在用户的身体的至少一个部分上的压力。例如,如果已知个人护理设备传递了与某种处置设置有关的某种振动模式,则能够将框506处的欧拉影像放大技术(EVM)算法内的时间滤波器朝向该频带和模式进行调谐。
在本文描述的实施例中的任何实施例中,装置100(或更具体地,装置100的处理器102)可以被配置为(例如经由通信接口110)连接到云服务。以这种方式,装置100的处理器102能够利用来自云服务的信息(例如,大数据)以供在本文描述的方法中使用。例如,装置100的处理器102可以从云服务获取针对某些皮肤类型的地图或身体地图中的一幅或多幅,这一幅或多幅地图或身体地图可以相对于用户的身体的至少一个部分上的坐标(例如,解剖特征或界标)公开用户的身体的至少一个部分的一个或多个属性(例如,用户的身体的至少一个部分的皮肤厚度、弹性或任何其他属性(例如,前面提到的属性中的任何一种属性))。
这种获取的信息能够用于例如优化前面提到的指导、前面提到的对个人护理设备的设置和/或处置方案安排。此外,与云服务的连接能够用于在用户与个人护理专业人员(例如,牙医、美容师、发型师、皮肤科医生、毛发专家或任何其他个人护理专业人员)之间传达经定位的使用情况和传感器数据,使得能够建立(例如针对某些问题区的)最优的个性化处置方案并能够监测对这些方案的遵从情况。此外,能够基于这些状况并结合使用数据来向用户提供提醒和实时指导。而且,经定位的使用数据(其能够被匿名化)对于设备制造商了解其个人护理设备的使用方式,测量个人护理设备的有效性和识别个人护理设备的与过度使用/使用不足、错误使用、产品设计等有关的问题可能很有用。
在本文描述的实施例中的任何实施例中,处理器102被配置为执行的步骤中的至少一个步骤或全部步骤能够是自动化的。
还提供了包括计算机可读介质的计算机程序产品。该计算机可读介质具有在其中体现的计算机可读代码。该计算机可读代码被配置为使得在由合适的计算机或处理器运行时令该计算机或处理器执行本文描述的方法。该计算机可读介质可以是例如能够承载计算机程序产品的任何实体或设备。例如,该计算机可读介质可以包括数据存储设备(例如,ROM(例如,CD-ROM或半导体ROM))或磁性记录介质(例如,硬盘)。此外,该计算机可读介质可以是可传输的载体,例如,电信号或光信号,其可以经由电缆或光缆或者通过无线电或其他单元而被传送。当该计算机程序产品以这样的信号体现时,该计算机可读介质可以包括这样的线缆或其他设备或单元。替代地,该计算机可读介质可以是其中嵌入有计算机程序产品的集成电路,该集成电路适于执行或者用于执行本文描述的方法。
因此,本文提供了解决了与现有技术相关联的局限性的装置、方法和计算机程序产品。
本领域技术人员通过研究附图、公开内容以及权利要求,在实践本文描述的原理和技术时能够理解并实现对所公开的实施例的变型。在权利要求中,“包括”一词不排除其他元件或步骤,并且词语“一”或“一个”不排除多个。单个处理器或其他单元可以实现在权利要求中记载的若干项的功能。虽然某些措施被记载在互不相同的从属权利要求中,但是这并不指示不能有利地使用这些措施的组合。计算机程序可以被存储或分布在合适的介质上,例如,与其他硬件一起或作为其他硬件的部分供应的光学存储介质或固态介质,但是也可以以其他形式分布,例如,经由互联网或其他有线或无线的电信系统分布。权利要求中的任何附图标记都不应被解释为对范围的限制。

Claims (15)

1.一种用于确定个人护理设备(304)在用户(302)上的定位的装置(100),其中,所述装置(100)包括处理器(102),所述处理器被配置为:
从指向所述用户(302)的成像传感器(108)获取所述用户(302)的图像;
从所述用户(302)的所获取的图像中检测用户(302)的身体的一个或多个部分的定位;
当所述个人护理设备(304)在使用中时,从所述用户(302)的所获取的图像中检测由所述个人护理设备(304)引起的所述用户(302)的所述身体的所述部分中的至少一个部分的运动(306);并且
基于所述用户(302)的所述身体的所述至少一个部分相对于所述用户(302)的所述身体的所述至少一个部分的所检测的定位的所检测的运动(306)来确定所述个人护理设备(304)在所述用户(302)上的所述定位。
2.根据权利要求1所述的装置(100),其中,所述处理器(102)被配置为使用欧拉影像放大技术来检测由所述个人护理设备(304)引起的所述用户(302)的所述身体的所述至少一个部分的运动(306)。
3.根据前述权利要求中的任一项所述的装置(100),其中,所述装置(100)包括图像传感器(108)。
4.根据权利要求3所述的装置(100),其中,所述处理器(102)被配置为:
在所述用户(302)的所获取的图像中检测所述用户(302)的一个或多个解剖特征的定位;并且
使用在所述用户(302)的所获取的图像中的用户(302)的所述一个或多个解剖特征的所检测的定位来检测所述用户(302)的所述身体的所述一个或多个部分的所述定位。
5.根据前述权利要求中的任一项所述的装置(100),其中,所述处理器(102)被配置为:
识别由所述个人护理设备(304)引起的所述用户(302)的所述身体的所述至少一个部分的所检测的运动(306)的识别标志,其中,所识别的识别标志指示个人护理设备(304)的类型;并且
基于所述用户(302)的所述身体的所述至少一个部分相对于所述用户(302)的所述身体的所述至少一个部分的所检测的定位的所检测的运动(306)以及所检测的运动的所识别的识别标志来确定所述个人护理设备(304)在所述用户上的所述定位。
6.根据前述权利要求中的任一项所述的装置(100),其中,所述处理器(102)被配置为:
估计所述用户(302)的所述身体的所述至少一个部分的所检测的运动(306)的源的定位;并且
基于所述用户(302)的所述身体的所述至少一个部分的所检测的运动(306)的所述源的所估计的定位来确定所述个人护理设备(304)在所述用户(302)上的所述定位。
7.根据前述权利要求中的任一项所述的装置(100),其中,所述处理器(102)被配置为基于所述用户(302)的所述身体的所述至少一个部分相对于所述用户(302)的所述身体的所述至少一个部分的所检测的定位的所检测的运动(306)以及以下各项中的任何一项或多项来确定所述个人护理设备(304)在所述用户上的所述定位:
所述个人护理设备(304)相对于所述用户(302)的所述身体的所述至少一个部分的角度;
所述个人护理设备(304)正在以其进行操作的设置;
所述个人护理设备(304)的至少一个部件的类型;以及
由所述个人护理设备(304)施加在所述用户(302)的所述身体的所述至少一个部分上的压力。
8.根据前述权利要求中的任一项所述的装置(100),其中,所述处理器(102)被配置为:
跟踪所述个人护理设备(304)在所述用户(302)上的所述定位;并且
控制用户接口(106)以基于所述个人护理设备(304)在所述用户(302)上的所跟踪的定位来向所述用户(302)输出指导。
9.根据前述权利要求中的任一项所述的装置(100),其中,所述处理器(102)还被配置为:
基于由所述个人护理设备(304)引起的用户(302)的所述身体的所述至少一个部分的所检测的运动(306)来确定所述用户(302)的所述身体的所述至少一个部分的局部属性。
10.根据前述权利要求中的任一项所述的装置(100),其中,所述处理器(102)还被配置为:
基于所述个人护理设备(304)在所述用户(302)上的所确定的定位来调节所述个人护理设备(304)的一个或多个设置。
11.根据从属于权利要求9的权利要求10所述的装置(100),其中,所述处理器(102)被配置为:
基于所述个人护理设备(304)在所述用户(302)上的所确定的定位以及所述用户(302)的所述身体的所述至少一个部分的所确定的局部属性来调节所述个人护理设备(304)的一个或多个设置。
12.根据前述权利要求中的任一项所述的装置(100),其中:
所述个人护理设备(304)包括毛发护理设备,并且所述用户(302)的身体的所述至少一个部分包括所述用户的毛发;或者
所述个人护理设备(304)包括牙齿护理设备,并且所述用户(302)的所述身体的所述至少一个部分包括一颗或多颗牙齿;或者
所述个人护理设备(304)包括皮肤护理设备,并且所述用户(302)的所述身体的所述至少一个部分包括所述用户的皮肤。
13.根据前述权利要求中的任一项所述的装置(100),其中,所述装置(100)包括所述个人护理设备(304)。
14.一种操作包括处理器(102)的装置(100)以确定个人护理设备(304)的定位的方法(200),其中,所述方法(200)包括:
从指向所述用户(302)的成像传感器(108)获取所述用户(302)的图像;
从用户(302)的所获取的图像中检测(202)所述用户(302)的身体的一个或多个部分的定位;
当所述个人护理设备(304)在使用中时,从用户(302)的所获取的图像中检测由所述个人护理设备(304)引起的所述用户(302)的所述身体的所述至少一个部分中的至少一个部分的运动(204);并且
基于所述用户(302)的所述身体的所述至少一个部分相对于所述用户(302)的所述身体的所述至少一个部分的所检测的定位的所检测的运动(306)来确定(206)所述个人护理设备(304)在所述用户(302)上的所述定位。
15.一种包括计算机可读介质的计算机程序产品,所述计算机可读介质具有在其中体现的计算机可读代码,所述计算机可读代码被配置为使得在由合适的计算机或处理器运行时令所述计算机或处理器执行根据权利要求14所述的方法。
CN201980025510.5A 2018-02-14 2019-01-28 对个人护理设备的定位 Active CN111971643B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18156753.8A EP3528091A1 (en) 2018-02-14 2018-02-14 Personal care device localization
EP18156753.8 2018-02-14
PCT/EP2019/051932 WO2019158344A1 (en) 2018-02-14 2019-01-28 Personal care device localization

Publications (2)

Publication Number Publication Date
CN111971643A true CN111971643A (zh) 2020-11-20
CN111971643B CN111971643B (zh) 2022-12-09

Family

ID=61386681

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980025510.5A Active CN111971643B (zh) 2018-02-14 2019-01-28 对个人护理设备的定位

Country Status (4)

Country Link
US (1) US11468595B2 (zh)
EP (2) EP3528091A1 (zh)
CN (1) CN111971643B (zh)
WO (1) WO2019158344A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3696740B1 (en) * 2019-02-14 2024-01-10 Braun GmbH System for assessing the usage of an envisaged manually movable consumer product
EP3800644A1 (en) * 2019-10-02 2021-04-07 Koninklijke Philips N.V. Determining a location of a device
US11273562B2 (en) * 2020-07-13 2022-03-15 Wayne N. Le Hair cutting device
EP4039426A1 (en) * 2021-02-09 2022-08-10 Koninklijke Philips N.V. Determining operating parameters of hair cutting devices
WO2023006610A1 (en) * 2021-07-29 2023-02-02 Unilever Ip Holdings B.V. Haircare monitoring and feedback
DE102021134444B4 (de) 2021-12-23 2024-06-20 Ayhan Erten System zur Entfernung von Körperbehaarung an schwer zugänglichen Stellen

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101238981A (zh) * 2007-01-12 2008-08-13 国际商业机器公司 根据三维捕获的图像流来跟踪身体运动范围的方法和系统
CN101512631A (zh) * 2006-08-31 2009-08-19 摩托罗拉公司 基于情境的用户接口信息呈现和定位的方法和系统
CN102640086A (zh) * 2009-12-04 2012-08-15 微软公司 感测机械能以使得身体适用于进行数据输入
US20120262558A1 (en) * 2006-11-02 2012-10-18 Sensics, Inc. Apparatus, systems and methods for providing motion tracking using a personal viewing device
US20130262474A1 (en) * 2012-03-30 2013-10-03 Mckesson Financial Holdings Methods, apparatuses and computer program products for facilitating location and retrieval of health informtion in a healthcare system
CN104919396A (zh) * 2013-01-14 2015-09-16 高通股份有限公司 在头戴式显示器中利用身体握手
CN105899337A (zh) * 2013-11-06 2016-08-24 皇家飞利浦有限公司 用于处理身体部分的系统和方法
US20170171294A1 (en) * 2015-12-15 2017-06-15 Yahoo! Inc. Computerized System And Method For Determining And Communicating Media Content To A User Based On A Physical Location Of The User

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0109444D0 (en) * 2001-04-17 2001-06-06 Unilever Plc Toothbrush usage monitoring system
US7344498B1 (en) * 2007-01-23 2008-03-18 The Gillette Company Optical measurement method of skin strain during shaving
EP2189198B1 (de) 2008-11-20 2017-06-21 Braun GmbH Körperpflegegerät des persönlichen Bedarfs
US20140139616A1 (en) * 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
WO2013001462A2 (en) * 2011-06-28 2013-01-03 Chakka Nagesh Power operated electric toothbrush
WO2013035902A1 (ko) * 2011-09-08 2013-03-14 엘지전자 주식회사 원격 건강 관리 솔루션에서 비디오를 기반으로 한 헬스 케어 시스템 및 헬스 케어 서비스 제공방법
US9811901B2 (en) 2012-09-07 2017-11-07 Massachusetts Institute Of Technology Linear-based Eulerian motion modulation
US9324005B2 (en) 2012-09-07 2016-04-26 Massachusetts Institute of Technology Quanta Computer Inc. Complex-valued phase-based eulerian motion modulation
US9278255B2 (en) * 2012-12-09 2016-03-08 Arris Enterprises, Inc. System and method for activity recognition
US20150020658A1 (en) * 2013-07-17 2015-01-22 Hasam Eljaouhari Facial hair shaver with built-in facial hair pattern guides
EP2868293B1 (de) * 2013-10-30 2017-08-30 Trisa Holding AG Elektrisch betriebene Zahnbürste zur Zahnpflege
RU189106U1 (ru) * 2013-11-05 2019-05-13 Конинклейке Филипс Н.В. Программируемая система для стрижки волос
CA2942673C (en) 2014-04-30 2019-07-30 Halliburton Energy Services, Inc. Equipment monitoring using enhanced video
US10298471B2 (en) * 2015-10-05 2019-05-21 The Gillette Company Llc Systems and methods for providing device usage data
WO2018060232A1 (en) * 2016-09-27 2018-04-05 Koninklijke Philips N.V. Apparatus and method for supporting at least one user in performing a personal care activity
EP3578100A1 (en) * 2018-06-05 2019-12-11 Koninklijke Philips N.V. Method and apparatus for estimating a trend in a blood pressure surrogate

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101512631A (zh) * 2006-08-31 2009-08-19 摩托罗拉公司 基于情境的用户接口信息呈现和定位的方法和系统
US20120262558A1 (en) * 2006-11-02 2012-10-18 Sensics, Inc. Apparatus, systems and methods for providing motion tracking using a personal viewing device
CN101238981A (zh) * 2007-01-12 2008-08-13 国际商业机器公司 根据三维捕获的图像流来跟踪身体运动范围的方法和系统
CN102640086A (zh) * 2009-12-04 2012-08-15 微软公司 感测机械能以使得身体适用于进行数据输入
US20130262474A1 (en) * 2012-03-30 2013-10-03 Mckesson Financial Holdings Methods, apparatuses and computer program products for facilitating location and retrieval of health informtion in a healthcare system
CN104919396A (zh) * 2013-01-14 2015-09-16 高通股份有限公司 在头戴式显示器中利用身体握手
CN105899337A (zh) * 2013-11-06 2016-08-24 皇家飞利浦有限公司 用于处理身体部分的系统和方法
US20170171294A1 (en) * 2015-12-15 2017-06-15 Yahoo! Inc. Computerized System And Method For Determining And Communicating Media Content To A User Based On A Physical Location Of The User

Also Published As

Publication number Publication date
CN111971643B (zh) 2022-12-09
EP3752896A1 (en) 2020-12-23
EP3752896B1 (en) 2021-08-11
EP3528091A1 (en) 2019-08-21
US20210398315A1 (en) 2021-12-23
US11468595B2 (en) 2022-10-11
WO2019158344A1 (en) 2019-08-22

Similar Documents

Publication Publication Date Title
CN111971643B (zh) 对个人护理设备的定位
CN110312598B (zh) 操作个人护理设备
US10580160B2 (en) Device and method for determining a position of a mobile device in relation to a subject
JP6568064B2 (ja) 身体部位を処置するためのシステム及び方法
CN109982616B (zh) 用于支持至少一个用户执行个人护理活动的装置和方法
CN108698241B (zh) 用于处理身体的部分的系统和方法
KR102301187B1 (ko) 피부관리 및 개선 시스템, 그리고 이를 이용한 피부관리 및 개선 방법
US20220148720A1 (en) A projection and measurement system
CN113424212B (zh) 用于评估所设想的可手动移动的消费产品的使用的系统
CN112970073A (zh) 用于提供用户反馈的方法和设备
EP4193950A1 (en) Light treatment device for treating skin
CN115803162A (zh) 预测处理后用户的外观

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant