CN109299636A - 可标示腮红区域的身体信息分析装置 - Google Patents
可标示腮红区域的身体信息分析装置 Download PDFInfo
- Publication number
- CN109299636A CN109299636A CN201710611938.0A CN201710611938A CN109299636A CN 109299636 A CN109299636 A CN 109299636A CN 201710611938 A CN201710611938 A CN 201710611938A CN 109299636 A CN109299636 A CN 109299636A
- Authority
- CN
- China
- Prior art keywords
- face
- auxiliary line
- line
- mark
- blush
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D44/005—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/21—Collision detection, intersection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明有关于一种可标示腮红区域的身体信息分析装置,包括:影像撷取模块,用以撷取外部影像;电性连接影像撷取模块的处理单元,记录有多个脸型及分别对应至各种脸型的多个标示程序,于在外部影像中辨识出人脸时对人脸的各部位进行定位,并且判断人脸的脸型,再依据所判断的脸型执行对应的标示程序,以于人脸上标示腮红区域;及,电性连接处理单元的显示模块,显示人脸及腮红区域。
Description
技术领域
本发明涉及一种分析装置,尤其涉及一种可标示腮红区域的身体信息分析装置。
背景技术
对于女性而言,化妆几乎可说是每天皆需执行的动作之一。
一般来说,使用者都是坐在镜子前面进行化妆,或是藉由智慧型手机、平板电脑等设备的相机镜头及屏幕来进行化妆。
惟,使用者的妆是否化得均匀、位置是否正确等问题,往往只能由使用者通过肉眼来亲自观察与确认。因此,部分经验不足的使用者常会有化妆速度过慢,或是化得不好的困扰。
有鉴于此,于本技术领域中,极需一种辅助装置,可有效地协助使用者快速完成化妆动作,并且协助经验不足的使用者优化妆容。
发明内容
本发明提供一种可标示腮红区域的身体信息分析装置,可于使用者化妆时,根据使用者的脸型自动于使用者的人脸影像上标示出腮红区域,以引导使用者于正确的位置上进行腮红的梳化。
于本发明的一实施例中,所述可标示腮红区域的身体信息分析装置包括:
一影像撷取模块,用以撷取一外部影像;
一处理单元,电性连接该影像撷取模块,记录有多个脸型及分别对应至各该脸型的多个标示程序,该处理单元对该外部影像进行辨识,当于该外部影像中辨识出一人脸时对该人脸的各部位进行定位,并且判断该人脸的脸型;
其中,该处理单元于判断该人脸为该多个脸型的其中之一时,执行该脸型所对应的该标示程序以于该人脸上标示一腮红区域;及
一显示模块,电性连接该处理单元,显示该人脸及该腮红区域,并且该腮红区域与该人脸重叠。
如上所述,其中该处理单元包括:
一脸部辨识模块,对该外部影像进行辨识,以判断该外部影像中是否存在该人脸;
一定位模块,对该人脸进行定位,并且判断该人脸为该多个脸型的其中之一;及
一标示模块,依据该脸型执行该多个标示程序的其中之一,以于该人脸上标示该腮红区域。
如上所述,其中该标示模块于判断该人脸为椭圆形脸时采用一第一标示程序于该人脸上标示一腮红区域。
如上所述,其中该标示模块于该人脸为椭圆形脸时执行该第一标示程序,以执行下列动作:
由该人脸的一眼睛下缘位置产生一第一水平线;
取得该第一水平线与该人脸的轮廓的一第一交点;
由该第一交点连接该人脸的一嘴角位置以取得一第一辅助线;
由该嘴角位置产生一第二水平线;
取得该第二水平线与该人脸的轮廓的一第二交点;
由该第二交点连接该人脸的一下眼皮中点位置以取得一第二辅助线;
由该人脸的一鼻子最低点位置产生一第三水平线以做为一第三辅助线;及
由该第一辅助线、该第二辅助线及该第三辅助线构成该腮红区域。
如上所述,其中该标示模块于判断该人脸为圆形脸或方形脸时采用一第二标示程序于该人脸上标示该腮红区域。
如上所述,其中该标示模块于该人脸为圆形脸或方形脸时执行该第二标示程序,以执行下列动作:
由该人脸的一鼻子最低点位置产生一第一水平线;
由该人脸的一眼睛下缘位置产生一第二水平线;
取得该第二水平线与该人脸的轮廓的一第一交点;
由该第一交点连接该人脸的一鼻翼最高点位置以取得一第四辅助线;
将该第四辅助线向下平移至与该第一水平线相交的位置,以取得一第五辅助线;
由该人脸的一嘴角位置产生一垂直线以做为一第六辅助线;及
由该第四辅助线、该第五辅助线及该第六辅助线构成该腮红区域。
如上所述,其中该标示模块于判断该人脸为长形脸时采用一第三标示程序于该人脸上标示该腮红区域。
如上所述,其中该标示模块于该人脸为长形脸时执行该第三标示程序,以执行下列动作:
由该人脸的一眼睛下缘位置产生一第一水平线以做为一第七辅助线;
由该人脸的一鼻翼最高点位置产生一第二水平线以做为一第八辅助线;
由该人脸的一鼻翼外侧位置产生一垂直线以做为一第九辅助线;及
由该第七辅助线、该第八辅助线及该第九辅助线构成该腮红区域。
如上所述,其中该标示模块于判断该人脸为倒三角形脸或菱形时采用一第四标示程序于该人脸上标示该腮红区域。
如上所述,其中该标示模块于该人脸为倒三角形脸或菱形脸时执行该第四标示程序,以执行下列动作:
由该人脸的一眼睛下缘位置产生一第一水平线;
取得该第一水平线与该人脸的轮廓的一第一交点;
由该第一交点连接该人脸的一鼻翼最高点位置以取得一第十辅助线;
由该人脸的一眉峰位置产生一垂直线以做为一第十一辅助线;
由该人脸的一鼻子最低点位置产生一第二水平线;
取得该第二水平线与该人脸的轮廓的一第二交点;
由该第二交点连接该鼻翼最高点位置以取得一第十二辅助线;及
由该第十辅助线、该第十一辅助线及该第十二辅助线构成该腮红区域。
如上所述,其中该定位模块通过一Dlib Face Landmark系统对该人脸上的各部位进行定位。
本发明相较于相关技术可达成的技术功效在于,使用者藉由身体信息分析装置进行化妆动作时,除了可看到自己的人脸影像外,还可直接于人脸影像上得到装置推荐的腮红区域,藉此可快速地将腮红梳化在正确的位置上。
附图说明
图1为本发明的第一具体实施例的系统架构图;
图2为本发明的第一具体实施例的分析装置示意图;
图3为本发明的第二具体实施例的分析装置示意图;
图4为本发明的第一具体实施例的分析装置方块图;
图5为本发明的第一具体实施例的处理单元示意图;
图6A为本发明的第一具体实施例的第一标示流程图;
图6B为本发明的第一具体实施例的第二标示流程图;
图7为脸部定位示意图;
图8A为本发明的第二具体实施例的腮红区域标示流程图;
图8B为本发明的第二具体实施例的腮红区域示意图;
图9A为本发明的第三具体实施例的腮红区域标示流程图;
图9B为本发明的第三具体实施例的腮红区域示意图;
图10A为本发明的第四具体实施例的腮红区域标示流程图;
图10B为本发明的第四具体实施例的腮红区域示意图;
图11A为本发明的第五具体实施例的腮红区域标示流程图;
图11B为本发明的第五具体实施例的腮红区域示意图;
图12为本发明的第三具体实施例的分析装置示意图。
其中,附图标记:
1…身体信息分析装置;
10…处理单元;
101…脸部辨识模块;
102…定位模块;
103…标示模块;
11…镜面屏幕;
111…显示模块;
12…影像撷取模块;
13…按键;
14…感测器;
15…输入界面;
16…无线传输模块;
2…电子装置;
21…软件;
3…无线路由器;
4…网际网络;
5…使用者;
51…脸部;
6…定位点;
61…第一交点;
62…第二交点;
71…第一水平线;
72…第二水平线;
81…嘴角位置;
82…下眼皮中点位置;
83…鼻子最低点位置;
84…鼻翼最高点位置;
85…鼻翼外侧位置;
86…眉峰位置;
91…第一辅助线;
92…第二辅助线;
93…第三辅助线;
94…第四辅助线;
95…第五辅助线;
96…第六辅助线;
97…第七辅助线;
98…第八辅助线;
99…第九辅助线;
910…第十辅助线;
911…第十一辅助线;
912…第十二辅助线;
A1、A2、A3、A4…腮红区域;
S10~S28…标示步骤;
S180~S194…标示步骤;
S200~S212…标示步骤;
S220~S226…标示步骤;
S240~S254…标示步骤。
具体实施方式
兹就本发明的多个实施例,配合图式,详细说明如后。
参阅图1,为本发明的第一具体实施例的系统架构图。本发明公开了一种可标示腮红区域的身体信息分析装置(下面简称为分析装置1),所述分析装置1主要用以执行一种腮红区域标示方法(下面简称为标示方法),以协助使用者快速且正确地进行腮红的梳化动作。
于一实施例中,使用者可藉由对电子装置2的操作来对分析装置1进行设定。具体地,当分析装置1与电子装置2连接至相同的无线路由器3后,分析装置1即可通过无线路由器3与电子装置2无线连接。再者,分析装置1与电子装置2还可通过其他无线通讯协定来直接配对、连接(例如蓝牙配对、Zigbee连接、射频连接等),藉此互相传递数据、指令与信号。
如图1所示,电子装置2内安装有软件21。具体地,软件21为可与分析装置1互相支持的软件21(例如可为分析装置1的制造厂商所开发并提供的软件)。本发明中,使用者可藉由对软件21的操作,完成在分析装置1上的各种设定动作(例如注册脸部信息、设定各种预设值等)。
于一实施例中,分析装置1可连接至所在区域中的无线路由器3,以通过无线路由器3来连接网际网络4。藉此,分析装置1可通过网际网络4进行固件的更新、数据的上传与下载等动作。并且,分析装置1还可藉由网际网络4将使用者的身体信息传送至远端的电脑设备(图未标示),以令使用者于远端进行查看,或是藉此实现异地备援的目的。
请同时参阅图2及图3,分别为本发明的第一具体实施例与第二具体实施例的分析装置示意图。本发明的分析装置1主要设置于使用者5的卧室或化妆室,以便于使用者5进行身体信息(例如脸部、颈部、手部的皮肤状况)的检测与分析,并且藉由分析装置1的辅助来进行化妆动作。
分析装置1具有镜面屏幕11。当分析装置1启动时,可通过镜面屏幕11显示图形使用者界面(Graphical User Interface,GUI),并藉由图形使用者界面与使用者5互动。另一方面,当分析装置1被关闭时,镜面屏幕11也可做为单纯的镜子来使用,以反射使用者5的样貌。本发明主要是通过分析装置1来协助使用者5进行化妆动作,因此镜面屏幕11可以在反射使用者5的样貌的同时显示图形使用者界面。藉此,分析装置1可在使用者5化妆时对使用者5的妆容进行分析,并且同时提供辅助(容后详述)。于一实施例中,镜面屏幕11可为触控式屏幕,使用者5可通过镜面屏幕11对分析装置1进行数据的输入动作。
分析装置1还具有影像撷取模块12,设置于分析装置1上并且可接受角度的调整。于一实施例中,影像撷取模块12可对使用者5拍摄高解析度影像(例如人脸影像、颈部影像、手部影像等),分析装置1可藉由所述影像分析使用者5的身体信息及化妆进度。于另一实施例中,影像撷取模块12可撷取外部的信息(例如一维条码、二维条码等),以藉由信息的内容来取得对应数据。
分析装置1还可具备多个按键13。本实施例中,多个按键13可为实体按键(button)或触控按键(touch key),不加以限定。使用者5可藉由触发按键13对上述图形使用者界面进行操控(例如控制图形使用者界面回到首页、上一页或下一页等),或是令分析装置1快速执行对应的功能(例如开启镜面屏幕11、关闭镜面屏幕11、启动影像撷取模块12等)。
分析装置1还可具有一或多个感测器14(例如为温度感测器、湿度感测器等),以感测分析装置1所在环境的环境数据,藉此提升分析装置1对使用者5的身体信息的检测与分析的准确率。于一实施例中,所述感测器14还可为动作感测器(motion sensor),分析装置1可藉由动作感测器感测使用者5的移动手势(例如向左挥、向右挥、向上挥、向下挥、往前推或往后拉等)。如此一来,使用者5可藉由手势来对分析装置1进行数据输入动作,不需触碰上述镜面屏幕11或按键13,以避免指纹的残留。
续请参阅图4,为本发明的第一具体实施例的分析装置方块图。如图4所示,分析装置1主要包括处理单元10,以及与处理单元10电性连接的显示模块111、影像撷取模块12、输入界面15及无线传输模块16。
于一实施例中,影像撷取模块12为相机,用以撷取外部影像与外部信息。分析装置1可通过外部影像对使用者进行辨识(例如脸部辨识、颈部辨识、手部辨识等),以对使用者的脸部、颈部、手部等部位进行分析。再者,分析装置1也可通过外部信息的内容来执行对应的动作。
显示模块111用以显示上述的图形使用者界面。于一实施例中,显示模块111安装于所述镜面屏幕11之中。当显示模块111被致能时,显示模块111的光源可穿透镜面屏幕11并将图形使用者界面显示于镜面屏幕11上。当显示模块111被禁能时,使用者能够将镜面屏幕11做为一般镜子使用。于一实施例中,分析装置1还可调整显示模块111的光源强度或是显示区域,以令镜面屏幕11可以在反射使用者的影像的同时显示图形使用者界面。
分析装置1通过输入界面15接收使用者的外部输入,藉此使用者可与图形使用者界面进行互动,或是进行所需的设定动作。于一实施例中,输入界面15可为上述的感测器14,用以感测使用者的手势输入。于另一实施例中,输入界面15可为上述的影像撷取模块12,用以撷取外部影像或外部信息。于又一实施例中,输入界面15可为触控屏幕或按键13,用以接受使用者的输入动作。于再一实施例中,输入界面15可为麦克风,用以接收外部音讯。
无线传输模块16用以连接网际网络4。具体地,使用者可藉由网际网络4从远端连接至分析装置1,以随时查看分析装置1所记录的各种信息(例如身体信息)。
处理单元10连接显示模块111、影像撷取模块12、输入界面15及无线传输模块16,并且处理单元10包括电脑可执行程序码(图未标示)。通过电脑可执行程序码的执行,处理单元10可进一步实现本发明的标示方法。
请同时参阅图5,为本发明的第一具体实施例的处理单元示意图。具体地,处理单元10主要是通过上述电脑可执行程序码来执行本发明的标示方法中的各个功能,并且依据不同的功能,可将上述电脑可执行程序码区分为下列几个功能模块:
1.脸部辨识模块101,用以对影像撷取模块12所撷取的外部影像进行辨识,以判断外部影像中是否有人脸存在;
2.定位模块102,通过演算法对外部影像中的人脸进行定位,以取得人脸上的各个部位的位置,并且,定位模块102还可进一步判断所述人脸的脸型;及
3.标示模块103,依据定位模块102判断的脸型执行对应的程序,以于所述人脸上标示出正确、推荐的腮红区域。
于本实施例中,处理单元10记录有多个脸型,所述定位模块102可于定位完成后,至少辨识出椭圆形脸、圆形脸、方形脸、长形脸、倒三角形脸及菱形脸等六种脸型,但不加以限定。
处理单元10另记录有分别对应至上述各种脸型的多个标示程序。标示模块103可于所述人脸被辨识为椭圆形脸时执行第一标示程序,以于人脸上标示腮红区域;于所述人脸被辨识为圆形脸或方形脸时执行第二标示程序,以于人脸上标示腮红区域;于所述人脸被辨识为长形脸时执行第三标示程序,以于人脸上标示腮红区域;于所述人脸被辨识为倒三角形脸或菱形脸时执行第四标示程序,以于人脸上标示腮红区域。惟,上述仅为本发明的几个具体实施范例,并非用以限定本案的申请专利范围。
当使用者面向分析装置1时,分析装置1可通过影像撷取模块12取得包含使用者在内的外部影像。接着,分析装置1藉由处理单元10的脸部辨识模块101取出外部影像中的人脸影像,并且藉由处理单元10的定位模块102辨识出所述人脸影像的脸型。接着,分析装置1可再藉由处理单元10的标示模块103执行与脸型相对应的标示程序,以于人脸影像上标示出腮红区域。
藉此,分析装置1可通过镜面屏幕11反射使用者的人脸影像,同时通过显示模块111在所述人脸影像上显示所标示的腮红区域(例如图12所示,其中人脸影像与腮红区域重叠)。如此一来,使用者可直接参考分析装置1显示腮红区域来进行腮红的梳化,以快速地将腮红梳化在正确的位置上。
续请参阅图6A及图6B,分别为本发明的第一具体实施例的第一标示流程图及第二标示流程图。图6A及图6B用以说明本发明的标示方法的各步骤,并且主要应用于如图1至图5所示的分析装置1。具体地,本发明的分析装置1是通过处理单元10执行上述的电脑可执行程序码(即,上述各功能模块101-103),进而实现下述的各步骤。
如图6A所示,要藉由本发明的分析装置1来执行上述分析方法,以协助使用者进行化妆动作,首先使用者需将分析装置1开机(步骤S10)。于一实施例中,使用者可藉由触发触控屏幕或按键13对分析装置1进行开机。于另一实施例中,分析装置1可于通电后自动进入待机模式,并且使用者可藉由影像撷取模块12或感测器14来输入手势,以启动分析装置1,不加以限定。
具体地,本发明中分析装置1具有用以提供不同功能的不同模式,本实施例是令分析装置1在开机后自动进入辅助使用者进行化妆动作的辅助模式。于其他实施例中,分析装置1亦可在开机后进入待机模式,并且于接收使用者的指令后,再进入辅助模式。
分析装置1开机后,即通过影像撷取模块12持续撷取外部影像(步骤S12),并且,由处理单元10持续判断所撷取的外部影像中是否有人脸存在(步骤S14)。于一实施例中,处理单元10是从影像撷取模块12取得外部影像,并由上述的脸部辨识模块101对外部影像进行脸部辨识,以判断外部影像中是否有人脸存在。
若外部影像中没有人脸存在,则分析装置1再次执行步骤S12与步骤S14,以持续进行外部影像的撷取与分析。举例来说,外部影像中可能仅存在床、门、椅子等物件(表示卧室中没有人员存在),或是仅存在使用者的身体或背部(表示使用者没有要进行化妆动作),与此情况下,分析装置1不主动执行本发明的标示方法。
接着如图6B所示,若处理单元10经辨识后,判断外部影像中有人脸存在,则进一步对人脸的各部位(主要为使用者的五官)进行定位,并且判断所述人脸的脸型(步骤S16)。于一实施例中,处理单元10于判断外部影像中有人脸存在后,进一步判断人脸的尺寸是否大于特定比例(例如占据外部影像的40%以上)。并且,处理单元10仅于人脸的尺寸大于特定比例时才对人脸的各部位进行定位,并且判断人脸的脸型。
于一实施例中,处理单元10是在判断外部影像中有人脸存在后,将人脸影像递交至上述的定位模块102,由定位模块102对所述人脸进行定位,并且识别人脸的脸型。本实施例中,定位模块102可依据所述人脸上各个部位的位置、比例等参数来进行脸型的判断,并且可至少辨识出椭圆形脸、圆形脸、方形脸、长形脸、倒三角形脸及菱形脸等六种脸型。
值得一提的是,于本实施例中,定位模块102主要可通过Dlib Face Landmark系统对该人脸上的各个部位进行定位,但不加以限定。
请同时参阅图7,为脸部定位示意图。当处理单元10于外部影像中辨识出人脸的存在后,会进一步通过上述Dlib Face Landmark系统对脸部51的影像进行分析。Dlib FaceLandmark系统为本技术领域中的常用技术手段,其可于分析完成后,于脸部51的影像中产生多个定位点6(例如可为198个定位点)。藉此,Dlib Face Landmark系统可依据多个定位点6的号码、形状、排序等信息而于脸部51的影像中确定各个部位的位置,以完成所述定位动作。
并且,所述定位模块102还可依据多个定位点6的位置来确认脸部51的各部位的位置与比例关系,进而确认脸部51的脸型。
回到图6B。步骤S16后,处理单元10可得知所述人脸属于哪一种脸型,并且依据脸型采用对应的标示程序,以于所述人脸上标示出腮红区域,进而协助使用者进行腮红的梳化动作。本发明中,处理单元10是于判断所述人脸为椭圆形脸时采用第一标示程序、于判断所述人脸为圆形脸或方形脸时采用第二标示程序、于判断所述人脸为长形脸时采用第三标示程序、并于判断所述人脸为倒三角形脸或菱形时采用第四标示程序。
于第一实施例中,处理单元10是将辨识后产生的脸型信息递交至所述标示模块103,标示模块103于所述人脸被判断为椭圆形脸时采用第一标示程序,以通过第一标示程序于所述人脸上标示腮红区域(步骤S18)。
于第二实施例中,处理单元10是将辨识后产生的脸型信息递交至所述标示模块103,标示模块103于所述人脸被判断为圆形脸或方形脸时采用第二标示程序,以通过第二标示程序于所述人脸上标示腮红区域(步骤S20)。
于第三实施例中,处理单元10是将辨识后产生的脸型信息递交至所述标示模块103,标示模块103于所述人脸被判断为长形脸时采用第三标示程序,以通过第三标示程序于所述人脸上标示腮红区域(步骤S22)。
于第四实施例中,处理单元10是将辨识后产生的脸型信息递交至所述标示模块103,标示模块103于所述人脸被判断为倒三角形脸或是菱形脸时采用第四标示程序,以通过第四标示程序于所述人脸上标示腮红区域(步骤S24)。
当腮红区域标示完成后,分析装置1通过所述显示模块111来显示所述人脸及腮红区域,其中被显示的腮红区域与被显示的人脸彼此重叠(步骤S26)。如此一来,使用者可直接于镜面屏幕11上看到腮红区域在人脸上的位置,藉此快速地将腮红梳化在正确的位置上。
接着,分析装置1判断使用者的化妆动作是否完成(步骤S28)。于一实施例中,分析装置1可于外部影像中不存在人脸、人脸的尺寸小于特定比例、使用者停止化妆动作、使用者触发分析装置1上的中止按键或输入中止手势时,判断使用者的化妆动作完成。
本发明中,分析装置1是于使用者的化妆动作完成之前重复执行步骤S18至步骤S26,藉此持续撷取使用者的人脸影像、于人脸影像上标示腮红区域、并且于镜面屏幕11上显示人脸影像及腮红区域。如此一来,本发明的分析装置1可以达到动态分析与显示腮红区域的技术效果。即,当使用者的脸部移动时,镜面屏幕11上显示的腮红区域也会随之移动,如此可进一步提高使用的便利性。
续请同时参阅图8A与图8B,分别为本发明的第二具体实施例的腮红区域标示流程图与腮红区域示意图。图8A用以进一步说明定位模块102于前述步骤S16中判断使用者的脸型为椭圆形脸后,标示模块103于前述步骤S18中如何通过所述第一标示程序来标示腮红区域。具体地,所述第一标示程序由处理单元10中记录的电脑可执行程序码所构成,当标示模块103执行第一标示程序时,可执行图8A所示的各步骤。
接着配合图8B,说明所述第一标示程序如下。
首先,标示模块103由所述人脸的眼睛下缘位置产生第一水平线71(步骤S180),并且,取得第一水平线71与人脸的轮廓的第一交点61(步骤S182)。具体地,所述第一交点61包括第一水平线71与人脸的左边轮廓的交点以及第一水平线71与人脸的右边轮廓的交点。
接着,标示模块103由所述第一交点61连接人脸的嘴角位置81,以取得第一辅助线91(步骤S184)。具体地,所述第一辅助线91包括由左边交点连接至左边嘴角的辅助线以及由右边交点连接至右边嘴角的辅助线。
接着,标示模块103由所述嘴角位置81产生第二水平线72(步骤S186),其中所述第二水平线72平行于人脸的左边嘴角以及右边嘴角。并且,标示模块103取得第二水平线72与人脸的轮廓的第二交点62(步骤S188)。具体地,所述第二交点62包括第二水平线72与人脸的左边轮廓的交点以及第二水平线72与人脸的右边轮廓的交点。
接着,标示模块103由第二交点62连接人脸的下眼皮中点位置82,以取得第二辅助线92(步骤S190)。具体地,所述第二辅助线92包括由左边交点连接至左眼皮的辅助线以及由右边交点连接至右眼皮的辅助线。
最后,标示模块103由人脸的鼻子最低点位置83产生第三水平线,并以第三水平线做为第三辅助线93(步骤S192)。具体地,所述第三辅助线93包括由鼻子朝左延伸的辅助线以及由鼻子朝右延伸的辅助线。藉此,标示模块103即可以第一辅助线91、第二辅助线92及第三辅助线93来于所述人脸上构成腮红区域A1(步骤S194)。
具体地,本实施例中,所述腮红区域A1包含由位于左边的第一辅助线91、第二辅助线92及第三辅助线93构成的左边腮红区域A1,以及由位于右边的第一辅助线91、第二辅助线92及第三辅助线93构成的右边腮红区域A1。更具体地,所述腮红区域A1为第一辅助线91、第二辅助线92、第三辅助线93以及所述人脸的轮廓所围起来的区域。
续请同时参阅图9A与图9B,分别为本发明的第三具体实施例的腮红区域标示流程图与腮红区域示意图。图9A用以进一步说明定位模块102在前述步骤S16中判断使用者的脸型为圆形脸或方形脸后,标示模块103在前述步骤S20中如何通过所述第二标示程序来标示腮红区域。具体地,所述第二标示程序由处理单元10中记录的电脑可执行程序码所构成,当标示模块103执行第二标示程序时,可执行图9A所示的各步骤。
接着配合图9B,说明所述第二标示程序如下。
首先,标示模块103由所述人脸的鼻子最低点位置83产生第一水平线71(步骤S200)。接着,标示模块103由人脸的眼睛下缘位置产生第二水平线72(步骤S202),并取得第二水平线72与人脸的轮廓的第一交点61(步骤S204)。具体地,所述第一交点61包括第二水平线72与人脸的左边轮廓的交点以及第二水平线72与人脸的右边轮廓的交点。
接着,标示模块103由所述第一交点61连接人脸的鼻翼最高点位置84,以取得第四辅助线94(步骤S206)。具体地,所述第四辅助线94包括由左边交点连接至左边鼻翼的辅助线以及由右边交点连接至右边鼻翼的辅助线。
接着,标示模块103将所述第四辅助线94向下平移至与所述第一水平线71相交的位置,以取得第五辅助线95(步骤S208)。具体地,所述第五辅助线95包括由左边的第四辅助线94向下平移所产生的辅助线以及由右边的第四辅助线94向下平移所产生的辅助线。
最后,标示模块103由人脸的嘴角位置81产生垂直线,并以垂直线做为第六辅助线96(步骤S210)。具体地,所述第六辅助线96包括由左边嘴角垂直产生的辅助线以及由右边嘴角垂直产生的辅助线。藉此,标示模块103即可以第四辅助线94、第五辅助线95及第六辅助线96来于所述人脸上构成腮红区域A2(步骤S212)。
具体地,本实施例中,所述腮红区域A2包含由位于左边的第四辅助线94、第五辅助线95及第六辅助线96构成的左边腮红区域A2,以及由位于右边的第四辅助线94、第五辅助线95及第六辅助线96构成的右边腮红区域A2。更具体地,所述腮红区域A2为第四辅助线94、第五辅助线95、第六辅助线96以及所述人脸的轮廓所围起来的区域。
续请同时参阅图10A与图10B,分别为本发明的第四具体实施例的腮红区域标示流程图与腮红区域示意图。图10A用以进一步说明定位模块102在前述步骤S16中判断使用者的脸型为长形脸后,标示模块103在前述步骤S22中如何通过所述第三标示程序来标示腮红区域。具体地,所述第三标示程序由处理单元10中记录的电脑可执行程序码所构成,当标示模块103执行第三标示程序时,可执行图10A所示的各步骤。
接着配合图10B,说明所述第三标示程序如下。
首先,标示模块103由所述人脸的眼睛下缘位置产生第一水平线,并以第一水平线做为第七辅助线97(步骤S220)。具体地,所述第七辅助线97包括由眼睛朝左边延伸的辅助线以及由眼睛朝右边延伸的辅助线。接着,标示模块103由人脸的鼻翼最高点位置84产生第二水平线,并以第二水平线做为第八辅助线98(步骤S222)。具体地,具体地,所述第八辅助线98包括由左边鼻翼朝左延伸的辅助线以及由右边鼻翼朝右延伸的辅助线。
接着,标示模块103由人脸的鼻翼外侧位置85产生垂直线,并以垂直线做为第九辅助线99(步骤S224)。具体地,所述第九辅助线99包括由左边鼻翼垂直产生的辅助线,以及由右边鼻翼垂直产生的辅助线。藉此,标示模块103即可以第七辅助线97、第八辅助线98及第九辅助线99来于所述人脸上构成腮红区域A3(步骤S226)。
具体地,本实施例中,所述腮红区域A3包含由位于左边的第七辅助线97、第八辅助线98及第九辅助线99构成的左边腮红区域A3,以及由位于右边的第七辅助线97、第八辅助线98及第九辅助线99构成的右边腮红区域A3。更具体地,所述腮红区域A3为第七辅助线97、第八辅助线98、第九辅助线99以及所述人脸的轮廓所围起来的区域。
续请同时参阅图11A与图11B,分别为本发明的第五具体实施例的腮红区域标示流程图与腮红区域示意图。图11A用以进一步说明定位模块102在前述步骤S16中判断使用者的脸型为倒三角形脸或菱形脸后,标示模块103在前述步骤S24中如何通过所述第四标示程序来标示腮红区域。具体地,所述第四标示程序由处理单元10中记录的电脑可执行程序码所构成,当标示模块103执行第四标示程序时,可执行图11A所示的各步骤。
接着配合图11B,说明所述第四标示程序如下。
首先,标示模块103由所述人脸的眼睛下缘位置产生第一水平线71(步骤S240),并且,取得第一水平线71与人脸的轮廓的第一交点61(步骤S242)。具体地,所述第一交点61包括第一水平线71与人脸的左边轮廓的交点以及第一水平线71与人脸的右边轮廓的交点。
接着,标示模块103由所述第一交点61连接人脸的鼻翼最高点位置84,以取得第十辅助线910(步骤S244)。具体地,所述第十辅助线910包括由左边交点连接至左边鼻翼的辅助线以及由右边交点连接至右边鼻翼的辅助线。
接着,标示模块103由人脸的眉峰位置86产生垂直线,并以垂直线做为第十一辅助线911(步骤S246)。具体地,所述第十一辅助线911包括由左边眉峰垂直产生的辅助线以及由右边眉峰垂直产生的辅助线。
接着,标示模块103由人脸的鼻子最低点位置83产生第二水平线72(步骤S248),并且取得第二水平线72与人脸的轮廓的第二交点62(步骤S250)。具体地,所述第二交点62包括第二水平线72与人脸的左边轮廓的交点以及第二水平线72与人脸的右边轮廓的交点。
接着,标示模块103由第二交点62连接所述鼻翼最高点位置84,以取得第十二辅助线912(步骤S252)。具体地,所述第十二辅助线912包括由左边交点连接至左边鼻翼的辅助线以及由右边交点连接至右边鼻翼的辅助线。藉此,标示模块103即可以第十辅助线910、第十一辅助线911及第十二辅助线912来于所述人脸上构成腮红区域A4(步骤S254)。
具体地,本实施例中,所述腮红区域A4包含由位于左边的第十辅助线910、第十一辅助线911及第十二辅助线912构成的左边腮红区域A4,以及由位于右边的第十辅助线910、第十一辅助线911及第十二辅助线912构成的右边腮红区域A4。更具体地,所述腮红区域A4为第十辅助线910、第十一辅助线911、第十二辅助线912以及所述人脸的轮廓所围起来的区域。
当前述腮红区域A1-A4的其中之一标示完成后,分析装置1即可继续执行前述步骤S26,以于镜面屏幕11上显示所述人脸以及所述腮红区域A1-A4。
续请参阅图12,为本发明的第三具体实施例的分析装置示意图。如前文所述,本发明中分析装置1是即时撷取使用者5的人脸影像,并依据使用者5的脸型来识别腮红区域。并且,分析装置1可于镜面屏幕11上显示使用者5的人脸影像,同时于人脸影像上显示腮红区域(即,所述腮红区域A1-A4,图12中以椭圆形脸的腮红区域A1为例)。
如图12所示,使用者5可透过镜面屏幕11看到自己的脸部的反射影像,而所述腮红区域A1直接显示于反射影像上,并且与反射影像重叠。藉此,使用者5可直接依据镜面屏幕11上显示的腮红区域A1来进行化妆,以将腮红梳化在正确的位置上。
通过本发明的分析装置1及标示方法,使用者5在进行化妆动作时,除了可在镜面屏幕11上看到自己的脸部影像外,还可直接得到适合梳化腮红的位置,藉此更快速地将腮红梳化在正确的位置上。
以上所述仅为本发明的较佳具体实例,非因此即局限本发明的专利范围,故举凡运用本发明内容所为的等效变化,均同理皆包含于本发明范围内,合予陈明。
Claims (11)
1.一种可标示腮红区域的身体信息分析装置,其特征在于,包括:
一影像撷取模块,用以撷取一外部影像;
一处理单元,电性连接该影像撷取模块,记录有多个脸型及分别对应至各该脸型的多个标示程序,该处理单元对该外部影像进行辨识,当于该外部影像中辨识出一人脸时对该人脸的各部位进行定位,并且判断该人脸的脸型;
其中,该处理单元于判断该人脸为该多个脸型的其中之一时,执行该脸型所对应的该标示程序以于该人脸上标示一腮红区域;及
一显示模块,电性连接该处理单元,显示该人脸及该腮红区域,并且该腮红区域与该人脸重叠。
2.根据权利要求1所述的可标示腮红区域的身体信息分析装置,其特征在于,该处理单元包括:
一脸部辨识模块,对该外部影像进行辨识,以判断该外部影像中是否存在该人脸;
一定位模块,对该人脸进行定位,并且判断该人脸为该多个脸型的其中之一;及
一标示模块,依据该脸型执行该多个标示程序的其中之一,以于该人脸上标示该腮红区域。
3.根据权利要求2所述的可标示腮红区域的身体信息分析装置,其特征在于,该标示模块于该人脸被判断为椭圆形脸时采用一第一标示程序于该人脸上标示一腮红区域。
4.根据权利要求3所示的可标示腮红区域的身体信息分析装置,其特征在于,该标示模块于该人脸为椭圆形脸时执行该第一标示程序,以执行下列动作:
由该人脸的一眼睛下缘位置产生一第一水平线;
取得该第一水平线与该人脸的轮廓的一第一交点;
由该第一交点连接该人脸的一嘴角位置以取得一第一辅助线;
由该嘴角位置产生一第二水平线;
取得该第二水平线与该人脸的轮廓的一第二交点;
由该第二交点连接该人脸的一下眼皮中点位置以取得一第二辅助线;
由该人脸的一鼻子最低点位置产生一第三水平线以做为一第三辅助线;及
由该第一辅助线、该第二辅助线及该第三辅助线构成该腮红区域。
5.根据权利要求2所述的可标示腮红区域的身体信息分析装置,其特征在于,该标示模块于该人脸被判断为圆形脸或方形脸时采用一第二标示程序于该人脸上标示该腮红区域。
6.根据权利要求5所示的可标示腮红区域的身体信息分析装置,其特征在于,该标示模块于该人脸为圆形脸或方形脸时执行该第二标示程序,以执行下列动作:
由该人脸的一鼻子最低点位置产生一第一水平线;
由该人脸的一眼睛下缘位置产生一第二水平线;
取得该第二水平线与该人脸的轮廓的一第一交点;
由该第一交点连接该人脸的一鼻翼最高点位置以取得一第四辅助线;
将该第四辅助线向下平移至与该第一水平线相交的位置,以取得一第五辅助线;
由该人脸的一嘴角位置产生一垂直线以做为一第六辅助线;及
由该第四辅助线、该第五辅助线及该第六辅助线构成该腮红区域。
7.根据权利要求2所述的可标示腮红区域的身体信息分析装置,其特征在于,该标示模块于该人脸被判断为长形脸时采用一第三标示程序于该人脸上标示该腮红区域。
8.根据权利要求7所示的可标示腮红区域的身体信息分析装置,其特征在于,该标示模块于该人脸为长形脸时执行该第三标示程序,以执行下列动作:
由该人脸的一眼睛下缘位置产生一第一水平线以做为一第七辅助线;
由该人脸的一鼻翼最高点位置产生一第二水平线以做为一第八辅助线;
由该人脸的一鼻翼外侧位置产生一垂直线以做为一第九辅助线;及
由该第七辅助线、该第八辅助线及该第九辅助线构成该腮红区域。
9.根据权利要求2所述的可标示腮红区域的身体信息分析装置,其特征在于,该标示模块于该人脸被判断为倒三角形脸或菱形时采用一第四标示程序于该人脸上标示该腮红区域。
10.根据权利要求9所示的可标示腮红区域的身体信息分析装置,其特征在于,该标示模块于该人脸为倒三角形脸或菱形脸时执行该第四标示程序,以执行下列动作:
由该人脸的一眼睛下缘位置产生一第一水平线;
取得该第一水平线与该人脸的轮廓的一第一交点;
由该第一交点连接该人脸的一鼻翼最高点位置以取得一第十辅助线;
由该人脸的一眉峰位置产生一垂直线以做为一第十一辅助线;
由该人脸的一鼻子最低点位置产生一第二水平线;
取得该第二水平线与该人脸的轮廓的一第二交点;
由该第二交点连接该鼻翼最高点位置以取得一第十二辅助线;及
由该第十辅助线、该第十一辅助线及该第十二辅助线构成该腮红区域。
11.根据权利要求2所述的可标示腮红区域的身体信息分析装置,其特征在于,该定位模块通过一Dlib Face Landmark系统对该人脸上的各部位进行定位。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710611938.0A CN109299636A (zh) | 2017-07-25 | 2017-07-25 | 可标示腮红区域的身体信息分析装置 |
JP2017199340A JP2019028968A (ja) | 2017-07-25 | 2017-10-13 | 頬紅領域を標示可能な生体情報解析装置 |
US15/785,286 US20190035126A1 (en) | 2017-07-25 | 2017-10-16 | Body information analysis apparatus capable of indicating blush-areas |
KR1020170134990A KR102101337B1 (ko) | 2017-07-25 | 2017-10-18 | 볼터치 구역의 표시가 가능한 신체 정보 분석 장치 |
EP17199120.1A EP3435277A1 (en) | 2017-07-25 | 2017-10-30 | Body information analysis apparatus capable of indicating blush-areas |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710611938.0A CN109299636A (zh) | 2017-07-25 | 2017-07-25 | 可标示腮红区域的身体信息分析装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109299636A true CN109299636A (zh) | 2019-02-01 |
Family
ID=60201862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710611938.0A Pending CN109299636A (zh) | 2017-07-25 | 2017-07-25 | 可标示腮红区域的身体信息分析装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190035126A1 (zh) |
EP (1) | EP3435277A1 (zh) |
JP (1) | JP2019028968A (zh) |
KR (1) | KR102101337B1 (zh) |
CN (1) | CN109299636A (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
CN109288233A (zh) * | 2017-07-25 | 2019-02-01 | 丽宝大数据股份有限公司 | 可标示修容区域的身体信息分析装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1906631A (zh) * | 2004-01-30 | 2007-01-31 | 数码时尚株式会社 | 化妆模拟程序、化妆模拟装置及化妆模拟方法 |
EP1956548A1 (en) * | 2005-12-01 | 2008-08-13 | Shiseido Company, Ltd. | Face classifying method, face classifying device, classification map, face classifying program, recording medium where this program is recorded |
US20120223956A1 (en) * | 2011-03-01 | 2012-09-06 | Mari Saito | Information processing apparatus, information processing method, and computer-readable storage medium |
US20130169827A1 (en) * | 2011-12-28 | 2013-07-04 | Samsung Eletronica Da Amazonia Ltda. | Method and system for make-up simulation on portable devices having digital cameras |
CN104203042A (zh) * | 2013-02-01 | 2014-12-10 | 松下电器产业株式会社 | 化妆辅助装置、化妆辅助方法、以及化妆辅助程序 |
CN104599297A (zh) * | 2013-10-31 | 2015-05-06 | 厦门美图网科技有限公司 | 一种对人脸自动上腮红的图像处理方法 |
JP2015197710A (ja) * | 2014-03-31 | 2015-11-09 | 株式会社メガチップス | 化粧支援装置およびプログラム |
EP3017755A1 (en) * | 2014-11-04 | 2016-05-11 | Samsung Electronics Co., Ltd. | Electronic device, and method for analyzing face information in electronic device |
US9449412B1 (en) * | 2012-05-22 | 2016-09-20 | Image Metrics Limited | Adaptive, calibrated simulation of cosmetic products on consumer devices |
US20160357578A1 (en) * | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Method and device for providing makeup mirror |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5095182B2 (ja) * | 2005-12-01 | 2012-12-12 | 株式会社 資生堂 | 顔分類装置、顔分類プログラム、及び該プログラムが記録された記録媒体 |
JP2009064423A (ja) * | 2007-08-10 | 2009-03-26 | Shiseido Co Ltd | メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム |
JP5991536B2 (ja) * | 2013-02-01 | 2016-09-14 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
JP6132232B2 (ja) * | 2013-02-01 | 2017-05-24 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法 |
JP5372276B1 (ja) * | 2013-03-22 | 2013-12-18 | パナソニック株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
JP6176991B2 (ja) * | 2013-04-26 | 2017-08-09 | キヤノン株式会社 | 情報処理装置およびその制御方法およびプログラム |
WO2015029392A1 (ja) * | 2013-08-30 | 2015-03-05 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
US9760762B2 (en) * | 2014-11-03 | 2017-09-12 | Anastasia Soare | Facial structural shaping |
US20160128919A1 (en) * | 2014-11-06 | 2016-05-12 | Dagmar Bjork SVEINE | Non-invasive and long lasting skin darkening devices, compositions, and methods of use for body contouring |
JP6275086B2 (ja) * | 2015-07-25 | 2018-02-07 | 株式会社オプティム | サーバ、データ提供方法及びサーバ用プログラム |
JP6709993B2 (ja) * | 2015-10-26 | 2020-06-17 | パナソニックIpマネジメント株式会社 | メイクパーツ生成装置およびメイクパーツ生成方法 |
US10324739B2 (en) * | 2016-03-03 | 2019-06-18 | Perfect Corp. | Systems and methods for simulated application of cosmetic effects |
TWI573093B (zh) * | 2016-06-14 | 2017-03-01 | Asustek Comp Inc | 建立虛擬彩妝資料的方法、具備建立虛擬彩妝資料之方法的電子裝置以及其非暫態電腦可讀取記錄媒體 |
EP3485762A4 (en) * | 2016-07-14 | 2019-07-24 | Panasonic Intellectual Property Management Co., Ltd. | MAKE-UP ASSISTANCE AND MAKE-UP ASSISTANCE PROCEDURES |
-
2017
- 2017-07-25 CN CN201710611938.0A patent/CN109299636A/zh active Pending
- 2017-10-13 JP JP2017199340A patent/JP2019028968A/ja active Pending
- 2017-10-16 US US15/785,286 patent/US20190035126A1/en not_active Abandoned
- 2017-10-18 KR KR1020170134990A patent/KR102101337B1/ko active IP Right Grant
- 2017-10-30 EP EP17199120.1A patent/EP3435277A1/en not_active Withdrawn
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1906631A (zh) * | 2004-01-30 | 2007-01-31 | 数码时尚株式会社 | 化妆模拟程序、化妆模拟装置及化妆模拟方法 |
EP1956548A1 (en) * | 2005-12-01 | 2008-08-13 | Shiseido Company, Ltd. | Face classifying method, face classifying device, classification map, face classifying program, recording medium where this program is recorded |
US20120223956A1 (en) * | 2011-03-01 | 2012-09-06 | Mari Saito | Information processing apparatus, information processing method, and computer-readable storage medium |
US20160128450A1 (en) * | 2011-03-01 | 2016-05-12 | Sony Corporation | Information processing apparatus, information processing method, and computer-readable storage medium |
US20130169827A1 (en) * | 2011-12-28 | 2013-07-04 | Samsung Eletronica Da Amazonia Ltda. | Method and system for make-up simulation on portable devices having digital cameras |
US9449412B1 (en) * | 2012-05-22 | 2016-09-20 | Image Metrics Limited | Adaptive, calibrated simulation of cosmetic products on consumer devices |
CN104203042A (zh) * | 2013-02-01 | 2014-12-10 | 松下电器产业株式会社 | 化妆辅助装置、化妆辅助方法、以及化妆辅助程序 |
CN104599297A (zh) * | 2013-10-31 | 2015-05-06 | 厦门美图网科技有限公司 | 一种对人脸自动上腮红的图像处理方法 |
JP2015197710A (ja) * | 2014-03-31 | 2015-11-09 | 株式会社メガチップス | 化粧支援装置およびプログラム |
EP3017755A1 (en) * | 2014-11-04 | 2016-05-11 | Samsung Electronics Co., Ltd. | Electronic device, and method for analyzing face information in electronic device |
US20160357578A1 (en) * | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Method and device for providing makeup mirror |
Non-Patent Citations (1)
Title |
---|
祝秀萍等: "人脸虚拟化妆系统的研究", 《计算机与信息技术》 * |
Also Published As
Publication number | Publication date |
---|---|
EP3435277A1 (en) | 2019-01-30 |
KR102101337B1 (ko) | 2020-04-17 |
US20190035126A1 (en) | 2019-01-31 |
JP2019028968A (ja) | 2019-02-21 |
KR20190011648A (ko) | 2019-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104933344B (zh) | 基于多生物特征模态的移动终端用户身份认证装置及方法 | |
CN104331168B (zh) | 显示调整方法和电子设备 | |
CN105243386B (zh) | 人脸活体判断方法以及系统 | |
JP6547013B2 (ja) | 生体情報解析装置及びその頬紅解析方法 | |
CN100557625C (zh) | 人脸部件特征和Gabor人脸特征融合的人脸识别方法及其装置 | |
CN109583261A (zh) | 身体信息分析装置及其辅助比对眉型方法 | |
CN105068646B (zh) | 终端的控制方法和系统 | |
CN204791017U (zh) | 基于多生物特征模态的移动终端用户身份认证装置 | |
CN109427075A (zh) | 身体信息分析装置及其眼影分析方法 | |
JP6799525B2 (ja) | 生体情報解析装置及び手肌解析方法 | |
JP2021536609A (ja) | 注視点推定方法及びシステム | |
CN109583263A (zh) | 结合扩增实境的身体信息分析装置及其眉型预览方法 | |
CN109427078A (zh) | 身体信息分析装置及其唇妆分析方法 | |
CN109325408A (zh) | 一种手势判断方法及存储介质 | |
CN102479322A (zh) | 以具有角度的脸部影像分析脸部缺陷的系统、装置及方法 | |
CN108875468A (zh) | 活体检测方法、活体检测系统以及存储介质 | |
KR102045228B1 (ko) | 신체 정보 분석 장치 및 얼굴형 모의 방법 | |
CN108629278B (zh) | 基于深度相机实现信息安全显示的系统及方法 | |
CN109299636A (zh) | 可标示腮红区域的身体信息分析装置 | |
KR20140132906A (ko) | 눈동자 추적을 이용한 모바일 툴팁 방법 및 장치 | |
JP5796523B2 (ja) | 生体情報取得装置、生体情報取得方法、生体情報取得制御プログラム | |
CN107209936A (zh) | 信息处理设备,信息处理方法和程序 | |
CN109288233A (zh) | 可标示修容区域的身体信息分析装置 | |
Rabie et al. | Nfc-based person-specific assisting system in home environment | |
CN109508587A (zh) | 身体信息分析装置及其底妆分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190201 |
|
WD01 | Invention patent application deemed withdrawn after publication |