CN105574484B - 电子装置及用于在电子装置中分析脸部信息的方法 - Google Patents
电子装置及用于在电子装置中分析脸部信息的方法 Download PDFInfo
- Publication number
- CN105574484B CN105574484B CN201510736495.9A CN201510736495A CN105574484B CN 105574484 B CN105574484 B CN 105574484B CN 201510736495 A CN201510736495 A CN 201510736495A CN 105574484 B CN105574484 B CN 105574484B
- Authority
- CN
- China
- Prior art keywords
- region
- image
- electronic device
- face
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/117—Identification of persons
- A61B5/1171—Identification of persons based on the shapes or appearances of their bodies or parts thereof
- A61B5/1176—Recognition of faces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/442—Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/444—Evaluating skin marks, e.g. mole, nevi, tumour, scar
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H15/00—ICT specially adapted for medical reports, e.g. generation or transmission thereof
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
- A61B2576/02—Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/443—Evaluating skin constituents, e.g. elastin, melanin, water
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6898—Portable consumer electronic devices, e.g. music players, telephones, tablet computers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/743—Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
Abstract
提供了一种电子装置及用于在电子装置中分析脸部信息的方法。所述方法包括:从由相机模块正在捕捉的图像检测至少一个脸部区域;放大检测到的所述至少一个脸部区域;根据至少一个分析项,对检测到的被放大的所述至少一个脸部区域进行分析。
Description
技术领域
本公开涉及一种电子装置及用于在电子装置中分析脸部信息的方法。更具体地讲,本公开涉及用于在电子装置中分析脸部信息的方法,其中,在捕捉期间,一旦脸部信息(例如,脸部区域)被识别,被识别的区域可被放大或者焦点可被自动地设置在该区域上,而无需任何用户控制动作。
背景技术
各种电子装置已经被开发以提供各种功能。例如,电子装置(例如,智能电话)已经被设计以不仅提供捕捉图像的功能,而且提供识别被捕捉的对象的功能。
电子装置可被设置有显示器,使得用户可更有效地使用或享用各种功能。例如,最近的智能电话可被设置有正面对触摸敏感的显示器(例如,触摸屏)。
各种应用(或应用程序)可被安装在电子装置中或在电子装置中运行。为了在电子装置中运行并控制应用,各种输入单元(例如,触摸屏、按钮、鼠标、键盘、传感器等)可被使用。
为了分析被捕捉的对象(例如,脸部区域),电子装置可获取对象被放大或被精细捕捉的图像。另一方面,为了获取被放大或被精细捕捉的图像,用户可确定或识别将被捕捉的对象并确定焦点是否被设置在每个对象的具体区域上,从而启用电子装置的拍摄功能(或捕捉功能)。
上述信息仅作为背景信息被呈现以帮助理解本公开。至于上述内容中的任何内容是否可适用于针对本公开的现有技术,尚未作出决定,也未作出断言。
发明内容
本公开的各方面将至少解决上述问题和/或缺点并将至少提供在下文中描述的优点。因此,本公开一方面将提供一种电子装置和一种用于在电子装置中分析脸部信息的方法,其中,在捕捉期间,一旦脸部信息(例如,脸部区域)被识别,被识别的区域可被放大或者焦点可被自动地设置在该区域上,而无需任何用户控制操作。
根据本公开的一方面,提供了一种用于在电子装置中分析脸部信息的方法。所述方法包括:从由相机模块正在捕捉的图像中检测至少一个脸部区域,对被检测到的所述至少一个脸部区域进行放大,根据至少一个分析项来分析被放大的脸部区域。
根据本公开的另一方面,提供了一种电子装置。所述电子装置包括:相机模块;显示器,被配置为显示由相机模块正在捕捉的图像;控制器,被配置为从所述图像中检测至少一个脸部区域,控制相机模块以对被检测到的所述至少一个脸部区域进行放大,并根据至少一个分析项来分析被检测到并被放大的所述至少一个脸部区域。
根据本公开的另一方面,提供了一种用于在电子装置中分析脸部信息的方法。所述方法包括从被存储的至少一个图像中检测至少一个脸部区域,并根据至少一个分析项来分析被检测到的所述至少一个脸部区域。
根据本公开的另一方面,提供了一种电子装置。所述电子装置包括:相机模块,被配置为捕捉图像;控制器,被配置为从由相机模块捕捉并被存储的至少一个图像中检测至少一个脸部区域,并根据至少一个分析项来分析被检测到的所述至少一个脸部区域。
从结合附图公开本公开的各种实施例的以下详细描述中,本公开的其它方面、优点和突出特征对本领域技术人员而言将变得清楚。
附图说明
从以下结合附图的详细描述中,本公开的特定实施例的以上和其它方面、特征和优点将会更清楚,其中:
图1是示出根据本公开的各种实施例的电子装置的配置的框图;
图2、图3和图4是示出根据本公开的各种实施例的在电子装置中分析皮肤信息的操作的流程图;
图5A、图5B、图5C、图5D、图5E、图5F、图5G和图5H示出根据本公开的各种实施例的脸部区域以及脸部区域被局部放大或被精细捕捉的情形;
图6示出根据本公开的各种实施例的脸部分析项;
图7、图8、图9、图10和图11示出根据本公开的各种实施例的对脸部分析项进行分析的操作;
图12示出根据本公开的各种实施例的用于脸部分析的拍摄操作;
图13A、图13B和图13C示出根据本公开的各种实施例的显示脸部分析的结果的屏幕;
图14、图15、图16、图17和图18示出根据本公开的各种实施例的显示皮肤分析的结果的屏幕;
图19示出根据本公开的各种实施例的网络环境;
图20A、图20B和图20C示出根据本公开的各种实施例的电子装置分析脸部的情形;
图21是示出根据本公开的各种实施例的在电子装置中分析皮肤信息的操作的流程图;
图22A和图22B示出根据本公开的各种实施例的用于脸部分析的拍摄操作;
图23A和图23B示出根据本公开的各种实施例的用于脸部分析的拍摄操作;
图24示出根据本公开的各种实施例的用于脸部分析的拍摄操作;
图25是示出根据本公开的各种实施例的电子装置的配置的框图;
图26示出根据本公开的各种实施例的用于基于被存储的图像分析脸部信息的应用的屏幕;
图27、图28、图29、图30、图31、图32、图33、图34和图35示出根据本公开的各种实施例的显示脸部分析结果的屏幕;
图36示出根据本公开的各种实施例的显示基于被存储的图像而分析的脸部信息的历史的应用屏幕;
图37、图38、图39、图40、图41、图42、图43、图44和图45示出根据本公开的各种实施例的显示被分析的脸部信息的历史的屏幕;
图46示出根据本公开的各种实施例的用于脸部分析的拍摄操作;
图47A和图47B示出根据本公开的各种实施例的示出皮肤分析的结果的屏幕。
贯穿附图,同样的附图标号将被理解为指示同样的部分、组件和结构。
具体实施方式
提供参照附图的以下描述以帮助全面理解由权利要求及其等同物限定的本公开的各种实施例。虽然以下描述包括各种特定细节以帮助所述理解,但是这些特定细节将被认为仅仅是示例性的。因此,本领域普通技术人员将认识到:在不脱离本公开的范围和精神的情况下,可做出在此描述的各种实施例的各种改变和修改。另外,为了清晰和简洁,公知的功能和构造的描述可被省略。
在以下描述和权利要求中使用的术语和词汇不限于文献含义,而仅被发明人用于实现对本公开的清晰和一致的理解。因此,对本领域技术人员而言应该清楚的是:提供本发明的各种实施例的以下描述仅用于示意目的而并非为了限制由权利要求及其等同物限定的本公开的目的。
将理解:除非上下文清晰地另有指示,否则单数形式包括复数的指示物。因此,例如,引用“组件表面”包括引用一个或更多个这样的表面。
通过术语“大体上地”,意指引用的特征、参数或值不需要被精确地实现,而偏差或变化(其中,偏差或变化包括:例如,公差、测量误差、测量精度限制和本领域技术人员已知的其它因素)可按照不妨碍期望所述特征提供的效果的总量而出现。
在此使用的术语“包括”指示存在被公开的功能、操作或组件,但是并不排除存在或添加一个或更多个其它功能、操作或组件。还将理解:当在本说明书中使用时,术语“包括”和/或“具有”指示存在声明的特征、整数、操作、元件和/或组件,但是并不排除存在或添加一个或更多个其它特征、整数、操作、元件、组件和/或上述项的组合。
如在此所使用,术语“A或B”或者“A和/或B中的至少一个”包括一个或更多个关联的列出的项的任何及全部组合。例如,“A或B”或者“A和/或B中的至少一个”中的每个可包括A,或可包括B,或可包括A和B两者。
在此使用的序数(诸如“第一”、“第二”等等)可修饰本公开的各种实施例的各种组件,但是并不限制这些组件。例如,这些术语不限制组件的顺序和/或重要性。这些术语仅用于将一个组件与另一组件区分开。例如,第一用户装置和第二用户装置是彼此不同的用户装置。例如,根据本公开的各种实施例,在不脱离本公开的范围的情况下,第一组件可被指示为第二组件,反之亦可。
在组件“被连接到”或“被耦合到”另一组件时,组件可直接被连接到或直接被耦合到其它组件,或者其他组件可介于两者之间。与此相反,在组件“被直接连接到”或“被直接耦合到”另一组件时,没有其它中间组件可介于两者之间。
提供在此使用的术语仅为了描述本公开的一些实施例,但是并不为了限制本工卡。
除非另有限定,在这里使用的包括技术术语和科学术语的全部术语具有本公开的各种实施例所属领域的普通技术人员通常理解的含义。还将理解:术语(诸如在通常使用词典中限定的术语)应被理解为具有与它们在相关领域的上下文中的含义一致的含义并且将不在理想化或过分正式的意义上被理解,除非在此被如此明确地限定。
根据本公开的各种实施例的电子装置可以是相机模块。例如,电子装置可包括以下项中的至少一个:智能电话、平板个人计算机(PC)、移动电话、视频电话、电子书阅读器、台式PC、膝上型PC、笔记本计算机、个人数字助理(PDA)、便携式多媒体播放器(PMP)、运动图像专家组-第一阶段或第二阶段(MPEG-1或MPEG-2)第三音频层(MP3)播放器、移动医疗装置、相机或可穿戴装置(诸如电子眼镜、电子服装、电子手环、电子项链、电子应用配件(或应用配件)、电子纹身、智能手表等)(例如,头戴式装置(HMD))。
在本公开的各种实施例中,电子装置可以是具有相机模块的智能家用电器。智能家用电器可包括以下项中的至少一个:例如,电视机(TV)、数字视频光盘(DVD)播放器、音频播放器、冰箱、空调、清洁器、烤箱、微波炉、洗衣机、空气净化器、机顶盒、TV盒(例如,三星HomeSyncTM、苹果TVTM或谷歌TVTM)、游戏机、电子词典、电子钥匙、摄像机和电子相框。
在本公开的各种实施例中,电子装置可包括相机模块,还可包括以下项中的至少一个:各种医疗装置(例如,磁共振血管造影(MRA)、磁共振成像(MRI)、计算机断层扫描(CT)、摄像机、超声装置等)、导航装置、全球定位系统(GPS)接收器、事件数据记录器(EDR)、飞行数据记录器(FDR)、车辆信息娱乐装置、航海电子装置(例如,航海导航装置、陀螺罗盘等)、航空电子设备、安全装置、车头单元(car head unit)、工业机器人或家用机器人、用于银行的自动柜员机(ATM)、用于商店的销售点(POS)等。
在本公开的各种实施例中,电子装置可包括以下项中的至少一个:家具或建筑/构造的一部分、电子板、电子签名接收装置、投影仪或各种仪表(例如,水表、电表、煤气表或无线电波表等),其中,每个项包括相机模块。根据本公开的各种实施例的电子装置可以是上述装置中的一个或上述装置的组合。此外,根据本公开的各种实施例的电子装置可以是柔性装置。本领域技术人员将清楚的是:根据本公开的各种实施例的电子装置不限于上述装置。
根据本公开的各种实施例,能够被电子装置分析的脸部信息可包括脸部区域(诸如,眼睛、鼻子、眉毛、脸颊等)的皮肤信息。
根据本公开的各种实施例,电子装置可根据指示一个分析项来分析皮肤信息。例如,用于分析脸部信息的项可包括用于测量各种皮肤状况(诸如,毛孔、痤疮、色斑、肤色、黑眼圈、皱纹等)的项。
根据本本公开的各种实施例,电子装置执行精细拍摄的操作可包括以下操作:为了精细捕捉特定的图像之中的任一区域,在捕捉期间,将焦点设置在该区域上并且放大该区域。
以下将参照附图描述根据本公开的各种实施例的电子装置。如在此所使用,术语“用户”可指示使用电子装置的人或使用电子装置的装置(例如,智能电子装置)。
图1是示出根据本公开的各种实施例的电子装置的配置的框图。
参照图1,电子装置100可包括以下项中的至少一个:控制器110、相机模块120、输入单元130、显示器140或存储器150。
控制器110可包括以下项中的至少一个:项设置单元111、拍摄控制器112、图像分析器113、区域选择器114或分析结果产生器115,控制器110可对电子装置100的整体操作进行控制。
项设置单元111可识别被捕捉的图像中的特定的脸部区域,并选择用于分析被识别的脸部区域的皮肤状况的至少一个项。例如,如果眼睛周围的区域在被捕捉的图像中被识别,则项设置单元111可将皱纹、黑眼圈等设置为用于分析眼睛周围的区域的皮肤状况的项。作为另一示例,如果脸颊区域在被捕捉的图像中被识别,则项设置单元111可将色斑、斑点、雀斑、肤色等设置为用于分析脸颊区域的皮肤状况的项。
在拍摄模式下识别特定脸部区域时,拍摄控制器112可对相机模块120进行控制使得被识别的脸部区域可被放大或被精细捕捉。例如,拍摄控制器112可对相机模块120进行控制从而在捕捉期间在通过相机模块120识别的被捕捉的图像中将焦点设置在被识别为脸部区域的至少一个区域上或对被识别为脸部区域的至少一个区域进行放大。
图像分析器113可在图像中选择用于分析特定脸部区域的至少一个项,并根据被选择的项来分析脸部区域。例如,图像分析器113可根据被选择的项(例如,皱纹或黑眼圈)来对在被捕捉的图像中被识别的眼睛周围的区域进行分析。例如,图像分析器113可在眼睛周围的被识别的区域中对皱纹的深度或数量或者黑眼圈的宽度或颜色进行分析。
区域选择器114可确定在特定的图像中是否识别出脸部区域。根据本公开的各种实施例,如果特定的脸部区域被识别,则区域选择器114可对相机模块120进行控制从而在捕捉期间将焦点设置在脸部区域上或将脸部区域放大。
分析结果产生器115可确定由图像分析器113对脸部信息进行分析的结果,产生包括确定的结果的屏幕,并显示产生的屏幕。
根据本公开的各种实施例,分析结果产生器115可以以各种方式表现分析项或针对每个脸部区域的分析结果,以产生被分析的脸部信息的屏幕。例如,分析结果产生器115可产生脸部信息的屏幕,使得可以以不同的颜色(例如,可以以红色显示痤疮并且可以以蓝色显示色斑)显示每个分析项。此外,通过确定先前的分析结果,分析结果产生器115可以以绿色或蓝色显示改善的脸部区域并以红色显示恶化的脸部区域,以产生脸部信息的屏幕。
根据本公开的各种实施例,如果与特定的脸部区域相应的区域或者根据分析项或分析结果以不同的颜色区分的区域从捕捉的图像中被选择,则分析结果产生器115可提供通过对被选择的脸部区域进行放大或分析而获得的图像。例如,分析结果产生器115可对显示器140进行控制从而显示产生的图像。
相机模块120可捕捉图像。根据本公开的各种实施例,在捕捉期间,相机模块120可由控制器110来控制从而将焦点设置在被识别为特定的脸部区域的区域上或对被识别为特定的脸部区域的区域进行放大。
显示器140可显示由相机模块120正在捕捉的图像。
根据本公开的各种实施例,如果特定区域从被显示的图像中被选择,则显示器140可显示通过对该区域进行放大精细捕捉而获得的图像。例如,在电子装置100选择特定区域时,被放大的图像可以是通过对被选择的区域进行放大或捕捉而获得的图像。在电子装置100选择特定区域时,被放大的图像可以是在捕捉期间将焦点设置在被选择的区域上或对被选择的区域进行放大的图像。
存储装置150可包括皮肤分析信息151或用户识别信息152。皮肤分析信息151可包括特定的脸部区域的根据分析项的皮肤分析信息。
皮肤分析信息151可包括通过针对每个项分析特定区域的皮肤状况而获得的信息。例如,皮肤分析信息151可包括通过确定特定的脸部区域中是否存在色斑、肤色、斑点或痤疮而获得的信息、针对每个项的先前分析的信息或按时间顺序显示针对每个脸部区域的皮肤分析结果的历史信息。
用户识别信息152可包括针对特定用户的脸部信息。例如,图像分析器113可通过使用用户识别信息152将在捕捉的图像中被识别的“眼睛”区域与先前存储的另一用户的“眼睛”图像进行比较。就用户识别信息152而言,基于图像分析器113中的比较结果,针对在捕捉的图像中被识别的脸部区域的分析结果可被存储在与包括相同的脸部区域的用户有关的脸部信息。
例如,根据本公开的各种实施例的电子装置可包括相机模块、显示器和控制器,其中,显示器被配置为显示由相机模块正在捕捉的图像,控制器被配置为从图像中检测至少一个脸部区域、控制相机模块以对被检测的至少一个脸部区域进行放大并根据至少一个分析项来分析放大的脸部区域。
根据本公开的各种实施例的至少一个脸部区域可包括眼睛、鼻子、脸颊、嘴或眉毛中的至少一个周围的区域。
根据本公开的各种实施例的至少一个分析项可包括皱纹、痤疮、色斑、肤色、黑眼圈或毛孔中的至少一个。
根据本公开的各种实施例的控制器可针对在放大的脸部区域中的每个分析项,对厚度、大小、数量、宽度或颜色中的至少一个进行分析。
在检测到针对图像中的特定区域的手势输入时,根据本公开的各种实施例的控制器可控制显示器显示通过对检测到手势的区域进行放大而获得的图像。
根据本公开的各种实施例的控制器可针对至少一个预定分析项从图像中检测脸部区域,并根据预定的分析项来分析检测到的脸部区域。
在检测到至少一个脸部区域时,根据本公开的各种实施例的控制器可控制显示器显示放大的脸部区域的屏幕。
根据本公开的各种实施例的控制器在检测到预定动作时可控制相机模块以精细捕捉至少一个检测到的脸部区域。
根据本公开的各种实施例的预定动作可包括运行启用相机模块的应用的动作、启用处于锁定状态的电子装置100的动作或以特定的角度或特定的方向对电子装置100进行定位的动作中的至少一个动作。
根据本公开的各种实施例的控制器可确定预先存储的针对特定的脸部区域或分析项的分析结果,将确定的预先存储的分析结果与分析的结果进行比较,控制显示器显示包括比较结果的屏幕。
图2是示出根据本公开的各种实施例的在电子装置中分析皮肤信息的操作的流程图。
参照图2,在操作210中,电子装置可从被捕捉的图像中检测脸部信息。
在操作220中,电子装置可从被捕捉的脸部区域中选择分析项。
在操作230中,电子装置可对被选择的项进行精细捕捉。例如,电子装置可在捕捉期间将焦点设置在被选择的项上或对被选择的项进行放大。
在操作240中,电子装置可分析被放大的图像。根据本公开的各种实施例,电子装置可将被放大的图像与预先存储的结果值进行比较。例如,电子装置可将被放大的图像与预先存储的结果值进行比较以分析与被放大的图像相应的脸部区域。
根据本公开的各种实施例,如果用户捕捉包括脸部区域的图像,则被捕捉的输出图像可包括通过将被捕捉的图像中包括的每个脸部区域进行放大或精细捕捉而获得的图像,或者包括对被放大或被精细捕捉的图像进行分析的结果的图像。例如,通过捕捉脸部区域,用户可在不针对脸部分析采取额外动作的情况下获得通过将每个脸部区域进行放大或精细捕捉而获得的图像以及对被放大或被精细捕捉的图像进行分析的结果。
在图2中示出的操作210至操作240中的至少一个操作可被省略,或至少一个其它操作可被添加到操作210至操作240之间。此外,图2中的操作210至操作240可按照描述顺序而被执行,或者操作210至操作240中的至少一个操作的执行顺序可被改变。
例如,根据本公开的各种实施例的用于在电子装置中分析脸部信息的方法可包括:从由相机模块正在捕捉的图像中检测至少一个脸部区域,对检测到的至少一个脸部区域进行放大,根据指示一个分析项对被放大的脸部区域进行分析。至少一个脸部区域可包括以下项中的至少一个周围的区域:眼睛、鼻子、脸颊、嘴或眉毛。至少一个分析项可包括皱纹、痤疮、色斑、肤色、黑眼圈或毛孔中的至少一个。
根据本公开的各种实施例的分析可包括:针对在被放大的脸部区域中的每个分析项,分析厚度、大小、数量、宽度或颜色中的至少一个。
根据本公开的各种实施例的方法还可包括:在检测到针对图像中的特定区域的手势输入时,显示通过对检测到手势的区域进行放大而获得的图像。
根据本公开的各种实施例的方法还可包括:针对至少一个预定的分析项从图像中检测脸部区域,并根据预定的分析项分析检测到的脸部区域。
根据本公开的各种实施例的方法还可包括:在检测到至少一个脸部区域时,显示通过对检测到的区域进行放大而获得的屏幕。
根据本公开的各种实施例的方法还可包括:在检测到预定动作时对至少一个检测到的脸部区域进行放大。预定动作可包括以下项中的任一动作:运行启用相机模块的应用的动作、启用处于锁定状态的电子装置的动作和以特定角度或特定方向对电子装置进行定位的动作。
根据本公开的各种实施例的方法还可包括:确定预先存储的针对特定的脸部区域或分析项的分析结果,将被确定的预先存储的分析结果与分析的结果进行比较,显示比较的结果。
图3是示出根据本公开的各种实施例的在电子装置中分析皮肤信息的操作的流程图。
参照图3,在操作310中,电子装置可从被捕捉的图像中检测脸部区域。
在操作320中,电子装置可在被捕捉的脸部区域中识别至少一个焦点区域。
在操作330中,电子装置可对至少一个焦点区域进行放大或精细捕捉。例如,在焦点区域被放大或被精细捕捉时,输出图像可以是通过在捕捉期间将焦点设置在特定区域上和/或对特定区域进行放大而获得的图像。
虽然根据本公开的各种实施例电子装置在操作320中执行了识别至少一个焦点区域的操作,但是电子装置可在从在操作310中被捕捉的图像中检测脸部区域时,对检测到的脸部区域进行放大或精细捕捉。在这种情况下,可省略操作320。
在图3中示出的操作310至操作330中的至少一个操作可被省略,或至少一个其它操作可被添加到操作310至操作330之间。此外,在图3中的操作310至操作330可按照描述顺序而被执行,或者操作310至操作330中的至少一个的执行顺序可被改变。
图4是示出根据本公开的各种实施例的在电子装置中分析皮肤信息的操作的流程图。
参照图4,在操作410中,电子装置可在非拍摄模式下确定是否运行任何应用。
在操作420中,电子装置可确定是否检测到预定用户输入。
如果确定未检测到预定用户输入,则电子装置可再次执行操作410。
如果确定检测到预定用户输入,则操作430中电子装置可控制相机模块在后台运行。
在操作440中,电子装置可确定在被捕捉的图像中是否识别出脸部区域。
如果确定未识别出脸部区域,则电子装置可再次执行操作410。
如果确定识别出脸部区域,则在操作450中电子装置可选择识别出的图像的至少一个分析项。例如,图像中的至少一个分析项可包括用于测量各种皮肤状况(诸如,毛孔、痤疮、色斑、肤色、黑眼圈、皱纹等)的项中的至少一个。
在操作460中,电子装置可对相机模块进行控制从而对被选择的项进行放大或将焦点设置在被选择的项上。
在操作470中,电子装置可分析被放大的图像。
在图4中示出的操作410至操作470中的至少一个操作可被省略,或者至少一个其它操作可被添加到操作410至操作470之间。此外,图4中的操作410至操作470可按照描述顺序被执行,或者操作410至操作470中至少一个操作的执行顺序可被改变。
图5A、图5B、图5C、图5D、图5E、图5F、图5G和图5H示出根据本公开的各种实施例的脸部区域以及脸部区域被局部放大或被精细捕捉的情形。
参照图5A、图5B、图5C、图5D、图5E、图5F、图5G和图5H,根据本公开的各种实施例,假设电子装置正捕捉或拍摄整个脸部。电子装置可识别正被捕捉的图像500中的至少一个脸部区域。
参照图5A,电子装置可识别正被捕捉的图像500中的以下项中的至少一个:眉毛501、右眼502、左眼506、鼻子503、嘴部边缘504、脸颊505或脸部507。
根据本公开的各种实施例,在识别正被捕捉的图像500中的至少一个脸部区域时,电子装置可放大区域以捕捉通过对该区域进行局部放大或精细捕捉而获得的图像。
参照图5B,在识别正被捕捉的图像500中的眉毛501时,电子装置可对眉毛501的区域进行放大以对该区域进行局部放大或精细捕捉。电子装置可从通过对眉毛501的区域进行局部放大而获得的被捕捉的图像中,获得基于至少一个分析项的皮肤分析信息。例如,皮肤分析信息可包括与眉毛501的区域中的皱纹501a有关的信息。
参照图5C,在识别正被捕捉的图像500中的右眼502时,电子装置可对右眼502的区域进行放大以对该区域进行局部放大或精细捕捉区域。电子装置可从通过对右眼502的区域进行局部放大而获得的被捕捉的图像中,获得基于至少一个分析项的皮肤分析信息。例如,皮肤分析信息可包括与右眼502的区域中的皱纹502a有关的信息。
参照图5D,在识别正被捕捉的图像500中的鼻子503时,电子装置可对鼻子503的区域进行放大以对该区域进行局部放大或精细捕捉。电子装置可从通过对鼻子503的区域进行局部放大而获得的被捕捉的图像中,获得基于至少一个分析项的皮肤分析信息。例如,皮肤分析信息可包括与鼻子503的区域中的毛孔503a有关的信息。
参照图5E,在识别正被捕捉的图像500中的嘴部边缘504时,电子装置可对嘴部边缘504的区域进行放大以对区域进行局部放大或精细捕捉。电子装置可从通过对嘴部边缘504的区域进行局部放大而获得的被捕捉的图像中,获得基于至少一个分析项的皮肤分析信息。例如,皮肤分析信息可包括与嘴部边缘504的区域中的色斑504a有关的信息。
参照图5F,在识别正被捕捉的图像500中的脸颊505时,电子装置可对脸颊505的区域进行放大以对该区域进行局部放大或精细捕捉。电子装置可从通过对脸颊505的区域进行局部放大而获得的被捕捉的图像中,获得基于至少一个分析项的皮肤分析信息。例如,皮肤分析信息可包括与脸颊505的区域中的痤疮505a有关的信息。
参照图5G,在识别正被捕捉的图像500中的左眼506时,电子装置可对左眼506的区域进行放大以对该区域进行局部放大或精细捕捉。电子装置可从通过对左眼506的区域进行局部放大而获得的被捕捉的图像中,获得基于至少一个分析项的皮肤分析信息。例如,皮肤分析信息可包括与左眼506的区域中的黑眼圈506a有关的信息。
参照图5H,在识别正被捕捉的图像500中的脸部507时,电子装置可对脸部507的区域进行放大以对该区域进行局部放大或精细捕捉。电子装置可从通过对脸部507的区域进行局部放大而获得的被捕捉的图像中,获得基于至少一个分析项的皮肤分析信息。例如,皮肤分析信息可包括与脸部507的区域中的肤色507a有关的信息。
图6示出根据本公开的各种实施例的脸部分析项。
参照图6,电子装置已经捕捉了包括至少一个脸部区域的图像600,并可识别在被捕捉的图像600中的至少一个分析项。例如,电子装置可将痤疮601、皱纹602或色斑603识别为分析项。
图7示出根据本公开的各种实施例的对脸部分析项进行分析的操作。
参照图7,电子装置可对被捕捉的图像710中的分析项之中的色斑711进行分析。
根据本公开的各种实施例,电子装置可产生通过对被捕捉的图像中的色斑部分的颜色进行反转而获得的图像720。电子装置可确定图像720中的颜色被反转的区域,从而识别至少一个色斑部分721。例如,电子装置可根据色斑部分的数量来确定色斑与以前相比是已经改善还是更加恶化。
图8示出根据本公开的各种实施例的对脸部分析项进行分析的操作。
参照图8,电子装置可对被捕捉的图像810中的分析项之中的痤疮811进行分析。
根据本公开的各种实施例,电子装置可产生通过对被捕捉的图像中的痤疮被识别的部分的颜色进行反转而获得的图像820。例如,电子装置可确定图像820中的颜色被反转的区域,从而识别至少一个痤疮斑点821。例如,电子装置可根据痤疮斑点的数量来确定痤疮与以前相比是增加还是减少。
图9示出根据本公开的各种实施例的对脸部分析项进行分析的操作。
参照图9,电子装置可分析被捕捉的图像910中的分析项中的毛孔911。
根据本公开的各种实施例,电子装置可产生通过使被捕捉的图像中的毛孔被识别的部分的颜色变暗而获得的图像920。例如,电子装置可确定图像920中的颜色变暗的区域921,从而识别至少一个毛孔。例如,电子装置可根据毛孔的数量来确定毛孔与以前相比是增加还是减少。
图10示出根据本公开的各种实施例的对脸部分析项进行分析的操作。
参照图10,电子装置可分析被捕捉的图像1000中的分析项中的皱纹1001。
根据本公开的各种实施例,电子装置可在被捕捉的图像1000中的皱纹被识别的区域中示出皱纹线1001。例如,电子装置可通过确定被捕捉的图像1000中的至少一条皱纹线1001来确定是否存在皱纹。
根据本公开的各种实施例,电子装置可确定在被捕捉的图像中示出的至少一条皱纹线的粗细度或数量。例如,电子装置可根据至少一条皱纹线的粗细度来确定皱纹与以前相比是否已更深,并可根据皱纹线的数量来确定皱纹与以前相比是增加还是减少。
图11示出根据本公开的各种实施例的对脸部分析项进行的操作。
参照图11,电子装置可对被捕捉的图像1100中的分析项之中的肤色1101进行分析。
根据本公开的各种实施例,电子装置可在被捕捉的图像1100中将一部分皮肤设置为的肤色分析区域1101。例如,通过确定被捕捉的图像1100中的至少一个肤色分析区域1101,电子装置可将通过测量至少一个皮肤分析区域1101而获得的值与先前测量的肤色值进行比较,或可获得针对肤色分析区域的测量值。
根据本公开的各种实施例,电子装置可对被捕捉的图像1100中的肤色分析区域1101进行分析。例如,电子装置可对肤色分析区域的颜色、对比度、亮度、色温等进行测量,从而确定被测量的肤色看上去是比先前测量的肤色更暗还是更亮。
图12示出根据本公开的各种实施例的用于脸部分析的拍摄操作。
参照图12,假设电子装置正捕捉或拍摄用于脸部分析的脸部区域。
根据本公开的各种实施例,电子装置可确定当前正被捕捉的图像的特征(例如,分辨率、图像大小、白平衡等)。电子装置可将当前正被捕捉的图像的特征与先前被捕捉的图像的特征进行比较。例如,如果当前正被捕捉的图像的特征(例如,白平衡)与先前被捕捉的图像的特征不相同,则电子装置可使当前正被捕捉的图像的特征与先前被捕捉的图像的特征同步。
参照图12,电子装置可显示指示电子装置正将正被捕捉的图像的白平衡与先前被捕捉的图像的白平衡进行匹配的屏幕1210。在将当前正被捕捉的图像的特征与先前被捕捉的图像的特征进行同步后,电子装置可显示指示由于白平衡的同步被完成所以能够进行拍摄的屏幕1220。
根据本公开的各种实施例,用户可在屏幕1220上确定电子装置中的当前拍摄情况被设置为与用于脸部分析的图像的先前的拍摄情形相同。因此,可以防止尽管皮肤状况相同但是由于诸如照明、室内/室外环境、气候等原因而使针对脸部信息的分析结果会不同的情形。
图13A、图13B和图13C示出根据本公开的各种实施例的显示脸部分析的结果的屏幕。
参照图13A、图13B和图13C,根据本公开的各种实施例,在识别被捕捉的图像中的至少一个脸部区域时,电子装置可对至少一个脸部区域进行放大或精细捕捉。例如,电子装置可产生分析结果屏幕1300,其中,分析结果屏幕1300包括与被捕捉的图像相应的脸部区域中的被放大或被精细捕捉的区域。例如,分析结果屏幕可包括被识别为至少一个脸部区域的眼睛1310、鼻子1320和脸颊1330中的每个的被放大或被精细捕捉的区域。
参照图13A,用户可在分析结果屏幕1300上选择眼睛1310。根据本公开的各种实施例,电子装置可输出通过对眼睛1310进行放大或精细捕捉而获得的图像。例如,在通过对眼睛1310进行放大或精细捕捉而获得的图像中,指示眼睛1310周围的至少一条皱纹1311的线可被显示。
参照图13B,用户可在分析结果屏幕1300上选择鼻子1320。根据本公开的各种实施例,电子装置可输出通过对鼻子1320进行放大或精细捕捉而获得的图像。例如,在通过对鼻子1320进行放大或精细捕捉而获得的图像中,鼻子1320周围的至少一个痤疮斑点1321可被显示。
参照图13C,用户可在分析结果屏幕1300上选择脸颊1330。根据本公开的各种实施例,电子装置可输出通过对脸颊1330进行放大或精细捕捉而获向的图像。例如,在通过对脸颊1330进行放大或精细捕捉而获得的图像中,脸颊1330周围的至少一个色斑部分1331的颜色可以以高亮的方式被显示。
图14示出根据本公开的各种实施例的显示皮肤分析的结果的屏幕。
参照图14,分析结果屏幕1410可包括显示皮肤分析历史1411的选择项,其中,显示皮肤分析历史1411用于显示针对每个分析项的皮肤分析结果的历史。
根据本公开的各种实施例,如果显示皮肤分析历史1411被选择,则电子装置可切换到皮肤分析历史屏幕1420。
根据本公开的各种实施例的皮肤分析历史屏幕1420可显示针对在特定时期(例如,从六月到八月)内测量的每个皮肤分析项(例如,肤色、痤疮、皱纹、色斑、毛孔等)的皮肤分析结果的历史。
例如,肤色测量结果1421可显示被测量的肤色比以前更亮。痤疮测量结果1422可显示被测量的痤疮与以前相比已经增加。皱纹测量结果1423可显示被测量的皱纹的数量与先前的皱纹的数量相似。色斑测量结果1424可显示色斑部分的颜色比以前更浅。毛孔测量结果1425可显示毛孔的数量与以前相比已经增加。
图15示出根据本公开的各种实施例的显示皮肤分析的结果的屏幕。
参照图15,根据本公开的各种实施例,电子装置可分析特定的脸部区域,并根据分析结果推荐用于改善脸部区域的方法。
在识别被捕捉的图像1510中的眼睛周围的区域时,电子装置可分析眼睛周围的区域的皮肤状况并显示分析结果。例如,作为分析的结果,电子装置可确定在特定用户的眼睛周围识别出或发现新的皱纹或者皱纹的数量与以前相比已经增加。
根据本公开的各种实施例,电子装置可提供包括用于改善皱纹的方法的皮肤护理推荐屏幕1520。例如,如果用户选择被捕捉的图像1510中的皱纹标记1511,则电子装置可从显示被捕捉的图像1510的屏幕切换到皮肤护理推荐屏幕1520。
根据本公开的各种实施例的皮肤护理推荐屏幕1520可包括对皱纹有用的化妆品1521、用于搜索更多眼霜的运行按钮(或执行按钮)1522或用于推荐对眼睛周围的皱纹有用的按摩方法的运行按钮1523。例如,对皱纹有用的化妆品1521可包括**眼霜1521a、##霜1521b或OO眼霜1521c,可还包括用户能够对每件化妆品估价或预定特定化妆品的运行按钮。
图16示出根据本公开的各种实施例的显示皮肤分析的结果的屏幕。
参照图16,根据本公开的各种实施例,电子装置可分析特定的脸部区域,根据分析结果推荐用于改善脸部区域的方法。例如,作为分析的结果,电子装置可识别特定用户的脸颊周围的肤色被改变的部分。
在识别出被捕捉的图像1610中的脸颊周围的区域时,电子装置可显示肤色分析区域1611,在肤色分析区域1611中,对脸颊的特定区域的肤色进行分析。
根据本公开的各种实施例,电子装置可提供包括用于改善肤色的方法的皮肤护理推荐屏幕1620。例如,如果用户选择被捕捉的图像1610中的肤色分析区域1611,则电子装置可从显示被捕捉的图像1610的屏幕切换到皮肤护理推荐屏幕1620。
根据本公开的各种实施例的皮肤护理推荐屏幕1620可包括对肤色的改善有用的面膜1621或用于搜索更多面膜的运行按钮1622。例如,对肤色的改善有用的面膜1621可包括**面膜1621a或□□面膜1621b,可还包括用户能够进入显示每个面膜的特征的屏幕或能够预定特定面膜的运行按钮。
图17示出根据本公开的各种实施例的显示皮肤分析的结果的屏幕。
参照图17,根据本公开的各种实施例,电子装置可分析特定的脸部区域并根据分析结果提供能够改善脸部区域的产品的广告屏幕。
在识别出被捕捉的图像1710中的脸颊周围的区域或脸颊周围的区域中至少一个痤疮斑点时,电子装置可以以高亮的方式显示被识别出的痤疮1711。
根据本公开的各种实施例,电子装置可提供用于对能够改善痤疮的产品做广告的广告屏幕1720。例如,如果用户选择被捕捉的图像1710中示出的痤疮1711,则电子装置可从显示被捕捉的图像1710的屏幕切换到广告屏幕1720。
根据本公开的各种实施例的广告屏幕1720可包括针对痤疮治疗的广告或用于切换到描述痤疮治疗的屏幕的“更多”运行按钮1721。
图18示出根据本公开的各种实施例的显示皮肤分析的结果的屏幕。
参照图18,根据本公开的各种实施例,电子装置可分析特定的脸部区域,并根据分析的结果推荐用于改善脸部区域的方法。
在识别出被捕捉取向1810中的鼻子时,电子装置可显示毛孔分析区域1811,在毛孔分析区域1811中,对鼻子上的毛孔的数量进行分析。
根据本公开的各种实施例,电子装置可提供包括用于减少毛孔数量的方法的皮肤护理推荐屏幕1820。例如,如果用户选择被捕捉的图像1810中的毛孔分析区域1811,则电子装置可从显示被捕捉的图像1810的屏幕切换到皮肤护理推荐屏幕1820。
根据本公开的各种实施例的皮肤护理推荐屏幕1820可包括与因毛孔治疗而闻名的皮肤诊所相关的信息1821或特定皮肤诊所的广告1822。例如,特定皮肤诊所的广告1822可包括显示皮肤诊所的医务科室的屏幕或用于切换到皮肤诊所的信息屏幕的快捷运行按钮。
图19示出根据本公开的各种实施例的网络环境。
参照图19,网络环境1900可包括至少一个电子装置1901或1904、或服务器1906。至少一个电子装置1901或1904可通过网络1962被连接到服务器1906。
电子装置1901可包括总线1910、处理器1920、存储器1930、输入/输出(I/O)接口1940、显示器1950、通信接口1960和相机模块1970。
总线1910可以是将上述组件彼此连接并在上述组件之间传递通信信息(例如,控制消息)的电路。
处理器1920可例如通过总线1910从上述其它组件(例如,存储器1930、I/O接口1940、显示器1950、通信单元1960、相机模块1970等)接收命令,对被接收的命令进行解密,并基于被解密的命令执行操作或数据处理。
处理器1920可对电子装置1901的整体操作进行控制。根据本公开的各种实施例,处理器1920可包括指示一个控制器(例如,控制器110)。
存储器1930可存储从处理器1920或其它组件(例如,I/O接口1940、显示器1950、通信接口1960、相机模块1970等)接收的或由处理器1920或其它组件产生的命令或数据。存储器1930可包括程序模块,例如诸如,内核1931、中间件1932、应用程序接口(API)1933或应用1934。上述编程模块中的每个编程模块可由软件、固件、硬件或软件、固件、硬件的组合配置而成。
内核1931可控制或管理用于执行在其它程序模块(例如,中间件1932、API 1933或应用1934)中实现的操作或功能的系统资源(例如,总线1910、处理器1920、存储器1930等)。此外,内核1931可提供中间件1932、API 1933或应用1934可访问电子装置1901的各个组件并控制或管理各个组件的接口。
中间件1932可起到居间作用使得API 1933或应用1934可与内核1931通信从而彼此交换数据。此外,响应于从应用1934接收到的工作请求,中间件1932可例如通过使用向应用1934中的至少一个应用分配能够使用电子装置1901的系统资源(例如,总线1910、处理器1920、存储器1930等)的优先级的方法来针对工作请求执行控制(例如,调度或负载平衡)。
API 1933作为应用1934对内核1931或中间件1932中提供的功能进行控制的接口,可包括用于例如文件控制、窗口控制、图像处理、字符控制等的至少一个接口或功能(例如,命令)。
根据本公开的各种实施例,应用1934可包括短消息服务(SMS)/多媒体消息服务(MMS)应用、电子邮件应用、日历应用、报警应用、医疗保健应用(例如,用于测量运动量或血糖的应用)或环境信息应用(例如,用于提供与压力、湿度、温度等有关的信息的应用)。另外或可选地,应用1934可以是与电子装置1901和外部电子装置(例如,电子装置1904)之间的信息交换有关的应用。与信息交换有关的应用可包括例如用于将特定信息转发给外部电子装置的通知转发应用,或用于管理外部电子装置的装置管理应用。
例如,通知转发应用可包括将在电子装置1901的其它应用(例如,SMS/MMS应用、电子邮件应用、医疗保健应用、环境信息应用等)中产生的通知信息传递给外部电子装置(例如,电子装置1904)的功能。另外或可选地,通知转发应用可例如从外部电子装置(例如,电子装置1904)接收通知信息,并将接收到的通知信息提供给用户。装置管理应用可例如管理(例如,安装、删除或更新)针对与电子装置1901通信的外部电子装置(例如,电子装置1904)的至少一个部件的功能(例如,控制外部电子装置本身(或外部电子装置的一些部件)的开启/关闭或显示器的亮度(或分辨率)的功能),管理在外部电子装置中运行的应用,或管理在外部电子装置中提供的服务(例如,呼叫服务或消息服务)。
根据本公开的各种实施例,应用1934可包括基于外部电子装置(例如,电子装置1904)的特征(例如,电子装置的类型)而指定的应用。例如,如果外部电子装置是MP3播放器,则应用1934可包括与音乐重放有关的应用。类似地,如果外部电子装置是移动医疗装置,则应用1934可包括与医疗保健有关的应用。在本公开的一个实施例中,应用1934可包括在电子装置1901中指定的应用或从外部电子装置(例如,服务器1906或外部电子装置1904)中接收的应用中的至少一个应用。
I/O接口1940可例如通过总线1910将通过I/O装置(例如,传感器、键盘或触摸屏)从用户接收的命令或数据传递给处理器1920、存储器1930、通信接口1960或相机模块1970。例如,I/O接口1940可将针对在触摸屏上进行的用户的触摸的数据提供给处理器1920。此外,I/O接口1940可通过I/O装置(例如,扬声器或显示器)对例如通过总线1910从处理器1920、存储器1930、通信接口1960或相机模块1970接收的命令或数据进行输出。例如,I/O接口1940可通过扬声器将由处理器1920处理的语音数据输出给用户。
显示器1950可为用户显示各种信息(例如,多媒体数据、文本数据等)。
通信接口1960可对电子装置1901到外部电子装置(例如,电子装置1904或服务器1906)之间的通信进行连接。例如,通信接口1960可通过无线通信或有线通信而被连接到网络1962,以与外部装置通信。无线通信可包括以下项中的至少一个:例如,Wi-Fi、蓝牙(BT)、近场通信(NFC)、GPS或蜂窝通信(例如,长期演进(LTE)、先进的长期演进(LTE-A)、码分多址(CDMA)、宽带码分多址(WCDMA)、通用移动通信系统(UMTS)、无线宽带(WiBro)、全球移动通信系统(GSM)等)。有线通信可包括以下项中的至少一个:例如,通用串行总线(USB)、高清晰多媒体接口(HDMI)、推荐标准232(RS-232)或普通老式电话服务(POTS)。
相机模块1970可通过基于从其它组件(例如,处理器1920、存储器1930、I/O接口1940、通信接口1960等)获得的信息被控制,来通过对正被捕捉的图像进行放大,以对特定区域进行放大或精细捕捉。
在本公开的实施例中,网络1962可以是电信网络。电信网络可包括以下项中的至少一个:计算机网络、互联网、物联网(IoT)或电话网络。在本公开的一个实施例中,用于电子装置1901和外部电子装置之间的通信的协议(例如,传输层协议、数据链路层协议或物理层协议)可由以下项中的至少一个来支持:应用1934、API 1933、中间件1932、内核1931或通信接口1960。
根据本公开的各种实施例,电子装置可通过使用自动白平衡功能(或白平衡自动设置功能)来计算正被捕捉的图像的照明环境。例如,使用被计算的照明环境,电子装置可捕捉图像使得批量白平衡可被设置。此外,甚至在不存在外部光源的拍摄环境下,电子装置可通过调整电子装置中所包括的光源(例如,发光二极管(LED)光源)来捕捉图像使得批量白平衡可被设置。
如果在捕捉期间白平衡根据自动白平衡功能而被设置,则可根据被设置为与每个被捕捉的图像相应的白平衡,将在被捕捉的图像中的脸部区域设置为不同的颜色。
为了批量地针对多个图像设置脸部区域的颜色,可以在阻挡外部光源后仅使用电子装置中所包括的光源。然而,用于实现该方法的包括光源的电子装置对于用户携带来说太大并且太重。
根据本公开的各种实施例,电子装置可包括前置相机或后置相机。例如,如果使用前置相机捕捉了图像,则后置相机可计算拍摄环境以设置将被捕捉的图像的白平衡,使得图像可在恒定的拍摄环境下被捕捉。将在下文中参照图20A、图20B、图20C和图21对此进行详细描述。
图20A、图20B和图20C示出根据本公开的各种实施例的电子装置分析脸部的情形。
参照图20A、图20B和图20C,电子装置可包括前置相机2001或后置相机2002,后置相机2002可包括颜色平衡卡2003。
根据本公开的各种实施例,电子装置可使用颜色平衡卡2003来检测电子装置正捕捉图像的周围环境的照明元件(或照明组件)。例如,颜色平衡卡2003可以是通过利用光的漫反射特性来拍摄光的正确颜色的配件,或可以是用于颜色矫正的配件。虽然颜色平衡卡2003被安装在例如后置相机2002中,但是颜色平衡卡2003可被安装在与电子装置互相配合的各种其它模块中。
根据本公开的各种实施例,电子装置可确定通过至少一个相机模块(例如,前置相机2001或后置相机2002)获得的图像的亮度异常。例如,图像的亮度被确定为异常的情况可包括光线比设置值亮或暗的情况,或者脸部区域不能被获得的情况。
根据本公开的各种实施例,如果确定图像的亮度异常,则电子装置可不存储由相机模块(例如,前置相机2001或后置相机2002)正在捕捉的图像,确定难以获得图像。
此外,根据本公开的各种实施例,如果确定图像的亮度异常,则电子装置可显示指示拍摄情况异常的屏幕或输出指示拍摄情况异常的声音警报。相应地,用户可将电子装置移动到可进行正常拍摄的位置。如果确定可进行正常拍摄,则电子装置可再次输出指示可进行拍摄的屏幕或声音。
参照图20A,电子装置可使用前置相机2001来获得包括脸部区域的图像,并使用后置相机2002的颜色平衡卡2003来计算照明元件。
根据本公开的各种实施例,电子装置可将计算出的照明元件应用到获得的包括脸部区域的图像。例如,关于应用了计算出的照明元件的图像,由于在不考虑拍摄环境的照明组件的情况下设置白平衡,所以图像可被捕捉从而与先前存储的图像的脸部区域的白平衡相应。
参照图20B,假设电子装置正使用前置相机2001捕捉或拍摄图像。例如,电子装置可分析由前置相机2001正在捕捉的图像。
根据本公开的各种实施例,电子装置可根据对图像进行分析的结果来确定电子装置正拍摄图像的照明环境是否为极端照明环境(例如,逆光、低照度、过亮的照明等)。例如,如果电子装置正使用前置相机2001捕捉图像的照明环境被确定为极端照明环境,则电子装置可不存储由前置相机2001正在捕捉的图像,或控制前置相机2001使得拍摄功能不会被启用。
根据本公开的各种实施例,如果电子装置正使用前置相机2001捕捉图像的照明环境被确定为异常照明环境,则电子装置可使用颜色平衡卡2003来计算白平衡,并将计算出的白平衡值应用到由前置相机2001正在捕捉的图像。
参照图20C,假设电子装置正使用后置相机2002捕捉或拍摄图像。例如电子装置可分析由后置相机2002正在捕捉的图像。
根据本公开的各种实施例,电子装置可根据对图像进行分析的结果确定电子装置正捕捉图像的照明环境是否为极端照明环境(例如,逆光、低照度、过亮的照明等)。例如,如果电子装置正使用后置相机2002捕捉图像的照明环境被确定为极端照明环境,则电子装置可不存储由后置相机2002正在捕捉的图像,或控制后置相机2002使得拍摄功能可不被启用。
根据本公开的各种实施例,如果电子装置正使用后置相机2002捕捉图像的照明环境被确定为异常照明环境,则电子装置可使用颜色平衡卡2003来计算白平衡并将计算出的白平衡值应用到由后置相机2002正在捕捉的图像。
图21是示出根据本公开的各种实施例的在电子装置中分析皮肤信息的操作的流程图。
参照图21,在操作2110,电子装置可从至少一个相机获得图像。
在操作2120,电子装置可对获得的图像进行分析。
在操作2130,电子装置可确定获得的图像的亮度是否异常。
如果在操作2130确定获得的图像的亮度不是异常,则电子装置2130可再次执行操作2110。
如果在操作2130确定获得的图像的亮度异常,则在操作2140电子装置可确定已经捕捉到获得的图像的相机是否为安装在电子装置的前面的相机。
如果在操作2140确定已经捕捉到获得的图像的相机不是安装在电子装置的前面的相机,则在操作2150电子装置可计算白平衡。例如,可使用能够计算白平衡的模块(例如,颜色均衡卡)来计算白平衡,该模块设置在不是安装在电子装置的前面的相机中。在操作2160,电子装置可使用在操作2150计算的白平衡将捕捉的图像的白平衡应用为计算的白平衡。
如果在操作2140确定已经捕捉到获得的图像的相机是安装在电子装置的前面的相机,则在操作2160电子装置可将白平衡应用于捕捉的图像。例如,在操作2160被应用白平衡的图像可以是被应用了预先存储的白平衡值的图像,这是因为在安装在电子装置的前面的相机中没有设置颜色均衡卡。
在操作2170,电子装置可存储图像。例如,存储的图像可以是应用了白平衡的图像。
图21中示出的操作2110到2170中的至少一个可被省略,或者至少一个其它操作可被添加到操作2110到2170之间。此外,图21中的操作2110到2170可按照描述顺序执行,或者操作2110到2170中的至少一个的执行顺序可改变。
图22A和图22B示出了根据本公开的各种实施例的用于脸部分析的拍摄操作。
参照图22A和图22B,根据本公开的各种实施例,电子装置可确定在正被捕捉的面部区域中是否穿戴有附属物。
参照图22A,假设脸部区域是拍摄目标的高中女生戴有眼镜。
根据本公开的各种实施例,电子装置可根据正被捕捉的脸部区域是否包括与眼镜的边框相应的线2211或者指示在眼镜上反光的部分2212来确定在脸部区域上是否戴有眼镜。
根据本公开的各种实施例,如果确定正被捕捉的脸部区域上戴有眼镜,则电子装置可指示用户或高中女生摘掉眼镜。例如,电子装置可在正被捕捉的图像2210中显示词句,例如,“在拍照前请摘下你的眼镜”。
一看到该词句,根据本公开的各种实施例的电子装置的用户可摘掉眼镜。如果电子装置确定用户已经摘掉了眼镜,则电子装置可在正被捕捉的图像2220中显示词句,例如,“你可以拍照了”。
参照图22B,假设脸部区域是拍摄目标的高中女生戴着帽子。
根据本公开的各种实施例,电子装置可根据正被捕捉的脸部区域是否包括与帽子的形状相应的线2231来确定在脸部区域上是否戴有帽子。
根据本公开的各种实施例,如果确定在正被捕捉的脸部区域上戴有帽子,则电子装置可指示用户或高中女生脱掉帽子。例如,电子装置可在正被捕捉的图像2230中显示词句,例如,“在拍照前请脱掉你的帽子”。
一看到该词句,根据本公开的各种实施例的电子装置的用户可脱掉帽子。如果电子装置确定用户已经脱掉帽子,则电子装置可在正被捕捉的图像2240中显示词句,例如,“你可以拍照了”。
图23A和图23B示出根据本公开的各种实施例的用于脸部分析的拍摄操作。
参照图23A和图23B,根据本公开的各种实施例,与脸部区域相应的线2301可被显示在电子装置上,从而用户可识别正被捕捉的脸部区域的方向或大小。
参照图23A,假设脸部区域是拍摄目标的高中女生正在脸部倾斜的情况下自拍。
根据本公开的各种实施例,电子装置可根据正被捕捉的脸部区域是否在线2301之外来确定脸部区域是否在正确的位置被捕捉。
根据本公开的各种实施例,如果确定正被捕捉的脸部区域在线2301之外,则电子装置可指示用户或高中女生将她的脸放到正确的位置。例如,电子装置可在正被捕捉的图像2311中显示词句,例如,“请将你的脸置于正确的位置”。
一看到该词句,根据本公开的各种实施例的电子装置的用户可将她的脸放到与线2301重合。如果电子装置确定用户已经将她的脸放在正确的位置,则电子装置可在正被捕捉的图像2312中显示词句,例如,“你可以拍照了”。
参照图23B,假设脸部区域是拍摄目标的高中女生以一定距离进行自拍。
根据本公开的各种实施例,电子装置可根据正被捕捉的脸部区域的大小是否与线2301的大小匹配来确定脸部区域是以一定距离被捕捉还是按近距离被捕捉。
根据本公开的各种实施例,如果由于脸部区域的大小比线2301的大小更小而确定脸部区域正以一定距离被捕捉,则电子装置可指示用户或高中女生将她的脸靠得更近。例如,电子装置可在正被捕捉的图像2321中显示词句,例如,“请将你的脸靠得更近些”。
一看到该词句,根据本公开的各种实施例的电子装置的用户可将她的脸置于与线2301重合。如果电子装置确定用户已经将她的脸靠得更近,则电子装置可在正被捕捉的图像2322中显示词句,例如,“你可以拍照了”。
图24示出根据本公开的各种实施例的用于脸部分析的拍摄操作。
参照图24,假设在电子装置中图像2410被捕捉时是晃动的。
根据本公开的各种实施例,如果电子装置不能识别正被捕捉的图像中的脸部区域的形状,或者如果电子装置通过传感器检测到电子装置的晃动等,则电子装置可执行图像稳定功能。例如,图像稳定功能可包括通过调整图像捕捉期间的快门速度或光圈来防止图像被捕捉时是晃动的功能。
根据本公开的各种实施例,在设置了图像稳定功能之后,电子装置可在正被捕捉的图像2420中显示词句,例如,“你可以拍照了”。例如,一看到该词句,用户可拍摄她的脸。
图25是示出根据本公开的各种实施例的电子装置的配置的框图。
参照图25,电子装置2501可构成在例如图1或图19中显示的电子装置100或1901的全部或部分。
参照图25,电子装置2501可包括至少一个处理器(例如,应用处理器(AP)2510)、通信模块2520、用户识别模块(SIM)卡2524、存储器2530、传感器模块2540、输入装置2550、显示器2560、接口2570、音频模块2580、相机模块2591、电源管理模块2595、电池2596、指示器2597和电机2598。
AP 2510可通过运行操作系统或应用程序来控制连接到AP 2510的多个硬件组件或软件组件,并可处理和计算包括多媒体数据的各种数据。AP 2510可被实施为例如片上系统(SoC)。在本公开的一个实施例中,AP 2510还可包括图形处理单元(GPU,未示出)。
通信模块2520(例如,通信接口1960)可执行在电子装置2501(例如,电子装置100或电子装置1901)与通过网络连接到电子装置2501的其它电子装置(例如,电子装置1904或服务器1906)之间的通信的数据发送/接收。在本公开的一个实施例中,通信模块2520可包括蜂窝模块2521、Wi-Fi模块2523、BT模块2525、GPS模块2527、NFC模块2528和射频(RF)模块2529。
蜂窝模块2521可提供通过通信网络(例如,LTE、LTE-A、CDMA、WCDMA、UMTS、WiBro、GSM等)的语音呼叫服务、视频呼叫服务、消息传输服务或互联网服务。此外,蜂窝模块2521可通过使用例如SIM(例如,SIM卡2524)在通信网络中执行电子装置的识别和认证。在本公开的一个实施例中,蜂窝模块2521可执行可由AP 2510提供的功能中的至少某些功能。例如,蜂窝模块2521可执行多媒体控制功能的至少一部分。
在本公开的实施例中,蜂窝模块2521可包括通信处理器(CP)。此外,蜂窝模块2521可被实施为例如SoC。虽然在图25中诸如蜂窝模块2521(例如,CP)、存储器2530或电源管理模块2595的组件被显示为与AP 2510分离的组件,但是AP 2510可被实施为包括根据本公开的实施例的上述组件中的至少某些组件(例如,蜂窝模块2521)。
在本公开的实施例中,AP 2510或蜂窝模块2521(例如,CP)可将从非易失性存储器或与其连接的另一组件中的至少一个接收的命令或数据加载到易失性存储器,并对加载的命令或数据进行处理。此外,AP 2510或蜂窝模块2521可将从其它组件中的至少一个接收或产生的数据存储在非易失性存储器中。
Wi-Fi模块2523、BT模块2525、GPS模块2527或NFC模块2528中的每一个可包括例如用于处理通过相应模块发送或接收的数据的处理器。虽然在图25中蜂窝模块2521、Wi-Fi模块2523、BT模块2525、GPS模块2527或NFC模块2528被显示为它们各自的块,但是根据本公开的实施例,蜂窝模块2521、Wi-Fi模块2523、BT模块2525、GPS模块2527或NFC模块2528中的至少某些模块(例如,两个或更多)可被包括在一个集成芯片(IC)或IC封装之中。例如,与蜂窝模块2521、Wi-Fi模块2523、BT模块2525、GPS模块2527或NFC模块2528相应的处理器中的至少某些处理器(例如,与蜂窝模块2521相应的CP或与Wi-Fi模块2523相应的Wi-Fi处理器)可被实现为一个SoC。
RF模块2529可执行数据的发送/接收,例如,RF信号的发送/接收。虽然未显示,但是RF模块2529可包括例如收发器、功率放大器模块(PAM)、频率滤波器、低噪放大器(LNA)等。RF模块2529还可包括用于在无线通信中在自由空间中发送和接收电磁波的部分(导体或导线)。虽然在图25中蜂窝模块2521、Wi-Fi模块2523、BT模块2525、GPS模块2527和NFC模块2528被显示为彼此共用一个RF模块2529,但是根据本公开的实施例,蜂窝模块2521、Wi-Fi模块2523、BT模块2525、GPS模块2527或NFC模块2528中的至少一个可通过单独的RF模块执行RF信号的发送/接收。
SIM卡2524可以是具有SIM的卡,并且可被插入形成在电子装置的特定位置的插槽。SIM卡2524可包括独特标识信息(例如,集成电路卡标识符(ICCID))或用户信息(例如,国际移动用户身份(IMSI))。
存储器2530(例如,存储器150或存储器1930)可包括内部存储器2532或外部存储器2534。内部存储器2532包括例如非易失性存储器(例如,动态随机存取存储器(DRAM))、静态RAM(SRAM)、同步动态RAM(SDRAM)等)或非易失性存储器(例如,一次性可编程只读存储器(OTPROM)、可编程ROM(PROM)、可擦除和可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、掩膜ROM、闪速ROM、NAND闪速存储器、NOR闪速存储器等)。
在本公开的实施例中,内部存储器2532可以是固态驱动器(SSD)。外部存储器2534还可包括闪速驱动器,例如,致密闪存(CF)、安全数字(SD)、微型SD、迷你SD、极速数字(xD)、记忆棒等。外部存储器2534可通过各种接口功能性地连接到电子装置2501。在本公开的一个实施例中,电子装置2501还可包括存储装置(或存储介质),诸如硬盘。
传感器模块2540可测量物理量或检测电子装置2501的操作状态,并将测量或检测到的信息转换为电信号。传感器模块2540可包括例如姿态传感器2450A、陀螺仪传感器2540B、气压计2540C、磁性传感器2540D、加速度计2540E、抓握传感器2540F、接近度传感器2540G、颜色传感器(例如,红绿蓝(RGB)传感器)2540H、生物传感器2450I、温度/湿度传感器2540J、照度传感器2540K或紫外(UV)传感器2540M中的至少一个。另外或可选择地,传感器模块2540可包括例如电子鼻传感器(未示出)、肌电图(EMG)传感器(未示出)、脑电图(EEG)传感器(未示出)、心电图(ECG)传感器(未示出)、红外(IR)传感器(未示出)、虹膜传感器(未示出)、指纹传感器(未示出)等。传感器模块2540还可包括用于控制其所属的至少一个或更多个传感器的控制电路。
输入装置2550可包括触摸面板2552、(数字)笔传感器2554、键2556、或超声输入装置2558。触摸面板2552可按照例如电容型、电阻型、IR或超声的方式中的至少一个来识别触摸输入。触摸面板2552还可包括控制电路。在电容型方案的情况下,触摸面板2552可识别物理接触或接近。触摸面板2552还可包括触觉层。在这种情况下,触摸面板2552可向用户提供触觉或触感反馈。
可通过使用例如与接收用户的触摸输入相同或相似的方法或单独的识别方案来实现(数字)笔传感器2554。键2556可包括例如物理按钮、光学键或键区。超声输入装置2558是这样的装置:通过该装置,电子装置2501可通过用于产生超声信号的输入工具,用麦克风(例如,麦克风2588)检测声波来确定数据。超声输入装置2558能够进行无线识别。在本公开的一个实施例中,电子装置2501可使用通信模块2520从与其连接的外部装置(例如,计算机或服务器)接收用户输入。
显示器2560(例如,显示器140或显示器1950)可包括面板2562、全息图装置2564或投影仪2566。面板2562可以是例如液晶显示器(LCD)面板或有源矩阵有机LED(AM-LED)面板。面板2562可被实现为例如柔性、透明或可穿戴。面板2562和触摸面板2552一起可被实现为一个模块。全息图装置2564可使用光的干涉在空气中显示立体图像。投影仪2566可通过将光投射到屏幕上来显示图像。屏幕可被布置在例如电子装置2501的内部或外部。在本公开的一个实施例中,显示器2560还可包括用于控制面板2562、全息图装置2564或投影仪2566的控制电路。
接口2570还可包括例如HDMI 2572、USB 2574、光接口2576或D-sub2578。接口2570可被包括在例如图19中显示的通信接口1960中。另外或可选择地,接口2570可包括例如移动高清晰度(MHL)接口、SD卡/多媒体卡(MMC)接口或红外数据协会(IrDA)接口。
音频模块2580可双向地转换声音信号和电信号。音频模块2580的至少某些组件可被包括在例如图19中显示的I/O接口1940中。音频模块2580可处理通过例如扬声器2582、接收器2584、耳机2586或麦克风2588接收或输出的声音信息。
根据本公开的实施例,作为能够捕捉静止图像和视频的相机模块2591可包括一个或更多个图像传感器(例如,前图像传感器或后图像传感器)、镜头(未示出)、图像信号处理器(ISP,未示出)或闪光灯(未示出,例如LED或氙灯)。
电源管理模块2595可管理电子装置2501的电源。虽然没有示出,但电源管理模块2595可包括例如电源管理集成电路(PMIC)、充电器IC或电池或电量表。
PMIC可安装在例如集成电路或SoC半导体芯片中。充电方案可划分为有线充电方案和无线充电方案。充电器IC可对电池充电,并防止过电压或过电流涌入充电器。在本公开的一个实施例中,充电器IC可包括用于有线充电方案或无线充电方案中的至少一个的充电器IC。无线充电方案可包括例如磁谐振方案、磁感方案或电磁方案。可添加用于无线充电的附加电路(例如,线圈环路、谐振电路或整流器等)。
电池或电量计可测量例如电池2596的剩余容量、充电电压、充电电流或温度。电池2596可存储或产生电,并将使用存储或产生的电向电子装置2501供电。电池2596可包括例如可再充电电池或太阳能电池。
指示器2597可指示电子装置2501或电子装置2501的部分(例如,AP2510)的特定状态(例如,引导状态、消息状态、充电状态等)。电机2598可将电信号转换为机械振动。虽然没有示出,但是电子装置2501可包括用于移动TV支持的处理装置(例如,GPU)。用于移动TV支持的处理装置可基于多种标准(例如,数字多媒体广播(DMB)、数字视频广播(DVB)或媒体FLO等)来处理媒体数据。
可以用一个或更多个组件来配置根据本公开的各种实施例的电子装置的上述组件中的每一个组件,组件的名称可根据电子装置的类型而改变。根据本公开的各种实施例的电子装置可包括上述组件中的至少一个,某些组件可被省略,或者还可包括附加的其它组件。此外,根据本公开的各种实施例的电子装置的某些组件可通过被组合而配置为一个整体,从而按照相同的方式执行组件的先前功能。
在本公开的各个实施例中使用的术语“模块”可指包括例如硬件、软件或固件之一或组合的单元。术语“模块”可与诸如单元、逻辑、逻辑块、组件或电路互换使用。模块可以是整体构造部分的最小单元或其部分。模块可以是用于执行一个或更多个功能的最小单元或其部分。可机械地或电子地实现模块。例如,根据本公开的各个实施例的模块可包括已知或将在未来开发并且执行特定操作的专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)或可编程逻辑装置中的至少一个。
根据本公开的各个实施例的装置(例如,装置的模块或功能)或方法(例如,操作)的至少一部分可通过存储在可编程模块形式的计算机可读存储介质中的命令来实现。如果通过一个或更多个处理器(例如,控制器110或处理器1920)来执行命令,则一个或更多个处理器可执行与命令相应的功能。计算机可读存储介质可以例如是存储器150或存储器1930。可通过例如控制器110或处理器1902来实现(或执行)编程模块的至少一部分。编程模块的至少一部分可包括例如用于执行一个或更多个功能的模块、程序、例程、一组指令或处理器。
本公开的特定方面还可被实现为非暂时性计算机可读记录介质上的计算机可读代码。非暂时性计算机可读记录介质是能够存储其后可由计算机系统读取的数据的任何数据存储装置。非暂时性计算机可读记录介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、致密盘-ROM(CD-ROM)、磁带、软盘和光学数据存储装置。非暂时性计算机可读记录介质还可分布在联网的计算机系统上,从而可以按照分布式来存储和执行计算机可读代码。另外,用于实现本公开的功能程序、代码和代码段可容易地被本公开所属领域的程序员理解。
在这里应注意,本公开的各种实施例通常在一定程度上涉及输入数据的处理和输出数据的产生。这样的输入数据处理和输出数据产生可在硬件中实现,或者在于硬件组合的软件中实现。例如,在移动装置中可采用特定的电子部件或相似或相关的电路来实现与上述的本公开的各种实施例相关联的功能。可选择地,根据存储的指令操作的一个或更多个处理器可实现与上述的本公开的各种实施例相关联的功能。如果是这种情况,本公开的范围还包括这样的情况:这样的指令可存储在一个或更多个非暂时性处理器可读介质中。处理器可读介质的示例包括ROM、RAM、CD-ROM、磁带、软盘和光学数据存储装置。处理器可读介质还可分布在联网的计算机系统上,从而可按照分布式存储和执行指令。另外,用于实现本公开的功能性计算机程序、指令和指令段可容易地被本公开所属领域的程序员所理解。
根据本公开的各种实施例的模块或编程模块可包括上述的组件中的至少一个,某些组件可被省略,或者还可包括附加的其它组件。由根据本公开的各种实施例的模块、编程模块或其它组件执行的操作可以按照顺序的、并行的、重复的或启发式的方式被执行。某些操作可按照不同顺序被执行或被省略,或者可添加其它操作。
根据本公开的各种实施例,在存储指令的存储介质中,当通过至少一个处理器执行指令时,指令被设置为允许至少一个处理器执行至少一个操作。至少一个操作可包括从由相机模块正在捕捉的图像检测至少一个脸部区域的操作、放大至少一个检测的脸部区域的操作以及根据至少一个分析项分析放大的脸部区域的操作。
根据本公开的各种实施例,至少一个操作可包括从至少一个存储的图像检测脸部区域的操作以及根据至少一个分析项分析至少一个检测到的脸部区域的操作。
根据本公开的各种实施例,可基于先前存储的图像来执行分析脸部信息的操作。例如,存储的图像可以是根据预设的固定焦距值以预设距离或以预设角度捕捉的图像。如果用户的脸部处于与设置的距离或角度相应的位置,则电子装置可捕捉脸部图像,或者显示用于请求用户捕捉脸部区域以与距离或角度相应的屏幕。
根据本公开的各种实施例,存储的图像可以是在预定情形下捕捉和存储的图像,从而用户可以不执行拍摄操作。例如,在用户在预定或更长的时间内观看电子装置的情形(例如,用户确定网络浏览器或者观看媒体文件(例如,视频))下,或者在电子装置处于电子装置能够捕捉用户的脸部图像的角度的情形下(例如,在电子装置能够根据前置相机的角度以前向方向捕捉用户的脸部的情形下),电子装置可通过在后台操作相机模块来捕捉用户的脸部图像。
根据本公开的各种实施例,电子装置可确定存储的图像,从该图像移除被分析是不必要的部分(例如,阴影或头发),并在移除了不必要部分的区域中设置至少一个参考点,从而确定脸部区域。例如,参考点可被设置在图像中的整个脸部区域,并且可基于预先分析的数据库或预先分析的特定用户的脸部图像而被设置,从而可识别每个脸部区域(例如,C区、M区、U区、眼镜、鼻子、脸颊、嘴等)。
根据本公开的各种实施例,在识别先前存储的图像中的脸部区域时,电子装置可通过分析结果屏幕来输出对每个区域的分析皮肤状况的结果。
根据本公开的各种实施例,可基于先前存储的图像来执行分析脸部信息的操作。例如,电子装置可在图像上设置一个参考点,并基于设置的参考点确定脸部区域。
根据本公开的各种实施例,在先前存储的图像中确定了脸部区域时,电子装置可通过分析结果屏幕输出对每个区域的皮肤状况进行分析的结果。
图26示出了根据本公开的各种实施例的基于存储的图像分析脸部信息的应用的屏幕。
参照图26,如果用于分析脸部信息的应用被运行,则执行屏幕2610可包括用于运行显示存储在电子装置中的图像的图片库应用的图片库按钮2611或用于使相机模块切换到用于捕捉图像的屏幕的相机按钮2612。
根据本公开的各种实施例,随着图片库按钮2611被选择而显示的图像可包括用户可选择图像的选择项,或者可包括存储在电子装置中的图像之中的脸部信息可被分析的经过过滤的图像。脸部信息可被分析的图像可以是脸部区域被捕捉为与预定角度或大小相应的图像。
根据本公开的各种实施例,如果图片库按钮2611被选择,则可显示图像选择屏幕2620,在图像选择屏幕2620上,用户可选择脸部信息将被分析的至少一个图像。例如,显示在图像选择屏幕2620上的图像可按照最后捕捉或存储的顺序被排列。
根据本公开的各种实施例,如果用户选择包括在图像选择屏幕2620中的图像中的至少一个图像作为脸部信息将被分析的图像,则可显示分析结果屏幕2630,其中,分析结果屏幕2630用于显示分析选择的图像的结果。
根据本公开的各种实施例,分析结果屏幕2630可包括在图像中显示分析脸部信息的结果的区域2631、以数字或图表显示分析脸部信息的结果的区域2632或用户可选择针对每个分析项的分析结果的按钮,并且分析结果屏幕2630还可包括与脸部分析相关的各种其它项。例如,用户可选择针对每个分析项的分析结果的按钮可包括用于显示针对整个脸部区域的分析结果的综述按钮2633a、用于显示针对皱纹的分析结果的皱纹按钮2633b、用于显示针对皮肤痘痘的分析结果的痘痘按钮2633c或用于显示针对色斑的分析结果的色斑按钮2633d,并且还可包括用于显示针对各种其它分析项的分析结果的其它选择项。
图27示出显示根据本公开的各种实施例的脸部分析结果的屏幕。
参照图27,分析结果屏幕2700可包括显示被分析的脸部区域的图像区域2710、显示分析结果的分析结果区域2720或用于选择针对每个分析项的分析结果的分析项选择区域2730。
在图像区域2710中,可从存储在电子装置中的图像检测脸部区域,并且可在检测到的脸部区域中设置至少一个参考点2711。基于至少一个参考点2711,可根据至少一个分析项设置将被分析的脸部区域(例如,2712、2713、2714、2715或2716)。区域2712可包括两只眼睛的外部的区域作为C区。区域2713可包括鼻区,区域2714可包括脸颊区域,区域2715可包括鼻子周围的区域,区域2716可包括嘴周围的区域。
根据本公开的各种实施例,随着进行用户输入(例如,触摸手势),脸部区域中的每个可被选择,而对于被选择的脸部区域,通过分析脸部区域而获得的屏幕可被放大和显示。
在分析结果区域2720中,可数字地显示(例如,可按照得分2722或图表2721的状态显示)分析皮肤状况的结果。例如,图表2721可通过分析针对每个分析项的特定脸部区域来标识皮肤状况的得分。得分2722可以是通过对针对特定脸部区域的每个分析项的得分求平均而获得的值,并且随着得分2722越高,皮肤状况越好。
分析项选择区域2730可包括用于显示针对每个分析项的分析结果的至少一个按钮,并且根据选择的按钮,可在图像区域2710或分析结果区域2720中显示针对特定脸部区域的分析结果。例如,如果选择了综述按钮,则可在图像区域2710中显示整个脸部区域,并可在分析结果区域2720中显示针对整个脸部区域的分析结果。
图28示出根据本公开的各种实施例的显示脸部分析结果的屏幕。
参照图28,分析结果屏幕2800可包括可选择被分析的脸部区域中的至少一个的图像区域2810、分析结果区域2820或分析项选择区域2830。
根据本公开的各种实施例,如果在分析项选择区域2830中皱纹按钮2831被选择,则可在图像区域2810或分析结果区域2820中显示各种分析项之中的分析皱纹的结果。
在图像区域2810中,基于存储在电子装置中的图像,可在图像中显示分析至少一个脸部区域(例如,C区或U区的区域)中的皱纹的结果。例如,由于每个脸部区域根据皮肤状况而以不同的颜色被显示,用户可基于显示的皮肤颜色确定皮肤状况。
在分析结果区域2820中,可显示通过将分析皱纹的结果与针对C区或M区的每个的平均得分进行比较而获得的图表2821或针对整个脸部区域的皱纹的得分2822。
根据本公开的各种实施例,如果用户在特定区域(例如,左C区区域)中进行用户输入2811以确定分析结果,则可显示放大的屏幕2812,其中,在放大的屏幕2812上,对进行用户输入的区域(例如,左C区区域)进行分析。
根据本公开的各种实施例,分析结果区域2820可提供针对整个脸部区域的皱纹变化的历史。例如,分析结果区域2820可包括通过将一个月之前测量的皱纹状态与当前测量的皱纹状态进行比较而获得的图表2823或者指示C区或M区的皱纹状态相对于之前的改善程度的图表2824。
图29示出根据本公开的各种实施例的脸部分析结果的屏幕。
参照图29,用户已经选择了分析项选择区域中的皱纹按钮2931。因此,分析结果屏幕2900可包括通过分析皱纹而获得的图像或分析结果区域2920。
在分析结果区域2920中,可以以得分来显示针对每个特定区域(例如,C区的左CL或右CR,或M区的左ML或右MR)的皱纹状态或整个脸部区域的皱纹状态。
根据本公开的各种实施例,用户可在分析后的脸部区域之中选择用户期望确定放大屏幕或细节屏幕的区域。例如,如果用户输入2901选择了左C区区域,则可显示屏幕2910,其中,在屏幕2910上脸部中的C区的左区域被放大。如果用户输入2902选择了鼻子的左区域,则可显示屏幕2920,其中在屏幕2920上脸部中的鼻子的左区域被放大。
图30示出根据本公开的各种实施例的显示脸部分析结果的屏幕。
参照图30,如果用户选择分析结果屏幕3000的分析项选择区域3030中的痘痘按钮3031,则可在分析结果屏幕3000的图像区域3010或分析结果区域3020中显示对各种分析项之中的痘痘进行分析的结果。
在图像区域3010,基于存储在电子装置中的图像,针对痘痘被分析的至少一个脸部区域(例如,右区域R、左区域L、顶部区域T或底部区域B)的分析结果。例如,由于根据皮肤状况以不同的颜色显示每个脸部区域,因此用户可基于显示的皮肤颜色确定皮肤区域的皮肤状况。
在分析结果区域3020中,可显示通过将分析痘痘的结果与针对右区域R、左区域L、顶部区域T或底部区域B中的每一个的平均分进行比较而获得的图表3021或针对整个脸部区域的痘痘的得分3022。
根据本公开的各种实施例,如果用户输入3011选择了脸部的底部,则底部区域被分析的放大屏幕3012可被显示。例如,基于放大屏幕3012,用户可确定底部区域的痘痘的位置和大小。
根据本公开的各种实施例,分析结果区域3020可提供关于整个脸部区域的痘痘变化的历史。例如,分析结果区域3020可包括通过将一个月前测量的痘痘状态与当前测量的痘痘状态相比较而获得的图表3023,或者包括指示每个区域(例如,右区域R、左区域L、顶部区域T或底部区域B)的痘痘状态相对于之前的改善程度的图表3024。
图31示出根据本公开的各种实施例的显示脸部分析结果的屏幕。
参照图31,用户已经选择了分析项选择区域中的痘痘按钮3131。因此,分析结果屏幕3100可包括通过分析痘痘而获得的图像或分析结果区域3120。
根据本公开的各种实施例,用户可在分析后的脸部区域中选择用户期望确定放大屏幕或细节屏幕的区域。例如,如果用户输入3101选择了左脸颊区域,则可显示屏幕3110,其中,在屏幕3110上脸部的左脸颊被放大。如果用户输入3102选择了底部区域,则可显示屏幕3120,其中,在屏幕3120上脸部的底部区域被放大。
图32示出根据本公开的各种实施例的显示脸部分析结果的屏幕。
参照图32,如果用户选择了分析结果屏幕3200的分析项选择区域3230中的色斑按钮3231,则可在分析结果屏幕3200的图像区域3210或分析结果区域3220中显示对各种分析项中的色斑进行分析的结果。
在图像区域3210中,基于存储在电子装置中的图像,可在图像中显示针对色斑而被分析的至少一个脸部区域(例如,右区域R、左区域L、顶部区域T或底部区域B)的分析结果。例如,由于根据皮肤状况以不同的颜色显示每个脸部区域,因此用户可基于显示的皮肤颜色确定皮肤区域的皮肤状况。
在分析结果区域3220,可显示通过将分析色斑的结果与针对右区域R、左区域L、顶部区域T或底部区域B中的每一个的平均分进行比较而获得的图表3221或针对整个脸部区域的色斑的得分3222。
根据本公开的各种实施例,如果用户输入3201选择了左脸颊,则可显示放大区域3202,其中,在放大区域3202上左脸颊区域被分析。例如,基于放大屏幕3202,用户可确定在左脸颊区域中的色斑点的位置和大小。
根据本公开的各种实施例,分析结果区域3220可提供针对整个脸部区域的色斑变化的历史。例如,分析结果区域3220可包括通过将一个月之前测量的色斑状态与当前测量的色斑状态进行比较而获得的图表3223,或者包括指示每个区域(例如,右区域R、左区域L、顶部区域T或底部区域B)的色斑状态相对于之前的改善程度的图表3224。
图33示出根据本公开的各种实施例的显示脸部分析结果的屏幕。
参照图33,用户已经在分析项选择区域中选择了色斑按钮3331。因此,分析结果屏幕可包括通过分析色斑而获得的图像或分析结果区域3320。
根据本公开的各种实施例,用户可选择被分析的脸部区域之中用户期望确定被放大或被详细描述的屏幕的区域。例如,如果通过用户输入3301选择了左脸颊区域,则可显示屏幕3311,其中,在屏幕3311上脸部的左脸颊被放大。如果通过用户输入3302选择了鼻子区域,则可显示屏幕3312,其中,在屏幕3312上鼻子区域被放大。
图34示出根据本公开的各种实施例的显示脸部分析结果的屏幕。
参照图34,如果用户在分析结果屏幕3400的分析项选择区域3430中选择了毛孔按钮3431,则可在分析结果屏幕3400的图像区域3410或分析结果区域3420中显示对各种分析项之中的毛孔进行分析的结果。
在图像区域3410中,基于存储在电子装置中的图像,可在图像上显示针对毛孔而被分析的至少一个脸部区域(例如,右区域R、左区域L、上区域T或下区域B)的分析结果。例如,由于根据皮肤状况以不同颜色显示每个脸部区域,因此用户可基于显示的皮肤颜色来确定脸部区域的皮肤状况。
在分析结果区域3420中,可显示图表3421或针对整个脸部区域中的毛孔的分数3422,其中,图表3421是通过将对毛孔进行分析的结果与右区域R、左区域L、上区域T或下区域B中的每个区域的平均得分进行比较而获得的。
根据本公开的各种实施例,如果通过用户输入3401选择了右脸颊,则可显示放大的屏幕3402,其中,在放大的屏幕3402上脸部的右脸颊区域被分析。例如,基于放大的屏幕3402,用户可确定在右脸颊区域中毛孔的位置和大小。
根据本公开的各种实施例,分析结果区域3420可提供整个脸部区域中毛孔的变化的历史。例如,分析结果区域3420可包括图表3423或图表3424,其中,图表3423是通过将一个月前测量的毛孔状态与当前测量的毛孔状态进行比较而获得的,图表3424指示整个脸部区域的毛孔状态相比于之前的改善程度。
图35示出根据本公开的各种实施例的显示脸部分析结果的屏幕。
参照图35,如果用户在分析结果屏幕3500的分析项选择区域3530中选择了肤色按钮3531,则可在分析结果屏幕3500的图像区域3510或分析结果区域3520中显示对各种分析项之中的肤色进行分析的结果。
在图像区域3510中,基于存储在电子装置中的图像,可在图像中显示针对肤色而被分析的至少一个脸部区域(例如,眉毛区域L、脸颊区域A或下颌区域B)的分析结果。例如,由于根据皮肤状况以不同颜色显示每个脸部区域,因此用户可基于显示的皮肤颜色来确定脸部区域的皮肤状况。
在分析结果区域3520中,可显示图表3521或针对整个脸部区域的肤色的均匀性的分数3522,其中,图表3521是通过将对肤色的均匀性进行分析的结果与眉毛区域L、脸颊区域A或下颌区域B中的每个区域的平均得分进行比较而获得的。
根据本公开的各种实施例,如果用户选择了分数3522,则分析结果区域3520可提供对整个脸部区域的肤色的变化的分析结果。例如,分析结果区域3520可包括图表3523或图表3524,其中,图表3523是通过将一个月前测量的肤色状态(或肤色的均匀性状态)与当前测量出的每个脸部区域(例如,眉毛区域L、脸颊区域A或下颌区域B)的肤色状态进行比较而获得的,图表3524指示每个脸部区域的肤色状态相比于之前的改善程度。
图36示出根据本公开的各种实施例的显示基于存储的图像分析出的脸部信息的历史的应用屏幕。
参照图36,如果分析结果屏幕3600被显示,则菜单3601可被显示,其中,分析结果屏幕3600包括使用用于分析脸部信息的应用对脸部信息进行分析的结果,菜单3601包括与分析出的脸部信息相关的功能。例如,如果选择了菜单3601,则可显示选择项,其中,通过所述选择项,用户可选择试验性地对至少一个选择的图像进行分析的分析整个图像功能、显示分析出的脸部信息的历史的管理变化功能3602或对在先前分析出的脸部信息中的数据进行初始化的初始化DB功能。与脸部信息的分析相关的各种其他功能可包括在菜单3601中。
根据本公开的各种实施例,如果用户选择管理变化功能3602,则可在分析结果屏幕3600的图像区域3610或分析结果区域3620中显示先前分析出的脸部信息的变化。例如,分析结果区域3620可在脸部信息被分析的时间段内使用图表3621来显示对每个分析项进行脸部分析的结果。在图像区域3610中,可显示通过对在图表3621中进行用户输入时的特定时刻的脸部信息进行分析而获得的图像。分析项3630的显示部分可显示分析项,诸如,综述3631、皱纹3632、痘痘3633和色斑3634。
图37示出根据本公开的各种实施例的显示分析出的脸部信息的历史的屏幕。
参照图37,用户可在分析结果屏幕3700上选择分析项或用户期望确定分析结果的变化的图像区域。例如,为了确定色斑的分析结果的变化,用户可选择分析项(例如,综述、皱纹、痘痘或色斑)之中的综述按钮。
根据本公开的各种实施例,用户可进行用户输入(例如,捏合/捏开或点击并拖动)3701以放大/缩小显示在图像区域中的图像,或者可移动图像来设置用户期望确定分析结果的变化的图像区域。
根据本公开的各种实施例,分析结果屏幕3700可显示设置的图像区域,并使用图表来显示根据至少一个分析项(例如,色斑、痘痘或皱纹)对显示的图像区域进行分析的结果。例如,图表示出对脸部信息进行分析的时间以及与该时间相应的分析结果。如果在特定时刻进行用户输入,则可显示在该时刻进行脸部分析的图像。
图38示出根据本公开的各种实施例的显示分析出的脸部信息的历史的屏幕。
参照图38,分析结果屏幕3800可包括图像区域3810或分析结果区域3820。
根据本公开的各种实施例,为了确定对皱纹的分析结果的变化,用户可选择分析项(例如,综述、皱纹、痘痘或色斑)之中的皱纹3831。
在图像区域3810中,可显示对图像的脸部区域中的皱纹进行分析的结果。例如,可以以线的形式显示对皱纹进行分析的结果,并且可根据线的粗细度或长度来表示皱纹的深度或长度。
分析结果区域3820可使用图表将先前分析的每个脸部区域(例如,C区的右区域CR或左区域CL,或者M区的右区域MR或左区域ML)的基于时间的皱纹状态表示为对皱纹进行分析的结果。
根据本公开的各种实施例,如果用户在图表上的特定时刻进行用户输入(例如,点击或滑动),则可在图像区域3810中显示用于在该时刻对皱纹进行分析的图像,并且可在显示的图像上显示在该时刻对皱纹进行分析的结果。
图39示出根据本公开的各种实施例的显示分析出的脸部信息的历史的屏幕。
参照图39,分析结果屏幕3900可包括图像区域3910或分析结果区域3920。
根据本公开的各种实施例,为了确定对痘痘的分析结果的变化,用户可选择分析项(例如,综述、皱纹、痘痘或色斑)之中的痘痘3931。
在图像区域3910中,可显示对图像的脸部区域中的痘痘进行分析的结果。例如,可以以与痘痘相应的形式来显示对痘痘进行分析的结果,并且可根据痘痘的大小或颜色来表示痘痘的大小或状态。
分析结果区域3920可使用图表将先前分析出的每个脸部区域(例如,右区域R、左区域L、上区域T或下区域B)的基于时间的痘痘状态表示为对痘痘进行分析的结果。
根据本公开的各种实施例,如果用户在图表上的特定时刻进行用户输入(例如,点击或滑动),则可在图像区域3910中显示用于在该时刻对痘痘进行分析的图像,并且可在显示的图像上显示在该时刻对痘痘进行分析的结果。
图40示出根据本公开的各种实施例的显示分析出的脸部信息的历史的屏幕。
参照图40,分析结果屏幕4000可包括图像区域4010或分析结果区域4020。
根据本公开的各种实施例,为了确定对色斑的分析结果的变化,用户可选择分析项(例如,综述、皱纹、痘痘或色斑)之中的色斑4031。
在图像区域4010中,可显示对图像的脸部区域中的色斑进行分析的结果。例如,可以以与色斑相应的形式显示对色斑进行分析的结果,并且可根据色斑的大小或颜色来表示色斑的大小或状态。
分析结果区域4020可使用图表将先前分析出的每个脸部区域(例如,右区域R、左区域L、上区域T或下区域B)的基于时间的色斑状态表示为对色斑进行分析的结果。
根据本公开的各种实施例,如果用户在图表上的特定时刻进行用户输入(例如,点击或滑动),则可在图像区域4010上显示用于在该时刻对色斑进行分析的图像,并且可在显示的图像上显示在该时刻对色斑进行分析的结果。
图41示出根据本公开的各种实施例的显示分析出的脸部信息的历史的屏幕。
参照图41,如果在用于对脸部信息进行分析的应用的菜单(例如,3601)中选择了管理改变功能(例如,3602),则分析结果屏幕4100可显示针对各种分析项的分析结果的历史。
根据本公开的各种实施例,分析结果屏幕4100可包括图像区域4110或分析结果区域4120,其中,图像区域4110包括通过对针对所选择的分析项的在特定时刻的脸部信息进行分析而获得的图像,分析结果区域4120包括将先前的分析结果表示为在每个分析项(例如,色斑、痘痘或皱纹)被分析时的皮肤状况的得分的图表。
根据本公开的各种实施例,如果用户选择分析项(例如,综述、皱纹、痘痘或色斑)之中的综述4131,则可在图像区域4110中显示被分析了脸部信息的图像之中的在第一时刻4121被分析的图像4111。可使用图表在分析结果区域4120中显示对图像4111的脸部信息进行分析的结果。
根据本公开的各种实施例,如果在与图表的特定分析时间相应的位置进行用户输入4101,则可在图像区域4110中显示在进行用户输入4101的时刻被分析的图像。例如,在图像区域4110中,如果在与第二时刻4122相应的位置进行用户输入4101,则可显示在第二时刻4122被分析了脸部信息的图像4112,如果在与第三时刻4123相应的位置进行用户输入4103,则可显示在第三时刻4123被分析了脸部信息的图像4113。
根据本公开的各种实施例,显示的图像4111、4112或4113用于在进行用户输入4101的时刻(例如,第一时刻4121、第二时刻4122或第三时刻4123)对脸部信息进行分析。由于在该时刻对每个分析项进行分析的结果被显示为与显示的图像重叠,因此用户可确定针对每个分析项的皮肤状况。
图42示出根据本公开的各种实施例的显示分析出的脸部信息的历史的屏幕。
参照图42,如果在用于对脸部信息进行分析的应用的菜单中选择了管理变化功能(例如,3602),则可在分析结果屏幕4200上显示对分析项(例如,皱纹4231)的分析结果的历史。例如,分析结果屏幕4200可包括图像区域4210或分析结果区域4220。
根据本公开的各种实施例,显示在图像区域4210中的图像是在第一时刻4221被分析了脸部信息的图像4211,并且图像4211可响应于用户数输入(例如,捏合/捏放)被改变大小(例如,被放大)。例如,基于调整大小后的图像,用户可确定在特定时刻4223被分析的图像中的皮肤状况。
根据本公开的各种实施例,在图像区域4210中,响应于用户输入而被改变了大小或位置的图像的设置可在其他时刻被保持。例如,如果图像随着在图像4211上进行用户输入而被放大,则可甚至将放大的设置应用于在第二时刻4222被分析了脸部信息的图像4212。在第二时刻4222被分析了脸部信息的图像4212可被显示为与图像先前被放大的区域相应。根据本公开的各种实施例,如果在与图表的特定时间相应的位置进行用户输入4201,则可在图像区域4110中显示在进行用户输入4201的时刻被分析的图像。例如,在第三时刻4223被分析了脸部信息的图像4213可被显示为与图像先前被放大的区域相应。
图43示出根据本公开的各种实施例的显示分析出的脸部信息的历史的屏幕。
参照图43,如果选择了各种分析项之中的一个分析项,则分析结果屏幕4300可在图像区域4310或分析结果区域4320中显示所选择的分析项的分析结果。
根据本公开的各种实施例,如果用户选择了分析项(例如,综述、皱纹、痘痘或色斑)之中的痘痘4331,则可在图像区域4310中显示针对痘痘被分析了脸部信息的图像4311。可使用图表4321在分析结果区域4320中显示对图像4311的痘痘进行分析的结果。
根据本公开的各种实施例,显示的图像4311是用于在进行用户输入的时刻对脸部信息进行分析的图像。由于与分析出的痘痘相应的形状被显示为与显示的图像重叠,因此用户可确定痘痘的位置或状况。
根据本公开的各种实施例,通过进行用户输入(例如,点击并拖动)4301,用户可将图像中的他/她期望确定的区域移动到图像区域4310。例如,可使用图表4322在分析结果区域4320中显示对图像区域4312中的痘痘进行分析的结果。
根据本公开的各种实施例,针对显示在图像区域4310中的图像,可保持响应于用户输入而被显示的大小或位置的设置,并且即使选择了特定时刻,也可根据改变后的大小或位置的设置来显示在该时刻被分析的图像。
图44示出根据本公开的各种实施例的显示分析出的脸部信息的历史的屏幕。
参照图44,如果选择了各种分析项中的一个分析项(例如,痘痘4431),则分析结果屏幕4400可在图像区域4410或分析结果区域4420中显示针对选择的分析项的脸部信息的历史。
根据本公开的各种实施例,图像区域4410可在特定图像中被移动或放大,并且即使在显示在另一时刻被分析的图像时,也可保持图像区域4410被移动或放大的位置。例如,用户可在图像区域4410中进行用户输入(例如,触摸手势)以将图像区域4410移动到用户期望确定的区域或放大图像区域4410被移动到的区域。
根据本公开的各种实施例,用户可选择分析项之中的痘痘4431,并在左脸颊区域中放置或放大图像区域4410的位置。在图像区域4410中,可显示针对痘痘4431被分析的图像之中最早被分析的图像。
根据本公开的各种实施例,当用户在第一时刻4421进行用户输入4401时,在第一时刻4421被分析的第一图像4411可被显示在图像区域4410中。例如,响应于用户已移动或放大图像区域4410的动作,可显示第一图像4411中在图像区域4410被移动或放大到的区域的位置的相应区域。
根据本公开的各种实施例,如果在第二时刻4422进行用户输入4401,则可在图像区域4410中显示在第二时刻4422被分析的第二图像4412。例如,响应于用户已移动或放大图像区域4410的动作,可显示第二图像4412中在图像区域4410被移动或放大到的位置的相应区域。
根据本公开的各种实施例,如果在第三时刻4423进行用户输入4401,则可在图像区域4410中显示在第三时刻4423被分析的第三图像4413。例如,响应于用户已移动或放大图像区域4410的动作,可显示第三图像4413中在图像区域4410被移动或放大到的位置的相应区域。
图45示出根据本公开的各种实施例的显示分析出的脸部信息的历史的屏幕。
参照图45,如果选择了各种分析项之中的一个分析项(例如,色斑4531),则分析结果屏幕4500可在图像区域4510或分析结果区域4520中显示针对所选择的分析项的脸部信息的历史。
根据本公开的各种实施例,图像区域4510可在特定图像中被移动或放大,并且即使当显示在另一时刻分析的图像时,也可保持图像区域4510被移动或放大到的位置。例如,用户可在图像区域4510中进行用户输入(例如,触摸手势)以将图像区域4510移动到用户期望确定的区域或放大图像区域4510被移动到的区域。
根据本公开的各种实施例,用户可选择分析项之中的色斑4531,并在左脸颊区域中放置或放大图像区域4410的位置。在图像区域4510中,可显示针对色斑4531被分析的图像之中的最早被分析的图像。
根据本公开的各种实施例,当用户在第一时刻4521进行用户输入4501时,在第一时刻4521被分析的第一图像4511可被显示在图像区域4510中。例如,响应于用户已移动或放大图像区域4510的动作,可显示第一图像4511中在图像区域4510被移动或放大到的区域的位置的相应区域。
根据本公开的各种实施例,如果在第二时刻4522进行用户输入4501,则可在图像区域4510中显示在第二时刻4522被分析的第二图像4512。例如,响应于用户已移动或放大图像区域4510的动作,可显示第二图像4512中在图像区域4510被移动或放大到的位置的相应区域。
根据本公开的各种实施例,如果在第三时刻4523进行用户输入4501,则可在图像区域4510中显示在第三时刻4523被分析的第三图像4513。例如,响应于用户已移动或放大图像区域4510的动作,可显示第三图像4513中在图像区域4510被移动或放大到的位置的相应区域。
图46示出根据本公开的各种实施例的用于脸部分析的拍摄操作。
参照图46,电子装置可通过启动安装在电子装置的前面的相机模块来获得用户的脸部图像。例如,电子装置可在各种情况下(诸如,按照特定角度拍摄用户的脸部的情况,或按照特定角度倾斜电子装置的情况)定期获得图像。
根据本公开的各种实施例,在用户正使用电子装置观看网络浏览器屏幕时,电子装置可在后台运行相机模块,从而使得能够捕捉用户的脸部图像4600而不管网络浏览器屏幕如何。
根据本公开的各种实施例,电子装置可在捕捉到的脸部图像4600中确定至少一个参考点4601,并使用所述参考点来识别脸部区域,从而对脸部信息进行分析。
图47A和图47B示出根据本公开的各种实施例的显示皮肤分析的结果的屏幕。
根据本公开的各种实施例,可根据显示器的大小或旋转方向按照各种布局来配置分析结果屏幕4700。
参照图47A和图47B,如果显示器被水平放置或者电子装置是平板PC,则图像区域4710和分析项区域4720可被水平布置在分析结果屏幕4700上。
根据本公开的各种实施例,如果用户在分析项区域4720中选择了色斑4722,则可在图像区域4710或分析结果区域4730中显示对至少一个脸部区域中的色斑进行分析的结果。
在图像区域4710中,当在特定脸部区域(例如,脸颊区域)中进行用户输入4701时,针对进行了用户输入4701的脸部区域的分析结果可被放大并显示在单独的窗口4712。
根据本公开的各种实施例,当在分析项区域4720中选择了特定分析项时,可在分析结果区域4730中显示对脸部信息的分析结果。例如,分析结果区域4730可包括指示所选择的色斑的分析结果的表情符号4731、示出每个项的得分的图表、或色斑与之前相比的改善4732。
根据本公开的各种实施例,如果用户选择分析项区域4720中的总计4721,则可在图像区域4710或分析结果区域4730中显示对在至少一个脸部区域中的各种分析项进行分析的结果。
在图像区域4710中,可显示根据各种分析项分析的至少一个脸部区域4713,并可包括表示与每个脸部区域的颜色相应的皮肤状况的图例4714。例如,用户可通过确定每个脸部区域的颜色来确定特定部分的皮肤状况。
根据本公开的各种实施例,分析结果区域4730可包括图表4733,其中,图表4733表示通过将各种分析项(例如,毛孔、皱纹、色斑或痘痘)的分析结果与先前的分析结果进行比较而得到的分数。
如从前面的描述是清楚的,本公开的各种实施例可提供一种电子装置以及用于在电子装置中分析脸部信息的方法,其中,在所述方法中,用户可在无需任何用户动作的情况下通过所述电子装置获得图像,并可确定获得的图像的分析结果,其中,所述图像的脸部信息的一部分被放大或精细捕捉。
尽管已参照本公开的各种实施例示出并描述了本公开,但本领域中的技术人员将理解,在不脱离由权利要求和它们的等同物限定的本公开的范围和精神的情况下,可对其进行形式和细节上的各种改变。
Claims (15)
1.一种用于在包括相机的电子装置中分析脸部信息的方法,所述方法包括:
基于在由所述相机捕捉的图像中的至少一个参考点从所述图像中的脸部的多个脸部区域之中检测至少一个脸部区域;
基于放大所述至少一个脸部区域或将相机焦点设置在所述至少一个脸部区域上,识别与嘴部区域、鼻子区域、眼睛区域、脸颊区域或额头区域中的至少一个相应的所述至少一个脸部区域;
基于对所述至少一个脸部区域的识别,从多个分析项中识别与所述至少一个脸部区域的识别相应的至少一个分析项;
基于所述至少一个分析项,测量所述至少一个脸部区域中的至少一个皮肤条件;
基于测量出的所述至少一个皮肤条件,获取与相应于所述至少一个脸部区域的皮肤分析结果的历史相关的信息;
显示与皮肤分析结果的历史相关的信息。
2.如权利要求1所述的方法,其中,所述至少一个分析项包括皱纹、痤疮、色斑、肤色、黑眼圈和毛孔中的至少一个,
其中,测量步骤包括:对放大的所述至少一个脸部区域中的所述至少一个分析项中的每个分析项的粗细度、大小、数量、宽度和颜色中的至少一个进行分析。
3.如权利要求1所述的方法,还包括:
在接收到对所述图像中的特定区域的输入时,显示通过根据所述输入放大所述特定区域或将所述焦点设置在所述特定区域上而获得的图像。
4.如权利要求1所述的方法,其中,放大所述至少一个脸部区域的步骤包括:
在检测到所述至少一个脸部区域时,显示通过放大所述至少一个脸部区域或将所述焦点设置在所述至少一个脸部区域上而获得的屏幕。
5.如权利要求1所述的方法,其中,放大所述至少一个脸部区域的步骤包括:
在检测到动作时放大所述至少一个脸部区域或将所述焦点设置在所述至少一个脸部区域上,
其中,所述动作包括以下动作中的任何一个动作:运行启动相机模块的应用的动作、在锁定状态下启动电子装置的动作、和将电子装置放置在特定角度或特定方位的动作。
6.一种电子装置,包括:
存储器;
相机;
显示器,被配置为显示由相机捕捉的图像或存储在存储器中的图像;
控制器,被配置为:
基于在由所述相机捕捉的图像中的至少一个参考点从所述图像中的脸部的多个脸部区域之中检测至少一个脸部区域,
基于对所述至少一个脸部区域的放大或将相机焦点设置在所述至少一个脸部区域上,识别与嘴部区域、鼻子区域、眼睛区域、脸颊区域或额头区域中的至少一个相应的所述至少一个脸部区域,
基于对所述至少一个脸部区域的识别,从多个分析项中识别与所述至少一个脸部区域的识别相应的至少一个分析项,
基于所述至少一个分析项,测量所述至少一个脸部区域中的至少一个皮肤条件,
基于测量出的所述至少一个皮肤条件,获取与相应于所述至少一个脸部区域的皮肤分析结果的历史相关的信息,
显示与皮肤分析结果的历史相关的信息。
7.如权利要求6所述的电子装置,其中,所述至少一个分析项包括皱纹、痤疮、色斑、肤色、黑眼圈和毛孔中的至少一个,
其中,控制器还被配置为:对放大的所述至少一个脸部区域中的所述至少一个分析项中的每个分析项的粗细度、大小、数量、宽度和颜色中的至少一个进行分析。
8.如权利要求6所述的电子装置,其中,在接收到对所述图像中的特定区域的输入时,控制器控制显示器显示通过根据所述输入放大所述特定区域或将所述焦点设置在所述特定区域上而获得的图像。
9.如权利要求6所述的电子装置,其中,在检测到所述至少一个脸部区域时,控制器还被配置为控制显示器显示所述至少一个脸部区域的屏幕,
其中,控制器还被配置为控制显示器在检测到动作时放大所述至少一个脸部区域或将所述焦点设置在所述至少一个脸部区域上,
其中,所述动作包括以下动作中的任何一个动作:运行启动相机模块的应用的动作、在锁定状态下启动电子装置的动作和将电子装置放置在特定角度或特定方位的动作。
10.一种用于在电子装置中分析脸部信息的方法,所述方法包括:
从存储在电子装置的存储器中的至少一个图像中的每个图像中的脸部的多个脸部区域之中检测至少一个脸部区域;
识别与嘴部区域、鼻子区域、眼睛区域、脸颊区域或额头区域中的至少一个相应的所述至少一个脸部区域;
基于对所述至少一个脸部区域的识别,从多个分析项中识别与所述至少一个脸部区域的识别相应的至少一个分析项;
确定存储的所述至少一个图像中的每个图像的已分析过所述至少一个脸部区域的分析时间;
将表示所述分析时间的对象显示在屏幕的至少一部分上以用于识别与所述至少一个脸部区域相应的皮肤分析结果的历史;
获取所述至少一个图像中的在与根据用户输入选择的对象的位置相应的时间时分析的图像;
将获取的图像显示在所述屏幕上的除了所述屏幕的所述至少一部分以外的部分上,
其中,所述获取的图像是基于在与皮肤分析结果的历史相应的图像产生时测量的至少一个皮肤条件而产生的。
11.如权利要求10所述的方法,检测至少一个脸部区域的步骤包括:基于设置在存储的图像上的至少一个参考点来检测所述至少一个脸部区域。
12.如权利要求10所述的方法,还包括:
确定电子装置是否处于用于捕捉图像的情况下;
根据确定结果捕捉图像,
其中,所述情况包括以下项中的至少一项:
电子装置按照一角度被放置的情况、或进行了用户输入的情况。
13.一种电子装置,包括:
存储器,被配置为存储图像;
相机模块,被配置为捕捉图像;
控制器,被配置为:
从由电子装置的相机模块捕捉的至少一个图像或存储在电子装置的存储器中的至少一个图像中每个图像中的脸部的多个脸部区域之中检测至少一个脸部区域,
识别与嘴部区域、鼻子区域、眼睛区域、脸颊区域或额头区域中的至少一个相应的所述至少一个脸部区域,
基于对所述至少一个脸部区域的识别,从多个分析项中识别与所述至少一个脸部区域的识别相应的至少一个分析项,
根据所述至少一个分析项,测量所述至少一个脸部区域的至少一个皮肤条件,
确定所述至少一个图像中的每个图像的已分析过所述至少一个脸部区域的分析时间,
将表示所述分析时间的对象显示在屏幕的至少一部分上以用于识别与所述至少一个脸部区域相应的皮肤分析结果的历史,
获取所述至少一个图像中的在与根据用户输入选择的对象的位置相应的时间时分析的图像,
将获取的图像显示在所述屏幕上的除了所述屏幕的所述至少一部分以外的部分上,
其中,所述获取的图像是基于在与皮肤分析结果的历史相应的图像产生时测量的至少一个皮肤条件而产生的。
14.如权利要求13所述的电子装置,其中,控制器还被配置为基于设置在所述至少一个图像上的至少一个参考点来检测所述至少一个脸部区域。
15.如权利要求13所述的电子装置,其中,控制器还被配置为:
确定电子装置是否处于用于捕捉图像的情况下;
根据确定结果控制相机模块捕捉图像,
其中,所述情况包括以下项中的至少一项:
电子装置按照一角度被放置的情况、或进行了用户输入的情况。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20140152239 | 2014-11-04 | ||
KR10-2014-0152239 | 2014-11-04 | ||
KR1020150092549A KR102424986B1 (ko) | 2014-11-04 | 2015-06-29 | 전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법 |
KR10-2015-0092549 | 2015-06-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105574484A CN105574484A (zh) | 2016-05-11 |
CN105574484B true CN105574484B (zh) | 2021-04-27 |
Family
ID=54366038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510736495.9A Active CN105574484B (zh) | 2014-11-04 | 2015-11-03 | 电子装置及用于在电子装置中分析脸部信息的方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10664686B2 (zh) |
EP (2) | EP3017755A1 (zh) |
CN (1) | CN105574484B (zh) |
WO (1) | WO2016072749A1 (zh) |
Families Citing this family (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3017755A1 (en) * | 2014-11-04 | 2016-05-11 | Samsung Electronics Co., Ltd. | Electronic device, and method for analyzing face information in electronic device |
TWI701018B (zh) * | 2015-01-29 | 2020-08-11 | 日商新力股份有限公司 | 資訊處理裝置、資訊處理方法、及程式 |
KR102490438B1 (ko) * | 2015-09-02 | 2023-01-19 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
JP6451861B2 (ja) * | 2015-09-09 | 2019-01-16 | 日本電気株式会社 | 顔認証装置、顔認証方法およびプログラム |
US10860887B2 (en) * | 2015-11-16 | 2020-12-08 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing object, and method and apparatus for training recognition model |
US10373449B2 (en) * | 2016-01-19 | 2019-08-06 | The Boeing Company | System and method for protective eyewear |
JP6731616B2 (ja) * | 2016-06-10 | 2020-07-29 | パナソニックIpマネジメント株式会社 | バーチャルメイク装置、バーチャルメイク方法、およびバーチャルメイクプログラム |
JP6872742B2 (ja) * | 2016-06-30 | 2021-05-19 | 学校法人明治大学 | 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム |
US10049431B2 (en) | 2016-07-18 | 2018-08-14 | Qualcomm Incorporated | Locking a group of images to a desired level of zoom and an object of interest between image transitions |
KR102488563B1 (ko) * | 2016-07-29 | 2023-01-17 | 삼성전자주식회사 | 차등적 뷰티효과 처리 장치 및 방법 |
KR102509934B1 (ko) * | 2016-08-01 | 2023-03-15 | 엘지전자 주식회사 | 이동 단말기 및 그의 동작 방법 |
FR3056901A1 (fr) * | 2016-10-04 | 2018-04-06 | L'oreal | Procede de caracterisation du relief cutane humain |
KR102581945B1 (ko) * | 2017-02-07 | 2023-09-25 | 삼성전자주식회사 | 스킨 정보 제공 방법 및 이를 지원하는 전자 장치 |
KR102374990B1 (ko) | 2017-03-21 | 2022-03-16 | 삼성전자 주식회사 | 피부 관련 정보를 제공하는 방법 및 이를 사용하는 전자 장치 |
CN108629236A (zh) * | 2017-03-21 | 2018-10-09 | 芜湖美的厨卫电器制造有限公司 | 浴室镜的控制方法、装置及浴室镜 |
CN107007261A (zh) * | 2017-04-13 | 2017-08-04 | 浙江钛合控股有限公司 | 一种人脸痘痘定位方法及系统 |
CN107019850A (zh) * | 2017-04-13 | 2017-08-08 | 浙江钛合控股有限公司 | 一种无人值守智能痘痘治疗仪控制方法及控制系统 |
CN108784174B (zh) * | 2017-04-27 | 2024-01-16 | 芜湖美的厨卫电器制造有限公司 | 浴室镜及其的控制方法 |
CN108804976A (zh) * | 2017-04-27 | 2018-11-13 | 芜湖美的厨卫电器制造有限公司 | 浴室镜及其控制方法 |
CN109064438A (zh) * | 2017-06-09 | 2018-12-21 | 丽宝大数据股份有限公司 | 皮肤状态检测方法、电子装置与皮肤状态检测系统 |
KR102333101B1 (ko) | 2017-06-21 | 2021-12-01 | 삼성전자주식회사 | 관심 객체에 대한 외부 광원의 속성 정보를 제공하는 방법을 지원하는 전자 장치 |
CN111066060A (zh) | 2017-07-13 | 2020-04-24 | 资生堂美洲公司 | 虚拟面部化妆去除和模拟、快速面部检测和地标跟踪 |
DE102017212176A1 (de) * | 2017-07-17 | 2019-01-17 | Henkel Ag & Co. Kgaa | System und Verfahren zum Ermitteln einer Wirksamkeit einer kosmetischen Hautbehandlung |
CN109299636A (zh) * | 2017-07-25 | 2019-02-01 | 丽宝大数据股份有限公司 | 可标示腮红区域的身体信息分析装置 |
KR102344787B1 (ko) * | 2017-07-31 | 2021-12-30 | 닛폰세이테츠 가부시키가이샤 | 용융 아연 도금 강판 |
WO2019060298A1 (en) | 2017-09-19 | 2019-03-28 | Neuroenhancement Lab, LLC | METHOD AND APPARATUS FOR NEURO-ACTIVATION |
US11717686B2 (en) | 2017-12-04 | 2023-08-08 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to facilitate learning and performance |
KR102444666B1 (ko) * | 2017-12-20 | 2022-09-19 | 현대자동차주식회사 | 차량용 3차원 입체 영상의 제어 방법 및 장치 |
EP3731749A4 (en) | 2017-12-31 | 2022-07-27 | Neuroenhancement Lab, LLC | NEURO-ACTIVATION SYSTEM AND METHOD FOR ENHANCING EMOTIONAL RESPONSE |
WO2019144247A1 (en) * | 2018-01-29 | 2019-08-01 | Etreat Medical Diagnostics Inc. | Systems and methods for automated facial acne assessment from digital photographic images |
CN111656382A (zh) * | 2018-01-31 | 2020-09-11 | 美道寻济株式会社 | 广告提示方法及广告提示系统 |
CN108537111A (zh) * | 2018-02-26 | 2018-09-14 | 阿里巴巴集团控股有限公司 | 一种活体检测的方法、装置及设备 |
US11364361B2 (en) | 2018-04-20 | 2022-06-21 | Neuroenhancement Lab, LLC | System and method for inducing sleep by transplanting mental states |
US10909351B2 (en) * | 2018-05-14 | 2021-02-02 | Revieve Oy | Method of improving image analysis |
JP7453956B2 (ja) | 2018-07-13 | 2024-03-21 | 株式会社 資生堂 | カスタム外用薬を調整するためのシステムおよび方法 |
EP3847577A4 (en) * | 2018-07-16 | 2022-07-27 | Skin Rejuvenation Technologies (Pty) Ltd. | PROCEDURE AND SYSTEM FOR COSMETIC RECOMMENDATIONS |
CA3112564A1 (en) | 2018-09-14 | 2020-03-19 | Neuroenhancement Lab, LLC | System and method of improving sleep |
CN111053356A (zh) * | 2018-10-17 | 2020-04-24 | 丽宝大数据股份有限公司 | 电子化妆镜装置及其显示方法 |
CN111241889B (zh) | 2018-11-29 | 2023-05-12 | 荣耀终端有限公司 | 检测和评价黑眼圈的方法和装置 |
CN109671016B (zh) * | 2018-12-25 | 2019-12-17 | 网易(杭州)网络有限公司 | 人脸模型的生成方法、装置、存储介质及终端 |
CN110059678A (zh) * | 2019-04-17 | 2019-07-26 | 上海肇观电子科技有限公司 | 一种检测方法、装置及计算机可读存储介质 |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
CN110292358B (zh) * | 2019-06-27 | 2022-03-11 | Oppo广东移动通信有限公司 | 电子装置、信息推送方法及相关产品 |
CN110378304B (zh) * | 2019-07-24 | 2021-11-02 | 厦门美图之家科技有限公司 | 皮肤状态检测方法、装置、设备及存储介质 |
CN111571611B (zh) * | 2020-05-26 | 2021-09-21 | 广州纳丽生物科技有限公司 | 一种基于面部及皮肤特征的面部作业机器人轨迹规划方法 |
CN111651040B (zh) * | 2020-05-27 | 2021-11-26 | 华为技术有限公司 | 用于肌肤检测的电子设备的交互方法及电子设备 |
JP2022084299A (ja) * | 2020-11-26 | 2022-06-07 | マクセル株式会社 | 肌状態測定システム |
WO2022272175A1 (en) * | 2021-06-25 | 2022-12-29 | Appiell Inc. | Use of artificial intelligence platform to diagnose facial wrinkles |
KR102422772B1 (ko) * | 2022-01-05 | 2022-07-22 | 주식회사 룰루랩 | 사용자를 위한 케어 기기를 추천하는 방법 및 장치 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1355680A (zh) * | 1999-06-14 | 2002-06-26 | 宝洁公司 | 皮肤成像和分析系统及方法 |
CN1795827A (zh) * | 2004-12-24 | 2006-07-05 | 重庆融海超声医学工程研究中心有限公司 | 皮肤和皮下组织损伤的图像监测装置和方法 |
CN1866010A (zh) * | 2005-04-07 | 2006-11-22 | 宝丽化学工业有限公司 | 美容信息提供系统 |
CN1961820A (zh) * | 2005-11-08 | 2007-05-16 | 株式会社资生堂 | 肌肤状态分析方法以及肌肤状态分析装置 |
CN101027678A (zh) * | 2004-06-21 | 2007-08-29 | 谷歌公司 | 基于单个图像的多生物统计系统及方法 |
CN101083940A (zh) * | 2004-10-22 | 2007-12-05 | 株式会社资生堂 | 皮肤状况诊断系统和美容咨询系统 |
CN101170945A (zh) * | 2005-04-28 | 2008-04-30 | 株式会社资生堂 | 肌肤状态分析方法、肌肤状态分析装置、及记录有肌肤状态分析程序的记录介质 |
CN101755288A (zh) * | 2007-07-23 | 2010-06-23 | 宝洁公司 | 用于皱纹老化和去老化逼真模拟的方法和装置 |
CN102036607A (zh) * | 2008-05-23 | 2011-04-27 | 宝丽化学工业有限公司 | 用于自动判断皮肤肌理和/或皱纹的方法 |
CN102782727A (zh) * | 2010-03-10 | 2012-11-14 | Elc管理有限责任公司 | 用于使用谱图像数据来生成3d rgb模型的皮肤治疗分析的系统 |
CN103164615A (zh) * | 2013-02-01 | 2013-06-19 | 尹新平 | 一种皮肤影像分析管理系统 |
CN103340604A (zh) * | 2013-07-09 | 2013-10-09 | 周信旭 | 黄疸自动分析检测方法及计算机程序产品 |
CN104063464A (zh) * | 2014-06-27 | 2014-09-24 | 厦门美柚信息科技有限公司 | 皮肤养护方案的生成方法及装置 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7324668B2 (en) * | 2001-10-01 | 2008-01-29 | L'oreal S.A. | Feature extraction in beauty analysis |
DE10309873A1 (de) * | 2002-07-09 | 2004-01-29 | RIC Co. Ltd. | Digitale-Zoom-Hautdiagnosevorrichtung |
JP2004157771A (ja) | 2002-11-06 | 2004-06-03 | Toshiba Corp | 人物認識装置、人物認識方法および通行制御装置 |
US7039222B2 (en) * | 2003-02-28 | 2006-05-02 | Eastman Kodak Company | Method and system for enhancing portrait images that are processed in a batch mode |
US8064647B2 (en) * | 2006-03-03 | 2011-11-22 | Honeywell International Inc. | System for iris detection tracking and recognition at a distance |
US8026942B2 (en) * | 2004-10-29 | 2011-09-27 | Johnson & Johnson Consumer Companies, Inc. | Skin imaging system with probe |
US7454046B2 (en) * | 2005-09-20 | 2008-11-18 | Brightex Bio-Photonics, Llc | Method and system for analyzing skin conditions using digital images |
JP5116965B2 (ja) | 2005-11-08 | 2013-01-09 | 株式会社 資生堂 | 美容医療診断方法、美容医療診断システム、美容医療診断プログラム、及び該プログラムが記録された記録媒体 |
US7916897B2 (en) * | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
US8038615B2 (en) * | 2007-05-22 | 2011-10-18 | Eastman Kodak Company | Inferring wellness from physiological conditions data |
KR101417811B1 (ko) * | 2007-12-21 | 2014-07-09 | 삼성전자주식회사 | 디지털 영상 처리기에서 얼굴인식을 통한 줌-인 장치 및방법 |
JP5547730B2 (ja) | 2008-07-30 | 2014-07-16 | デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド | 顔検知を用いた顔及び肌の自動美化 |
US8532346B2 (en) * | 2009-03-11 | 2013-09-10 | Sony Corporation | Device, method and computer program product |
KR101589501B1 (ko) * | 2009-08-24 | 2016-01-28 | 삼성전자주식회사 | 터치 스크린을 이용한 줌 제어 방법 및 장치 |
JP5597382B2 (ja) | 2009-10-26 | 2014-10-01 | 富士フイルム株式会社 | 広角画像表示制御方法及びその装置並びに広角画像撮像装置 |
FR2952519B1 (fr) * | 2009-11-13 | 2012-07-20 | O Ts Team Creatif | Procede et dispositif pour l'analyse de la tendance d'une peau a etre plus ou moins seche. |
US8638993B2 (en) * | 2010-04-05 | 2014-01-28 | Flashfoto, Inc. | Segmenting human hairs and faces |
US8493464B2 (en) | 2010-06-18 | 2013-07-23 | Altek Corporation | Resolution adjusting method |
US8705813B2 (en) * | 2010-06-21 | 2014-04-22 | Canon Kabushiki Kaisha | Identification device, identification method, and storage medium |
US9789295B2 (en) * | 2010-11-02 | 2017-10-17 | Yuchen Zhou | Customized skin care and method to provide same |
TW201222432A (en) * | 2010-11-26 | 2012-06-01 | Inst Information Industry | System, device, method, and computer program product for facial defect analysis using angular facial image |
FR2969915B1 (fr) * | 2011-01-04 | 2014-01-03 | Ergylink | Systeme et procede pour analyser au moins une caracteristique de la peau |
TWI471117B (zh) | 2011-04-29 | 2015-02-01 | Nat Applied Res Laboratoires | 可用於行動裝置之人臉膚質評估演算介面裝置 |
US20130123647A1 (en) * | 2011-05-03 | 2013-05-16 | The Research Foundation Of State University Of New York | Methods Useful in Optimizing the Treatment of Neuropathies and Targeting Tissues with Cosmetic Botulinum Injections |
JP5995607B2 (ja) | 2012-08-22 | 2016-09-21 | キヤノン株式会社 | 電子機器、プログラムおよび記録媒体 |
KR20140070906A (ko) | 2012-11-29 | 2014-06-11 | (주)아이디피쉬 | 모바일 감정인지 제공방법 및 시스템 |
KR101988279B1 (ko) | 2013-01-07 | 2019-06-12 | 삼성전자 주식회사 | 얼굴 인식 기반 사용자 기능 운용 방법 및 이를 지원하는 단말기 |
US20140313303A1 (en) * | 2013-04-18 | 2014-10-23 | Digimarc Corporation | Longitudinal dermoscopic study employing smartphone-based image registration |
EP3017755A1 (en) * | 2014-11-04 | 2016-05-11 | Samsung Electronics Co., Ltd. | Electronic device, and method for analyzing face information in electronic device |
KR102490438B1 (ko) * | 2015-09-02 | 2023-01-19 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US10702160B2 (en) * | 2018-05-02 | 2020-07-07 | Canfield Scientific, Incorporated | Skin assessment using image fusion |
CN110740252A (zh) * | 2018-07-20 | 2020-01-31 | 华为技术有限公司 | 一种图像获取的方法、装置及终端 |
-
2015
- 2015-10-30 EP EP15192378.6A patent/EP3017755A1/en not_active Ceased
- 2015-10-30 EP EP20166334.1A patent/EP3692896A1/en active Pending
- 2015-10-30 US US14/928,402 patent/US10664686B2/en active Active
- 2015-11-03 CN CN201510736495.9A patent/CN105574484B/zh active Active
- 2015-11-04 WO PCT/KR2015/011802 patent/WO2016072749A1/en active Application Filing
-
2020
- 2020-04-14 US US16/848,489 patent/US11311195B2/en active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1355680A (zh) * | 1999-06-14 | 2002-06-26 | 宝洁公司 | 皮肤成像和分析系统及方法 |
CN101027678A (zh) * | 2004-06-21 | 2007-08-29 | 谷歌公司 | 基于单个图像的多生物统计系统及方法 |
CN101083940A (zh) * | 2004-10-22 | 2007-12-05 | 株式会社资生堂 | 皮肤状况诊断系统和美容咨询系统 |
CN1795827A (zh) * | 2004-12-24 | 2006-07-05 | 重庆融海超声医学工程研究中心有限公司 | 皮肤和皮下组织损伤的图像监测装置和方法 |
CN1866010A (zh) * | 2005-04-07 | 2006-11-22 | 宝丽化学工业有限公司 | 美容信息提供系统 |
CN101170945A (zh) * | 2005-04-28 | 2008-04-30 | 株式会社资生堂 | 肌肤状态分析方法、肌肤状态分析装置、及记录有肌肤状态分析程序的记录介质 |
CN1961820A (zh) * | 2005-11-08 | 2007-05-16 | 株式会社资生堂 | 肌肤状态分析方法以及肌肤状态分析装置 |
CN101755288A (zh) * | 2007-07-23 | 2010-06-23 | 宝洁公司 | 用于皱纹老化和去老化逼真模拟的方法和装置 |
CN102036607A (zh) * | 2008-05-23 | 2011-04-27 | 宝丽化学工业有限公司 | 用于自动判断皮肤肌理和/或皱纹的方法 |
CN102782727A (zh) * | 2010-03-10 | 2012-11-14 | Elc管理有限责任公司 | 用于使用谱图像数据来生成3d rgb模型的皮肤治疗分析的系统 |
CN103164615A (zh) * | 2013-02-01 | 2013-06-19 | 尹新平 | 一种皮肤影像分析管理系统 |
CN103340604A (zh) * | 2013-07-09 | 2013-10-09 | 周信旭 | 黄疸自动分析检测方法及计算机程序产品 |
CN104063464A (zh) * | 2014-06-27 | 2014-09-24 | 厦门美柚信息科技有限公司 | 皮肤养护方案的生成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US11311195B2 (en) | 2022-04-26 |
US20160125228A1 (en) | 2016-05-05 |
EP3017755A1 (en) | 2016-05-11 |
WO2016072749A1 (en) | 2016-05-12 |
US20200242334A1 (en) | 2020-07-30 |
CN105574484A (zh) | 2016-05-11 |
US10664686B2 (en) | 2020-05-26 |
EP3692896A1 (en) | 2020-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105574484B (zh) | 电子装置及用于在电子装置中分析脸部信息的方法 | |
US10871798B2 (en) | Electronic device and image capture method thereof | |
CN110462572B (zh) | 电子装置及其控制方法 | |
CN107566693B (zh) | 电子设备及其图像捕获方法 | |
US10062362B2 (en) | Electronic device including hidden display and method for displaying information thereof | |
US10257416B2 (en) | Apparatus and method for setting camera | |
TWI708189B (zh) | 電子裝置以及在電子裝置分析面部資訊的方法 | |
EP2958316B1 (en) | Electronic device using composition information of picture and shooting method using the same | |
US10114514B2 (en) | Electronic device, method for controlling the electronic device, and recording medium | |
EP3101578B1 (en) | Electronic device for performing personal authentication and method thereof | |
US20160286132A1 (en) | Electronic device and method for photographing | |
US11210828B2 (en) | Method and electronic device for outputting guide | |
US10114479B2 (en) | Electronic device and method for controlling display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |