KR102424986B1 - Electronic device and method for analysis of face information in electronic device - Google Patents

Electronic device and method for analysis of face information in electronic device Download PDF

Info

Publication number
KR102424986B1
KR102424986B1 KR1020150092549A KR20150092549A KR102424986B1 KR 102424986 B1 KR102424986 B1 KR 102424986B1 KR 1020150092549 A KR1020150092549 A KR 1020150092549A KR 20150092549 A KR20150092549 A KR 20150092549A KR 102424986 B1 KR102424986 B1 KR 102424986B1
Authority
KR
South Korea
Prior art keywords
image
electronic device
region
analysis
face
Prior art date
Application number
KR1020150092549A
Other languages
Korean (ko)
Other versions
KR20160052309A (en
Inventor
손주영
김진호
강우성
김윤중
김홍일
손재원
장원석
최인호
현대영
홍태화
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/928,402 priority Critical patent/US10664686B2/en
Priority to EP20166334.1A priority patent/EP3692896A1/en
Priority to EP15192378.6A priority patent/EP3017755A1/en
Priority to CN201510736495.9A priority patent/CN105574484B/en
Priority to PCT/KR2015/011802 priority patent/WO2016072749A1/en
Priority to TW104136240A priority patent/TWI708189B/en
Publication of KR20160052309A publication Critical patent/KR20160052309A/en
Priority to US16/848,489 priority patent/US11311195B2/en
Application granted granted Critical
Publication of KR102424986B1 publication Critical patent/KR102424986B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

본 발명은 전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법에 관한 것으로, 카메라 모듈을 통해 촬영중인 이미지에서 적어도 하나의 얼굴 영역을 검출하고, 상기 검출된 적어도 하나의 얼굴 영역을 세부 촬영하고, 상기 세부 촬영된 얼굴 영역을 적어도 하나의 분석 항목에 따라 분석할 수 있으며, 그 외 다양한 실시 예가 가능할 수 있다.The present invention relates to an electronic device and a method for analyzing face information in an electronic device, wherein at least one face region is detected in an image being photographed through a camera module, the detected at least one face region is photographed in detail, and the The detailed photographed face region may be analyzed according to at least one analysis item, and various other embodiments may be possible.

Description

전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법{ELECTRONIC DEVICE AND METHOD FOR ANALYSIS OF FACE INFORMATION IN ELECTRONIC DEVICE}ELECTRONIC DEVICE AND METHOD FOR ANALYSIS OF FACE INFORMATION IN ELECTRONIC DEVICE

본 발명의 다양한 실시 예들은 전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법에 관한 것이다. Various embodiments of the present disclosure relate to an electronic device and a method of analyzing face information in the electronic device.

최근 사용되는 다양한 전자 장치들에는 다양한 기능들이 사용되도록 개발되고 있다. 예컨대, 전자 장치(예, 스마트폰)에서는 이미지를 촬영할 뿐만 아니라 촬영되는 객체를 인식하는 기능까지도 제공할 수 있게 되었다.A variety of recently used electronic devices are being developed to use various functions. For example, an electronic device (eg, a smart phone) can provide a function of not only capturing an image but also recognizing a photographed object.

이러한 전자 장치에는 다양한 기능들을 보다 효과적으로 이용할 수 있도록 표시부가 제공된다. 예컨대, 최근의 스마트폰의 경우 장치의 전면부가 터치에 의해 감응하는 표시부(예컨대, 터치 스크린)가 제공되고 있다.A display unit is provided in such an electronic device to use various functions more effectively. For example, in the case of a recent smart phone, a display unit (eg, a touch screen) in which a front part of the device responds to a touch is provided.

또한, 전자 장치에서는 다양한 애플리케이션(예컨대, '앱(App)'이라고도 한다)들이 설치되어 실행될 수 있다. 상기 애플리케이션들을 전자 장치상에서 실행시키고 제어하기 위해서는 다양한 입력 수단들(예컨대, 터치 스크린, 버튼, 마우스, 키보드, 센서 등)이 사용될 수 있다.In addition, various applications (eg, also referred to as 'apps') may be installed and executed in the electronic device. In order to execute and control the applications on the electronic device, various input means (eg, a touch screen, a button, a mouse, a keyboard, a sensor, etc.) may be used.

전자 장치에서는 촬영중인 객체(예, 얼굴 영역)을 분석하기 위하여, 해당 객체가 확대 혹은 세부적으로 촬영된 이미지를 획득할 수 있다. 한편, 상기 확대 혹은 상세하게 촬영되는 이미지를 획득하기 위하여, 사용자는 촬영될 객체를 확인하고 각 객체의 세부 영역에 포커스(focus)가 맞춰졌는지를 확인하여 전자 장치의 촬영 기능을 작동시킬 수 있다.In order to analyze an object (eg, a face region) being photographed, the electronic device may acquire an enlarged or detailed photographed image of the object. Meanwhile, in order to acquire the enlarged or detailed photographed image, the user may check an object to be photographed and check whether a detailed area of each object is in focus, thereby operating a photographing function of the electronic device.

본 발명의 다양한 실시 예에 따라, 얼굴 정보(예, 얼굴 영역)가 확인되면, 어떠한 사용자의 제어 동작 없이, 상기 확인된 부분을 확대하거나 혹은 자동으로 해당 부분을 포커싱(focusing)시켜 촬영하는, 전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법을 제공할 수 있다.According to various embodiments of the present disclosure, when face information (eg, a face region) is identified, the electronic device that magnifies the identified part or automatically focuses the corresponding part without any user's control operation. A device and a method of analyzing face information in an electronic device may be provided.

본 발명의 다양한 실시 예에 따른 전자 장치에서 얼굴 정보를 분석하는 방법은, 상기 전자 장치의 카메라 모듈을 통해 촬영중인 이미지에서 복수의 얼굴 영역 중 적어도 하나의 얼굴 영역을 검출하는 동작, 상기 적어도 하나의 얼굴 영역 상에서 상기 카메라 모듈의 줌인 또는 포커싱 설정에 기초하여, 구강 영역, 코 영역, 안구 영역, 협측 영역 또는 이마 영역 중 적어도 하나에 대응하는 적어도 하나의 얼굴 영역을 식별하는 동작, 상기 적어도 하나의 얼굴 영역의 식별에 기초하여, 복수의 분석 항목들 중 상기 적어도 하나의 얼굴 영역의 식별에 대응하는 적어도 하나의 분석 항목을 식별하는 동작, 상기 식별된 적어도 하나의 분석 항목에 기초하여, 상기 적어도 하나의 분석 항목에서 적어도 하나의 피부 상태를 측정하는 동작, 상기 측정된 적어도 하나의 피부 상태에 기초하여, 상기 적어도 하나의 얼굴 영역에 대응하는 피부 분석 이력과 관련된 정보를 획득하는 동작 및 상기 피부 분석 이력과 관련된 정보를 상기 전자 장치의 디스플레이에 표시하는 동작을 포함할 수 있다.A method of analyzing face information in an electronic device according to various embodiments of the present disclosure includes detecting at least one face region among a plurality of face regions in an image being photographed through a camera module of the electronic device, and the at least one identifying at least one facial region corresponding to at least one of an oral region, a nose region, an eye region, a buccal region, and a forehead region on the face region based on a zoom-in or focusing setting of the camera module, the at least one face identifying at least one analysis item corresponding to the identification of the at least one facial region from among a plurality of analysis items based on the identification of the region; based on the identified at least one analysis item, the at least one analysis item Measuring at least one skin condition in the analysis item, acquiring information related to a skin analysis history corresponding to the at least one face region based on the measured at least one skin condition, and the skin analysis history; and displaying related information on a display of the electronic device.

본 발명의 다양한 실시 예에 따른 전자 장치는, 카메라 모듈, 상기 카메라 모듈을 통해 촬영중인 이미지를 디스플레이하는 디스플레이, 및 상기 카메라 모듈 및 상기 디스플레이와 전기적으로 연결된 적어도 하나의 프로세서를 포함하며, 상기 적어도 하나의 프로세서는, 상기 이미지에서 복수의 얼굴 영역들 중 적어도 하나의 얼굴 영역을 검출하고, 상기 적어도 하나의 얼굴 영역 상에서 상기 카메라 모듈의 줌인 또는 포커싱 설정에 기초하여, 구강 영역, 코 영역, 안구 영역, 협측 영역 또는 이마 영역 중 적어도 하나에 대응하는 적어도 하나의 얼굴 영역을 식별하고, 상기 적어도 하나의 얼굴 영역의 식별에 기초하여, 복수의 분석 항목들 중 상기 적어도 하나의 얼굴 영역의 식별에 대응하는 적어도 하나의 분석 항목을 식별하고, 상기 식별된 적어도 하나의 분석 항목에 기초하여, 상기 적어도 하나의 분석 항목에서 적어도 하나의 피부 상태를 측정하고, 상기 측정된 적어도 하나의 피부 상태에 기초하여, 상기 적어도 하나의 얼굴 영역에 대응하는 피부 분석 이력과 관련된 정보를 획득하고, 상기 피부 분석 이력과 관련된 정보를 표시하도록 상기 디스플레이를 제어하도록 설정될 수 있다.An electronic device according to various embodiments of the present disclosure includes a camera module, a display for displaying an image being photographed through the camera module, and at least one processor electrically connected to the camera module and the display, wherein the at least one The processor of is configured to detect at least one facial region among a plurality of facial regions in the image, and based on a zoom-in or focusing setting of the camera module on the at least one facial region, an oral region, a nose region, an eye region, at least one facial region corresponding to at least one of the buccal region and the forehead region is identified, and based on the identification of the at least one facial region, at least one corresponding to the identification of the at least one facial region from among a plurality of analysis items identify one analysis item, measure at least one skin condition in the at least one analysis item based on the identified at least one analysis item, and determine the at least one skin condition based on the measured at least one skin condition It may be configured to obtain information related to a skin analysis history corresponding to one face region and control the display to display information related to the skin analysis history.

본 발명의 다양한 실시 예에 따른 전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법에 따라, 사용자는 어떠한 동작 없이, 전자 장치를 통해 얼굴 정보 중 일부가 확대되거나 세부 촬영된 이미지를 획득하고, 상기 획득한 이미지가 분석된 결과를 확인할 수 있다.According to an electronic device and a method of analyzing face information in an electronic device according to various embodiments of the present disclosure, a user acquires an image in which a part of the face information is enlarged or photographed in detail through the electronic device without any action, and the acquisition You can check the result of analyzing one image.

도 1은 본 발명의 다양한 실시 예에 따른, 전자 장치 구성의 일 예를 도시한 블록도이다.
도 2 내지 도 4는 본 발명의 다양한 실시 예에 따라, 전자 장치에서 피부 정보를 분석하는 동작의 다양한 예들을 도시한 흐름도들이다.
도 5a 내지 도 5h는 본 발명의 다양한 실시 예에 따라, 얼굴 영역의 다양한 예 및 상기 얼굴 영역이 부분 확대 혹은 세부 촬영되는 상황의 다양한 예들을 도시한 도면들이다.
도 6은 본 발명의 다양한 실시 예에 따라, 얼굴 분석 항목의 다양한 예를 도시한 도면이다.
도 7 내지 도 11은 본 발명의 다양한 실시 예에 따라, 얼굴 분석 항목을 분석하는 동작의 다양한 예들을 도시한 도면들이다.
도 12는 본 발명의 다양한 실시 예에 따라, 얼굴 분석을 위하여 촬영하는 동작의 일 예를 도시한 도면이다.
도 13a 내지 도 13c는 본 발명의 다양한 실시 예에 따른 얼굴 분석의 결과를 보여주는 화면의 다양한 예들을 도시한 도면들이다.
도 14 내지 도 18은 본 발명의 다양한 실시 예에 따라, 피부 분석의 결과를 보여주는 화면의 다양한 예들을 도시한 도면들이다.
도 19는 본 발명의 다양한 실시 예에 따른 네트워크 환경의 일 예를 도시한 도면이다.
도 20a 내지 도 20c는 본 발명의 다양한 실시 예에 따라, 전자 장치에서 얼굴 분석하는 상황의 다양한 예들을 도시한 도면들이다.
도 21은 본 발명의 다양한 실시 예에 따라, 전자 장치에서 피부 정보를 분석하는 동작의 일 예를 도시한 흐름도이다.
도 22a 및 도 22b는 본 발명의 다양한 실시 예에 따라, 얼굴 분석을 위하여 촬영하는 동작의 다양한 예들을 도시한 도면들이다.
도 23a 및 도 23b는 본 발명의 다양한 실시 예에 따라, 얼굴 분석을 위하여 촬영하는 동작의 다양한 예들을 도시한 도면들이다.
도 24는 본 발명의 다양한 실시 예에 따라, 얼굴 분석을 위하여 촬영하는 동작의 일 예를 도시한 도면이다.
도 25는 본 발명의 다양한 실시 예에 따른 전자 장치 구성의 일 예를 도시한 블록도이다.
도 26은 본 발명의 다양한 실시 예에 따라, 저장된 이미지를 기반으로 얼굴 정보를 분석하는 어플리케이션 화면의 일 예를 도시한 도면이다.
도 27 내지 도 35는 본 발명의 다양한 실시 예에 따른 얼굴 분석의 결과를 보여주는 화면의 다양한 예를 도시한 도면들이다.
도 36은 본 발명의 다양한 실시 예에 따라, 저장된 이미지를 기반으로 분석한 얼굴 정보의 히스토리를 보여주는 어플리케이션 화면의 일 예를 도시한 도면이다.
도 37은 내지 도 45는 본 발명의 다양한 실시 예에 따라, 분석된 얼굴 정보의 히스토리를 보여주는 화면의 다양한 예를 도시한 도면들이다.
도 46은 본 발명의 다양한 실시 예에 따라, 얼굴 분석을 위하여 촬영하는 동작의 일 예를 도시한 도면이다.
도 47a 및 도 47b는 피부 분석의 결과를 보여주는 화면의 다양한 예들을 도시한 도면들이다.
1 is a block diagram illustrating an example of a configuration of an electronic device according to various embodiments of the present disclosure.
2 to 4 are flowcharts illustrating various examples of an operation of analyzing skin information in an electronic device, according to various embodiments of the present disclosure.
5A to 5H are views illustrating various examples of a face region and various examples of a situation in which the face region is partially enlarged or photographed in detail, according to various embodiments of the present disclosure;
6 is a diagram illustrating various examples of face analysis items according to various embodiments of the present disclosure.
7 to 11 are diagrams illustrating various examples of an operation of analyzing a face analysis item, according to various embodiments of the present disclosure.
12 is a diagram illustrating an example of an operation of photographing for face analysis, according to various embodiments of the present disclosure.
13A to 13C are diagrams illustrating various examples of screens showing results of face analysis according to various embodiments of the present disclosure;
14 to 18 are diagrams illustrating various examples of screens showing results of skin analysis, according to various embodiments of the present disclosure.
19 is a diagram illustrating an example of a network environment according to various embodiments of the present disclosure.
20A to 20C are diagrams illustrating various examples of situations in which an electronic device performs face analysis, according to various embodiments of the present disclosure.
21 is a flowchart illustrating an example of an operation of analyzing skin information in an electronic device, according to various embodiments of the present disclosure.
22A and 22B are diagrams illustrating various examples of an operation of photographing for face analysis, according to various embodiments of the present disclosure.
23A and 23B are diagrams illustrating various examples of an operation of photographing for face analysis, according to various embodiments of the present disclosure.
24 is a diagram illustrating an example of an operation of photographing for face analysis, according to various embodiments of the present disclosure.
25 is a block diagram illustrating an example of a configuration of an electronic device according to various embodiments of the present disclosure.
26 is a diagram illustrating an example of an application screen for analyzing face information based on a stored image, according to various embodiments of the present disclosure;
27 to 35 are views illustrating various examples of screens showing results of face analysis according to various embodiments of the present disclosure.
36 is a diagram illustrating an example of an application screen showing a history of face information analyzed based on a stored image, according to various embodiments of the present disclosure;
37 to 45 are diagrams illustrating various examples of screens showing a history of analyzed face information, according to various embodiments of the present disclosure.
46 is a diagram illustrating an example of an operation of photographing for face analysis, according to various embodiments of the present disclosure.
47A and 47B are views illustrating various examples of screens showing results of skin analysis.

이하, 본 발명의 다양한 실시 예가 첨부된 도면과 연관되어 기재된다. 본 발명의 다양한 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시 예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시 예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.Hereinafter, various embodiments of the present invention will be described in connection with the accompanying drawings. Various embodiments of the present invention can be made various changes and can have various embodiments, specific embodiments are illustrated in the drawings and the related detailed description is described. However, this is not intended to limit the various embodiments of the present invention to specific embodiments, and should be understood to include all changes and/or equivalents or substitutes included in the spirit and scope of various embodiments of the present invention. In connection with the description of the drawings, like reference numerals have been used for like components.

본 발명의 다양한 실시 예에서 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Expressions such as “includes” or “may include” that may be used in various embodiments of the present invention indicate the existence of a disclosed corresponding function, operation, or component, and may include one or more additional functions, operations, or components, etc. are not limited. In addition, in various embodiments of the present invention, terms such as "comprise" or "have" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, It should be understood that it does not preclude the possibility of addition or existence of one or more other features or numbers, steps, operations, components, parts, or combinations thereof.

본 발명의 다양한 실시 예에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다. In various embodiments of the present disclosure, expressions such as “or” include any and all combinations of words listed together. For example, “A or B” may include A, B, or both A and B.

본 발명의 다양한 실시 예에서 사용된 “제 1,”“제2,”“첫째,”또는“둘째,”등의 표현들은 다양한 실시 예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 다양한 실시 예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in various embodiments of the present invention may modify various components of various embodiments, but limit the components. I never do that. For example, the above expressions do not limit the order and/or importance of corresponding components. The above expressions may be used to distinguish one component from another. For example, both the first user device and the second user device are user devices, and represent different user devices. For example, without departing from the scope of the present disclosure, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다. When a component is referred to as being “connected” or “connected” to another component, the component may be directly connected to or connected to the other component, but with the component It should be understood that other new components may exist between the other components. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it will be understood that no new element exists between the element and the other element. should be able to

본 발명의 다양한 실시 예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명의 다양한 실시 예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Terms used in various embodiments of the present invention are only used to describe specific embodiments, and are not intended to limit various embodiments of the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 다양한 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 다양한 실시 예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by those of ordinary skill in the art to which various embodiments of the present invention pertain. Terms such as those defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings in the context of the related art, and unless explicitly defined in various embodiments of the present invention, ideal or excessively formal terms not interpreted as meaning

본 발명의 다양한 실시 예에 따른 전자 장치는, 카메라 모듈이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smart watch)중 적어도 하나를 포함할 수 있다. An electronic device according to various embodiments of the present disclosure may be a device including a camera module. For example, the electronic device includes a smart phone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, a desktop personal computer, and a laptop. PC (laptop personal computer), netbook computer (netbook computer), PDA (personal digital assistant), PMP (portable multimedia player), MP3 player, mobile medical device, camera, or wearable device (eg: It may include at least one of a head-mounted-device (HMD) such as electronic glasses, an electronic garment, an electronic bracelet, an electronic necklace, an electronic accessory, an electronic tattoo, or a smart watch.

어떤 실시 예들에 따르면, 전자 장치는 카메라 모듈을 포함한 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.According to some embodiments, the electronic device may be a smart home appliance including a camera module. Smart home appliances include, for example, a television, a digital video disk (DVD) player, an audio device, a refrigerator, an air conditioner, a vacuum cleaner, an oven, a microwave oven, a washing machine, an air purifier, a set-top box, and a TV. It may include at least one of a box (eg, Samsung HomeSync TM , Apple TV TM , or Google TV TM ), game consoles, an electronic dictionary, an electronic key, a camcorder, or an electronic picture frame.

어떤 실시 예들에 따르면, 전자 장치는 카메라 모듈을 포함하며, 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 더 포함할 수 있다.According to some embodiments, the electronic device includes a camera module, and various medical devices (eg, magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), computed tomography (CT), imagers, ultrasound machines, etc.), navigation ) devices, GPS receivers (global positioning system receivers), EDR (event data recorder), FDR (flight data recorder), automotive infotainment devices, marine electronic equipment (such as marine navigation devices and gyro compasses), avionics It may further include at least one of a device (avionics), a security device, a head unit for a vehicle, an industrial or household robot, an automatic teller's machine (ATM) of a financial institution, or a point of sales (POS) of a store.

어떤 실시 예들에 따르면, 전자 장치는 카메라 모듈을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.According to some embodiments, the electronic device is a part of furniture or a building/structure including a camera module, an electronic board, an electronic signature receiving device, a projector, or various measurement devices. It may include at least one of devices (eg, water, electricity, gas, or radio wave measuring devices, etc.). The electronic device according to various embodiments of the present disclosure may be a combination of one or more of the various devices described above. Also, the electronic device according to various embodiments of the present disclosure may be a flexible device. Also, it is apparent to those skilled in the art that the electronic device according to various embodiments of the present disclosure is not limited to the above-described devices.

본 발명의 다양한 실시 예에 따라, 전자 장치가 분석할 수 있는 얼굴 정보에는 눈, 코, 이마, 볼, 등과 같은 얼굴 영역 주변의 피부 정보를 포함할 수 있다.According to various embodiments of the present disclosure, facial information that can be analyzed by the electronic device may include skin information around a face region such as eyes, nose, forehead, cheeks, and the like.

본 발명의 다양한 실시 예에 따라, 전자 장치에서는 적어도 하나의 분석 항목에 따른 피부 정보를 분석할 수 있다. 예컨대, 얼굴 정보를 분석하기 위한 항목에는, 모공, 여드름, 색소 침착, 피부톤(skin tone), 다크 서클(dark circle), 주름 등 다양한 피부 상태를 측정하기 위한 항목들을 포함할 수 있다. According to various embodiments of the present disclosure, the electronic device may analyze skin information according to at least one analysis item. For example, items for analyzing facial information may include items for measuring various skin conditions such as pores, acne, pigmentation, skin tone, dark circles, and wrinkles.

본 발명의 다양한 실시 예에 따라, 전자 장치가 세부 촬영하는 동작은, 특정 이미지에서 어느 한 영역을 세부적으로 촬영하기 위하여, 해당 영역을 포커싱시키고 확대하여 촬영하는 동작을 포함할 수 있다. According to various embodiments of the present disclosure, the operation of capturing detailed images by the electronic device may include focusing and enlarging and capturing an area in order to photograph a specific area in detail in a specific image.

이하, 첨부된 도면을 참조하여 다양한 실시 예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다. Hereinafter, an electronic device according to various embodiments will be described with reference to the accompanying drawings. The term user used in various embodiments may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.

도 1은 본 발명의 다양한 실시 예에 따른, 전자 장치 구성의 일 예를 도시한 블록도이다. 도 1을 참조하면, 전자 장치(100)는 제어부(110), 카메라 모듈(120), 입력부(130), 표시부(140), 혹은 저장부(150) 중 적어도 하나를 포함할 수 있다.1 is a block diagram illustrating an example of a configuration of an electronic device according to various embodiments of the present disclosure. Referring to FIG. 1 , the electronic device 100 may include at least one of a control unit 110 , a camera module 120 , an input unit 130 , a display unit 140 , and a storage unit 150 .

상기 제어부(110)는 항목 설정부(111), 촬영 제어부(112), 이미지 분석부(113), 영역 선택부(114) 혹은 분석 결과 생성부(115) 중 적어도 하나를 포함할 수 있으며, 전반적인 전자 장치(100)의 동작을 제어할 수 있다. The control unit 110 may include at least one of an item setting unit 111 , a photographing control unit 112 , an image analysis unit 113 , a region selection unit 114 , or an analysis result generation unit 115 , and the overall An operation of the electronic device 100 may be controlled.

상기 항목 설정부(111)는 촬영된 이미지에서 특정 얼굴 영역을 확인하고, 상기 확인한 얼굴 영역 주변의 피부를 분석할 적어도 하나의 항목을 선택할 수 있다. 예컨대, 촬영된 이미지에서 눈 주변 영역이 확인되는 경우, 상기 항목 설정부(111)는 상기 눈 주변 영역의 피부 상태를 분석할 항목으로, 주름 혹은 다크 서클 등을 설정할 수 있다. 다른 예로써, 촬영된 이미지에서 볼 영역이 확인되는 경우, 상기 항목 설정부(111)는 상기 볼 영역의 피부 상태를 분석할 항목으로 색소 침착, 점, 기미, 피부톤 등을 설정할 수 있다.The item setting unit 111 may identify a specific face region in the captured image, and select at least one item to analyze the skin around the identified face region. For example, when the area around the eyes is identified in the photographed image, the item setting unit 111 may set wrinkles or dark circles as items to analyze the skin condition of the area around the eyes. As another example, when the cheek area is identified in the photographed image, the item setting unit 111 may set pigmentation, spots, blemishes, skin tone, etc. as items to analyze the skin condition of the cheek area.

상기 촬영 제어부(112)는 촬영 모드 중에 특정 얼굴 영역을 확인하면, 상기 확인된 얼굴 영역이 확대되거나 세부적으로 촬영되도록 카메라 모듈(120)을 제어할 수 있다. 예컨대, 촬영 제어부(112)는 카메라 모듈(120)을 통해 확인되는 촬영 이미지에서, 얼굴 영역으로 확인되는 적어도 하나의 영역에 포커싱(focusing)을 맞추거나 줌(zoom)을 시켜 촬영하도록 카메라 모듈(120)을 제어할 수 있다. When a specific face region is identified in the shooting mode, the capturing controller 112 may control the camera module 120 to enlarge or capture the identified face region in detail. For example, the photographing control unit 112 sets the focusing or zooming on at least one area identified as the face area in the photographed image checked through the camera module 120 to photograph the camera module 120 . ) can be controlled.

상기 이미지 분석부(113)는 이미지에서의 특정 얼굴 영역에 대해 분석할 적어도 하나의 항목을 선택하고, 얼굴 영역을 상기 선택된 항목 별로 분석할 수 있다. 예컨대, 이미지 분석부(113)는 촬영된 이미지에서 확인된 눈 주변 영역을 선택된 항목(예, 주름 혹은 다크 서클)별로 분석할 수 있다. 예컨대, 상기 이미지 분석부(113)는 확인된 눈 주변 영역에서의 주름의 깊이나 개수 혹은 다크서클의 넓이나 색 등을 분석할 수 있다.The image analyzer 113 may select at least one item to be analyzed with respect to a specific face area in the image, and analyze the face area for each selected item. For example, the image analyzer 113 may analyze the area around the eyes identified in the photographed image for each selected item (eg, wrinkles or dark circles). For example, the image analysis unit 113 may analyze the depth or number of wrinkles in the identified area around the eyes, or the width or color of dark circles.

상기 영역 선택부(114)는 특정 이미지에서 얼굴 영역이 확인되는지를 판단할 수 있다. 본 발명의 다양한 실시 예에 따라, 특정 얼굴 영역이 확인되면 영역 선택부(114)는 해당 얼굴 영역에 포커싱을 맞추거나 줌을 시켜 촬영하도록 카메라 모듈(120)을 제어할 수 있다.The region selector 114 may determine whether a face region is identified in a specific image. According to various embodiments of the present disclosure, when a specific face region is identified, the region selector 114 may control the camera module 120 to focus or zoom on the corresponding face region to take a picture.

상기 분석 결과 생성부(115)는 이미지 분석부(113)에서 분석된 얼굴 정보의 결과를 확인하고, 확인된 결과를 포함하는 화면을 생성하여 디스플레이되도록 제어할 수 있다. The analysis result generation unit 115 may check the result of the face information analyzed by the image analysis unit 113 , and control to generate and display a screen including the verified result.

본 발명의 다양한 실시 예에 따라, 상기 분석 결과 생성부(115)는 각 얼굴 영역에 대한 분석 항목 혹은 분석 결과를 다양한 방법으로 표현하여 분석된 얼굴 정보의 화면을 생성할 수 있다. 예컨대, 상기 분석 결과 생성부(115)는 여드름은 붉은색 혹은 색소 침착은 푸른색 등으로 각 분석 항목이 색으로 구분되어 디스플레이되도록 얼굴 정보의 화면을 생성할 수 있다. 또한, 상기 분석 결과 생성부(115)는 이전의 분석 결과를 확인하여 개선된 부분의 영역을 녹색 혹은 파란색으로 표시하고 악화된 얼굴 영역을 붉은색으로 표시하여 얼굴 정보의 화면을 생성할 수 있다. According to various embodiments of the present disclosure, the analysis result generating unit 115 may generate a screen of analyzed face information by expressing analysis items or analysis results for each face region in various ways. For example, the analysis result generating unit 115 may generate a screen of face information so that each analysis item is divided into colors such as red for acne or blue for pigmentation. In addition, the analysis result generating unit 115 may generate a screen of face information by confirming the previous analysis result, displaying the area of the improved part in green or blue, and displaying the deteriorated face area in red.

본 발명의 다양한 실시 예에 따라, 촬영된 이미지에서 특정 얼굴 영역에 대응하는 영역 혹은 분석 항목이나 분석 결과에 따라 색으로 구분된 영역이 선택되면, 분석 결과 생성부(115)는 상기 선택된 얼굴 영역에 대해 세부 촬영 혹은 분석된 이미지를 제공할 수 있다. 예컨대, 분석 결과 생성부(115)는 생성된 이미지가 디스플레이되도록 상기 표시부(140)를 제어할 수 있다.According to various embodiments of the present disclosure, when an area corresponding to a specific face area or a color-coded area according to an analysis item or analysis result is selected from a photographed image, the analysis result generating unit 115 is configured to display the selected face area. It is possible to provide detailed photographed or analyzed images for For example, the analysis result generating unit 115 may control the display unit 140 to display the generated image.

상기 카메라 모듈(120)은 이미지를 촬영할 수 있다. 본 발명의 다양한 실시 예에 따라, 상기 카메라 모듈(120)은 상기 제어부(110)에 의해, 특정 얼굴 영역으로 확인되는 영역에 포커싱을 맞추고 확대하여 촬영하도록 제어될 수 있다.The camera module 120 may capture an image. According to various embodiments of the present disclosure, the camera module 120 may be controlled by the controller 110 to focus and enlarge an area identified as a specific face area.

상기 표시부(140)는 카메라 모듈을 통해 촬영중인 이미지를 디스플레이할 수 있다. The display unit 140 may display an image being photographed through the camera module.

본 발명의 다양한 실시 예에 따라, 디스플레이된 이미지에서 특정 영역이 선택되는 경우, 상기 표시부(140)는 해당 영역에 대해 확대 혹은 세부 촬영된 이미지를 디스플레이할 수 있다. 예컨대, 상기 확대된 이미지는 전자 장치가 특정 영역을 선택함에 따라, 상기 선택된 영역이 확대되어 촬영된 것일 수 있다. 상기 세부 촬영된 이미지는 전자 장치가 특정 영역을 선택함에 따라, 상기 선택된 영역이 포커싱되고 확대되어 촬영된 것일 수 있다. According to various embodiments of the present disclosure, when a specific area is selected from the displayed image, the display unit 140 may display an enlarged or detailed photographed image for the corresponding area. For example, the enlarged image may be captured by enlarging the selected area as the electronic device selects a specific area. The detailed photographed image may be captured by focusing and enlarging the selected area as the electronic device selects a specific area.

저장부(150)는 피부 분석 정보(151) 혹은 사용자 식별 정보(152)를 포함할 수 있다. 상기 피부 분석 정보(151)는 분석 항목에 따른 특정 얼굴 영역의 피부 분석 정보를 포함할 수 있다. The storage unit 150 may include skin analysis information 151 or user identification information 152 . The skin analysis information 151 may include skin analysis information of a specific face region according to an analysis item.

상기 피부 분석 정보(151)는 특정 영역 주위의 피부 상태를 각 항목 별로 분석한 정보를 포함할 수 있다. 예컨대, 피부 분석 정보(151)는 특정 얼굴 영역에서의 피부 침착, 피부톤, 점, 혹은 여드름의 유무가 분석된 정보, 이전에 분석된 각 항목별 정보 혹은 각 얼굴 영역에 대한 피부 분석 결과를 시간 순으로 보여주는 히스토리 정보를 포함할 수 있다. The skin analysis information 151 may include information obtained by analyzing skin conditions around a specific area for each item. For example, the skin analysis information 151 includes information on which skin deposition, skin tone, spots, or presence of acne in a specific facial region are analyzed, information for each previously analyzed item, or a skin analysis result for each facial region in chronological order. It may include historical information displayed as .

상기 사용자 식별 정보(152)는 특정 사용자에 대한 얼굴 정보를 포함할 수 있다. 예컨대, 이미지 분석부(113)는 사용자 식별 정보(152)를 이용하여, 촬영된 이미지에서 확인된 ‘눈’영역을 이전에 저장된 다른 사용자의 ‘눈’과 비교할 수 있다. 사용자 식별 정보(152)는 상기 이미지 분석부(113)에서의 비교 결과에 기반하여, 촬영된 이미지에서 확인된 얼굴 영역에 대한 분석 결과를 동일한 얼굴 영역을 포함하는 사용자에 대한 얼굴 정보에 포함시켜 저장할 수 있다.The user identification information 152 may include face information for a specific user. For example, the image analyzer 113 may use the user identification information 152 to compare the 'eye' area identified in the captured image with the previously stored 'eyes' of another user. The user identification information 152 includes, based on the comparison result of the image analysis unit 113, an analysis result for a face region identified in the photographed image in face information about a user including the same face region and stores it. can

예컨대, 본 발명의 다양한 실시 예에 따른 전자 장치는, 카메라 모듈, 상기 카메라 모듈을 통해 촬영중인 이미지를 디스플레이하는 표시부, 및 상기 이미지에서 적어도 하나의 얼굴 영역을 검출하고, 상기 검출된 적어도 하나의 얼굴 영역을 세부 촬영하도록 상기 카메라 모듈을 제어하고, 상기 세부 촬영된 얼굴 영역을 적어도 하나의 분석 항목에 따라 분석하는 제어부를 포함할 수 있다.For example, the electronic device according to various embodiments of the present disclosure may include a camera module, a display unit for displaying an image being photographed through the camera module, and at least one face region from the image, and the detected at least one face and a controller that controls the camera module to capture a detailed area and analyzes the detailed photographed face area according to at least one analysis item.

본 발명의 다양한 실시 예에 따른 상기 적어도 하나의 얼굴 영역은, 눈, 코, 볼, 입 혹은 이마 중 적어도 하나의 주변 영역을 포함할 수 있다.The at least one face region according to various embodiments of the present disclosure may include a peripheral region of at least one of eyes, nose, cheeks, mouth, and forehead.

본 발명의 다양한 실시 예에 따른 상기 적어도 하나의 분석 항목은, 주름, 여드름, 색소 침착, 피부톤, 다크 서클 혹은 모공 중 적어도 하나를 포함할 수 있다.The at least one analysis item according to various embodiments of the present disclosure may include at least one of wrinkles, acne, pigmentation, skin tone, dark circles, and pores.

본 발명의 다양한 실시 예에 따른 상기 제어부는, 상기 세부 촬영된 얼굴 영역에서 각 하나의 분석 항목에 대한 굵기, 크기, 개수, 넓이 혹은 색 중 적어도 하나를 분석할 수 있다.The controller according to various embodiments of the present disclosure may analyze at least one of a thickness, a size, a number, an area, or a color for each analysis item in the detailed photographed face region.

본 발명의 다양한 실시 예에 따른 상기 제어부는, 상기 이미지에서의 특정 영역에 대해 제스처가 입력됨을 감지하는 경우, 상기 제스처가 감지된 영역에 대해 세부 촬영된 이미지가 디스플레이되도록 상기 표시부를 제어할 수 있다.When detecting that a gesture is input to a specific region in the image, the controller according to various embodiments of the present disclosure may control the display unit to display a detailed photographed image for the region in which the gesture is detected. .

본 발명의 다양한 실시 예에 따른 상기 제어부는, 상기 이미지에서 미리 설정된 적어도 하나의 분석 항목에 대한 얼굴 영역을 검출하고, 상기 검출된 얼굴 영역을 상기 미리 설정된 분석 항목에 따라 분석할 수 있다.The controller according to various embodiments of the present disclosure may detect a face region for at least one preset analysis item from the image, and analyze the detected face region according to the preset analysis item.

본 발명의 다양한 실시 예에 따른 상기 제어부는, 상기 적어도 하나의 얼굴 영역이 검출됨과 동시에 상기 세부 촬영된 얼굴 영역에 대한 화면이 디스플레이되도록 상기 표시부를 제어할 수 있다.The controller according to various embodiments of the present disclosure may control the display unit to display a screen for the detailed photographed face region while the at least one face region is detected.

본 발명의 다양한 실시 예에 따른 상기 제어부는, 미리 설정된 동작이 감지되는 경우, 상기 검출된 적어도 하나의 얼굴 영역을 세부 촬영하도록 상기 카메라 모듈을 제어할 수 있다.When a preset motion is detected, the controller according to various embodiments of the present disclosure may control the camera module to photograph the detected at least one face region in detail.

본 발명의 다양한 실시 예에 따른 상기 미리 설정된 동작은, 카메라 모듈이 활성화되는 애플리케이션을 실행하는 동작, 잠금 상태의 상기 전자 장치를 활성화시키는 동작, 상기 전자 장치를 특정 각도 혹은 방향에 위치하는 동작 중 어느 하나를 포함할 수 있다.The preset operation according to various embodiments of the present disclosure may include any one of an operation of executing an application for which a camera module is activated, an operation of activating the electronic device in a locked state, and an operation of positioning the electronic device at a specific angle or direction. may contain one.

본 발명의 다양한 실시 예에 따른 상기 제어부는, 특정 얼굴 영역 혹은 분석 항목에 대하여, 미리 저장된 분석 결과를 확인하고, 상기 확인된 미리 저장된 분석한 결과를 상기 분석의 결과와 비교하고, 상기 비교의 결과를 포함하는 화면이 디스플레이되도록 상기 표시부를 제어할 수 있다.The controller according to various embodiments of the present disclosure may check a pre-stored analysis result for a specific face region or analysis item, compare the checked pre-stored analysis result with the analysis result, and compare the result of the comparison. The display unit may be controlled to display a screen including

도 2는 본 발명의 다양한 실시 예에 따라, 전자 장치에서 피부 정보를 분석하는 동작의 일 예를 도시한 흐름도이다. 도 2를 참조하면, 210 동작에서 전자 장치는 촬영된 이미지에서 얼굴 영역을 검출할 수 있다. 2 is a flowchart illustrating an example of an operation of analyzing skin information in an electronic device, according to various embodiments of the present disclosure. Referring to FIG. 2 , in operation 210 , the electronic device may detect a face region from a photographed image.

220 동작에서 전자 장치는 촬영된 얼굴 영역에서 분석 항목을 선택할 수 있다. In operation 220, the electronic device may select an analysis item from the photographed face region.

230 동작에서 전자 장치는 선택된 항목에 대하여 세부 촬영을 할 수 있다. 예컨대, 전자 장치는 선택된 항목을 포커싱시키고 확대하여 촬영할 수 있다.In operation 230, the electronic device may take a detailed photograph of the selected item. For example, the electronic device may focus and enlarge the selected item to take a picture.

240 동작에서 전자 장치는 세부 촬영한 이미지를 분석할 수 있다. 본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 세부 촬영한 이미지를 이전에 저장된 결과 값과 비교할 수 있다. 예컨대, 전자 장치는 이전에 저장된 결과 값과 비교하여, 상기 세부 촬영한 이미지에 대응하는 얼굴 영역을 분석할 수 있다. In operation 240, the electronic device may analyze a detailed captured image. According to various embodiments of the present disclosure, the electronic device may compare the detailed captured image with a previously stored result value. For example, the electronic device may analyze a face region corresponding to the detailed captured image by comparing it with a previously stored result value.

본 발명의 다양한 실시 예에 따라, 사용자가 얼굴 영역이 포함된 이미지를 촬영하면 상기 촬영에 따라 출력되는 이미지는, 상기 촬영한 이미지에 포함된 얼굴 영역 각각에 대해 확대 혹은 세부 촬영된 이미지를 포함하거나 상기 확대 혹은 세부 촬영된 이미지에 대한 분석 결과가 포함된 이미지를 포함할 수 있다. 예컨대, 사용자는 얼굴 영역을 촬영함에 따라, 별도의 얼굴 분석을 위한 추가적인 동작을 수행하지 않고도, 각 얼굴 영역에 대한 확대 혹은 세부 촬영된 이미지와 더불어 상기 확대 혹은 세부 촬영된 이미지에 대한 분석 결과를 획득할 수 있다. According to various embodiments of the present disclosure, when a user takes an image including a face region, the image output according to the shooting includes an enlarged or detailed image of each face region included in the captured image, or An image including an analysis result of the enlarged or detailed photographed image may be included. For example, as a user captures a face region, the user acquires an analysis result for the enlarged or detailed image along with an enlarged or detailed photographed image of each face region without performing an additional operation for a separate facial analysis can do.

상기 도 2에 도시된 동작들 중 적어도 하나의 동작이 생략되어 실행될 수도 있으며, 적어도 하나의 다른 동작이 상기 동작들 사이에 추가될 수도 있다. 또한, 상기 도 2의 동작들은 도시된 순서로 처리될 수도 있으며, 적어도 하나의 동작에 대한 실행 순서가 다른 동작의 실행 순서와 변경되어 처리될 수도 있다. At least one operation among the operations illustrated in FIG. 2 may be omitted and executed, and at least one other operation may be added between the operations. In addition, the operations of FIG. 2 may be processed in the illustrated order, or the execution order of at least one operation may be changed from the execution order of other operations.

예컨대, 본 발명의 다양한 실시 예에 따른 전자 장치에서 얼굴 정보를 분석하는 방법은, 카메라 모듈을 통해 촬영중인 이미지에서 적어도 하나의 얼굴 영역을 검출하는 동작과, 상기 검출된 적어도 하나의 얼굴 영역을 세부 촬영하는 동작과, 상기 세부 촬영된 얼굴 영역을 적어도 하나의 분석 항목에 따라 분석하는 동작을 포함할 수 있다. 상기 적어도 하나의 얼굴 영역은, 눈, 코, 볼, 입 혹은 이마 중 적어도 하나의 주변 영역을 포함할 수 있다. 상기 적어도 하나의 분석 항목은, 주름, 여드름, 색소 침착, 피부톤, 다크 서클 혹은 모공 중 적어도 하나를 포함할 수 있다.For example, a method for analyzing face information in an electronic device according to various embodiments of the present disclosure includes an operation of detecting at least one face region in an image being photographed through a camera module, and detailing the detected at least one face region. It may include an operation of photographing and an operation of analyzing the detailed photographed face region according to at least one analysis item. The at least one face region may include a peripheral region of at least one of eyes, nose, cheeks, mouth, and forehead. The at least one analysis item may include at least one of wrinkles, acne, pigmentation, skin tone, dark circles, and pores.

본 발명의 다양한 실시 예에 따른 상기 분석하는 동작은, 상기 세부 촬영된 얼굴 영역에서 각 하나의 분석 항목에 대한 굵기, 크기, 개수, 넓이 혹은 색 중 적어도 하나를 분석하는 동작을 포함할 수 있다.The analyzing operation according to various embodiments of the present disclosure may include analyzing at least one of a thickness, a size, a number, an area, or a color for each analysis item in the detailed photographed face region.

본 발명의 다양한 실시 예에 따른 전자 장치에서 얼굴 정보를 분석하는 방법은, 상기 이미지에서의 특정 영역에 대해 제스처가 입력되는 경우, 상기 제스처가 감지된 영역에 대해 세부 촬영된 이미지를 디스플레이하는 동작을 더 포함할 수 있다.In a method for analyzing face information in an electronic device according to various embodiments of the present disclosure, when a gesture is input to a specific region in the image, displaying a detailed photographed image for the region in which the gesture is detected is performed. may include more.

본 발명의 다양한 실시 예에 따른 전자 장치에서 얼굴 정보를 분석하는 방법은, 상기 이미지에서 미리 설정된 적어도 하나의 분석 항목에 대한 얼굴 영역을 검출하는 동작과, 상기 검출된 얼굴 영역을 상기 미리 설정된 분석 항목에 따라 분석하는 동작을 더 포함할 수 있다. A method of analyzing face information in an electronic device according to various embodiments of the present disclosure includes detecting a face region for at least one preset analysis item in the image, and using the detected face region as the preset analysis item. It may further include an operation of analyzing according to the .

본 발명의 다양한 실시 예에 따른 전자 장치에서 얼굴 정보를 분석하는 방법은, 상기 적어도 하나의 얼굴 영역이 검출됨과 동시에 상기 검출된 얼굴 영역을 세부 촬영한 화면을 디스플레이하는 동작을 더 포함할 수 있다. The method of analyzing face information in an electronic device according to various embodiments of the present disclosure may further include displaying a screen in which the detected face region is photographed in detail while the at least one face region is detected.

본 발명의 다양한 실시 예에 따른 전자 장치에서 얼굴 정보를 분석하는 방법은, 미리 설정된 동작이 감지되는 경우, 상기 검출된 적어도 하나의 얼굴 영역을 세부 촬영하는 동작을 더 포함할 수 있다. 상기 미리 설정된 동작은, 카메라 모듈이 활성화되는 애플리케이션을 실행하는 동작, 잠금 상태의 상기 전자 장치를 활성화시키는 동작, 상기 전자 장치를 특정 각도 혹은 방향에 위치하는 동작 중 어느 하나를 포함할 수 있다.The method of analyzing face information in an electronic device according to various embodiments of the present disclosure may further include, when a preset motion is sensed, photographing the detected at least one face region in detail. The preset operation may include any one of an operation of executing an application in which the camera module is activated, an operation of activating the electronic device in a locked state, and an operation of positioning the electronic device at a specific angle or direction.

본 발명의 다양한 실시 예에 따른 전자 장치에서 얼굴 정보를 분석하는 방법은, 특정 얼굴 영역 혹은 분석 항목에 대하여, 미리 저장된 분석 결과를 확인하는 동작과, 상기 확인된 미리 저장된 분석한 결과를 상기 분석의 결과와 비교하고, 상기 비교의 결과를 디스플레이하는 동작을 더 포함할 수 있다.A method of analyzing face information in an electronic device according to various embodiments of the present disclosure includes an operation of checking a pre-stored analysis result for a specific face region or analysis item, and an operation of using the checked pre-stored analysis result of the analysis. The method may further include comparing with the result and displaying the result of the comparison.

도 3은 본 발명의 다양한 실시 예에 따라, 전자 장치에서 피부 정보를 분석하는 동작의 일 예를 도시한 흐름도이다. 도 3을 참조하면, 310 동작에서 전자 장치는 촬영된 이미지에서 얼굴 영역을 검출할 수 있다. 3 is a flowchart illustrating an example of an operation of analyzing skin information in an electronic device, according to various embodiments of the present disclosure. Referring to FIG. 3 , in operation 310 , the electronic device may detect a face region from a photographed image.

320 동작에서 전자 장치는 촬영된 얼굴 영역에서 적어도 하나의 포커싱된 영역을 확인할 수 있다. In operation 320, the electronic device may identify at least one focused area in the photographed face area.

330 동작에서 전자 장치는 적어도 하나의 포커싱된 영역을 확대 혹은 세부 촬영하도록 제어할 수 있다. 예컨대, 상기 포커싱된 영역이 확대 혹은 세부 촬영됨에 따라, 출력되는 이미지는, 특정 영역이 확대되어 촬영되거나 특정 영역이 포커싱되고 확대되어 촬영된 것일 수 있다. In operation 330, the electronic device may control to enlarge or take a detailed photograph of at least one focused area. For example, as the focused area is enlarged or photographed in detail, the output image may be photographed after a specific area is enlarged or photographed after a specific area is focused and enlarged.

본 발명의 다양한 실시 예에 따라, 320 동작을 통해, 전자 장치가 적어도 하나의 포커싱된 영역을 확인하는 동작을 개시하였지만, 전자 장치는 상기 310 동작을 통해 촬영된 이미지에서 얼굴 영역을 검출하는 즉시, 상기 검출된 얼굴 영역에 대한 확대 혹은 세부 촬영하도록 제어할 수도 있다. 이 경우, 상기 320 동작은 생략될 수 있다. According to various embodiments of the present disclosure, in operation 320, the electronic device starts to check at least one focused region, but as soon as the electronic device detects the face region in the image captured in operation 310, It is also possible to control to enlarge or detail the detected face region. In this case, operation 320 may be omitted.

상기 도 3에 도시된 동작들 중 적어도 하나의 동작이 생략되어 실행될 수도 있으며, 적어도 하나의 다른 동작이 상기 동작들 사이에 추가될 수도 있다. 또한, 상기 도 3의 동작들은 도시된 순서로 처리될 수도 있으며, 적어도 하나의 동작에 대한 실행 순서가 다른 동작의 실행 순서와 변경되어 처리될 수도 있다. At least one operation among the operations shown in FIG. 3 may be omitted and executed, and at least one other operation may be added between the operations. Also, the operations of FIG. 3 may be processed in the illustrated order, or the execution order of at least one operation may be changed from the execution order of other operations.

도 4는 본 발명의 다양한 실시 예에 따라, 전자 장치에서 피부 정보를 분석하는 동작의 일 예를 도시한 흐름도이다. 도 4를 참조하면, 410 동작에서 전자 장치는 비 촬영 모드에서, 임의의 애플리케이션이 실행되었는지를 확인할 수 있다. 4 is a flowchart illustrating an example of an operation of analyzing skin information in an electronic device, according to various embodiments of the present disclosure. Referring to FIG. 4 , in operation 410 , the electronic device may determine whether any application is executed in the non-capturing mode.

420 동작에서 전자 장치는 미리 설정된 사용자 입력이 감지되는지를 판단할 수 있다.In operation 420, the electronic device may determine whether a preset user input is detected.

상기 판단 결과, 미리 설정된 사용자 입력이 감지되지 않은 경우, 전자 장치는 다시 410 동작을 수행할 수 있다.As a result of the determination, when a preset user input is not detected, the electronic device may perform operation 410 again.

상기 판단의 결과, 미리 설정된 사용자 입력이 감지되는 경우, 430 동작에서 전자 장치는 백그라운드(background)로 카메라 모듈이 동작하도록 제어할 수 있다.As a result of the determination, when a preset user input is detected, in operation 430 , the electronic device may control the camera module to operate in the background.

440 동작에서 전자 장치는 촬영된 이미지에서 얼굴 영역이 식별되는지 여부를 판단할 수 있다.In operation 440, the electronic device may determine whether a face region is identified in the captured image.

상기 판단 결과, 얼굴 영역이 식별되지 않은 경우, 전자 장치는 다시 410 동작을 수행할 수 있다.As a result of the determination, when the face region is not identified, the electronic device may perform operation 410 again.

상기 판단 결과, 얼굴 영역이 식별되는 경우, 450 동작에서 전자 장치는 식별된 이미지에 대한 적어도 하나의 분석 항목을 선택할 수 있다. 예컨대, 상기 이미지에의 적어도 하나의 분석 항목은, 모공, 여드름, 색소 침착, 피부톤(skin tone), 다크 서클(dark circle), 주름 등 다양한 피부 상태를 측정하기 위한 항목들 중 적어도 하나를 포함할 수 있다. When the face region is identified as a result of the determination, in operation 450 , the electronic device may select at least one analysis item for the identified image. For example, the at least one analysis item in the image may include at least one of items for measuring various skin conditions such as pores, acne, pigmentation, skin tone, dark circles, wrinkles, etc. can

460 동작에서 전자 장치는 선택된 항목을 확대 혹은 세부 촬영하도록 카메라 모듈을 제어할 수 있다.In operation 460 , the electronic device may control the camera module to enlarge or detail the selected item.

470 동작에서 전자 장치는 세부 촬영한 이미지를 분석할 수 있다.In operation 470, the electronic device may analyze the detailed captured image.

상기 도 4에 도시된 동작들 중 적어도 하나의 동작이 생략되어 실행될 수도 있으며, 적어도 하나의 다른 동작이 상기 동작들 사이에 추가될 수도 있다. 또한, 상기 도 4의 동작들은 도시된 순서로 처리될 수도 있으며, 적어도 하나의 동작에 대한 실행 순서가 다른 동작의 실행 순서와 변경되어 처리될 수도 있다. At least one operation among the operations illustrated in FIG. 4 may be omitted, and at least one other operation may be added between the operations. In addition, the operations of FIG. 4 may be processed in the illustrated order, or the execution order of at least one operation may be changed from the execution order of other operations.

도 5a 내지 도 5h는 본 발명의 다양한 실시 예에 따라, 얼굴 영역의 다양한 예 및 상기 얼굴 영역이 부분 확대 혹은 세부 촬영되는 상황의 다양한 예들을 도시한 도면들이다. 5A to 5H are views illustrating various examples of a face region and various examples of a situation in which the face region is partially enlarged or photographed in detail, according to various embodiments of the present disclosure;

본 발명의 다양한 실시 예에 따라, 전자 장치에서는 전체 얼굴을 촬영 중인 상황을 가정한다. 전자 장치는 촬영 중인 이미지(500)에서 적어도 하나의 얼굴 영역을 확인할 수 있다. According to various embodiments of the present disclosure, it is assumed that the electronic device is capturing the entire face. The electronic device may identify at least one face region in the image 500 being photographed.

도 5a를 참조하면, 전자 장치는 상기 촬영 중인 이미지(500)에서 이마(501), 오른쪽 눈(502), 왼쪽 눈(506), 코(503), 입 주변(504), 볼(505) 혹은 얼굴(507) 중 적어도 하나를 확인할 수 있다.Referring to FIG. 5A , in the image 500 being photographed, the electronic device displays a forehead 501 , a right eye 502 , a left eye 506 , a nose 503 , a periphery of a mouth 504 , a cheek 505 or At least one of the faces 507 may be identified.

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영 중인 이미지(500)에서 적어도 하나의 얼굴 영역을 확인하는 경우, 해당 영역을 줌시켜 해당 영역에 대한 부분 확대 혹은 세부 촬영된 이미지를 촬영할 수 있다.According to various embodiments of the present disclosure, when checking at least one face region in the image 500 being photographed, the electronic device may zoom the region to capture a partially enlarged or detailed photographed image of the region.

도 5b를 참조하면, 전자 장치는 상기 촬영 중인 이미지(500)에서 이마(501)를 확인하고, 상기 이마(501) 영역을 줌시켜 부분 확대 혹은 세부 촬영할 수 있다. 전자 장치는 상기 이마(501) 영역을 부분 확대 촬영한 이미지에서 적어도 하나의 분석 항목에 기반한 피부 분석 정보를 획득할 수 있다. 예컨대, 상기 피부 분석 정보는 이마(501) 영역에서의 주름(501a)에 대한 정보를 포함할 수 있다. Referring to FIG. 5B , the electronic device may check the forehead 501 in the image 500 being photographed, and zoom the area of the forehead 501 to partially enlarge or take a detailed photograph. The electronic device may acquire skin analysis information based on at least one analysis item from an image obtained by partially magnifying the forehead 501 . For example, the skin analysis information may include information on the wrinkles 501a in the forehead 501 region.

도 5c를 참조하면, 전자 장치는 상기 촬영 중인 이미지(500)에서 오른쪽 눈(502)을 확인하고, 상기 오른쪽 눈(502) 영역을 줌시켜 부분 확대 혹은 세부 촬영할 수 있다. 전자 장치는 상기 오른쪽 눈(502) 영역을 부분 확대 촬영한 이미지에서 적어도 하나의 분석 항목에 기반한 피부 분석 정보를 획득할 수 있다. 예컨대, 상기 피부 분석 정보는 오른쪽 눈(502) 영역에서의 주름(502a)에 대한 정보를 포함할 수 있다. Referring to FIG. 5C , the electronic device may identify the right eye 502 in the image 500 being photographed, and zoom the area of the right eye 502 to partially enlarge or take a detailed photograph. The electronic device may obtain skin analysis information based on at least one analysis item from the image obtained by partially magnifying the right eye 502 region. For example, the skin analysis information may include information about the wrinkle 502a in the right eye 502 region.

도 5d를 참조하면, 전자 장치는 상기 촬영 중인 이미지(500)에서 코(503)를 확인하고, 상기 코(503) 영역을 줌시켜 부분 확대 혹은 세부 촬영할 수 있다. 전자 장치는 상기 코(503) 영역을 부분 확대 촬영한 이미지에서 적어도 하나의 분석 항목에 기반한 피부 분석 정보를 획득할 수 있다. 예컨대, 상기 피부 분석 정보는 코(503) 영역에서의 모공(503a)에 대한 정보를 포함할 수 있다. Referring to FIG. 5D , the electronic device may identify the nose 503 in the image 500 being photographed, and zoom the area of the nose 503 to partially enlarge or take a detailed photograph. The electronic device may acquire skin analysis information based on at least one analysis item from the image obtained by partially magnifying the nose 503 region. For example, the skin analysis information may include information on the pores 503a in the nose 503 region.

도 5e를 참조하면, 전자 장치는 상기 촬영 중인 이미지(500)에서 입 주변(504)을 확인하고, 상기 입 주변(504) 영역을 줌시켜 부분 확대 혹은 세부 촬영할 수 있다. 전자 장치는 상기 입 주변(504) 영역을 부분 확대 촬영한 이미지에서 적어도 하나의 분석 항목에 기반한 피부 분석 정보를 획득할 수 있다. 예컨대, 상기 피부 분석 정보는 입 주변(504) 영역에서의 피부 침착(504a)에 대한 정보를 포함할 수 있다. Referring to FIG. 5E , the electronic device may check the periphery of the mouth 504 in the image 500 being photographed, and zoom the region around the mouth 504 to partially enlarge or take a detailed image. The electronic device may acquire skin analysis information based on at least one analysis item from the image obtained by partially magnifying the area around the mouth 504 . For example, the skin analysis information may include information about the skin deposition 504a in the area around the mouth 504 .

도 5f를 참조하면, 전자 장치는 상기 촬영 중인 이미지(500)에서 볼(505)을 확인하고, 상기 볼(505) 영역을 줌시켜 부분 확대 혹은 세부 촬영할 수 있다. 전자 장치는 상기 볼(505) 영역을 부분 확대 촬영한 이미지에서 적어도 하나의 분석 항목에 기반한 피부 분석 정보를 획득할 수 있다. 예컨대, 상기 피부 분석 정보는 볼(505) 영역에서의 여드름(505a)에 대한 정보를 포함할 수 있다. Referring to FIG. 5F , the electronic device may identify the ball 505 in the image 500 being photographed, and zoom the area of the ball 505 to partially enlarge or take a detailed photograph. The electronic device may acquire skin analysis information based on at least one analysis item from the image obtained by partially magnifying the cheek area 505 . For example, the skin analysis information may include information on the acne 505a in the cheek 505 region.

도 5g를 참조하면, 전자 장치는 상기 촬영 중인 이미지(500)에서 왼쪽 눈(506)을 확인하고, 상기 왼쪽 눈(506) 영역을 줌시켜 부분 확대 혹은 세부 촬영할 수 있다. 전자 장치는 상기 왼쪽 눈(506) 영역을 부분 확대 촬영한 이미지에서 적어도 하나의 분석 항목에 기반한 피부 분석 정보를 획득할 수 있다. 예컨대, 상기 피부 분석 정보는 왼쪽 눈(506) 영역에서의 다크 서클(506a)에 대한 정보를 포함할 수 있다. Referring to FIG. 5G , the electronic device may identify the left eye 506 in the image 500 being photographed, and zoom the area of the left eye 506 to partially enlarge or take a detailed photograph. The electronic device may obtain skin analysis information based on at least one analysis item from the image obtained by partially magnifying the left eye 506 region. For example, the skin analysis information may include information on the dark circle 506a in the left eye 506 region.

도 5h를 참조하면, 전자 장치는 상기 촬영 중인 이미지(500)에서 얼굴(507)을 확인하고, 상기 얼굴(507) 영역을 줌시켜 부분 확대 혹은 세부 촬영할 수 있다. 전자 장치는 상기 얼굴(507) 영역을 부분 확대 촬영한 이미지에서 적어도 하나의 분석 항목에 기반한 피부 분석 정보를 획득할 수 있다. 예컨대, 상기 피부 분석 정보는 얼굴(507) 영역에서의 피부톤(507a)에 대한 정보를 포함할 수 있다. Referring to FIG. 5H , the electronic device may identify a face 507 in the image 500 being photographed, and zoom a region of the face 507 to partially enlarge or take a detailed photograph. The electronic device may obtain skin analysis information based on at least one analysis item from the image obtained by partially magnifying the face 507 region. For example, the skin analysis information may include information about the skin tone 507a in the face 507 region.

도 6은 본 발명의 다양한 실시 예에 따라, 얼굴 분석 항목의 다양한 예를 도시한 도면이다. 도 6을 참조하면, 전자 장치는 적어도 하나의 얼굴 영역을 포함하는 이미지(600)를 촬영하였으며, 상기 촬영된 이미지(600)에서 적어도 하나의 분석 항목을 확인할 수 있다. 예컨대, 전자 장치는 분석 항목으로 여드름(601), 주름(602) 혹은 색소 침착(603)을 확인할 수 있다.6 is a diagram illustrating various examples of face analysis items according to various embodiments of the present disclosure. Referring to FIG. 6 , the electronic device has captured an image 600 including at least one face region, and may identify at least one analysis item in the captured image 600 . For example, the electronic device may identify acne 601 , wrinkles 602 , or pigmentation 603 as an analysis item.

도 7은 본 발명의 다양한 실시 예에 따라, 얼굴 분석 항목을 분석하는 동작의 일 예를 도시한 도면이다. 도 7을 참조하면, 전자 장치는 촬영된 이미지(710)에서 분석 항목 중 색소 침착(711)에 대한 분석을 할 수 있다. 7 is a diagram illustrating an example of an operation of analyzing a face analysis item, according to various embodiments of the present disclosure. Referring to FIG. 7 , the electronic device may analyze the pigmentation 711 among the analysis items in the photographed image 710 .

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영된 이미지에서 색소 침착된 부분의 색을 반전시킨 이미지(720)를 생성할 수 있다. 전자 장치는 상기 720 이미지에서 색이 반전된 영역을 확인하여, 적어도 하나의 색소 침착된 부분(721)을 확인할 수 있다. 예컨대, 전자 장치는 상기 적어도 하나의 색소 침착된 부분의 개수에 따라, 색소 침착이 이전보다 악화 혹은 개선되었는지를 확인할 수 있다.According to various embodiments of the present disclosure, the electronic device may generate an image 720 in which a color of a pigmented portion in a photographed image is inverted. The electronic device may identify the region in which the color is inverted in the 720 image to identify at least one pigmented portion 721 . For example, according to the number of the at least one pigmented portion, the electronic device may determine whether pigmentation is worse or improved than before.

도 8은 본 발명의 다양한 실시 예에 따라, 얼굴 분석 항목을 분석하는 동작의 일 예를 도시한 도면이다. 도 8을 참조하면, 전자 장치는 촬영된 이미지(810)에서 분석 항목 중 여드름(811)에 대한 분석을 할 수 있다. 8 is a diagram illustrating an example of an operation of analyzing a face analysis item, according to various embodiments of the present disclosure. Referring to FIG. 8 , the electronic device may analyze acne 811 among the analysis items in the captured image 810 .

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영된 이미지에서 여드름이 확인되는 부분의 색을 반전시킨 이미지(820)를 생성할 수 있다. 예컨대, 전자 장치는 상기 820 이미지에서 색이 반전된 영역을 확인하여, 적어도 하나의 여드름(821)을 확인할 수 있다. 예컨대, 전자 장치는 상기 적어도 하나의 여드름의 개수에 따라, 여드름이 이전보다 증가 혹은 감소하였는지를 확인할 수 있다.According to various embodiments of the present disclosure, the electronic device may generate an image 820 in which a color of a portion in which acne is identified in a photographed image is inverted. For example, the electronic device may identify at least one pimple 821 by identifying an area in which the color is inverted in the 820 image. For example, the electronic device may determine whether acne has increased or decreased compared to before, according to the number of the at least one acne.

도 9는 본 발명의 다양한 실시 예에 따라, 얼굴 분석 항목을 분석하는 동작의 일 예를 도시한 도면이다. 도 9를 참조하면, 전자 장치는 촬영된 이미지(910)에서 분석 항목 중 모공(911)에 대한 분석을 할 수 있다. 9 is a diagram illustrating an example of an operation of analyzing a face analysis item, according to various embodiments of the present disclosure. Referring to FIG. 9 , the electronic device may analyze the pores 911 among the analysis items in the captured image 910 .

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영된 이미지에서 모공으로 확인되는 부분의 색을 진하게 변환한 이미지(920)를 생성할 수 있다. 예컨대, 전자 장치는 상기 920 이미지에서 색이 진하게 변환된 영역(921)을 확인하여, 적어도 하나의 모공을 확인할 수 있다. 예컨대, 전자 장치는 상기 적어도 하나의 모공의 개수에 따라, 모공이 이전보다 증가 혹은 감소하였는지를 확인할 수 있다.According to various embodiments of the present disclosure, the electronic device may generate an image 920 in which a color of a portion identified as a pore in the photographed image is darkened. For example, the electronic device may identify the at least one pore by checking the darkened region 921 in the 920 image. For example, the electronic device may determine whether the number of pores has increased or decreased compared to before, according to the number of the at least one pores.

도 10은 본 발명의 다양한 실시 예에 따라, 얼굴 분석 항목을 분석하는 동작의 일 예를 도시한 도면이다. 도 10을 참조하면, 전자 장치는 촬영된 이미지(1000)에서 분석 항목 중 주름(1001)에 대한 분석을 할 수 있다. 10 is a diagram illustrating an example of an operation of analyzing a face analysis item, according to various embodiments of the present disclosure. Referring to FIG. 10 , the electronic device may analyze the wrinkles 1001 among the analysis items in the photographed image 1000 .

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영된 이미지(1000)에서 주름으로 확인되는 부분에 주름 선(1001)이 나타나도록 할 수 있다. 예컨대, 전자 장치는 상기 촬영된 이미지(1000)에서 적어도 하나의 주름 선(1001)을 확인하여, 주름의 여부를 확인할 수 있다. According to various embodiments of the present disclosure, the electronic device may cause the wrinkle line 1001 to appear in a portion identified as a wrinkle in the captured image 1000 . For example, the electronic device may check at least one wrinkle line 1001 in the photographed image 1000 to determine whether a wrinkle is present.

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영된 이미지에서 나타난 적어도 하나의 주름 선의 두께 혹은 개수를 확인할 수 있다. 예컨대, 전자 장치는 상기 적어도 하나의 주름 선의 두께에 따라 주름이 이전보다 깊어졌는지 여부를 확인하고, 주름 선의 개수에 따라 주름이 이전보다 증가 혹은 감소하였는지를 확인할 수 있다. According to various embodiments of the present disclosure, the electronic device may check the thickness or number of at least one wrinkle line appearing in a photographed image. For example, the electronic device may determine whether wrinkles are deeper than before according to the thickness of the at least one wrinkle line, and may determine whether wrinkles have increased or decreased compared to before according to the number of wrinkle lines.

도 11은 본 발명의 다양한 실시 예에 따라, 얼굴 분석 항목을 분석하는 동작의 일 예를 도시한 도면이다. 도 11을 참조하면, 전자 장치는 촬영된 이미지(1100)에서 분석 항목 중 피부톤(1101)에 대한 분석을 할 수 있다. 11 is a diagram illustrating an example of an operation of analyzing a face analysis item, according to various embodiments of the present disclosure. Referring to FIG. 11 , the electronic device may analyze a skin tone 1101 among analysis items in a photographed image 1100 .

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영된 이미지(1100)에서 피부의 일부를 피부톤 분석 영역(1101)으로 설정 할 수 있다. 예컨대, 전자 장치는 상기 촬영된 이미지(1100)에서 적어도 하나의 피부톤 분석 영역(1101)을 확인하여, 이전에 측정된 피부톤 값과 비교하거나 해당 피부톤 분석 영역에 대한 측정 값을 획득할 수 있다.According to various embodiments of the present disclosure, the electronic device may set a part of skin in the captured image 1100 as the skin tone analysis area 1101 . For example, the electronic device may identify at least one skin tone analysis area 1101 in the captured image 1100 and compare it with a previously measured skin tone value or obtain a measurement value for the skin tone analysis area.

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영된 이미지에서 피부톤 분석 영역(1101)을 분석할 수 있다. 예컨대, 전자 장치는 해당 피부톤 분석 영역의 색, 명암, 밝기, 색 온도 등을 측정하여, 이전에 측정된 피부톤보다 칙칙하거나 화사해보이는지 여부를 확인할 수 있다.According to various embodiments of the present disclosure, the electronic device may analyze the skin tone analysis region 1101 in the captured image. For example, the electronic device may measure the color, contrast, brightness, color temperature, etc. of the corresponding skin tone analysis region to determine whether the skin tone looks duller or brighter than the previously measured skin tone.

도 12는 본 발명의 다양한 실시 예에 따라, 얼굴 분석을 위하여 촬영하는 동작의 일 예를 도시한 도면이다. 도 12를 참조하면, 전자 장치는 얼굴 분석을 위하여 얼굴 영역을 촬영하는 상황임을 가정한다. 12 is a diagram illustrating an example of an operation of photographing for face analysis, according to various embodiments of the present disclosure. 12 , it is assumed that the electronic device captures a face region for face analysis.

본 발명의 다양한 실시 예에 따라, 전자 장치는 현재 촬영중인 이미지의 특성(예, 해상도, 이미지 크기, 화이트 밸런스 등)을 확인할 수 있다. 전자 장치는 현재 촬영되는 이미지의 특성과 이전에 촬영된 이미지의 특성을 비교할 수 있다. 예컨대, 이전에 촬영된 이미지와의 특성(예, 화이트 밸런스)이 유사하지 않은 경우, 전자 장치는 현재 촬영중인 이미지의 특성을 이전과 유사하게 동기화시킬 수 있다. According to various embodiments of the present disclosure, the electronic device may check characteristics (eg, resolution, image size, white balance, etc.) of an image currently being photographed. The electronic device may compare characteristics of a currently captured image with characteristics of a previously captured image. For example, when characteristics (eg, white balance) of a previously photographed image are not similar, the electronic device may synchronize characteristics of the currently photographed image similarly to before.

도 12를 참조하면, 전자 장치는 이전에 촬영된 이미지와 화이트 밸런스를 맞추는 중임을 알리는 화면(1210)을 디스플레이할 수 있다. 이후, 현재 촬영중인 이미지의 특성을 이전에 촬영된 이미지의 특성과 동기화된 경우, 전자 장치는 화이트 밸런스 동기화 완료되어 촬영이 가능함을 알리는 화면(1220)을 디스플레이할 수 있다. Referring to FIG. 12 , the electronic device may display a screen 1210 indicating that white balance is being matched with a previously captured image. Thereafter, when the characteristics of the currently photographed image are synchronized with the characteristics of the previously photographed image, the electronic device may display a screen 1220 informing that white balance synchronization is completed and photographing is possible.

본 발명의 다양한 실시 예에 따라, 사용자는 상기 1220 화면을 통해, 현재 전자 장치에서의 촬영 상황과 이전에 얼굴 분석을 위한 이미지의 촬영 상황이 유사하게 설정되었음을 확인할 수 있다. 이와 같은 본 발명의 다양한 실시 예에 따라, 동일한 피부 상태임에도 불구하고 조명, 실내/외 여부, 날씨 등의 원인으로 얼굴 정보에 대한 분석 결과가 다르게 나올 수 있는 상황을 방지할 수 있다.According to various embodiments of the present disclosure, through the screen 1220, the user may confirm that the current photographing situation in the electronic device and the previous photographing situation of the image for face analysis have been set similarly. According to various embodiments of the present invention as described above, it is possible to prevent a situation in which analysis results for face information may be different due to lighting, indoor/outdoor status, weather, etc. despite the same skin condition.

도 13a 내지 도 13c는 본 발명의 다양한 실시 예에 따른 얼굴 분석의 결과를 보여주는 화면의 다양한 예들을 도시한 도면들이다.13A to 13C are diagrams illustrating various examples of screens showing results of face analysis according to various embodiments of the present disclosure;

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영된 이미지에서 적어도 하나의 얼굴 영역이 확인되는 경우, 상기 적어도 하나의 얼굴 영역이 확대 혹은 세부 촬영되도록 제어할 수 있다. 예컨대, 전자 장치는 촬영된 이미지에서 대응하는 해당 얼굴 영역에 상기 촬영된 확대 혹은 세부 촬영된 영역을 포함하는 분석 결과 화면(1300)을 생성할 수 있다. 예컨대, 상기 분석 결과 화면(1300)은 적어도 하나의 얼굴 영역으로 확인된 눈(1310), 코(1320), 볼(1330) 각각에 대한 확대 혹은 세부 촬영된 영역을 포함할 수 있다. According to various embodiments of the present disclosure, when at least one face region is identified in a captured image, the electronic device may control the at least one face region to be enlarged or captured in detail. For example, the electronic device may generate the analysis result screen 1300 including the photographed enlarged or detailed photographed area in the corresponding face area in the photographed image. For example, the analysis result screen 1300 may include an enlarged or detailed photographed area for each of the eyes 1310 , the nose 1320 , and the cheeks 1330 identified as at least one face area.

도 13a를 참조하면, 사용자는 상기 분석 결과 화면(1300)에서 눈(1310)을 선택할 수 있다. 본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 눈(1310)을 확대 혹은 세부 촬영한 이미지를 출력할 수 있다. 예컨대, 상기 눈(1310)이 확대 혹은 세부 촬영된 이미지에서, 눈 주위의 적어도 하나의 주름(1310)을 가리키는 선이 표시될 수 있다.Referring to FIG. 13A , the user may select an eye 1310 on the analysis result screen 1300 . According to various embodiments of the present disclosure, the electronic device may output an enlarged or detailed photographed image of the eye 1310 . For example, in the enlarged or detailed photographed image of the eye 1310 , a line indicating at least one wrinkle 1310 around the eye may be displayed.

도 13b를 참조하면, 사용자는 상기 분석 결과 화면(1300)에서 코(1320)를 선택할 수 있다. 본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 코(1320)를 확대 혹은 세부 촬영한 이미지를 출력할 수 있다. 예컨대, 상기 코(1320)가 확대 혹은 세부 촬영된 이미지에서, 코 주위에서의 적어도 하나의 여드름(1321)이 표시될 수 있다.Referring to FIG. 13B , the user may select the nose 1320 on the analysis result screen 1300 . According to various embodiments of the present disclosure, the electronic device may output an enlarged or detailed photographed image of the nose 1320 . For example, in the image in which the nose 1320 is enlarged or photographed in detail, at least one pimple 1321 around the nose may be displayed.

도 13c를 참조하면, 사용자는 상기 분석 결과 화면(1300)에서 볼(1330)을 선택할 수 있다. 본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 볼(1330)을 확대 혹은 세부 촬영한 이미지를 출력할 수 있다. 예컨대, 상기 볼(1330)이 확대 혹은 세부 촬영된 이미지에서, 볼 주위의 적어도 하나의 색소 침착된 부분(1331)의 색을 강조되어 표시될 수 있다.Referring to FIG. 13C , the user may select a ball 1330 from the analysis result screen 1300 . According to various embodiments of the present disclosure, the electronic device may output an enlarged or detailed photographed image of the ball 1330 . For example, in an enlarged or detailed photographed image of the cheek 1330 , the color of at least one pigmented portion 1331 around the cheek may be highlighted and displayed.

도 14는 본 발명의 다양한 실시 예에 따라, 피부 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다. 도 14를 참조하면, 분석 결과 화면(1410)은 각 분석 항목 별로 이전의 결과들을 비교하여 보여주는 피부 분석 히스토리 보기(1411)선택 항목을 포함할 수 있다.14 is a diagram illustrating an example of a screen showing a result of skin analysis, according to various embodiments of the present disclosure; Referring to FIG. 14 , the analysis result screen 1410 may include a skin analysis history view 1411 selection item that compares and shows previous results for each analysis item.

본 발명의 다양한 실시 예에 따라, 상기 피부 분석 히스토리 보기(1411)가 선택되는 경우, 전자 장치는 피부 분석 히스토리 화면(1420)으로 전환할 수 있다. According to various embodiments of the present disclosure, when the skin analysis history view 1411 is selected, the electronic device may switch to the skin analysis history screen 1420 .

본 발명의 다양한 실시 예에 따른 상기 피부 분석 히스토리 화면(1420)은, 특정 기간(예, 6월에서 8월 사이)에 측정된 피부 분석 항목(예, 피부톤, 여드름, 주름, 색소 침착, 모공 등) 각각에 대한 결과 값을 이전과 비교하여 보여줄 수 있다. The skin analysis history screen 1420 according to various embodiments of the present disclosure includes skin analysis items (eg, skin tone, acne, wrinkles, pigmentation, pores, etc.) measured during a specific period (eg, between June and August). ), the result value for each can be compared with the previous one.

예컨대, 피부톤 측정 결과(1421)는 이전과 비교하여 피부톤이 화사해졌음을 보여줄 수 있다. 여드름 측정 결과(1422)는 이전에 비해 여드름이 증가하였음을 보여줄 수 있다. 주름 측정 결과(1423)는 이전과 주름의 개수가 비슷함을 보여줄 수 있다. 색소 침착 측정 결과(1424)는 이전과 비교하여 색소 침착된 부분의 색이 옅어졌음을 보여줄 수 있다. 모공 측정 결과(1425)는 이전과 비교하여 모공이 증가하였음을 보여줄 수 있다.For example, the skin tone measurement result 1421 may show that the skin tone has become brighter than before. The acne measurement result 1422 may show that acne has increased compared to before. The wrinkle measurement result 1423 may show that the number of wrinkles is similar to the previous one. The pigmentation measurement result 1424 may show that the color of the pigmented portion has become lighter as compared to before. The pore measurement result 1425 may show that pores have increased compared to before.

도 15는 본 발명의 다양한 실시 예에 따라, 피부 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다. 15 is a diagram illustrating an example of a screen showing a skin analysis result, according to various embodiments of the present disclosure;

본 발명의 다양한 실시 예에 따라, 전자 장치는 특정 얼굴 영역을 분석하고, 상기 분석한 결과에 따라 해당 얼굴 영역을 개선할 수 있는 방법을 추천할 수 있다.According to various embodiments of the present disclosure, the electronic device may analyze a specific facial region and recommend a method for improving the corresponding facial region according to the analysis result.

도 15를 참조하면, 전자 장치는 촬영된 이미지(1510)에서 눈 주위를 확인하고, 상기 눈 주위의 피부 상태를 분석하여, 상기 분석한 결과를 표시할 수 있다. 예컨대, 상기 분석 결과, 전자 장치는 특정 사용자의 눈 주위에서 새로운 주름이 확인되거나, 이전보다 주름의 개수가 늘어난 것을 확인할 수 있다.Referring to FIG. 15 , the electronic device may check the eye area in a photographed image 1510 , analyze the skin condition around the eye, and display the analysis result. For example, as a result of the analysis, the electronic device may identify new wrinkles around the eyes of a specific user or that the number of wrinkles increases compared to before.

본 발명의 다양한 실시 예에 따라, 전자 장치는 주름을 개선시킬 수 있는 방법을 포함하는 스킨케어 추천 화면(1520)을 제공할 수 있다. 예컨대, 사용자가 촬영된 이미지(1510)에서 주름 표시(1511)를 선택하는 경우, 전자 장치는 촬영된 이미지(1510)를 표시하는 화면을 스킨케어 추천 화면(1520)으로 전환시킬 수 있다. According to various embodiments of the present disclosure, the electronic device may provide a skin care recommendation screen 1520 including a method for improving wrinkles. For example, when the user selects the wrinkle display 1511 from the captured image 1510 , the electronic device may switch the screen displaying the captured image 1510 to the skin care recommendation screen 1520 .

본 발명의 다양한 실시 예에 따른, 상기 스킨케어 추천 화면(1520)은 주름에 좋은 화장품(1521), 더 많은 아이크림을 검색하기 위한 실행 버튼(1522) 혹은 눈가 주름에 좋은 마사지 방법을 추천하기 위한 실행 버튼(1523)을 포함할 수 있다. 예컨대, 상기 주름에 좋은 화장품(1521)은, **아이크림(1521a), ##크림(1521b), 혹은 oo아이크림(1521c)등을 포함할 수 있으며, 각 화장품에 대한 평점이나 특정 화장품을 주문할 수 있는 실행 버튼 등을 더 포함할 수 있다.According to various embodiments of the present disclosure, the skin care recommendation screen 1520 is for recommending a cosmetic 1521 good for wrinkles, an execution button 1522 for searching for more eye cream, or a massage method good for wrinkles around the eyes. It may include an action button 1523 . For example, the cosmetic 1521 good for wrinkles may include ** eye cream (1521a), ## cream (1521b), or oo eye cream (1521c), etc. It may further include an action button that can be ordered.

도 16은 본 발명의 다양한 실시 예에 따라, 피부 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다. 16 is a diagram illustrating an example of a screen showing a skin analysis result, according to various embodiments of the present disclosure;

본 발명의 다양한 실시 예에 따라, 전자 장치는 특정 얼굴 영역을 분석하고, 상기 분석한 결과에 따라 해당 얼굴 영역을 개선할 수 있는 방법을 추천할 수 있다. 예컨대, 상기 분석 결과, 전자 장치는 특정 사용자의 볼 주위에서 피부톤이 변화된 부분을 확인할 수 있다.According to various embodiments of the present disclosure, the electronic device may analyze a specific facial region and recommend a method for improving the corresponding facial region according to the analysis result. For example, as a result of the analysis, the electronic device may identify a part in which the skin tone is changed around the cheek of a specific user.

도 16을 참조하면, 전자 장치는 촬영된 이미지(1610)에서 볼 주위를 확인하고, 상기 볼에서의 특정 영역에 대한 피부톤이 분석된, 피부톤 분석 영역(1611)을 표시할 수 있다. Referring to FIG. 16 , the electronic device may check the periphery of the cheek in the captured image 1610 and display the skin tone analysis area 1611 in which the skin tone for a specific area of the cheek is analyzed.

본 발명의 다양한 실시 예에 따라, 전자 장치는 피부 톤을 개선시킬 수 있는 방법을 포함하는 스킨케어 추천 화면(1620)을 제공할 수 있다. 예컨대, 사용자가 촬영된 이미지(1610)에서 피부톤 분석 영역(1611)을 선택하는 경우, 전자 장치는 촬영된 이미지(1610)를 표시하는 화면을 스킨케어 추천 화면(1620)으로 전환시킬 수 있다. According to various embodiments of the present disclosure, the electronic device may provide a skin care recommendation screen 1620 including a method for improving skin tone. For example, when the user selects the skin tone analysis area 1611 from the captured image 1610 , the electronic device may convert a screen displaying the captured image 1610 to the skin care recommendation screen 1620 .

본 발명의 다양한 실시 예에 따른, 상기 스킨케어 추천 화면(1620)은 피부톤 개선에 좋은 마스크팩(1621) 혹은 더 많은 마스크팩을 검색하기 위한 실행 버튼(1622)을 포함할 수 있다. 예컨대, 상기 피부톤 개선에 좋은 마스크팩(1621)은, **마스크팩(1621a) 혹은 ㅁㅁ마스크팩(1621b) 등을 포함할 수 있으며, 각 마스크팩에 대한 특징을 보여주는 화면으로 이동시키거나 특정 마스크팩을 주문할 수 있는 실행 버튼 등을 더 포함할 수 있다. According to various embodiments of the present disclosure, the skin care recommendation screen 1620 may include a mask pack 1621 good for skin tone improvement or an execution button 1622 for searching for more mask packs. For example, the mask pack 1621 that is good for skin tone improvement may include a **mask pack 1621a or a ㅁ mask pack 1621b, etc. It may further include an action button for ordering a pack, and the like.

도 17은 본 발명의 다양한 실시 예에 따라, 피부 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다. 17 is a diagram illustrating an example of a screen showing a result of skin analysis, according to various embodiments of the present disclosure;

본 발명의 다양한 실시 예에 따라, 전자 장치는 특정 얼굴 영역을 분석하고, 상기 분석한 결과에 따라 해당 얼굴 영역을 개선할 수 있는 제품의 광고화면을 제공할 수 있다. According to various embodiments of the present disclosure, the electronic device may analyze a specific facial region and provide an advertisement screen of a product capable of improving the corresponding facial region according to the analysis result.

도 17을 참조하면, 전자 장치는 촬영된 이미지(1710)에서 볼 주위 및 상기 볼 주위에서 적어도 하나의 여드름을 확인하고, 상기 확인된 여드름(1711)에 강조 표시를 할 수 있다. Referring to FIG. 17 , the electronic device may identify at least one pimple around the cheek and around the cheek in a captured image 1710 , and highlight the identified pimple 1711 .

본 발명의 다양한 실시 예에 따라, 전자 장치는 여드름을 개선시킬 수 있는 제품을 광고하는 광고 화면(1720)을 제공할 수 있다. 예컨대, 사용자가 촬영된 이미지(1710)에 표시된 여드름(1711)을 선택하는 경우, 전자 장치는 촬영된 이미지(1710)를 표시하는 화면을 광고 화면(1720)으로 전환시킬 수 있다. According to various embodiments of the present disclosure, the electronic device may provide an advertisement screen 1720 for advertising a product capable of improving acne. For example, when the user selects the pimple 1711 displayed in the photographed image 1710 , the electronic device may convert a screen displaying the photographed image 1710 to the advertisement screen 1720 .

본 발명의 다양한 실시 예에 따른, 상기 광고 화면(1720)은 여드름 치료제에 대한 광고 혹은 상기 여드름 치료제에 대한 설명 화면으로 전환되는 자세히 보기 실행 버튼(1721)을 포함할 수 있다.According to various embodiments of the present disclosure, the advertisement screen 1720 may include a detailed view execution button 1721 that is converted to an advertisement for an acne treatment or an explanation screen for the acne treatment.

도 18은 본 발명의 다양한 실시 예에 따라, 피부 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다. 18 is a diagram illustrating an example of a screen showing a result of skin analysis, according to various embodiments of the present disclosure;

본 발명의 다양한 실시 예에 따라, 전자 장치는 특정 얼굴 영역을 분석하고, 상기 분석한 결과에 따라 해당 얼굴 영역을 개선할 수 있는 방법을 추천할 수 있다. According to various embodiments of the present disclosure, the electronic device may analyze a specific facial region and recommend a method for improving the corresponding facial region according to the analysis result.

도 18을 참조하면, 전자 장치는 촬영된 이미지(1810)에서 코를 확인하고, 상기 코에서 모공의 개수가 분석된, 모공 분석 영역(1811)을 표시할 수 있다. Referring to FIG. 18 , the electronic device may identify a nose in a captured image 1810 and display a pore analysis area 1811 in which the number of pores in the nose is analyzed.

본 발명의 다양한 실시 예에 따라, 전자 장치는 모공의 개수를 줄일 수 있는 방법을 포함하는 스킨케어 추천 화면(1820)을 제공할 수 있다. 예컨대, 사용자가 촬영된 이미지(1810)에서 모공 분석 영역(1811)을 선택하는 경우, 전자 장치는 촬영된 이미지(1810)를 보여주는 화면을 스킨케어 추천 화면(1820)으로 전환시킬 수 있다. According to various embodiments of the present disclosure, the electronic device may provide a skin care recommendation screen 1820 including a method for reducing the number of pores. For example, when the user selects the pore analysis area 1811 from the captured image 1810 , the electronic device may convert a screen showing the captured image 1810 to the skin care recommendation screen 1820 .

본 발명의 다양한 실시 예에 따른, 상기 스킨케어 추천 화면(1820)은 모공 치료에 유명한 피부과 병원의 정보(1821) 혹은 특정 피부과 병원의 광고(1822)를 포함할 수 있다. 예컨대, 상기 피부과 병원의 광고(1822)는 해당 피부과의 진료 과목을 표시하는 화면 혹은 해당 피부과 병원의 정보 화면으로 전환시키는 바로가기 실행 버튼을 포함할 수 있다.According to various embodiments of the present disclosure, the skin care recommendation screen 1820 may include information 1821 of a dermatology hospital famous for pore treatment or an advertisement 1822 of a specific dermatology hospital. For example, the advertisement 1822 of the dermatology hospital may include a shortcut execution button for switching to a screen displaying the subject of the dermatology or an information screen of the dermatology hospital.

도 19는 본 발명의 다양한 실시 예에 따른 네트워크 환경의 일 예를 도시한 도면이다. 도 19를 참조하면, 상기 네트워크 환경(1900)은 적어도 하나의 전자 장치(1901 혹은 1904) 혹은 서버(1906)를 포함할 수 있으며, 상기 적어도 하나의 전자 장치(1901 혹은 1904)와 상기 서버(1906)는 네트워크(1962)를 통해 연결될 수 있다.19 is a diagram illustrating an example of a network environment according to various embodiments of the present disclosure. Referring to FIG. 19 , the network environment 1900 may include at least one electronic device 1901 or 1904 or a server 1906 , the at least one electronic device 1901 or 1904 and the server 1906 . ) may be connected via a network 1962 .

상기 전자 장치(1901)는 버스(1910), 프로세서(1920), 메모리(1930), 입출력 인터페이스(1940), 디스플레이(1950), 통신 인터페이스(1960) 및 카메라 모듈(1970)을 포함할 수 있다. The electronic device 1901 may include a bus 1910 , a processor 1920 , a memory 1930 , an input/output interface 1940 , a display 1950 , a communication interface 1960 , and a camera module 1970 .

상기 버스(1910)는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다. The bus 1910 may be a circuit that connects the aforementioned components to each other and transmits communication (eg, a control message) between the aforementioned components.

상기 프로세서(1920)는, 예를 들면, 상기 버스(1910)를 통해 전술한 다른 구성요소들(예: 상기 메모리(1930), 상기 입출력 인터페이스(1940), 상기 디스플레이(1950), 상기 통신 인터페이스(1960), 또는 상기 카메라 모듈(1970) 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다. The processor 1920 includes, for example, the above-described other components (eg, the memory 1930 , the input/output interface 1940 , the display 1950 , the communication interface 1960), or the camera module 1970, etc.) may receive a command, decode the received command, and execute an operation or data processing according to the decoded command.

상기 프로세서(1920)는 전반적인 전자 장치(1901)의 동작을 제어할 수 있다. 본 발명의 다양한 실시 예에 따라, 상기 프로세서(1920)는 적어도 하나의 제어부(예, 제어부(110))를 포함할 수 있다.The processor 1920 may control the overall operation of the electronic device 1901 . According to various embodiments of the present disclosure, the processor 1920 may include at least one controller (eg, the controller 110 ).

상기 메모리(1930)는, 상기 프로세서(1920) 또는 다른 구성요소들(예: 상기 입출력 인터페이스(1940), 상기 디스플레이(1950), 상기 통신 인터페이스(1960), 또는 상기 카메라 모듈(1970) 등)로부터 수신되거나 상기 프로세서(1920) 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리(1930)는, 예를 들면, 커널(1931), 미들웨어(1932), 애플리케이션 프로그래밍 인터페이스(API: application programming interface)(1933) 또는 애플리케이션(1934) 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.The memory 1930 is, from the processor 1920 or other components (eg, the input/output interface 1940, the display 1950, the communication interface 1960, the camera module 1970, etc.) may store instructions or data received or generated by the processor 1920 or other components. The memory 1930 may include, for example, programming modules such as a kernel 1931 , middleware 1932 , an application programming interface (API) 1933 , or an application 1934 . Each of the above-described programming modules may be configured by software, firmware, hardware, or a combination of at least two or more thereof.

상기 커널(1931)은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어(1932), 상기 API(1933) 또는 상기 애플리케이션(1934)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스(1910), 상기 프로세서(1920) 또는 상기 메모리(1930) 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널(1931)은 상기 미들웨어(1932), 상기 API(1933) 또는 상기 애플리케이션(1934)에서 상기 전자 장치(1901)의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다. The kernel 1931 is the other programming modules, for example, the middleware 1932, the API 1933, or system resources used to execute an operation or function implemented in the application 1934 (eg : The bus 1910, the processor 1920, the memory 1930, etc.) can be controlled or managed. In addition, the kernel 1931 may provide an interface for accessing and controlling or managing individual components of the electronic device 1901 from the middleware 1932 , the API 1933 , or the application 1934 . have.

상기 미들웨어(1932)는 상기 API(1933) 또는 상기 애플리케이션(1934)이 상기 커널(1931)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어(1932)는 상기 애플리케이션(1934)으로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 애플리케이션(1934) 중 적어도 하나의 애플리케이션에 상기 전자 장치(1901)의 시스템 리소스(예: 상기 버스(1910), 상기 프로세서(1920) 또는 상기 메모리(1930) 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.The middleware 1932 may perform an intermediary role so that the API 1933 or the application 1934 communicates with the kernel 1931 to exchange data. In addition, in relation to the work requests received from the application 1934 , the middleware 1932 provides, for example, a system resource (eg: Control (eg, scheduling or load balancing) of work requests is performed using a method such as assigning priorities that can use the bus 1910, the processor 1920, or the memory 1930. can

상기 API(1933)는 상기 애플리케이션(1934)이 상기 커널(1931) 또는 상기 미들웨어(1932)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다. The API 1933 is an interface for the application 1934 to control functions provided by the kernel 1931 or the middleware 1932, for example, file control, window control, image processing or character control, etc. It may include at least one interface or function (eg, command) for

다양한 실시 예에 따르면, 상기 애플리케이션(1934)은 SMS/MMS 애플리케이션, 이메일 애플리케이션, 달력 애플리케이션, 알람 애플리케이션, 건강 관리(health care) 애플리케이션(예: 운동량 또는 혈당 등을 측정하는 애플리케이션) 또는 환경 정보 애플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 애플리케이션) 등을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 애플리케이션(1934)은 상기 전자 장치(1901)와 외부 전자 장치(예: 전자 장치(1904)) 사이의 정보 교환과 관련된 애플리케이션일 수 있다. 상기 정보 교환과 관련된 애플리케이션은, 예를 들어, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 애플리케이션, 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 애플리케이션을 포함할 수 있다. According to various embodiments, the application 1934 is an SMS/MMS application, an e-mail application, a calendar application, an alarm application, a health care application (eg, an application for measuring the amount of exercise or blood sugar) or an environment information application ( For example: applications that provide barometric pressure, humidity or temperature information, etc.). Additionally or alternatively, the application 1934 may be an application related to information exchange between the electronic device 1901 and an external electronic device (eg, the electronic device 1904). The application related to the information exchange may include, for example, a notification relay application for delivering specific information to the external electronic device, or a device management application for managing the external electronic device. can

예를 들면, 상기 알림 전달 애플리케이션은 상기 전자 장치(1901)의 다른 애플리케이션(예: SMS/MMS 애플리케이션, 이메일 애플리케이션, 건강 관리 애플리케이션 또는 환경 정보 애플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예: 전자 장치(1904))로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 애플리케이션은, 예를 들면, 외부 전자 장치(예: 전자 장치(1904))로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 애플리케이션은, 예를 들면, 상기 전자 장치(1901)와 통신하는 외부 전자 장치(예: 전자 장치(1904))의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 애플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다. For example, the notification delivery application transmits notification information generated by another application (eg, SMS/MMS application, e-mail application, health care application, or environment information application, etc.) of the electronic device 1901 to an external electronic device (eg, electronic device 1904). Additionally or alternatively, the notification delivery application may receive notification information from, for example, an external electronic device (eg, the electronic device 1904) and provide the notification information to the user. The device management application is, for example, a function for at least a part of an external electronic device (eg, the electronic device 1904) that communicates with the electronic device 1901 (eg, the external electronic device itself (or some component parts) ) turn on/off or adjust the brightness (or resolution) of the display), and manage (eg, install) an application running on the external electronic device or a service (eg, call service or message service) provided by the external electronic device , delete or update).

다양한 실시 예에 따르면, 상기 애플리케이션(1934)은 상기 외부 전자 장치(예: 전자 장치(1904))의 속성(예: 전자 장치의 종류)에 따라 지정된 애플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 애플리케이션(1934)은 음악 재생과 관련된 애플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 애플리케이션(1934)은 건강 관리와 관련된 애플리케이션을 포함할 수 있다. 한 실시 예에 따르면, 상기 애플리케이션(1934)은 전자 장치(1901)에 지정된 애플리케이션 또는 외부 전자 장치(예: 서버(1906) 또는 전자 장치(1904))로부터 수신된 애플리케이션 중 적어도 하나를 포함할 수 있다.According to various embodiments, the application 1934 may include an application designated according to a property (eg, type of electronic device) of the external electronic device (eg, electronic device 1904). For example, when the external electronic device is an MP3 player, the application 1934 may include an application related to music reproduction. Similarly, when the external electronic device is a mobile medical device, the application 1934 may include an application related to health care. According to an embodiment, the application 1934 may include at least one of an application designated to the electronic device 1901 or an application received from an external electronic device (eg, the server 1906 or the electronic device 1904). .

상기 입출력 인터페이스(1940)는, 입출력 장치(예: 센서, 키보드 또는 터치 스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 상기 버스(1910)를 통해 상기 프로세서(1920), 상기 메모리(1930), 상기 통신 인터페이스(1960), 또는 상기 카메라 모듈(1970)에 전달할 수 있다. 예를 들면, 상기 입출력 인터페이스(1940)는 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 상기 프로세서(1920)로 제공할 수 있다. 또한, 상기 입출력 인터페이스(1940)는, 예를 들면, 상기 버스(1910)을 통해 상기 프로세서(1920), 상기 메모리(1930), 상기 통신 인터페이스(1960), 또는 상기 카메라 모듈(1970)로부터 수신된 명령 또는 데이터를 상기 입출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 상기 입출력 인터페이스(1940)는 상기 프로세서(1920)를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다. The input/output interface 1940 receives commands or data input from a user through an input/output device (eg, a sensor, a keyboard, or a touch screen), for example, the processor 1920 and the memory through the bus 1910 . 30 , the communication interface 1960 , or the camera module 1970 . For example, the input/output interface 1940 may provide data on a user's touch input through a touch screen to the processor 1920 . In addition, the input/output interface 1940 is, for example, received from the processor 1920, the memory 1930, the communication interface 1960, or the camera module 1970 through the bus 1910. A command or data may be output through the input/output device (eg, a speaker or a display). For example, the input/output interface 1940 may output voice data processed through the processor 1920 to the user through a speaker.

상기 디스플레이(1950)는 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다.The display 1950 may display various types of information (eg, multimedia data or text data, etc.) to the user.

상기 통신 인터페이스(1960)는 상기 전자 장치(1901)와 외부 장치(예: 전자 장치(1904) 또는 서버(1906)) 간의 통신을 연결할 수 있다. 예를 들면, 상기 통신 인터페이스(1960)는 무선 통신 또는 유선 통신을 통해서 네트워크(1962)에 연결되어 상기 외부 장치와 통신할 수 있다. 상기 무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 상기 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.The communication interface 1960 may connect communication between the electronic device 1901 and an external device (eg, the electronic device 1904 or the server 1906). For example, the communication interface 1960 may be connected to the network 1962 through wireless communication or wired communication to communicate with the external device. The wireless communication is, for example, Wifi (wireless fidelity), BT (Bluetooth), NFC (near field communication), GPS (global positioning system) or cellular communication (eg, LTE, LTE-A, CDMA, WCDMA, UMTS) , WiBro, GSM, etc.). The wired communication may include, for example, at least one of universal serial bus (USB), high definition multimedia interface (HDMI), recommended standard 232 (RS-232), and plain old telephone service (POTS).

상기 카메라 모듈(1970)은, 다른 구성요소들(예: 상기 프로세서(1920), 상기 메모리(1930), 상기 입출력 인터페이스(1940), 또는 상기 통신 인터페이스(1960) 등)로부터 획득된 정보에 의해 제어됨에 따라, 촬영중인 이미지를 줌시켜 특정 영역을 확대 혹은 세부 촬영할 수 있다. The camera module 1970 is controlled by information obtained from other components (eg, the processor 1920, the memory 1930, the input/output interface 1940, the communication interface 1960, etc.) Accordingly, by zooming the image being photographed, a specific area may be enlarged or photographed in detail.

한 실시 예에 따르면, 상기 네트워크(1962)는 통신 네트워크(telecommunications network)일 수 있다. 상기 통신 네트워크는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시 예에 따르면, 상기 전자 장치(1901)와 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol)은 애플리케이션(1934), API(1933), 상기 미들웨어(1932), 커널(1931) 또는 통신 인터페이스(1960) 중 적어도 하나에서 지원될 수 있다. According to an embodiment, the network 1962 may be a telecommunications network. The communication network may include at least one of a computer network, the Internet, the Internet of things, and a telephone network. According to an embodiment, a protocol (eg, a transport layer protocol, a data link layer protocol, or a physical layer protocol) for communication between the electronic device 1901 and an external device includes an application 1934 , an API 1933 , and the middleware ( 1932), the kernel 1931, or the communication interface 1960 may be supported.

본 발명의 다양한 실시 예에 따라, 전자 장치는 화이트 밸런스 자동 설정 기능(auto white balance)을 이용하여 촬영 중인 이미지의 조명 환경을 계산할 수 있다. 예컨대, 전자 장치는 상기 계산한 조명 환경을 이용하여 일괄적인 화이트 밸런스가 설정되도록 이미지를 촬영할 수 있다. 또한, 외부 광원이 없는 촬영 환경에서도 전자 장치 내에 포함된 광원(예, LED 광원)을 조정하여 일괄적인 화이트 밸런스가 설정되도록 이미지를 촬영할 수 있다. According to various embodiments of the present disclosure, the electronic device may calculate the lighting environment of the image being photographed using an auto white balance function. For example, the electronic device may photograph an image so that a uniform white balance is set using the calculated lighting environment. Also, even in a photographing environment in which there is no external light source, an image may be photographed such that a white balance is set collectively by adjusting a light source (eg, an LED light source) included in the electronic device.

한편, 상기한 화이트 밸런스 자동 설정 기능에 따라 화이트 밸런스를 설정하여 촬영하는 경우, 촬영된 이미지에서의 얼굴 영역은 각 촬영된 이미지에 대응하여 설정된 화이트 밸런스에 따라 다른 색감으로 설정되어 촬영될 수 있다. Meanwhile, in the case of photographing by setting the white balance according to the automatic white balance setting function, the face region in the photographed image may be photographed with a different color set according to the white balance set corresponding to each photographed image.

또한, 얼굴 영역의 색감을 여러 이미지에 대해 일괄적으로 설정하기 위하여, 외부 광원을 차단하고 전자 장치에 포함된 광원만을 이용할 수 있으나, 상기 방법을 구현하기 위한 광원을 포함하는 전자 장치는 휴대하기에 그 크기가 크고 무거울 수 있다. In addition, in order to collectively set the color of the face region for several images, the external light source may be blocked and only the light source included in the electronic device may be used. However, the electronic device including the light source for implementing the method is not portable. It can be large and heavy.

본 발명의 다양한 실시 예에 따라, 전자 장치는 전면 카메라 또는 후면 카메라를 포함할 수 있다. 예컨대, 상기 전면 카메라를 이용하여 이미지를 촬영하는 경우 상기 후면 카메라는 촬영 환경을 계산하여 일정한 촬영 환경에서 이미지가 촬영될 수 있도록 촬영될 이미지의 화이트 밸런스를 설정할 수 있다. 이에 대한 구체적인 설명은 이하, 도 20a 내지 도 21들을 참조하여 후술하도록 한다. According to various embodiments of the present disclosure, the electronic device may include a front camera or a rear camera. For example, when capturing an image using the front camera, the rear camera may calculate a photographing environment and set a white balance of the image to be photographed so that the image may be photographed in a predetermined photographing environment. A detailed description thereof will be described later with reference to FIGS. 20A to 21 .

도 20a 내지 도 20c는 본 발명의 다양한 실시 예에 따라, 전자 장치에서 얼굴 분석하는 상황의 다양한 예들을 도시한 도면들이다. 도 20a 내지 도 20c를 참조하면, 전자 장치는 전면 카메라(2001) 혹은 후면 카메라(2002)를 포함할 수 있으며, 상기 후면 카메라(2002)는 컬러 밸런스 카드(color balance card)(2003)를 포함할 수 있다. 20A to 20C are diagrams illustrating various examples of situations in which an electronic device performs face analysis, according to various embodiments of the present disclosure. 20A to 20C , the electronic device may include a front camera 2001 or a rear camera 2002, and the rear camera 2002 may include a color balance card 2003. can

본 발명의 다양한 실시 예에 따라, 상기 컬러 밸런스 카드(2003)를 통해 촬영 중인 주변 환경의 조명 성분을 검출할 수 있다. 예컨대, 상기 컬러 밸런스 카드(2003)는 빛이 난 반사되는 성질을 이용하여 조명의 정확한 색을 촬영하기 위한 장비이거나, 색상 교정용으로 사용되는 장비일 수 있다. 예컨대, 상기 컬러 밸런스 카드(2003)는 후면 카메라(2002)에 포함되는 것으로 예시하였지만, 전자 장치와 연동되는 다양한 카메라 모듈에 포함될 수 있다. According to various embodiments of the present disclosure, a lighting component of the surrounding environment being photographed may be detected through the color balance card 2003 . For example, the color balance card 2003 may be equipment for photographing an accurate color of lighting using the reflected property of light, or equipment used for color correction. For example, although the color balance card 2003 is exemplified as being included in the rear camera 2002, it may be included in various camera modules interworking with electronic devices.

본 발명의 다양한 실시 예에 따라, 전자 장치는 적어도 하나의 카메라 모듈(예, 전면 카메라(2001) 혹은 후면 카메라(2002))을 통해 획득한 이미지의 밝기가 비정상인 것으로 판단할 수 있다. 예컨대, 상기 이미지의 밝기가 비정상인 것으로 판단되는 경우는 조명이 설정 값보다 밝거나 어두운 경우 혹은 얼굴 영역을 획득할 수 없는 경우를 포함할 수 있다. According to various embodiments of the present disclosure, the electronic device may determine that the brightness of an image acquired through at least one camera module (eg, the front camera 2001 or the rear camera 2002) is abnormal. For example, the case in which it is determined that the brightness of the image is abnormal may include a case in which illumination is brighter or darker than a set value or a case in which a face region cannot be obtained.

본 발명의 다양한 실시 예에 따라, 전자 장치는 이미지의 밝기가 비정상인 것으로 판단하는 경우, 이미지를 획득하기 어려운 것으로 판단하고 카메라 모듈(예, 전면 카메라(2001) 혹은 후면 카메라(2002))을 통해 촬영 중인 이미지가 저장되지 않도록 제어할 수 있다. According to various embodiments of the present disclosure, when the electronic device determines that the brightness of the image is abnormal, the electronic device determines that it is difficult to acquire the image and uses the camera module (eg, the front camera 2001 or the rear camera 2002). You can control so that the image being shot is not saved.

또한, 본 발명의 다양한 실시 예에 따라, 전자 장치는 이미지의 밝기가 비정상인 것으로 판단하는 경우, 촬영 상황이 비정상임을 알리는 화면이 디스플레이되도록 제어하거나 소리 알림을 출력할 수 있다. 이에 따라, 사용자는 전자 장치를 정상적인 촬영이 가능한 위치로 옮길 수 있으며, 이후 전자 장치는 정상적인 촬영이 가능한 것으로 판단되면, 다시 촬영이 가능함을 알리는 화면 혹은 소리를 출력하도록 제어할 수 있다. Also, according to various embodiments of the present disclosure, when it is determined that the brightness of the image is abnormal, the electronic device may control to display a screen indicating that the shooting situation is abnormal or output a sound notification. Accordingly, the user may move the electronic device to a position where normal photographing is possible, and then, when it is determined that normal photographing is possible, the user may control to output a screen or sound indicating that photographing is possible again.

도 20a를 참조하면, 전자 장치는 전면 카메라(2001)를 통해 얼굴 영역이 포함된 이미지를 획득하고, 후면 카메라(2002)의 컬러 밸런스 카드(2003)를 통해 조명 성분을 계산할 수 있다. Referring to FIG. 20A , the electronic device may obtain an image including a face region through the front camera 2001 and calculate a lighting component through the color balance card 2003 of the rear camera 2002 .

본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 얼굴 영역이 포함되어 획득된 이미지에 상기 계산된 조명 성분을 적용시킬 수 있다. 예컨대, 상기 계산된 조명 성분이 적용된 이미지는 촬영 주변의 조명 성분과 무관하게 화이트 밸런스가 설정됨에 따라, 이전에 저장된 이미지의 얼굴 영역의 화이트 밸런스와 대응되도록 촬영될 수 있다. According to various embodiments of the present disclosure, the electronic device may apply the calculated illumination component to an image obtained by including the face region. For example, the image to which the calculated illumination component is applied may be photographed to correspond to the white balance of the face region of the previously stored image as the white balance is set regardless of the surrounding illumination component.

도 20b를 참조하면, 전자 장치는 전면 카메라(2001)를 이용하여 이미지를 촬영 중인 상황을 가정한다. 예컨대, 전자 장치는 상기 전면 카메라(2001)를 통해 촬영 중인 이미지를 분석할 수 있다. Referring to FIG. 20B , it is assumed that the electronic device is capturing an image using the front camera 2001 . For example, the electronic device may analyze an image being photographed through the front camera 2001 .

본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 이미지를 분석한 결과에 따라, 촬영 중인 조명 환경이 극단적인 조명 환경(예, 역광, 저조도, 너무 밝은 조명)인지를 판단할 수 있다. 예컨대, 상기 전면 카메라(2001)를 통해 촬영 중인 상황이 극단적인 조명 환경인 것으로 판단되는 경우, 전자 장치는 상기 전면 카메라(2001)를 통해 촬영 중인 이미지를 저장하지 않거나 상기 전면 카메라(2001)를 제어하여 촬영 기능이 활성화되지 않도록 제어할 수 있다. According to various embodiments of the present disclosure, the electronic device may determine whether the lighting environment being photographed is an extreme lighting environment (eg, backlight, low light, or too bright light) according to a result of analyzing the image. For example, when it is determined that the situation being photographed through the front camera 2001 is an extreme lighting environment, the electronic device does not store the image being photographed through the front camera 2001 or controls the front camera 2001 . This can be controlled so that the shooting function is not activated.

본 발명의 다양한 실시 예에 따라, 상기 전면 카메라(2001)를 통해 촬영 중인 상황이 비정상적인 조명 환경으로 판단되는 경우, 컬러 밸런스 카드(2003)를 통해 화이트 밸런스를 계산하고 상기 계산한 화이트 밸런스 값을 상기 전면 카메라(2001)를 통해 촬영 중인 이미지에 적용시킬 수 있다. According to various embodiments of the present disclosure, when it is determined that the photographing situation through the front camera 2001 is an abnormal lighting environment, the white balance is calculated through the color balance card 2003 and the calculated white balance value is used as the It can be applied to an image being photographed through the front camera 2001 .

도 20c를 참조하면, 전자 장치는 후면 카메라(2002)를 이용하여 이미지를 촬영 중인 상황을 가정한다. 예컨대, 전자 장치는 상기 후면 카메라(2002)를 통해 촬영 중인 이미지를 분석할 수 있다. Referring to FIG. 20C , it is assumed that the electronic device is capturing an image using the rear camera 2002 . For example, the electronic device may analyze an image being photographed through the rear camera 2002 .

본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 이미지를 분석한 결과에 따라, 촬영 중인 조명 환경이 극단적인 조명 환경(예, 역광, 저조도, 너무 밝은 조명)인지를 판단할 수 있다. 예컨대, 상기 후면 카메라(2002)를 통해 촬영 중인 상황이 극단적인 조명 환경인 것으로 판단되는 경우, 전자 장치는 상기 후면 카메라(2002)를 통해 촬영 중인 이미지를 저장하지 않거나 상기 후면 카메라(2002)를 제어하여 촬영 기능이 활성화되지 않도록 제어할 수 있다. According to various embodiments of the present disclosure, the electronic device may determine whether the lighting environment being photographed is an extreme lighting environment (eg, backlight, low light, or too bright light) according to a result of analyzing the image. For example, when it is determined that the situation being photographed through the rear camera 2002 is an extreme lighting environment, the electronic device does not store the image being photographed through the rear camera 2002 or controls the rear camera 2002 This can be controlled so that the shooting function is not activated.

본 발명의 다양한 실시 예에 따라, 상기 후면 카메라(2002)를 통해 촬영 중인 상황이 비정상적인 조명 환경으로 판단되는 경우, 컬러 밸런스 카드(2003)를 통해 화이트 밸런스를 계산하고 상기 계산한 화이트 밸런스 값을 상기 후면 카메라(2002)를 통해 촬영 중인 이미지에 적용시킬 수 있다. According to various embodiments of the present disclosure, when it is determined that the situation being photographed through the rear camera 2002 is an abnormal lighting environment, white balance is calculated through the color balance card 2003 and the calculated white balance value is It can be applied to the image being photographed through the rear camera 2002 .

도 21은 본 발명의 다양한 실시 예에 따라, 전자 장치에서 피부 정보를 분석하는 동작의 일 예를 도시한 흐름도이다. 도 21을 참조하면, 2110 동작에서 전자 장치는 적어도 하나의 카메라로부터 영상을 획득할 수 있다. 21 is a flowchart illustrating an example of an operation of analyzing skin information in an electronic device, according to various embodiments of the present disclosure. Referring to FIG. 21 , in operation 2110, the electronic device may acquire an image from at least one camera.

2120 동작에서 전자 장치는 획득한 영상을 분석할 수 있다. In operation 2120, the electronic device may analyze the acquired image.

2130 동작에서 전자 장치는 획득한 영상의 밝기가 비정상인지 여부를 확인할 수 있다. In operation 2130, the electronic device may determine whether the brightness of the acquired image is abnormal.

상기 2130 동작의 결과, 획득된 이미지의 밝기가 비정상으로 확인되지 않는 경우, 전자 장치는 다시 2110 동작을 수행할 수 있다. As a result of operation 2130, if the brightness of the acquired image is not determined to be abnormal, the electronic device may perform operation 2110 again.

상기 2130 동작의 결과, 획득된 이미지의 밝기가 비정상으로 확인되는 경우, 2140 동작에서 전자 장치는 획득된 이미지를 촬영한 카메라가 전자 장치의 전면에 위치하는지 여부를 확인할 수 있다. As a result of operation 2130 , when it is determined that the brightness of the acquired image is abnormal, in operation 2140 , the electronic device may determine whether a camera for photographing the acquired image is located in front of the electronic device.

상기 2140 동작의 결과, 카메라가 전면에 위치하지 않은 것으로 확인되는 경우 2150 동작에서 전자 장치는 화이트 밸런스를 계산할 수 있다. 예컨대, 상기 계산되는 화이트 밸런스는 상기 전면에 위치하지 않은 카메라에 포함된 화이트 밸런스를 계산할 수 있는 모듈(예, 컬러 밸런스 카드)를 통해 계산될 수 있다. 상기 2150 동작에서 계산된 화이트 밸런스를 이용하여, 2160 동작에서 전자 장치는 촬영된 이미지의 화이트 밸런스를 상기 계산된 화이트 밸런스로 적용시킬 수 있다. As a result of operation 2140 , when it is determined that the camera is not located in the front, the electronic device may calculate a white balance in operation 2150 . For example, the calculated white balance may be calculated through a module (eg, a color balance card) that can calculate the white balance included in the camera that is not located in the front. Using the white balance calculated in operation 2150, the electronic device may apply the white balance of the photographed image as the calculated white balance in operation 2160 .

또한, 2140 동작의 결과, 카메라가 전면에 위치하는 것으로 확인되는 경우 전자 장치는 상기 2160 동작에서 화이트 밸런스를 촬영된 이미지에 적용시킬 수 있다. 예컨대, 상기 2140 동작의 결과에 따라 상기 2160 동작에서 화이트 밸런스가 적용된 이미지는, 상기 전면에 위치한 카메라에 컬러 밸런스 카드가 포함되어 있지 않아 미리 저장된 화이트 밸런스의 값이 적용된 이미지일 수 있다. Also, as a result of operation 2140 , when it is determined that the camera is positioned at the front, the electronic device may apply the white balance to the photographed image in operation 2160 . For example, the image to which the white balance is applied in operation 2160 according to the result of operation 2140 may be an image to which a pre-stored value of white balance is applied because a color balance card is not included in the front camera.

2170 동작에서 전자 장치는 이미지를 저장할 수 있다. 예컨대, 상기 저장되는 이미지는 화이트 밸런스가 적용된 이미지일 수 있다. In operation 2170, the electronic device may store an image. For example, the stored image may be an image to which white balance is applied.

상기 도 21에 도시된 동작들 중 적어도 하나의 동작이 생략되어 실행될 수도 있으며, 적어도 하나의 다른 동작이 상기 동작들 사이에 추가될 수도 있다. 또한, 상기 도 21의 동작들은 도시된 순서로 처리될 수도 있으며, 적어도 하나의 동작에 대한 실행 순서가 다른 동작의 실행 순서와 변경되어 처리될 수도 있다. At least one operation among the operations shown in FIG. 21 may be omitted and executed, and at least one other operation may be added between the operations. Also, the operations of FIG. 21 may be processed in the illustrated order, or the execution order of at least one operation may be changed from the execution order of other operations.

도 22a 및 도 22b는 본 발명의 다양한 실시 예에 따라, 얼굴 분석을 위하여 촬영하는 동작의 다양한 예들을 도시한 도면들이다.22A and 22B are diagrams illustrating various examples of an operation of photographing for face analysis, according to various embodiments of the present disclosure.

본 발명의 다양한 실시 예에 따라, 전자 장치에서는 촬영 중인 얼굴 영역에서 액세서리(accessory)가 착용되어 있는지를 확인할 수 있다. According to various embodiments of the present disclosure, the electronic device may determine whether an accessory is worn in the face region being photographed.

도 22a를 참조하면, 얼굴 영역 촬영 대상인 여고생이 안경을 착용하고 있는 상황을 가정한다. Referring to FIG. 22A , it is assumed that a high school girl who is a face area photographing target wears glasses.

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영 중인 얼굴 영역에서 안경 테에 해당하는 선(2211) 혹은 유리에 빛이 반사되는 부분(2212)이 포함되었는지 여부에 따라 얼굴 영역에 안경이 착용되어 있는지를 확인할 수 있다. According to various embodiments of the present disclosure, in the electronic device, the glasses are worn on the face region according to whether a line 2211 corresponding to the frame of the glasses or a portion 2212 that reflects light on the glass is included in the face region being photographed. You can check whether

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영 중인 얼굴 영역에서 안경이 착용되어 있는 것으로 판단 되는 경우, 안경을 벗을 것을 지시할 수 있다. 예컨대, 촬영 중인 이미지(2210)에서는 ‘안경을 벗고 촬영해주세요’등의 문구가 디스플레이될 수 있다. According to various embodiments of the present disclosure, when it is determined that the glasses are worn in the face region being photographed, the electronic device may instruct to take off the glasses. For example, in the image 2210 being photographed, a phrase such as 'Please take off your glasses and take a picture' may be displayed.

본 발명의 다양한 실시 예에 따른 전자 장치의 사용자는 상기 문구를 확인하고, 안경을 벗을 수 있다. 전자 장치는 사용자가 안경을 벗었음을 확인하는 경우, 촬영 중인 이미지(2220)에서 ‘촬영해도 좋습니다’ 등의 문구를 디스플레이할 수 있다. The user of the electronic device according to various embodiments of the present disclosure may check the phrase and take off the glasses. When it is confirmed that the user has taken off the glasses, the electronic device may display a phrase such as 'It is okay to shoot' in the image 2220 being photographed.

도 22b를 참조하면, 얼굴 영역 촬영 대상인 여고생이 모자를 착용하고 있는 상황을 가정한다. Referring to FIG. 22B , it is assumed that a high school girl who is a face area photographing target wears a hat.

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영 중인 얼굴 영역에서 모자의 형태에 해당하는 선(2231)이 포함되었는지 여부에 따라 얼굴 영역에 모자가 착용되어 있는지를 확인할 수 있다. According to various embodiments of the present disclosure, the electronic device may determine whether the hat is worn on the face region according to whether a line 2231 corresponding to the shape of the hat is included in the face region being photographed.

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영 중인 얼굴 영역에서 모자 착용되어 있는 것으로 판단 되는 경우, 모자를 벗을 것을 지시할 수 있다. 예컨대, 촬영 중인 이미지(2230)에서 ‘모자를 벗고 촬영해주세요’등의 문구가 디스플레이될 수 있다. According to various embodiments of the present disclosure, when it is determined that the hat is worn in the face region being photographed, the electronic device may instruct to remove the hat. For example, a phrase such as 'Please take off your hat and take a picture' may be displayed in the image 2230 being photographed.

본 발명의 다양한 실시 예에 따른 전자 장치의 사용자는 상기 문구를 확인하고, 모자를 벗을 수 있다. 전자 장치는 사용자가 모자를 벗었음을 확인하는 경우, 촬영 중인 이미지(2240)에서 ‘촬영해도 좋습니다’ 등의 문구를 디스플레이할 수 있다. The user of the electronic device according to various embodiments of the present disclosure may check the phrase and take off the hat. When the electronic device confirms that the user has taken off the hat, the electronic device may display a phrase such as 'It is okay to shoot' in the image 2240 being photographed.

도 23a 및 도 23b는 본 발명의 다양한 실시 예에 따라, 얼굴 분석을 위하여 촬영하는 동작의 다양한 예들을 도시한 도면들이다.23A and 23B are diagrams illustrating various examples of an operation of photographing for face analysis, according to various embodiments of the present disclosure.

본 발명의 다양한 실시 예에 따라, 전자 장치에서는 사용자가 촬영 중인 얼굴 영역의 방향 혹은 크기를 확인할 수 있도록 얼굴 영역에 대응하는 선(2301)이 디스플레이될 수 있다. According to various embodiments of the present disclosure, in the electronic device, a line 2301 corresponding to the face region may be displayed so that the user can check the direction or size of the face region being photographed.

도 23a를 참조하면, 얼굴 영역 촬영 대상인 여고생이 얼굴을 비스듬히 촬영하고 있는 상황을 가정한다. Referring to FIG. 23A , it is assumed that a high school girl who is a face area photographing target is photographing her face obliquely.

본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 선(2301)에서 촬영 중인 얼굴 영역이 벗어났는지 여부에 따라 얼굴 영역이 정면으로 촬영되고 있는지를 확인할 수 있다. According to various embodiments of the present disclosure, the electronic device may check whether the face region is being photographed from the front according to whether the face region being photographed deviates from the line 2301 .

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영 중인 얼굴 영역이 상기 선(2301)에서 벗어난 것으로 판단 되는 경우, 얼굴을 정면으로 위치할 것을 지시할 수 있다. 예컨대, 촬영 중인 이미지(2311)에서는 ‘얼굴을 정면에 위치해 주세요’등의 문구가 디스플레이될 수 있다. According to various embodiments of the present disclosure, when it is determined that the face area being photographed deviates from the line 2301 , the electronic device may instruct to position the face in the front. For example, in the image 2311 being photographed, a phrase such as 'Please place your face in front' may be displayed.

본 발명의 다양한 실시 예에 따른 전자 장치의 사용자는 상기 문구를 확인하고, 얼굴을 선(2301)에 맞게 위치할 수 있다. 전자 장치는 사용자가 얼굴을 정면으로 위치하였음을 확인하는 경우, 촬영 중인 이미지(2312)에서 ‘촬영해도 좋습니다’ 등의 문구를 디스플레이할 수 있다. The user of the electronic device according to various embodiments of the present disclosure may check the phrase and position the face to match the line 2301 . When the electronic device confirms that the user's face is positioned in front, the electronic device may display a phrase such as 'It is okay to shoot' in the image 2312 being photographed.

도 23b를 참조하면, 얼굴 영역 촬영 대상인 여고생이 얼굴을 멀리서 촬영하고 있는 상황을 가정한다. Referring to FIG. 23B , it is assumed that a high school girl who is a face area photographing target is photographing her face from a distance.

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영 중인 얼굴 영역의 크기가 상기 선(2211)의 크기에 맞게 위치였는지 여부에 따라 얼굴 영역이 멀리서 혹은 가까이에서 촬영되고 있는지를 확인할 수 있다. According to various embodiments of the present disclosure, the electronic device may determine whether the face region being photographed is being photographed from a distance or close, depending on whether the size of the face region being photographed is positioned to match the size of the line 2211 .

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영 중인 얼굴 영역이 상기 선(2301) 영역의 크기보다 작아 멀리서 촬영되고 있는 것으로 판단 되는 경우, 얼굴을 가까이 위치할 것을 지시할 수 있다. 예컨대, 촬영 중인 이미지(2321)에서는 ‘얼굴을 좀 더 가까이 위치해 주세요’등의 문구가 디스플레이될 수 있다. According to various embodiments of the present disclosure, when it is determined that the face area being photographed is smaller than the size of the line 2301 area and it is determined that the photograph is being taken from a distance, the electronic device may instruct to position the face closer. For example, in the image 2321 being photographed, a phrase such as 'please place your face closer' may be displayed.

본 발명의 다양한 실시 예에 따른 전자 장치의 사용자는 상기 문구를 확인하고, 얼굴을 선(2301)에 맞게 위치할 수 있다. 전자 장치는 사용자가 얼굴을 가까이위치하였음을 확인하는 경우, 촬영 중인 이미지(2322)에서 ‘촬영해도 좋습니다’ 등의 문구를 디스플레이할 수 있다. The user of the electronic device according to various embodiments of the present disclosure may check the phrase and position the face to match the line 2301 . When the electronic device confirms that the user's face is located close, the electronic device may display a phrase such as 'It is okay to shoot' in the image 2322 being photographed.

도 24는 본 발명의 다양한 실시 예에 따라, 얼굴 분석을 위하여 촬영하는 동작의 일 예를 도시한 도면이다. 도 24를 참조하면, 전자 장치에서는 이미지(2410)가 흔들리게 촬영된 상황을 가정한다. 24 is a diagram illustrating an example of an operation of photographing for face analysis, according to various embodiments of the present disclosure. Referring to FIG. 24 , in the electronic device, it is assumed that the image 2410 is captured shaking.

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영 중인 이미지에서 얼굴 영역의 형태를 확인할 수 없거나 센서 등을 통해 전자 장치가 흔들리고 있음을 확인하는 경우, 손떨림 보정 기능을 동작시킬 수 있다. 예컨대, 상기 손떨림 보정 기능은 이미지의 촬영 시 셔터 스피트 혹은 조리개 등을 조절하여, 이미지가 흔들리게 촬영되지 않도록 제어하는 기능을 포함할 수 있다. According to various embodiments of the present disclosure, the electronic device may operate the hand shake correction function when it is not possible to confirm the shape of the face region in the image being photographed or when it is determined that the electronic device is shaking through a sensor or the like. For example, the hand shake correction function may include a function of controlling the image not to be photographed in a jittery manner by adjusting a shutter speed or an aperture when photographing an image.

본 발명의 다양한 실시 예에 따라, 상기 손떨림 보정 기능이 설정된 이후, 전자 장치에서는 촬영 중인 이미지(2322)에 ‘촬영해도 좋습니다’등의 문구를 디스플레이할 수 있다. 예컨대, 사용자는 전자 장치에서 촬영 중인 이미지가 흔들리지 않게 촬영될 수 있음을 확인하고 촬영할 수 있다. According to various embodiments of the present disclosure, after the hand shake correction function is set, the electronic device may display a phrase such as 'It is okay to shoot' on the image 2322 being photographed. For example, the user may take a picture after confirming that an image being photographed by the electronic device can be photographed without shaking.

도 25는 본 발명의 다양한 실시 예에 따른 전자 장치 구성의 일 예를 도시한 블록도이다. 상기 전자 장치(2501)는, 예를 들면, 도 1 혹은 도 19에 도시된 전자 장치(100 혹은 1901)의 전체 또는 일부를 구성할 수 있다. 도 25를 참조하면, 상기 전자 장치(2501)는 하나 이상의 프로세서(예: 애플리케이션 프로세서(AP: application processor)(2510)), 통신 모듈(2520), SIM(subscriber identification module) 카드(2524), 메모리(2530), 센서 모듈(2540), 입력 장치(2550), 디스플레이(2560), 인터페이스(2570), 오디오 모듈(2580), 카메라 모듈(2591), 전력관리 모듈(2595), 배터리(2596), 인디케이터(2597) 및 모터(2598)를 포함할 수 있다. 25 is a block diagram illustrating an example of a configuration of an electronic device according to various embodiments of the present disclosure. The electronic device 2501 may constitute, for example, all or a part of the electronic device 100 or 1901 illustrated in FIG. 1 or FIG. 19 . Referring to FIG. 25 , the electronic device 2501 includes one or more processors (eg, an application processor (AP) 2510 ), a communication module 2520 , a subscriber identification module (SIM) card 2524 , and a memory. 2530, sensor module 2540, input device 2550, display 2560, interface 2570, audio module 2580, camera module 2591, power management module 2595, battery 2596, It may include an indicator 2597 and a motor 2598 .

상기 AP(2510)는 운영체제 또는 응용 프로그램을 구동하여 상기 AP(2510)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP(2510)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 상기 AP(2510)는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.The AP 2510 may control a plurality of hardware or software components connected to the AP 2510 by driving an operating system or an application program, and may perform various data processing and operations including multimedia data. The AP 2510 may be implemented as, for example, a system on chip (SoC). According to an embodiment, the AP 2510 may further include a graphic processing unit (GPU) (not shown).

상기 통신 모듈(2520)(예: 상기 통신 인터페이스(1960))는 상기 전자 장치(2501)(예: 전자 장치(100) 혹은 전자 장치(1901))와 네트워크를 통해 연결된 다른 전자 장치들(예: 전자 장치(1904) 또는 서버(1906)) 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시 예에 따르면, 상기 통신 모듈(2520)은 셀룰러 모듈(2521), Wifi 모듈(2523), BT 모듈(2525), GPS 모듈(2527), NFC 모듈(2528) 및 RF(radio frequency) 모듈(2529)를 포함할 수 있다.The communication module 2520 (eg, the communication interface 1960) is connected to the electronic device 2501 (eg, the electronic device 100 or the electronic device 1901) and other electronic devices (eg, the electronic device 1901) connected through a network. Data transmission/reception may be performed in communication between the electronic device 1904 or the server 1906 . According to an embodiment, the communication module 2520 includes a cellular module 2521, a Wifi module 2523, a BT module 2525, a GPS module 2527, an NFC module 2528, and a radio frequency (RF) module ( 2529) may be included.

상기 셀룰러 모듈(2521)은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 상기 셀룰러 모듈(2521)은, 예를 들면, 가입자 식별 모듈(예: SIM 카드(2524))을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 상기 셀룰러 모듈(2521)은 상기 AP(2510)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 상기 셀룰러 모듈(2521)은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다. The cellular module 2521 may provide a voice call, a video call, a text service, or an Internet service through a communication network (eg, LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro, or GSM). Also, the cellular module 2521 may perform identification and authentication of an electronic device in a communication network using, for example, a subscriber identification module (eg, the SIM card 2524 ). According to an embodiment, the cellular module 2521 may perform at least some of the functions that the AP 2510 may provide. For example, the cellular module 2521 may perform at least a part of a multimedia control function.

한 실시 예에 따르면, 상기 셀룰러 모듈(2521)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 상기 셀룰러 모듈(2521)은, 예를 들면, SoC로 구현될 수 있다. 도 25에서는 상기 셀룰러 모듈(2521)(예: 커뮤니케이션 프로세서), 상기 메모리(2530) 또는 상기 전력관리 모듈(2595) 등의 구성요소들이 상기 AP(2510)와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, 상기 AP(2510)가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈(2521))를 포함하도록 구현될 수 있다.According to an embodiment, the cellular module 2521 may include a communication processor (CP). Also, the cellular module 2521 may be implemented as, for example, an SoC. In FIG. 25, components such as the cellular module 2521 (eg, a communication processor), the memory 2530, or the power management module 2595 are shown as separate components from the AP 2510, but one According to an embodiment, the AP 2510 may be implemented to include at least some of the aforementioned components (eg, the cellular module 2521 ).

한 실시 예에 따르면, 상기 AP(2510) 또는 상기 셀룰러 모듈(2521)(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP(2510) 또는 상기 셀룰러 모듈(2521)은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.According to an embodiment, the AP 2510 or the cellular module 2521 (eg, a communication processor) loads a command or data received from at least one of a non-volatile memory or other components connected thereto into a volatile memory ( load) can be processed. Also, the AP 2510 or the cellular module 2521 may store data received from at least one of the other components or generated by at least one of the other components in a non-volatile memory.

상기 Wifi 모듈(2523), 상기 BT 모듈(2525), 상기 GPS 모듈(2527) 또는 상기 NFC 모듈(2528) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 25에서는 셀룰러 모듈(2521), Wifi 모듈(2523), BT 모듈(2525), GPS 모듈(2527) 또는 NFC 모듈(2528)이 각각 별개의 블록으로 도시되었으나, 한 실시 예에 따르면, 셀룰러 모듈(2521), Wifi 모듈(2523), BT 모듈(2525), GPS 모듈(2527) 또는 NFC 모듈(2528) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈(2521), Wifi 모듈(2523), BT 모듈(2525), GPS 모듈(2527) 또는 NFC 모듈(2528) 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈(2521)에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈(2523)에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다. Each of the Wifi module 2523, the BT module 2525, the GPS module 2527 or the NFC module 2528 includes, for example, a processor for processing data transmitted and received through the corresponding module. can In FIG. 25, the cellular module 2521, the Wifi module 2523, the BT module 2525, the GPS module 2527, or the NFC module 2528 are each shown as separate blocks, but according to one embodiment, the cellular module ( 2521), at least some (eg, two or more) of the Wifi module 2523, the BT module 2525, the GPS module 2527, or the NFC module 2528 may be included in one integrated chip (IC) or IC package. have. For example, at least some of the processors corresponding to each of the cellular module 2521 , the Wifi module 2523 , the BT module 2525 , the GPS module 2527 or the NFC module 2528 (eg, the cellular module 2521 ) A communication processor corresponding to , and a Wifi processor corresponding to the Wifi module 2523) may be implemented as one SoC.

상기 RF 모듈(2529)는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기 RF 모듈(2529)는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈(2529)는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 25에서는 셀룰러 모듈(2521), Wifi 모듈(2523), BT 모듈(2525), GPS 모듈(2527) 및 NFC 모듈(2528)이 하나의 RF 모듈(2529)을 서로 공유하는 것으로 도시되어 있으나, 한 실시 예에 따르면, 셀룰러 모듈(2521), Wifi 모듈(2523), BT 모듈(2525), GPS 모듈(2527) 또는 NFC 모듈(2528) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다. The RF module 2529 may transmit/receive data, for example, transmit/receive an RF signal. Although not shown, the RF module 2529 may include, for example, a transceiver, a power amp module (PAM), a frequency filter, or a low noise amplifier (LNA). In addition, the RF module 2529 may further include a component for transmitting and receiving electromagnetic waves in free space in wireless communication, for example, a conductor or a conducting wire. In FIG. 25 , the cellular module 2521 , the Wifi module 2523 , the BT module 2525 , the GPS module 2527 and the NFC module 2528 are shown to share one RF module 2529 with each other, but one According to an embodiment, at least one of the cellular module 2521, the Wifi module 2523, the BT module 2525, the GPS module 2527, or the NFC module 2528 performs transmission and reception of an RF signal through a separate RF module. can do.

상기 SIM 카드(2524)는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드(2524)는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다. The SIM card 2524 may be a card including a subscriber identification module, and may be inserted into a slot formed at a specific location of the electronic device. The SIM card 2524 may include unique identification information (eg, integrated circuit card identifier (ICCID)) or subscriber information (eg, international mobile subscriber identity (IMSI)).

상기 메모리(2530)(예: 저장부(150) 혹은 메모리(1930))는 내장 메모리(2532) 또는 외장 메모리(2534)를 포함할 수 있다. 상기 내장 메모리(2532)는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다. The memory 2530 (eg, the storage unit 150 or the memory 1930 ) may include an internal memory 2532 or an external memory 2534 . The internal memory 2532 is, for example, a volatile memory (eg, dynamic RAM (DRAM), static RAM (SRAM), synchronous dynamic RAM (SDRAM), etc.) or non-volatile memory (eg, non-volatile memory). For example, one time programmable ROM (OTPROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory, etc.) It may include at least one.

한 실시 예에 따르면, 상기 내장 메모리(2532)는 Solid State Drive(SSD)일 수 있다. 상기 외장 메모리(2534)는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 상기 외장 메모리(2534)는 다양한 인터페이스를 통하여 상기 전자 장치(2501)과 기능적으로 연결될 수 있다. 한 실시 예에 따르면, 상기 전자 장치(2501)는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.According to an embodiment, the internal memory 2532 may be a solid state drive (SSD). The external memory 2534 may be a flash drive, for example, compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (Mini-SD), extreme digital (xD), or Memory Stick and the like may be further included. The external memory 2534 may be functionally connected to the electronic device 2501 through various interfaces. According to an embodiment, the electronic device 2501 may further include a storage device (or storage medium) such as a hard drive.

상기 센서 모듈(2540)은 물리량을 계측하거나 전자 장치(2501)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈(2540)은, 예를 들면, 제스처 센서(2540A), 자이로 센서(2540B), 기압 센서(2540C), 마그네틱 센서(2540D), 가속도 센서(2540E), 그립 센서(2540F), 근접 센서(2540G), color 센서(예: RGB(red, green, blue) 센서(2540H)), 생체 센서(2540I), 온/습도 센서(2540J), 조도 센서(2540K) 또는 UV(ultra violet) 센서(2540M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈(2540)은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 상기 센서 모듈(2540)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.The sensor module 2540 may measure a physical quantity or detect an operating state of the electronic device 2501 , and may convert the measured or sensed information into an electrical signal. The sensor module 2540 may include, for example, a gesture sensor 2540A, a gyro sensor 2540B, a barometric pressure sensor 2540C, a magnetic sensor 2540D, an acceleration sensor 2540E, a grip sensor 2540F, and a proximity sensor. (2540G), color sensor (e.g. RGB (red, green, blue) sensor (2540H)), biometric sensor (2540I), temperature/humidity sensor (2540J), illuminance sensor (2540K) or UV (ultra violet) sensor ( 2540M). Additionally or alternatively, the sensor module 2540 may include, for example, an olfactory sensor (E-nose sensor, not shown), an electromyography sensor (not shown), an electroencephalogram sensor (EEG), and an ECG sensor. The sensor may include an electrocardiogram sensor (not shown), an infrared (IR) sensor (not shown), an iris sensor (not shown), or a fingerprint sensor (not shown). The sensor module 2540 may further include a control circuit for controlling at least one or more sensors included therein.

상기 입력 장치(2550)는 터치 패널(touch panel)(2552), (디지털) 펜 센서(pen sensor)(2554), 키(key)(2556) 또는 초음파(ultrasonic) 입력 장치(2558)를 포함할 수 있다. 상기 터치 패널(2552)은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널(2552)은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 상기 터치 패널(2552)은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널(2552)은 사용자에게 촉각 반응을 제공할 수 있다. The input device 2550 may include a touch panel 2552 , a (digital) pen sensor 2554 , a key 2556 or an ultrasonic input device 2558 . can The touch panel 2552 may recognize a touch input using, for example, at least one of a capacitive type, a pressure sensitive type, an infrared type, and an ultrasonic type. Also, the touch panel 2552 may further include a control circuit. In the case of capacitive, physical contact or proximity recognition is possible. The touch panel 2552 may further include a tactile layer. In this case, the touch panel 2552 may provide a tactile response to the user.

상기(디지털) 펜 센서(2554)는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키(2556)는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 상기 초음파(ultrasonic) 입력 장치(2558)는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치(2501)에서 마이크(예: 마이크(2588))로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시 예에 따르면, 상기 전자 장치(2501)는 상기 통신 모듈(2520)를 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다. The (digital) pen sensor 2554 may be implemented, for example, using the same or similar method as receiving a user's touch input or a separate recognition sheet. The key 2556 may include, for example, a physical button, an optical key, or a keypad. The ultrasonic input device 2558 is a device that can check data by detecting sound waves from the electronic device 2501 with a microphone (eg, the microphone 2588) through an input tool that generates an ultrasonic signal, recognition is possible According to an embodiment, the electronic device 2501 may receive a user input from an external device (eg, a computer or a server) connected thereto using the communication module 2520 .

상기 디스플레이(2560)(예: 표시부(140) 혹은 디스플레이(1950))는 패널(2562), 홀로그램 장치(2564) 또는 프로젝터(2566)을 포함할 수 있다. 상기 패널(2562)은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널(2562)은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널(2562)은 상기 터치 패널(2552)과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치(2564)은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터(2566)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치(2501)의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 상기 디스플레이(2560)는 상기 패널(2562), 상기 홀로그램 장치(2564), 또는 프로젝터(2566)를 제어하기 위한 제어 회로를 더 포함할 수 있다. The display 2560 (eg, the display unit 140 or the display 1950) may include a panel 2562 , a hologram device 2564 , or a projector 2566 . The panel 2562 may be, for example, a liquid-crystal display (LCD) or an active-matrix organic light-emitting diode (AM-OLED). The panel 2562 may be implemented, for example, to be flexible, transparent, or wearable. The panel 2562 may be configured as a single module with the touch panel 2552 . The hologram device 2564 may display a stereoscopic image in the air by using light interference. The projector 2566 may display an image by projecting light onto the screen. The screen may be located inside or outside the electronic device 2501, for example. According to an embodiment, the display 2560 may further include a control circuit for controlling the panel 2562 , the hologram device 2564 , or the projector 2566 .

상기 인터페이스(2570)는, 예를 들면, HDMI(high-definition multimedia interface)(2572), USB(universal serial bus)(2574), 광 인터페이스(optical interface)(2576) 또는 D-sub(D-subminiature)(2578)를 포함할 수 있다. 상기 인터페이스(2570)는, 예를 들면, 도 19에 도시된 통신 인터페이스(1960)에 포함될 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스(2570)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다. The interface 2570 is, for example, a high-definition multimedia interface (HDMI) 2572 , a universal serial bus (USB) 2574 , an optical interface 2576 , or a D-subminiature (D-sub). ) (2578). The interface 2570 may be included in, for example, the communication interface 1960 illustrated in FIG. 19 . Additionally or alternatively, the interface 2570 may be, for example, a mobile high-definition link (MHL) interface, a secure digital (SD) card/multi-media card (MMC) interface, or an infrared data association (IrDA) standard interface. may include.

상기 오디오 모듈(2580)은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈(2580)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(1940)에 포함될 수 있다. 상기 오디오 모듈(2580)은, 예를 들면, 스피커(2582), 리시버(2584), 이어폰(2586) 또는 마이크(2588) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다. The audio module 2580 may interactively convert a sound and an electrical signal. At least some components of the audio module 2580 may be included in, for example, the input/output interface 1940 illustrated in FIG. 1 . The audio module 2580 may process sound information input or output through, for example, a speaker 2582 , a receiver 2584 , an earphone 2586 , or a microphone 2588 .

상기 카메라 모듈(2591)은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬(flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.The camera module 2591 is a device capable of capturing still images and moving images, and according to an embodiment, one or more image sensors (eg, a front sensor or a rear sensor), a lens (not shown), an image signal processor (ISP), not shown) or a flash (not shown) (eg, LED or xenon lamp).

상기 전력 관리 모듈(2595)은 상기 전자 장치(2501)의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력 관리 모듈(2595)은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. The power management module 2595 may manage power of the electronic device 2501 . Although not shown, the power management module 2595 may include, for example, a power management integrated circuit (PMIC), a charger integrated circuit (IC), or a battery or fuel gauge.

상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시 예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다. The PMIC may be mounted in, for example, an integrated circuit or an SoC semiconductor. The charging method can be divided into wired and wireless. The charger IC may charge a battery and may prevent an overvoltage or overcurrent from flowing from the charger. According to an embodiment, the charging IC may include a charging IC for at least one of a wired charging method and a wireless charging method. As a wireless charging method, for example, there is a magnetic resonance method, a magnetic induction method, or an electromagnetic wave method, and an additional circuit for wireless charging, for example, a circuit such as a coil loop, a resonance circuit or a rectifier may be added. have.

상기 배터리 게이지는, 예를 들면, 상기 배터리(2596)의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리(2596)는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 상기 전자 장치(2501)에 전원을 공급할 수 있다. 상기 배터리(2596)는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다. The battery gauge may measure, for example, the remaining amount of the battery 2596, voltage, current, or temperature during charging. The battery 2596 may store or generate electricity, and may supply power to the electronic device 2501 using the stored or generated electricity. The battery 2596 may include, for example, a rechargeable battery or a solar battery.

상기 인디케이터(2597)는 상기 전자 장치(2501) 혹은 그 일부(예: 상기 AP(2510))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터(2598)는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 상기 전자 장치(2501)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다. The indicator 2597 may display a specific state of the electronic device 2501 or a part thereof (eg, the AP 2510 ), for example, a booting state, a message state, or a charging state. The motor 2598 may convert an electrical signal into mechanical vibration. Although not shown, the electronic device 2501 may include a processing unit (eg, GPU) for supporting mobile TV. The processing device for supporting mobile TV may process media data according to standards such as digital multimedia broadcasting (DMB), digital video broadcasting (DVB), or media flow, for example.

본 발명의 다양한 실시 예에 따른 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.Each of the above-described components of the electronic device according to various embodiments of the present disclosure may be composed of one or more components, and the name of the corresponding component may vary depending on the type of the electronic device. An electronic device according to various embodiments of the present disclosure may be configured to include at least one of the above-described components, and some components may be omitted or may further include additional other components. In addition, since some of the components of the electronic device according to various embodiments of the present disclosure are combined to form a single entity, the functions of the corresponding components before being combined may be performed identically.

본 발명의 다양한 실시 예에 사용된 용어 “모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 다양한 실시 예에 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다. The term “module” used in various embodiments of the present invention may mean, for example, a unit including one or a combination of two or more of hardware, software, and firmware. The term “module” may be used interchangeably with terms such as, for example, unit, logic, logical block, component, or circuit. A “module” may be a minimum unit or a part of an integrally formed component. A “module” may be a minimum unit or a part of performing one or more functions. A “module” may be implemented mechanically or electronically. For example, a “module” according to various embodiments of the present invention may be an application-specific integrated circuit (ASIC) chip, field-programmable gate arrays (FPGAs) or programmable logic that performs certain operations, known or to be developed in the future. It may include at least one of a programmable-logic device.

다양한 실시 예에 따르면, 본 발명의 다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서(예: 제어부(110) 혹은 프로세서(1920))에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 저장부(150) 혹은 메모리(1930)가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 제어부(110) 혹은 프로세서(1920)에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트(sets of instructions) 또는 프로세스 등을 포함할 수 있다.According to various embodiments, at least a portion of an apparatus (eg, modules or functions thereof) or a method (eg, operations) according to various embodiments of the present disclosure may be computer-readable in the form of, for example, a programming module. It may be implemented as a command stored in a computer-readable storage media. When the instruction is executed by one or more processors (eg, the controller 110 or the processor 1920), the one or more processors may perform a function corresponding to the instruction. The computer-readable storage medium may be, for example, the storage unit 150 or the memory 1930 . At least a part of the programming module may be implemented (eg, executed) by, for example, the controller 110 or the processor 1920 . At least a portion of the programming module may include, for example, a module, a program, a routine, a set of instructions or a process for performing one or more functions.

상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.The computer-readable recording medium includes a magnetic medium such as a hard disk, a floppy disk, and a magnetic tape, and an optical recording medium such as a CD-ROM (Compact Disc Read Only Memory) and DVD (Digital Versatile Disc). Media), magneto-optical media such as a floptical disk, and program instructions such as read only memory (ROM), random access memory (RAM), flash memory, etc. (e.g. programming a hardware device specially configured to store and perform the module). In addition, the program instructions may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of various embodiments of the present invention, and vice versa.

본 발명의 다양한 실시 예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.A module or a programming module according to various embodiments of the present disclosure may include at least one or more of the above-described components, some may be omitted, or may further include additional other components. Operations performed by a module, a programming module, or other components according to various embodiments of the present disclosure may be performed sequentially, in parallel, iteratively, or in a heuristic method. Also, some operations may be executed in a different order, omitted, or other operations may be added.

본 발명의 다양한 실시 예에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 카메라 모듈을 통해 촬영중인 이미지에서 적어도 하나의 얼굴 영역을 검출하는 동작과, 상기 검출된 적어도 하나의 얼굴 영역을 세부 촬영하는 동작과, 상기 세부 촬영된 얼굴 영역을 적어도 하나의 분석 항목에 따라 분석하는 동작을 포함할 수 있다. According to various embodiments of the present disclosure, in a storage medium storing instructions, when the instructions are executed by at least one processor, the at least one processor is configured to perform at least one operation, and the at least one An operation of detecting at least one face region in an image being photographed through a camera module, an operation of capturing the detected at least one face region in detail, and analyzing the detailed photographed face region as at least one analysis item It may include an operation of analyzing according to the

본 발명의 다양한 실시 예에 따라, 상기 적어도 하나의 동작은, 저장된 적어도 하나의 이미지에서 얼굴 영역을 검출하는 동작과, 상기 검출된 적어도 하나의 얼굴 영역을 적어도 하나의 분석 항목에 따라 분석하는 동작을 포함할 수 있다. According to various embodiments of the present disclosure, the at least one operation may include an operation of detecting a face region from at least one stored image and an operation of analyzing the detected at least one face region according to at least one analysis item. may include

본 발명의 다양한 실시 예에 따라, 얼굴 정보를 분석하는 동작은 이전에 저장된 이미지를 기반으로 수행될 수 있다. 예컨대, 상기 저장된 이미지는 미리 설정된 고정 포커스 값에 따라, 미리 설정된 거리 혹은 각도에 따라 촬영된 것일 수 있다. 전자 장치에서는 사용자의 얼굴이 상기 설정된 거리 혹은 각도에 대응하는 위치에 있는 경우, 얼굴 이미지를 촬영하거나, 사용자에게 거리 혹은 각도에 대응하게 촬영할 것을 요청하는 화면을 표시할 수 있다. According to various embodiments of the present disclosure, the operation of analyzing face information may be performed based on a previously stored image. For example, the stored image may be taken according to a preset distance or angle according to a preset fixed focus value. When the user's face is at a position corresponding to the set distance or angle, the electronic device may capture a face image or display a screen requesting the user to take a photograph corresponding to the distance or angle.

본 발명의 다양한 실시 예에 따라, 상기 저장된 이미지는 사용자가 촬영 동작을 실행시키지 않고도 미리 설정된 상황에서 촬영되어 저장될 수 있다. 예컨대, 사용자가 전자 장치를 미리 설정된 시간 이상으로 주시하는 상황(예, 웹 브라우저를 확인하거나, 미디어 파일(예, 동영상)을 시청하는 경우 등) 혹은 전자 장치가 사용자의 얼굴 이미지를 촬영할 수 있는 각도(예, 전면 카메라의 각도에 따라 사용자의 얼굴을 정면 방향으로 촬영할 수 있는 상황)에 위치한 경우 등에서 전자 장치는 카메라 모듈을 백 그라운드로 실행시켜 사용자의 얼굴 이미지를 촬영할 수 있다. According to various embodiments of the present disclosure, the stored image may be captured and stored in a preset situation without the user performing a photographing operation. For example, a situation in which the user gazes at the electronic device for more than a preset time (eg, when checking a web browser or watching a media file (eg, video)) or an angle at which the electronic device can capture a user's face image (eg, a situation in which the user's face can be photographed in the front direction according to the angle of the front camera), etc., the electronic device may execute the camera module in the background to photograph the user's face image.

본 발명의 다양한 실시 예에 따라, 전자 장치는 저장된 이미지를 확인하고, 상기 이미지에서 분석이 불필요한 부분(예, 그림자 혹은 털)을 제거하고, 상기 불필요한 부분이 제거된 영역에서 적어도 하나의 기준점을 설정하여 얼굴 영역을 판단할 수 있다. 예컨대, 상기 기준점은 이미지에서 전체 얼굴 영역에 설정되고, 미리 분석된 데이터 베이스 혹은 이전에 분석된 특정 사용자의 얼굴 이미지에 기반하여, 각 얼굴 영역(예, C존, M존, U존, 눈, 코, 볼 혹은 입 등)을 구분하도록 설정될 수 있다. According to various embodiments of the present disclosure, the electronic device checks a stored image, removes an unnecessary part (eg, shadow or hair) from the image, and sets at least one reference point in an area from which the unnecessary part is removed. Thus, the face region can be determined. For example, the reference point is set on the entire face region in the image, and based on a pre-analyzed database or a previously analyzed face image of a specific user, each face region (eg, C zone, M zone, U zone, eyes, nose, cheek, or mouth).

본 발명의 다양한 실시 예에 따라, 전자 장치는 이전에 저장된 이미지에서 얼굴 영역이 판단되면, 각 영역에 대한 피부 상태를 분석한 결과를 분석 결과 화면을 통해 출력할 수 있다. According to various embodiments of the present disclosure, when a face region is determined from a previously stored image, the electronic device may output a skin condition analysis result for each region through the analysis result screen.

본 발명의 다양한 실시 예에 따라, 얼굴 정보를 분석하는 동작은 이전에 저장된 이미지를 기반으로 수행될 수 있다. 예컨대, 전자 장치는 이미지에서 적어도 하나의 기준점을 설정하고, 상기 설정된 기준점에 근거하여 얼굴 영역을 판단할 수 있다. According to various embodiments of the present disclosure, the operation of analyzing face information may be performed based on a previously stored image. For example, the electronic device may set at least one reference point in the image and determine the face region based on the set reference point.

본 발명의 다양한 실시 예에 따라, 전자 장치는 이전에 저장된 이미지에서 얼굴 영역이 판단되면, 각 영역에 대한 피부 상태를 분석한 결과를 분석 결과 화면을 통해 출력할 수 있다. According to various embodiments of the present disclosure, when a face region is determined from a previously stored image, the electronic device may output a skin condition analysis result for each region through the analysis result screen.

도 26은 본 발명의 다양한 실시 예에 따라, 저장된 이미지를 기반으로 얼굴 정보를 분석하는 어플리케이션 화면의 일 예를 도시한 도면이다. 26 is a diagram illustrating an example of an application screen for analyzing face information based on a stored image, according to various embodiments of the present disclosure;

도 26을 참조하면, 얼굴 정보를 분석하는 어플리케이션이 실행되면, 실행 화면(2610)은 전자 장치에 저장된 이미지들을 표시하는 갤러리를 실행하는 갤러리 버튼(2611) 혹은 카메라 모듈을 활성화시켜 이미지를 촬영하는 화면으로 전환하는 카메라 버튼(2622)을 포함할 수 있다. Referring to FIG. 26 , when an application for analyzing face information is executed, the execution screen 2610 is a gallery button 2611 for executing a gallery displaying images stored in the electronic device or a screen for capturing an image by activating a camera module It may include a camera button 2622 for switching to .

본 발명의 다양한 실시 예에 따라, 상기 갤러리 버튼(2611)이 선택됨에 따라 표시되는 이미지들은 사용자가 선택할 수 있도록 선택 항목을 포함하거나, 전자 장치에 저장된 이미지들 중 얼굴 정보가 분석 가능한 이미지들로 걸러진 것일 수 있다. 상기 얼굴 정보가 분석 가능한 이미지는 이미지에서 얼굴 영역이, 미리 설정된 각도 혹은 크기에 대응하게 촬영된 이미지일 수 있다. According to various embodiments of the present disclosure, images displayed when the gallery button 2611 is selected include a selection item for the user to select, or images stored in the electronic device that have facial information filtered into images that can be analyzed. it could be The image in which the face information can be analyzed may be an image in which a face region in the image is photographed corresponding to a preset angle or size.

본 발명의 다양한 실시 예에 따라, 갤러리 버튼(2611)이 선택되면, 얼굴 정보를 분석할 적어도 하나의 이미지를 선택할 수 있는 이미지 선택 화면(2620)이 표시될 수 있다. 예컨대, 이미지 선택 화면(2620)에 표시되는 이미지들은 최근에 촬영되거나 저장된 순으로 정렬되어 표시될 수 있다. According to various embodiments of the present disclosure, when the gallery button 2611 is selected, an image selection screen 2620 for selecting at least one image for analyzing face information may be displayed. For example, images displayed on the image selection screen 2620 may be displayed in an order of being recently photographed or stored.

본 발명의 다양한 실시 예에 따라, 사용자가 상기 이미지 선택 화면(2620)에 포함된 이미지 중 적어도 하나를 얼굴 정보를 분석할 이미지로 선택하면, 상기 선택된 이미지들을 분석한 결과를 표시하는 분석 결과 화면(2630)이 표시될 수 있다. According to various embodiments of the present disclosure, when the user selects at least one of the images included in the image selection screen 2620 as an image to analyze face information, an analysis result screen ( 2630) may be displayed.

본 발명의 다양한 실시 예에 따라, 분석 결과 화면(2630)은 얼굴 정보를 분석한 결과를 이미지로 표시하는 영역(2631), 얼굴 정보를 분석한 결과를 수치 혹은 그래프로 표시하는 영역(2632) 혹은 각 분석 항목에 대한 분석 결과를 선택할 수 있는 버튼들을 포함할 수 있으며, 그 외 얼굴 분석과 관련된 다양한 항목들을 포함할 수 있다. 예컨대, 상기 각 분석 항목 별 분석 결과를 선택할 수 있는 버튼들은 전체 얼굴 영역에 대한 분석 결과를 표시하는 요약 버튼(2633a), 주름에 관한 분석 결과를 표시하는 주름 버튼(2633b), 트러블에 관한 분석 결과를 표시하는 트러블 버튼(2633c) 혹은 색소침착에 관한 분석 결과를 표시하는 색소침착 버튼(2633d)을 포함할 수 있으며, 그 외 다양한 분석 항목에 대한 분석 결과를 표시하기 위한 선택 항목들을 포함할 수 있다. According to various embodiments of the present disclosure, the analysis result screen 2630 includes an area 2631 displaying the result of analyzing face information as an image, an area 2632 displaying the result of analyzing face information as a numerical value or a graph, or Buttons for selecting an analysis result for each analysis item may be included, and various other items related to face analysis may be included. For example, the buttons for selecting the analysis result for each analysis item include a summary button 2633a for displaying analysis results for the entire face region, a wrinkle button 2633b for displaying analysis results on wrinkles, and analysis results for troubles. may include a trouble button 2633c for displaying or a pigmentation button 2633d for displaying analysis results related to pigmentation, and may include selection items for displaying analysis results for various other analysis items. .

도 27은 본 발명의 다양한 실시 예에 따른 얼굴 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다. 27 is a diagram illustrating an example of a screen showing a result of face analysis according to various embodiments of the present disclosure;

도 27을 참조하면, 분석 결과 화면(2700)은 분석된 얼굴 영역을 표시하는 이미지 영역(2710), 분석 결과를 표시하는 분석 결과 영역(2720) 혹은 각 세부 분석 항목 별 분석 결과를 선택하기 위한 분석 항목 선택 영역(2730)을 포함할 수 있다. Referring to FIG. 27 , the analysis result screen 2700 is an image area 2710 displaying an analyzed face area, an analysis result area 2720 displaying an analysis result, or an analysis for selecting an analysis result for each detailed analysis item. An item selection area 2730 may be included.

상기 이미지 영역(2710)에서는 전자 장치에 저장된 이미지에서 얼굴 영역을 검출하고, 상기 검출된 얼굴 영역에 적어도 하나의 기준점(2711)이 설정될 수 있다. 상기 적어도 하나의 기준점(2711)을 기반으로, 적어도 하나의 분석 항목에 따라 분석될 얼굴 영역(예, 2711, 2712, 2713, 2714, 2715 혹은 2716)이 설정될 수 있다. 상기 2712 영역은 C 존으로서, 양쪽 눈 바깥 부분의 영역을, 상기 2713은 코 영역을, 상기 2714는 볼 영역을, 상기 2715는 코 옆 영역을, 상기 2716은 입 주변 영역을 각각 포함할 수 있다. In the image area 2710 , a face area may be detected from an image stored in the electronic device, and at least one reference point 2711 may be set in the detected face area. Based on the at least one reference point 2711 , a facial region to be analyzed (eg, 2711 , 2712 , 2713 , 2714 , 2715 or 2716 ) may be set according to at least one analysis item. The area 2712 may be a C zone, and may include an area of the outer portion of both eyes, number 2713 may include a nose area, reference numeral 2714 may include a cheek area, reference numeral 2715 may include an area next to the nose, and reference numeral 2716 may include a region around the mouth. .

본 발명의 다양한 실시 예에 따라, 상기 각 얼굴 영역은 사용자 입력(예, 터치 제스처)이 입력됨에 따라 선택될 수 있으며, 선택된 얼굴 영역에 대하여 해당 얼굴 영역에 대해 분석된 화면이 확대되어 표시될 수 있다. According to various embodiments of the present disclosure, each of the face regions may be selected as a user input (eg, a touch gesture) is input, and a screen analyzed for the selected face region may be enlarged and displayed. have.

상기 분석 결과 영역(2720)에서는 피부 상태를 분석한 결과가 수치(예, 점수(2722))화 혹은 그래프(2721)화되어 표시될 수 있다. 예컨대, 상기 그래프(2721)는 특정 얼굴 영역을 분석 항목 별로 분석하여 각 분석 항목 별 피부 상태에 대한 점수를 나타낼 수 있다. 상기 점수(2722)는 특정 얼굴 영역에 대한 분석 항목 별 점수를 평균적으로 계산한 것으로 높은 점수일수록 좋은 피부 상태임을 나타낼 수 있다. In the analysis result area 2720 , a result of analyzing the skin condition may be displayed as a numerical value (eg, a score 2722 ) or as a graph 2721 . For example, the graph 2721 may analyze a specific facial region for each analysis item to indicate a score for a skin condition for each analysis item. The score 2722 is an average of scores for each analysis item for a specific face region, and a higher score may indicate a better skin condition.

상기 분석 항목 선택 영역(2730)은 각 분석 항목 별 분석 결과를 표시하기 위한 적어도 하나의 버튼을 포함할 수 있으며, 선택된 버튼에 따라 특정 얼굴 영역에 대한 분석 결과가 상기 이미지(2710) 혹은 상기 분석 결과 영역(2720)을 통해 표시될 수 있다. 예컨대, ‘요약’ 버튼이 선택되면, 얼굴 영역 중 전체 얼굴 영역이 상기 이미지(2710)를 통해 표시되며, 전체 얼굴 영역에 대한 분석 결과가 상기 분석 결과 영역(2720)을 통해 표시될 수 있다. The analysis item selection area 2730 may include at least one button for displaying an analysis result for each analysis item, and an analysis result for a specific face region is displayed on the image 2710 or the analysis result according to the selected button. It may be displayed through the area 2720 . For example, when the 'summary' button is selected, the entire face region among the face regions may be displayed through the image 2710 , and an analysis result for the entire face region may be displayed through the analysis result region 2720 .

도 28은 본 발명의 다양한 실시 예에 따른 얼굴 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다. 28 is a diagram illustrating an example of a screen showing a result of face analysis according to various embodiments of the present disclosure;

도 28을 참조하면, 분석 결과 화면(2800)은 분석된 얼굴 영역 중 적어도 하나를 선택할 수 있는 이미지 영역(2810), 분석 결과 영역(2820) 혹은 분석 항목 선택 영역(2830)을 포함할 수 있다. Referring to FIG. 28 , the analysis result screen 2800 may include an image area 2810 , an analysis result area 2820 , or an analysis item selection area 2830 in which at least one of the analyzed face areas can be selected.

본 발명의 다양한 실시 예에 따라, 상기 분석 항목 선택 영역(2830)에서 주름(Wrinkle) 버튼(2831)이 선택되었으며, 다양한 분석 항목 중 주름에 대해 분석된 결과가 상기 이미지 영역(2810) 혹은 분석 결과 영역(2820)을 통해 표시될 수 있다. According to various embodiments of the present disclosure, the Wrinkle button 2831 is selected in the analysis item selection area 2830, and the result of the analysis of wrinkles among various analysis items is the image area 2810 or the analysis result. It may be displayed through the area 2820 .

상기 이미지 영역(2810)에서는 전자 장치에 저장된 이미지들을 기반으로, 주름에 대해 분석된 적어도 하나의 얼굴 영역(예, C존 혹은 U존 영역)이 분석된 결과가 이미지로 표시될 수 있다. 예컨대, 각 얼굴 영역의 색깔은 피부 상태에 따라 다르게 표시됨으로써 사용자는 표시된 색깔로 피부 상태를 확인할 수 있다. In the image area 2810 , an analysis result of at least one facial area (eg, C zone or U zone area) analyzed for wrinkles based on images stored in the electronic device may be displayed as an image. For example, the color of each face region is displayed differently depending on the skin condition, so that the user can check the skin condition with the displayed color.

상기 분석 결과 영역(2820)에서는 주름에 대해 분석한 결과를 C존 혹은 M존 각각에 대해 평균 점수와 비교한 그래프(2821) 혹은 주름에 대한 전체 얼굴 영역에 대한 점수(2822)가 표시될 수 있다. In the analysis result area 2820, a graph 2821 comparing the results of analysis on wrinkles with the average score for each C zone or M zone or a score 2822 for the entire face area for wrinkles may be displayed. .

본 발명의 다양한 실시 예에 따라, 사용자가 확대 혹은 세부적인 분석 결과를 확인하고자 사용자 입력(2811)을 특정 영역(예, 왼쪽 C존 영역)으로 입력하면, 상기 사용자 입력이 입력된 영역(예, 왼쪽 C존 영역)이 상세하게 분석된 확대 화면(2812)이 표시될 수 있다. According to various embodiments of the present disclosure, when the user inputs the user input 2811 to a specific area (eg, the left zone C area) to check the enlarged or detailed analysis result, the area to which the user input is input (eg, An enlarged screen 2812 in which the left zone C region) is analyzed in detail may be displayed.

본 발명의 다양한 실시 예에 따라, 상기 분석 결과 영역(2820)은 전체 얼굴 영역에 대한 주름 변화의 히스토리를 제공할 수 있다. 예컨대, 상기 분석 결과 영역(2820)은 한달 전 주름 상태와 현재 측정된 주름 상태를 비교한 그래프(2823) 혹은 각 C존 혹은 M존의 주름 상태가 이전보다 얼마만큼 향상되었는지를 나타내는 그래프(2824)를 포함할 수 있다. According to various embodiments of the present disclosure, the analysis result area 2820 may provide a history of wrinkle changes for the entire face area. For example, the analysis result area 2820 is a graph 2823 comparing the wrinkle state one month ago with the currently measured wrinkle state or a graph 2824 indicating how much the wrinkle state of each C zone or M zone has improved compared to the previous one. may include.

도 29는 본 발명의 다양한 실시 예에 따른 얼굴 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다. 29 is a diagram illustrating an example of a screen showing a result of face analysis according to various embodiments of the present disclosure;

도 29를 참조하면, 사용자는 분석 항목 선택 영역에서 주름 버튼(2931)을 선택하였으며, 이에 따라 분석 결과 화면(2900)은 주름에 대해 분석한 이미지 혹은 분석 결과 영역(2920)을 포함할 수 있다. Referring to FIG. 29 , the user has selected the wrinkle button 2931 in the analysis item selection area, and accordingly, the analysis result screen 2900 may include an image analyzed for wrinkles or the analysis result area 2920 .

상기 분석 결과 영역(2920)에서는 세부 영역(예, C존의 왼쪽(CL)/오른쪽(CR) 혹은 M존의 왼쪽(ML)/오른쪽(MR)) 각각에 대한 주름 상태의 점수 혹은 전체 얼굴 영역에서의 주름 상태가 점수로 표시될 수 있다. In the analysis result area 2920, the score of the wrinkle state for each of the detailed areas (eg, the left (CL)/right (CR) of the C zone or the left (ML)/right (MR) of the M zone) or the entire face area The wrinkle state in can be expressed as a score.

본 발명의 다양한 실시 예에 따라, 사용자는 분석된 얼굴 영역 중 확대 혹은 세부 화면을 확인하고자 하는 영역을 선택할 수 있다. 예컨대, 사용자 입력(2901)을 통해 “왼쪽 C존 영역”이 선택되면, 얼굴에서 C존의 왼쪽 영역이 확대된 화면(2910)이 표시될 수 있다. 사용자 입력(2902)을 통해 코 왼쪽 영역이 선택되면, 얼굴에서 코의 왼쪽 영역이 확대된 화면(2920)이 표시될 수 있다. According to various embodiments of the present disclosure, a user may select a region to check an enlarged or detailed screen among the analyzed face regions. For example, when “left zone C area” is selected through the user input 2901 , a screen 2910 in which the left area of zone C on the face is enlarged may be displayed. When the region to the left of the nose is selected through the user input 2902 , a screen 2920 in which the region to the left of the nose is enlarged on the face may be displayed.

도 30은 본 발명의 다양한 실시 예에 따른 얼굴 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다.30 is a diagram illustrating an example of a screen showing a result of face analysis according to various embodiments of the present disclosure;

도 30을 참조하면, 사용자가 분석 결과 화면(3000)의 분석 항목 선택 영역(3030)에서 트러블(trouble) 버튼(3031)을 선택한 경우, 상기 분석 결과 화면(3000)은 다양한 분석 항목 중 트러블에 대해 분석된 결과가 상기 이미지 영역(3010) 혹은 분석 결과 영역(3020)을 통해 표시될 수 있다. Referring to FIG. 30 , when the user selects the trouble button 3031 in the analysis item selection area 3030 of the analysis result screen 3000 , the analysis result screen 3000 is displayed for trouble among various analysis items. The analyzed result may be displayed through the image area 3010 or the analysis result area 3020 .

상기 이미지 영역(3010)에서는 전자 장치에 저장된 이미지들을 기반으로, 트러블에 대해 분석된 적어도 하나의 얼굴 영역(예, 오른쪽(R), 왼쪽(L), 위쪽(T) 혹은 아래쪽(B) 영역)이 분석된 결과가 이미지로 표시될 수 있다. 예컨대, 각 얼굴 영역의 색깔은 피부 상태에 따라 다르게 표시됨으로써 사용자는 표시된 색깔로 해당 얼굴 영역의 피부 상태를 확인할 수 있다. In the image area 3010, at least one facial area (eg, right (R), left (L), upper (T), or lower (B) area) analyzed for a problem based on images stored in the electronic device. The analyzed result may be displayed as an image. For example, the color of each face region is displayed differently according to the skin state, so that the user can check the skin state of the corresponding face region with the displayed color.

상기 분석 결과 영역(3020)에서는 트러블에 대해 분석한 결과를 오른쪽(R), 왼쪽(L), 위쪽(T) 혹은 아래쪽(B) 영역 각각에 대해 평균 점수와 비교한 그래프(3021) 혹은 트러블에 대한 전체 얼굴 영역에 대한 점수(3022)가 표시될 수 있다. In the analysis result area 3020, the analysis result for trouble is compared with the average score for each of the right (R), left (L), upper (T), or lower (B) areas in a graph 3021 or trouble. A score 3022 for the entire face region for .

본 발명의 다양한 실시 예에 따라, 사용자 입력(3011)을 통해 얼굴의 아래쪽이 선택되면, 상기 아래쪽 영역이 상세하게 분석된 확대 화면(3012)이 표시될 수 있다. 예컨대, 상기 사용자는 확대 화면(3012)을 통해, 상기 아래쪽 영역에서 구체적으로 어디에 트러블이 있는지 트러블의 크기는 어떠한지를 확인할 수 있다. According to various embodiments of the present disclosure, when the lower part of the face is selected through the user input 3011 , an enlarged screen 3012 in which the lower region is analyzed in detail may be displayed. For example, the user can check, through the enlarged screen 3012 , specifically where the trouble is in the lower area and what the size of the trouble is.

본 발명의 다양한 실시 예에 따라, 상기 분석 결과 영역(3020)은 전체 얼굴영역에 대한 트러블 변화의 히스토리를 제공할 수 있다. 예컨대, 상기 분석 결과 영역(3020)은 한달 전 트러블 상태와 현재 측정된 트러블 상태를 비교한 그래프(3023) 혹은 각 영역(예, 오른쪽(R), 왼쪽(L), 위쪽(T) 혹은 아래쪽(B) 영역)의 트러블 상태가 이전보다 얼마만큼 향상되었는지를 나타내는 그래프(3024)를 포함할 수 있다. According to various embodiments of the present disclosure, the analysis result area 3020 may provide a history of trouble changes for the entire face area. For example, the analysis result area 3020 is a graph 3023 comparing the trouble state one month ago with the trouble state currently measured or each area (eg, right (R), left (L), upper (T) or lower (T) B) may include a graph 3024 indicating how much the trouble state of the region) has improved compared to before.

도 31은 본 발명의 다양한 실시 예에 따른 얼굴 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다. 31 is a diagram illustrating an example of a screen showing a result of face analysis according to various embodiments of the present disclosure;

도 31을 참조하면, 사용자는 분석 항목 선택 영역에서 트러블 버튼(3131)을 선택하였으며, 이에 따라 분석 결과 화면(3100)은 트러블에 대해 분석한 이미지 혹은 분석 결과 영역(3120)을 포함할 수 있다. Referring to FIG. 31 , the user has selected the trouble button 3131 in the analysis item selection area, and accordingly, the analysis result screen 3100 may include an image analyzed for the trouble or the analysis result area 3120 .

본 발명의 다양한 실시 예에 따라, 사용자는 분석된 얼굴 영역 중 확대 혹은 세부 화면을 확인하고자 하는 영역을 선택할 수 있다. 예컨대, 사용자 입력(3101)을 통해 왼쪽 볼 영역이 선택되면, 얼굴의 볼 왼쪽이 확대된 화면(3110)이 표시될 수 있다. 사용자 입력(3102)을 통해 아래쪽이 선택되면, 얼굴의 아래쪽이 확대된 화면(3120)이 표시될 수 있다. According to various embodiments of the present disclosure, a user may select a region to check an enlarged or detailed screen among the analyzed face regions. For example, when the left cheek region is selected through the user input 3101 , a screen 3110 in which the left cheek of the face is enlarged may be displayed. When the lower side is selected through the user input 3102 , a screen 3120 in which the lower side of the face is enlarged may be displayed.

도 32는 본 발명의 다양한 실시 예에 따른 얼굴 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다.32 is a diagram illustrating an example of a screen showing a result of face analysis according to various embodiments of the present disclosure;

도 32를 참조하면, 사용자가 분석 결과 화면(3200)의 분석 항목 선택 영역(3230)에서 색소 침착(pigmentation) 버튼(3231)을 선택한 경우, 상기 분석 결과 화면(3200)은 다양한 분석 항목 중 색소 침착에 대해 분석된 결과가 상기 이미지 영역(3210) 혹은 분석 결과 영역(3220)을 통해 표시될 수 있다. Referring to FIG. 32 , when the user selects the pigmentation button 3231 in the analysis item selection area 3230 of the analysis result screen 3200, the analysis result screen 3200 displays pigmentation among various analysis items. A result of analysis for ? may be displayed through the image area 3210 or the analysis result area 3220 .

상기 이미지 영역(3210)에서는 전자 장치에 저장된 이미지들을 기반으로, 색소 침착에 대해 분석된 적어도 하나의 얼굴 영역(예, 오른쪽(R), 왼쪽(L), 위쪽(T) 혹은 아래쪽(B) 영역)이 분석된 결과가 이미지로 표시될 수 있다. 예컨대, 각 얼굴 영역의 색깔은 피부 상태에 따라 다르게 표시됨으로써 사용자는 표시된 색깔로 해당 얼굴 영역의 피부 상태를 확인할 수 있다. In the image area 3210, at least one facial area (eg, right (R), left (L), upper (T), or lower (B) area) analyzed for pigmentation based on images stored in the electronic device. ), the analyzed result may be displayed as an image. For example, the color of each face region is displayed differently according to the skin state, so that the user can check the skin state of the corresponding face region with the displayed color.

상기 분석 결과 영역(3220)에서는 색소 침착에 대해 분석한 결과를 오른쪽(R), 왼쪽(L), 위쪽(T) 혹은 아래쪽(B) 영역 각각에 대해 평균 점수와 비교한 그래프(3221) 혹은 색소 침착에 대한 전체 얼굴 영역에 대한 점수(3222)가 표시될 수 있다. In the analysis result area 3220, a graph 3221 or a graph comparing the results of the analysis on pigmentation with the average score for each of the right (R), left (L), upper (T), or lower (B) areas. A score 3222 for the entire facial area for deposition may be displayed.

본 발명의 다양한 실시 예에 따라, 사용자 입력(3201)을 통해 왼쪽 볼이 선택되면, 상기 왼쪽 영역이 상세하게 분석된 확대 화면(3202)이 표시될 수 있다. 예컨대, 상기 사용자는 확대 화면(3202)을 통해, 상기 왼쪽 영역(3201)에서 구체적으로 어디에 색소 침착이 생성되었는지 색소 침착된 부위의 크기는 어떠한지를 확인할 수 있다. According to various embodiments of the present disclosure, when the left cheek is selected through the user input 3201, an enlarged screen 3202 in which the left area is analyzed in detail may be displayed. For example, the user can check, through the enlarged screen 3202 , specifically where pigmentation is generated and the size of the pigmented area in the left region 3201 .

본 발명의 다양한 실시 예에 따라, 상기 분석 결과 영역(3220)은 전체 얼굴 영역에 대한 색소 침착 변화의 히스토리를 제공할 수 있다. 예컨대, 상기 분석 결과 영역(3220)은 한달 전 색소 침착 상태와 현재 측정된 색소 침착 상태를 비교한 그래프(3223) 혹은 각 영역(예, 오른쪽(R), 왼쪽(L), 위쪽(T) 혹은 아래쪽(B) 영역)의 색소 침착의 상태가 이전보다 얼마만큼 향상되었는지를 나타내는 그래프(3224)를 포함할 수 있다. According to various embodiments of the present disclosure, the analysis result area 3220 may provide a history of changes in pigmentation for the entire face area. For example, the analysis result region 3220 is a graph 3223 comparing the pigmentation state one month ago and the currently measured pigmentation state or each region (eg, right (R), left (L), upper (T) or It may include a graph 3224 indicating how much the state of pigmentation in the lower (B) region has improved compared to before.

도 33은 본 발명의 다양한 실시 예에 따른 얼굴 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다. 33 is a diagram illustrating an example of a screen showing a result of face analysis according to various embodiments of the present disclosure;

도 33을 참조하면, 사용자는 분석 항목 선택 영역에서 색소 침착 버튼(3331)을 선택하였으며, 이에 따라 분석 결과 화면(3300)은 색소 침착에 대해 분석한 이미지 혹은 분석 결과 영역을 포함할 수 있다. Referring to FIG. 33 , the user selects the pigmentation button 3331 in the analysis item selection area, and accordingly, the analysis result screen 3300 may include an image analyzed for pigmentation or an analysis result area.

본 발명의 다양한 실시 예에 따라, 사용자는 분석된 얼굴 영역 중 확대 혹은 세부 화면을 확인하고자 하는 영역을 선택할 수 있다. 예컨대, 사용자 입력(3301)을 통해 왼쪽 볼이 선택되면, 얼굴의 왼쪽(L)이 확대된 화면(3310)이 표시될 수 있다. 사용자 입력(3302)을 통해 코가 선택되면, 위쪽(T) 영역이 확대된 화면(3320)이 표시될 수 있다. According to various embodiments of the present disclosure, a user may select a region to check an enlarged or detailed screen among the analyzed face regions. For example, when the left cheek is selected through the user input 3301 , a screen 3310 in which the left side L of the face is enlarged may be displayed. When the nose is selected through the user input 3302 , a screen 3320 in which the upper (T) region is enlarged may be displayed.

도 34는 본 발명의 다양한 실시 예에 따른 얼굴 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다.34 is a diagram illustrating an example of a screen showing a result of face analysis according to various embodiments of the present disclosure;

도 34를 참조하면, 사용자가 분석 결과 화면(3400)의 분석 항목 선택 영역(3430)에서 모공(pore) 버튼(3431)을 선택한 경우, 상기 분석 결과 화면(3400)은 다양한 분석 항목 중 모공에 대해 분석된 결과가 상기 이미지 영역(3410) 혹은 분석 결과 영역(3420)을 통해 표시될 수 있다. Referring to FIG. 34 , when the user selects the pore button 3431 in the analysis item selection area 3430 of the analysis result screen 3400, the analysis result screen 3400 displays the pores among various analysis items. The analyzed result may be displayed through the image area 3410 or the analysis result area 3420 .

상기 이미지 영역(3410)에서는 전자 장치에 저장된 이미지들을 기반으로, 모공에 대해 분석된 적어도 하나의 얼굴 영역(예, 오른쪽(R), 왼쪽(L), 위쪽(T) 혹은 아래쪽(B) 영역)이 분석된 결과가 이미지로 표시될 수 있다. 예컨대, 각 얼굴 영역의 색깔은 피부 상태에 따라 다르게 표시됨으로써 사용자는 표시된 색깔로 해당 얼굴 영역의 피부 상태를 확인할 수 있다. In the image area 3410 , at least one facial area (eg, right (R), left (L), upper (T) or lower (B) area) analyzed for pores based on images stored in the electronic device. The analyzed result may be displayed as an image. For example, the color of each face region is displayed differently according to the skin state, so that the user can check the skin state of the corresponding face region with the displayed color.

상기 분석 결과 영역(3420)에서는 모공에 대해 분석한 결과를 오른쪽(R), 왼쪽(L), 위쪽(T) 혹은 아래쪽(B) 영역 각각에 대해 평균 점수와 비교한 그래프(3421) 혹은 모공에 대한 전체 얼굴 영역에 대한 점수(3422)가 표시될 수 있다. In the analysis result area 3420, the results of the analysis on pores are compared with the average score for each of the right (R), left (L), upper (T), or lower (B) areas in the graph 3421 or in the pores. A score 3422 for the entire face region may be displayed.

본 발명의 다양한 실시 예에 따라, 사용자 입력(3401)을 통해 오른쪽 볼이 선택되면, 얼굴의 오른쪽 영역이 상세하게 분석된 확대 화면(3402)이 표시될 수 있다. 예컨대, 상기 사용자는 확대 화면(3402)을 통해, 상기 오른쪽 영역에서 구체적으로 어디에 모공이 생성되었는지 생성된 모공의 크기는 어떠한지를 확인할 수 있다. According to various embodiments of the present disclosure, when the right cheek is selected through the user input 3401 , an enlarged screen 3402 in which the right region of the face is analyzed in detail may be displayed. For example, the user can check, through the enlarged screen 3402, where the pores are specifically created and the size of the generated pores in the right region.

본 발명의 다양한 실시 예에 따라, 상기 분석 결과 영역(3420)은 전체 얼굴영역에 대한 모공 변화의 히스토리를 제공할 수 있다. 예컨대, 상기 분석 결과 영역(3420)은 한달 전 모공 상태와 현재 측정된 모공 상태를 비교한 그래프(3423) 혹은 전체 얼굴 영역의 모공 상태가 이전보다 얼마만큼 향상되었는지를 나타내는 그래프(3424)를 포함할 수 있다. According to various embodiments of the present disclosure, the analysis result area 3420 may provide a history of pore changes for the entire face area. For example, the analysis result area 3420 may include a graph 3423 comparing the pore state one month ago with the currently measured pore state or a graph 3424 indicating how much the pore state of the entire face region has improved compared to the previous one. can

도 35는 본 발명의 다양한 실시 예에 따른 얼굴 분석의 결과를 보여주는 화면의 일 예를 도시한 도면이다.35 is a diagram illustrating an example of a screen showing a result of face analysis according to various embodiments of the present disclosure;

도 35를 참조하면, 사용자가 분석 결과 화면(3500)의 분석 항목 선택 영역(3530)에서 피부톤(tone) 버튼(3531)을 선택한 경우, 상기 분석 결과 화면(3500)은 다양한 분석 항목 중 피부톤에 대해 분석된 결과가 상기 이미지 영역(3510) 혹은 분석 결과 영역(3520)을 통해 표시될 수 있다. Referring to FIG. 35 , when the user selects a skin tone button 3531 in the analysis item selection area 3530 of the analysis result screen 3500, the analysis result screen 3500 displays the skin tone among various analysis items. The analyzed result may be displayed through the image area 3510 or the analysis result area 3520 .

상기 이미지 영역(3510)에서는 전자 장치에 저장된 이미지들을 기반으로, 피부톤에 대해 분석된 적어도 하나의 얼굴 영역(예, 이마(L), 볼(A) 혹은 턱(B) 영역)이 분석된 결과가 이미지로 표시될 수 있다. 예컨대, 각 얼굴 영역의 색깔은 피부 상태에 따라 다르게 표시됨으로써 사용자는 표시된 색깔로 해당 얼굴 영역의 피부 상태를 확인할 수 있다. In the image area 3510, based on the images stored in the electronic device, at least one facial area (eg, forehead (L), cheek (A), or chin (B) area) analyzed for skin tone is analyzed based on the result of the analysis. It can be displayed as an image. For example, the color of each face region is displayed differently according to the skin state, so that the user can check the skin state of the corresponding face region with the displayed color.

상기 분석 결과 영역(3520)에서는 피부톤의 균일도에 대해 분석한 결과를 이마(L), 볼(A) 혹은 턱(B) 영역 각각에 대해 평균 점수와 비교한 그래프(3521) 혹은 전체 얼굴 영역에서 피부톤 균일도에 대한 점수(3522)가 표시될 수 있다. In the analysis result area 3520 , a graph 3521 comparing the result of analyzing the skin tone uniformity with the average score for each of the forehead (L), cheek (A), or chin (B) area or the skin tone in the entire face area A score 3522 for uniformity may be displayed.

본 발명의 다양한 실시 예에 따라, 사용자가 점수(3522)를 선택한 경우, 상기 분석 결과 영역(3520)은 전체 얼굴영역에 대한 피부톤 변화에 대한 세부 분석한 결과를 제공할 수 있다. 예컨대, 상기 분석 결과 영역(3520)은 각 얼굴 영역(예, 이마(L), 볼(A) 혹은 턱(B) 영역)에 대해 한달 전 피부톤 상태와 현재 측정된 피부톤 균일도 상태를 비교한 그래프(3523) 혹은 각 얼굴 영역의 피부톤의 균일도 상태가 이전보다 얼마만큼 향상되었는지를 나타내는 그래프(3524)를 포함할 수 있다. According to various embodiments of the present disclosure, when the user selects the score 3522 , the analysis result area 3520 may provide a detailed analysis result of skin tone changes for the entire face area. For example, the analysis result area 3520 is a graph comparing the skin tone state one month ago and the currently measured skin tone uniformity state for each face area (eg, forehead (L), cheek (A), or chin (B) area). 3523) or a graph 3524 indicating how much the skin tone uniformity state of each face region has improved compared to the previous one.

도 36은 본 발명의 다양한 실시 예에 따라, 저장된 이미지를 기반으로 분석한 얼굴 정보의 히스토리를 보여주는 어플리케이션 화면의 일 예를 도시한 도면이다.36 is a diagram illustrating an example of an application screen showing a history of face information analyzed based on a stored image, according to various embodiments of the present disclosure;

도 36을 참조하면, 얼굴 정보를 분석하는 어플리케이션을 통해 얼굴 정보를 분석한 결과를 포함하는 분석 결과 화면(3600)이 표시되면, 상기 분석된 얼굴 정보와 관련된 기능을 포함하는 메뉴(3601)가 표시될 수 있다. 예컨대, 상기 메뉴(3601)가 선택되면, 적어도 하나의 선택된 이미지를 시범적으로 분석하기 위한 영상 전체 분석, 상기 분석한 얼굴 정보의 히스토리를 표시하는 변화 관리(3602) 혹은 이전에 분석한 얼굴 정보의 데이터를 초기화 시키는 DB 초기화 기능을 선택할 수 있는 선택 항목들이 표시될 수 있으며, 그 외 얼굴 정보의 분석과 관련된 다양한 기능들이 상기 메뉴(3601)에 포함될 수 있다. Referring to FIG. 36 , when an analysis result screen 3600 including a result of analyzing face information through an application for analyzing face information is displayed, a menu 3601 including a function related to the analyzed face information is displayed can be For example, when the menu 3601 is selected, the entire image analysis for trially analyzing at least one selected image, the change management 3602 displaying the history of the analyzed face information, or the previously analyzed face information Selection items for selecting a DB initialization function for initializing data may be displayed, and various other functions related to analysis of face information may be included in the menu 3601 .

본 발명의 다양한 실시 예에 따라, 사용자가 상기 변화 관리(3602)를 선택한 경우, 이전에 분석된 얼굴 정보의 변화가 분석 결과 화면의 이미지 영역(3610) 혹은 분석 결과 영역(3620)을 통해 표시될 수 있다. 예컨대, 상기 분석 결과 영역(3620)은 얼굴 정보가 분석된 시간 구간 동안 각 분석 항목에 따른 얼굴 분석의 결과를 그래프(3621)로 표시할 수 있으며, 상기 이미지 영역(3610)에서는 상기 그래프(3621)에서 사용자 입력이 입력된 특정 시점에서 얼굴 정보를 분석한 이미지가 표시될 수 있다. According to various embodiments of the present disclosure, when the user selects the change management 3602 , the change in the previously analyzed face information is displayed through the image area 3610 or the analysis result area 3620 of the analysis result screen. can For example, the analysis result area 3620 may display the face analysis result according to each analysis item as a graph 3621 during the time period in which the face information is analyzed, and in the image area 3610, the graph 3621 An image obtained by analyzing face information at a specific point in time when a user input is input may be displayed.

도 37은 본 발명의 다양한 실시 예에 따라, 분석된 얼굴 정보의 히스토리를 보여주는 화면의 일 예를 도시한 도면이다. 37 is a diagram illustrating an example of a screen showing a history of analyzed face information, according to various embodiments of the present disclosure;

도 37을 참조하면, 사용자는 분석 결과 화면(3700)에서 분석 결과의 변화를 확인하고자 하는 분석 항목 혹은 이미지 영역을 선택할 수 있다. 예컨대, 상기 사용자는 색소 침착에 대한 분석 결과의 변화를 확인하고자, 분석 항목(예, 요약, 주름, 트러블 혹은 색소 침착) 중 요약 버튼을 선택할 수 있다. Referring to FIG. 37 , a user may select an analysis item or an image region to check a change in the analysis result on the analysis result screen 3700 . For example, the user may select a summary button among analysis items (eg, summary, wrinkle, trouble, or pigmentation) to check a change in the analysis result for pigmentation.

본 발명의 다양한 실시 예에 따라, 상기 사용자는 사용자 입력(예, 핀치 인/아웃 혹은 탭 앤 드래그)(3701)을 입력하여, 이미지 영역에 표시된 이미지의 크기를 확대하거나 위치를 이동시켜 분석 결과의 변화를 확인하고자 하는 이미지 영역을 설정할 수 있다. According to various embodiments of the present disclosure, the user inputs a user input (eg, pinch in/out or tap and drag) 3701 to enlarge the size of the image displayed in the image area or move the location of the analysis result. You can set the image area where you want to check the change.

본 발명의 다양한 실시 예에 따라, 상기 분석 결과 화면(3700)은 설정된 이미지 영역을 표시하고, 상기 표시된 이미지 영역에 대해 적어도 하나의 분석 항목(예, 색소 침착, 트러블 혹은 주름)에 따라 분석한 결과의 변화를 그래프로 표시할 수 있다. 예컨대, 상기 그래프는 얼굴 정보가 분석된 시간 및 상기 시간에 해당하는 분석 결과를 도시한 것으로, 사용자 입력이 특정 시간으로 입력되면 해당 시점에서 얼굴 정보가 분석된 이미지가 표시될 수 있다. According to various embodiments of the present disclosure, the analysis result screen 3700 displays a set image area, and results of analyzing the displayed image area according to at least one analysis item (eg, pigmentation, trouble or wrinkles) change can be displayed as a graph. For example, the graph shows a time at which the face information was analyzed and an analysis result corresponding to the time, and when a user input is input at a specific time, an image in which the face information is analyzed at that time may be displayed.

도 38은 본 발명의 다양한 실시 예에 따라, 분석된 얼굴 정보의 히스토리를 보여주는 화면의 일 예를 도시한 도면이다. 38 is a diagram illustrating an example of a screen showing a history of analyzed face information, according to various embodiments of the present disclosure;

도 38을 참조하면, 분석 결과 화면(3800)은 이미지 영역(3810) 혹은 분석 결과 영역(3820)을 포함할 수 있다. Referring to FIG. 38 , the analysis result screen 3800 may include an image area 3810 or an analysis result area 3820 .

본 발명의 다양한 실시 예에 따라, 사용자는 주름에 관한 분석 결과의 변화를 확인하기 위하여, 분석 항목들(예, 요약, 주름(3831), 트러블 혹은 색소 침착) 중 주름(3831)을 선택할 수 있다. According to various embodiments of the present disclosure, a user may select a wrinkle 3831 from among analysis items (eg, summary, wrinkle 3831, trouble or pigmentation) in order to confirm a change in the analysis result regarding wrinkles. .

상기 이미지 영역(3810)에서는 이미지의 얼굴 영역 중 주름에 대해 분석한 결과가 표시될 수 있다. 예컨대, 주름에 대해 분석한 결과는 선의 형태로 표시되며, 선의 굵기 혹은 길이에 따라 주름의 깊이 혹은 길이를 나타낼 수 있다. In the image area 3810 , a result of analyzing wrinkles among the face areas of the image may be displayed. For example, the result of analyzing wrinkles is displayed in the form of a line, and the depth or length of the wrinkles may be indicated according to the thickness or length of the line.

상기 분석 결과 영역(3820)은 상기 주름에 대해 분석된 결과를 이전에 분석된 시간에 따른 각 얼굴 영역(예, C존의 오른쪽(CR) 혹은 왼쪽(CL), M존의 오른쪽(MR) 혹은 왼쪽(ML) 영역) 별 주름 상태를 그래프로 나타낼 수 있다. The analysis result area 3820 displays the results of the analysis on the wrinkles in each facial area according to the time previously analyzed (eg, right (CR) or left (CL) of zone C, right (MR) of zone M) or The wrinkle state by left (ML) area) can be represented as a graph.

본 발명의 다양한 실시 예에 따라, 사용자가 상기 그래프에서 특정 시간으로 사용자 입력(예, 탭 혹은 스와이프)을 입력하면, 해당 시점에서 주름을 분석하기 위해 사용된 이미지가 상기 이미지 영역(3810)을 통해 표시되며, 상기 표시된 이미지에는 해당 시점에서 주름이 분석된 결과가 표시될 수 있다. According to various embodiments of the present disclosure, when the user inputs a user input (eg, tap or swipe) at a specific time in the graph, the image used to analyze the wrinkles at that time is the image region 3810 . is displayed, and in the displayed image, the result of analysis of wrinkles at the corresponding time point may be displayed.

도 39는 본 발명의 다양한 실시 예에 따라, 분석된 얼굴 정보의 히스토리를 보여주는 화면의 일 예를 도시한 도면이다. 39 is a diagram illustrating an example of a screen showing a history of analyzed face information, according to various embodiments of the present disclosure;

도 39를 참조하면, 분석 결과 화면(3900)은 이미지 영역(3910) 혹은 분석 결과 영역(3920)을 포함할 수 있다. Referring to FIG. 39 , the analysis result screen 3900 may include an image area 3910 or an analysis result area 3920 .

본 발명의 다양한 실시 예에 따라, 사용자는 트러블에 관한 분석 결과의 변화를 확인하기 위하여, 분석 항목들(예, 요약, 주름, 트러블(3931) 혹은 색소 침착) 중 트러블(3931)을 선택할 수 있다. According to various embodiments of the present disclosure, the user may select the trouble 3931 from among the analysis items (eg, summary, wrinkles, trouble 3931 or pigmentation) in order to check a change in the analysis result related to the trouble. .

상기 이미지 영역(3910)에서는 이미지의 얼굴 영역 중 트러블에 대해 분석한 결과가 표시될 수 있다. 예컨대, 트러블에 대해 분석한 결과는 해당 트러블에 대응하는 형태로 표시되며, 형태의 크기 혹은 색깔에 따라 트러블의 크기 혹은 상태를 나타낼 수 있다. In the image area 3910 , a result of analyzing troubles among the face areas of the image may be displayed. For example, a result of analyzing a trouble is displayed in a form corresponding to the trouble, and the size or state of the trouble may be indicated according to the size or color of the form.

상기 분석 결과 영역(3920)은 상기 트러블에 대해 분석된 결과를 이전에 분석된 시간에 따른 각 얼굴 영역(예, 오른쪽(R), 왼쪽(L), 위쪽(T) 혹은 아래쪽(B) 영역) 별 트러블 상태를 그래프로 나타낼 수 있다. The analysis result area 3920 contains the results analyzed for the troubles in each face area according to the time previously analyzed (eg, right (R), left (L), upper (T) or lower (B) area). It can represent the problem state by graph.

본 발명의 다양한 실시 예에 따라, 사용자가 상기 그래프에서 특정 시간으로 사용자 입력(예, 탭 혹은 스와이프)을 입력하면, 해당 시점에서 트러블을 분석하기 위해 사용된 이미지가 상기 이미지 영역(3910)을 통해 표시되며, 상기 표시된 이미지에는 해당 시점에서 트러블이 분석된 결과가 표시될 수 있다. According to various embodiments of the present disclosure, when the user inputs a user input (eg, tap or swipe) at a specific time in the graph, the image used to analyze the trouble at that time is the image area 3910 . is displayed, and the displayed image may display the result of analyzing the trouble at the time point.

도 40은 본 발명의 다양한 실시 예에 따라, 분석된 얼굴 정보의 히스토리를 보여주는 화면의 일 예를 도시한 도면이다. 40 is a diagram illustrating an example of a screen showing a history of analyzed face information, according to various embodiments of the present disclosure.

도 40을 참조하면, 분석 결과 화면(4000)은 이미지 영역(4010) 혹은 분석 결과 영역(4020)을 포함할 수 있다. Referring to FIG. 40 , the analysis result screen 4000 may include an image area 4010 or an analysis result area 4020 .

본 발명의 다양한 실시 예에 따라, 사용자는 색소 침착에 관한 분석 결과의 변화를 확인하기 위하여, 분석 항목들(예, 요약, 주름, 트러블 혹은 색소 침착(4031)) 중 색소 침착(4031)을 선택할 수 있다. According to various embodiments of the present disclosure, a user may select a pigmentation 4031 among analysis items (eg, summary, wrinkles, troubles, or pigmentation 4031 ) in order to confirm a change in the analysis result regarding pigmentation. can

상기 이미지 영역(4010)에서는 이미지의 얼굴 영역 중 색소 침착에 대해 분석한 결과가 표시될 수 있다. 예컨대, 색소 침착에 대해 분석한 결과는 해당 색소 침착에 대응하는 형태로 표시되며, 형태의 크기 혹은 색깔에 따라 색소 침착의 크기 혹은 상태를 나타낼 수 있다. In the image region 4010 , a result of analyzing pigmentation among the face regions of the image may be displayed. For example, a result of analyzing the pigmentation is displayed in a form corresponding to the pigmentation, and the size or state of the pigmentation may be indicated according to the size or color of the form.

상기 분석 결과 영역(4020)은 상기 색소 침착에 대해 분석된 결과를 이전에 분석된 시간에 따른 각 얼굴 영역(예, 오른쪽(R), 왼쪽(L), 위쪽(T) 혹은 아래쪽(B) 영역) 별 색소 침착 상태를 그래프로 나타낼 수 있다. The analysis result area 4020 displays the results of the analysis on the pigmentation according to the time previously analyzed in each facial area (eg, right (R), left (L), upper (T), or lower (B) area). ) of the star pigmentation state can be expressed as a graph.

본 발명의 다양한 실시 예에 따라, 사용자가 상기 그래프에서 특정 시간으로 사용자 입력(예, 탭 혹은 스와이프)을 입력하면, 해당 시점에서 색소 침착을 분석하기 위해 사용된 이미지가 상기 이미지 영역(4010)을 통해 표시되며, 상기 표시된 이미지에는 해당 시점에서 색소 침착이 분석된 결과가 표시될 수 있다. According to various embodiments of the present disclosure, when the user inputs a user input (eg, tap or swipe) at a specific time in the graph, the image used to analyze the pigmentation at that time is the image area 4010 . is displayed, and in the displayed image, the result of analyzing the pigmentation at the time point may be displayed.

도 41은 본 발명의 다양한 실시 예에 따라, 분석된 얼굴 정보의 히스토리를 보여주는 화면의 일 예를 도시한 도면이다. 41 is a diagram illustrating an example of a screen showing a history of analyzed face information, according to various embodiments of the present disclosure.

도 41을 참조하면, 얼굴 정보를 분석하는 어플리케이션의 메뉴(예, 3601)에서 변화 관리(예, 3602)가 선택되면, 분석 결과 화면(4100)은 다양한 분석 항목에 따른 분석 결과의 히스토리를 표시할 수 있다. Referring to FIG. 41 , when change management (eg, 3602) is selected from the menu (eg, 3601) of the application that analyzes face information, the analysis result screen 4100 displays the history of analysis results according to various analysis items. can

본 발명의 다양한 실시 예에 따라, 상기 분석 결과 화면(4100)은 선택된 분석 항목에 대해 특정 시점에서 얼굴 정보가 분석된 이미지를 포함하는 이미지 영역(4110) 혹은 이전에 분석된 결과를 각 분석 항목(예, (색소)침착, 트러블 혹은 에 대해 분석된 시점 대 피부 상태 점수로 나타낸 그래프를 포함하는 분석 결과 영역(4120)을 포함할 수 있다. According to various embodiments of the present disclosure, the analysis result screen 4100 displays the image area 4110 including the image in which the face information is analyzed at a specific point in time for the selected analysis item or the previously analyzed result for each analysis item ( For example, it may include an analysis result area 4120 including a graph representing a skin condition score versus time point analyzed for (pigmentation), trouble, or .

본 발명의 다양한 실시 예에 따라, 사용자가 분석 항목(예, 요약(4131), 주름, 트러블 혹은 색소 침착) 중 요약(4131)을 선택한 경우, 얼굴 정보가 분석된 이미지 중 제1시점(4121)에서 분석된 이미지(4111)가 상기 이미지 영역(4110)을 통해 표시될 수 있다. 상기 이미지(4111)에 대해 얼굴 정보를 분석한 결과는 상기 분석 결과 영역(4120)을 통해 그래프로 표시될 수 있다. According to various embodiments of the present disclosure, when the user selects the summary 4131 among the analysis items (eg, summary 4131, wrinkles, troubles, or pigmentation), the first time point 4121 among the images analyzed with facial information The analyzed image 4111 may be displayed through the image area 4110 . A result of analyzing the face information for the image 4111 may be displayed as a graph through the analysis result area 4120 .

본 발명의 다양한 실시 예에 따라, 사용자 입력(4101)이 상기 그래프의 특정 분석 시점에 해당하는 위치로 입력되면, 상기 이미지 영역(4110)에서는 상기 사용자 입력이 입력된 시점에서 분석된 이미지가 표시될 수 있다. 예컨대, 상기 이미지 영역(4110)에서는, 사용자 입력(4101)이 제2시점(4122)에 해당하는 위치로 입력되면 상기 제2시점(4122)에서 얼굴 정보가 분석된 이미지(4112)가 표시되며, 제3시점(4123)에 해당하는 위치로 입력되면 상기 제3시점(4123)에서 얼굴 정보가 분석된 이미지(4113)가 표시될 수 있다. According to various embodiments of the present disclosure, when a user input 4101 is input to a location corresponding to a specific analysis point of the graph, an image analyzed at the time when the user input is input is displayed in the image area 4110. can For example, in the image area 4110, when a user input 4101 is input to a position corresponding to the second time point 4122, an image 4112 with facial information analyzed at the second time point 4122 is displayed, When a position corresponding to the third time point 4123 is input, an image 4113 in which face information is analyzed at the third time point 4123 may be displayed.

본 발명의 다양한 실시 예에 따라, 상기 표시되는 이미지(4111, 4112 혹은 4113)는 사용자 입력이 입력된 시점(예, 제1시점(4121), 제2시점(4122) 혹은 제3시점(4123))에서 얼굴 정보를 분석하기 위하여 사용된 것이며, 해당 시점에서 각 분석 항목에 대해 분석한 결과가 상기 표시된 이미지에 중첩되어 표시됨으로써 사용자는 해당 분석 항목에 대한 피부 상태를 확인할 수 있다. According to various embodiments of the present disclosure, the displayed image 4111 , 4112 or 4113 is a time point at which a user input is input (eg, a first time point 4121 , a second time point 4122 , or a third time point 4123 ). ) is used to analyze the face information, and the results of the analysis for each analysis item at the time point are displayed overlaid on the displayed image, so that the user can check the skin condition for the analysis item.

도 42는 본 발명의 다양한 실시 예에 따라, 분석된 얼굴 정보의 히스토리를 보여주는 화면의 일 예를 도시한 도면이다. 42 is a diagram illustrating an example of a screen showing a history of analyzed face information, according to various embodiments of the present disclosure;

도 42를 참조하면, 얼굴 정보를 분석하는 어플리케이션의 메뉴(예, 3601)에서 변화 관리(예, 3602)가 선택되면, 분석 결과 화면(4200)에서는 분석 항목(예, 주름(4231))에 따른 분석 결과의 히스토리가 표시될 수 있다. 예컨대, 상기 분석 결과 화면(4200)은 이미지 영역(4210) 혹은 분석 결과 영역(4220)을 포함할 수 있다. Referring to FIG. 42 , when change management (eg, 3602) is selected from the menu (eg, 3601) of the application that analyzes face information, in the analysis result screen 4200, according to the analysis item (eg, wrinkles 4231) A history of analysis results may be displayed. For example, the analysis result screen 4200 may include an image area 4210 or an analysis result area 4220 .

본 발명의 다양한 실시 예에 따라, 상기 이미지 영역(4210)에 표시된 이미지는 제1시점(4221)에서 얼굴 정보가 분석된 이미지(4211)이며, 상기 이미지(4211)는 사용자 입력(예, 핀치 인/아웃)에 따라 크기가 변경(예, 확대)될 수 있다. 예컨대, 사용자는 상기 크기가 변경된 이미지를 통해, 특정 시점에서 분석된 이미지에서의 피부 상태를 자세하게 확인할 수 있다. According to various embodiments of the present disclosure, the image displayed on the image area 4210 is an image 4211 in which face information is analyzed at a first time point 4221 , and the image 4211 is a user input (eg, pinch-in). /out), the size may be changed (eg, enlarged). For example, the user may check the skin condition in the image analyzed at a specific time point in detail through the image whose size has been changed.

본 발명의 다양한 실시 예에 따라, 상기 이미지 영역(4210)에서 사용자 입력에 따라 크기 혹은 위치가 변경된 이미지의 설정은 다른 시점에서도 유지될 수 있다. 예컨대, 4211 이미지에 사용자 입력이 입력됨에 따라 이미지가 확대되면, 상기 확대의 설정이 제2시점(4222)에서 분석된 이미지(4212)에도 적용되어 표시될 수 있다. 상기 제2시점(4222)에서 분석된 이미지는 이전에 이미지가 확대된 영역과 대응하게 표시될 수 있다. According to various embodiments of the present disclosure, the setting of the image whose size or location is changed according to a user input in the image area 4210 may be maintained at another time point. For example, if the image is enlarged as a user input is input to the 4211 image, the setting of the enlargement may be applied to the image 4212 analyzed at the second time point 4222 and displayed. The image analyzed at the second time point 4222 may be displayed to correspond to a previously enlarged area.

도 43은 본 발명의 다양한 실시 예에 따라, 분석된 얼굴 정보의 히스토리를 보여주는 화면의 일 예를 도시한 도면이다. 43 is a diagram illustrating an example of a screen showing a history of analyzed face information, according to various embodiments of the present disclosure.

도 43을 참조하면, 분석 결과 화면(4300)은 다양한 분석 항목 중 하나가 선택되면, 상기 선택된 분석 항목에 따른 결과를 이미지 영역(4310) 혹은 분석 결과 영역(4320)을 통해 표시할 수 있다. Referring to FIG. 43 , when one of various analysis items is selected on the analysis result screen 4300 , a result according to the selected analysis item may be displayed through the image area 4310 or the analysis result area 4320 .

본 발명의 다양한 실시 예에 따라, 사용자가 분석 항목(예, 요약, 주름, 트러블(4331) 혹은 색소 침착) 중 트러블(4331)을 선택한 경우, 트러블에 대해 분석된 이미지(4311)가 상기 이미지 영역(4310)을 통해 표시될 수 있다. 상기 이미지(4311)에 대해 트러블을 분석한 결과는 상기 분석 결과 영역(4320)을 통해 그래프(4321)로 표시될 수 있다. According to various embodiments of the present disclosure, when the user selects the trouble 4331 among the analysis items (eg, summary, wrinkles, trouble 4331 or pigmentation), the image 4311 analyzed for the trouble is the image area It can be indicated through (4310). A result of analyzing the trouble with respect to the image 4311 may be displayed as a graph 4321 through the analysis result area 4320 .

본 발명의 다양한 실시 예에 따라, 상기 표시되는 이미지(4311)는 사용자 입력이 입력된 시점에서 얼굴 정보를 분석하기 위하여 사용된 것이며, 분석된 트러블에 대응하는 도형이 상기 표시된 이미지에 중첩되어 표시됨으로써 사용자는 트러블의 위치 혹은 상태를 확인할 수 있다. According to various embodiments of the present disclosure, the displayed image 4311 is used to analyze face information when a user input is input, and a figure corresponding to the analyzed trouble is displayed by being superimposed on the displayed image. The user can check the location or status of the trouble.

본 발명의 다양한 실시 예에 따라, 사용자는 사용자 입력(예, 탭 앤 드래그)(4301)를 입력하여, 이미지에서 확인하고자 하는 영역을 상기 이미지 영역(4310)으로 이동시킬 수 있다. 예컨대, 상기 이동된 이미지 영역(4312)에서 트러블을 분석한 결과가 상기 분석 결과 영역을 통해 그래프(4322)로 표시될 수 있다. According to various embodiments of the present disclosure, the user may input a user input (eg, tap and drag) 4301 to move an area to be checked in the image to the image area 4310 . For example, a result of analyzing a trouble in the moved image area 4312 may be displayed as a graph 4322 through the analysis result area.

본 발명의 다양한 실시 예에 따라, 상기 이미지 영역(4310)에 표시되는 이미지는 사용자 입력이 입력됨에 따라 표시되는 크기 혹은 위치의 설정이 유지될 수 있으며, 특정 시점이 선택되더라도 해당 시점에서 분석된 이미지는 상기 변경된 크기 혹은 위치의 설정에 따라 표시될 수 있다. According to various embodiments of the present disclosure, the size or position of the image displayed on the image area 4310 may be maintained as a user input is input, and even if a specific time point is selected, the image analyzed at that time point may be displayed according to the changed size or location setting.

도 44는 본 발명의 다양한 실시 예에 따라, 분석된 얼굴 정보의 히스토리를 보여주는 화면의 일 예를 도시한 도면이다. 44 is a diagram illustrating an example of a screen showing a history of analyzed face information, according to various embodiments of the present disclosure;

도 44를 참조하면, 분석 결과 화면(4400)은 다양한 분석 항목 중 하나(예, 트러블(4431))가 선택되면, 상기 선택된 분석 항목에 따른 얼굴 정보의 히스토리를 이미지 영역(4410) 혹은 분석 결과 영역(4420)을 통해 표시할 수 있다. Referring to FIG. 44 , in the analysis result screen 4400 , when one of various analysis items (eg, trouble 4431) is selected, the history of face information according to the selected analysis item is displayed in the image area 4410 or the analysis result area. It can be indicated through (4420).

본 발명의 다양한 실시 예에 따라, 상기 이미지 영역(4410)은 특정 이미지에서 이동 혹은 확대될 수 있으며, 상기 이동 혹은 확대된 위치는 다른 시점에서 분석된 이미지를 표시하는 경우에도 유지될 수 있다. 예컨대, 사용자는 상기 이미지 영역(4410)을 사용자 입력(예, 터치 제스처)을 입력하여, 확인하고자 하는 영역으로 상기 이미지 영역(4410)을 이동시키거나 이동된 영역을 확대시킬 수 있다. According to various embodiments of the present disclosure, the image area 4410 may be moved or enlarged in a specific image, and the moved or enlarged position may be maintained even when an image analyzed at another time is displayed. For example, the user may input a user input (eg, a touch gesture) to the image area 4410 to move the image area 4410 to a desired area or to enlarge the moved area.

본 발명의 다양한 실시 예에 따라, 사용자는 분석 항목들 중 트러블(4431)을 선택하고 이미지 영역(4410)의 위치를 왼쪽 볼 영역에 위치 혹은 확대시킬 수 있다. 여기서 상기 이미지 영역(4410)에서는 상기 트러블(4431)에 대해 분석된 이미지들 중 가장 먼저 분석된 시점에서의 이미지가 표시될 수 있다. According to various embodiments of the present disclosure, the user may select the trouble 4431 from among the analysis items and position or enlarge the position of the image area 4410 to the left cheek area. Here, in the image area 4410 , an image at the first analyzed time point among the images analyzed for the trouble 4431 may be displayed.

본 발명의 다양한 실시 예에 따라, 사용자는 제1시점(4421)으로 사용자 입력(4401)을 입력함에 따라, 상기 이미지 영역(4410)에서는 상기 제1시점(4421)에서 분석된 제1이미지(4411)가 표시될 수 있다. 예컨대, 사용자가 이미지 영역(4410)을 이동 혹은 확대시킨 것과 대응하여, 상기 제1이미지(4411) 중 상기 대응되는 이동 혹은 확대된 위치에서의 영역이 표시될 수 있다. According to various embodiments of the present disclosure, as the user inputs the user input 4401 as the first viewpoint 4421 , in the image area 4410 , the first image 4411 analyzed at the first viewpoint 4421 is ) may be displayed. For example, in response to the user moving or enlarging the image area 4410 , the area at the corresponding moved or enlarged position among the first image 4411 may be displayed.

본 발명의 다양한 실시 예에 따라, 사용자 입력(4401)이 제2시점(4422)으로 입력되는 경우, 상기 제2시점(4422)에서 분석된 제2이미지(4412)가 상기 이미지 영역(4410)을 통해 표시될 수 있다. 예컨대, 사용자가 이미지 영역(4410)을 이동 혹은 확대시킨 것과 대응하여, 상기 제2이미지(4412) 중 상기 대응되는 이동 혹은 확대된 위치에서의 영역이 표시될 수 있다. According to various embodiments of the present disclosure, when a user input 4401 is input as the second time point 4422 , the second image 4412 analyzed at the second time point 4422 is the image area 4410 . can be displayed through For example, in response to the user moving or enlarging the image area 4410 , the area at the corresponding moved or enlarged position among the second image 4412 may be displayed.

본 발명의 다양한 실시 예에 따라, 사용자 입력(4401)이 제3시점(4423)으로 입력되는 경우, 상기 제3시점(4423)에서 분석된 제3이미지(4413)가 상기 이미지 영역(4410)을 통해 표시될 수 있다. 예컨대, 사용자가 이미지 영역(4410)을 이동 혹은 확대시킨 것과 대응하여, 상기 제3이미지(4413) 중 상기 대응되는 이동 혹은 확대된 위치에서의 영역이 표시될 수 있다. According to various embodiments of the present disclosure, when a user input 4401 is input as the third time point 4423 , the third image 4413 analyzed at the third time point 4423 is the image area 4410 . can be displayed through For example, in response to the user moving or enlarging the image area 4410 , the area at the corresponding moved or enlarged position among the third image 4413 may be displayed.

도 45는 본 발명의 다양한 실시 예에 따라, 분석된 얼굴 정보의 히스토리를 보여주는 화면의 일 예를 도시한 도면이다. 45 is a diagram illustrating an example of a screen showing a history of analyzed face information, according to various embodiments of the present disclosure.

도 45를 참조하면, 분석 결과 화면(4500)은 다양한 분석 항목 중 하나(예, 색소 침착(4531))가 선택되면, 상기 선택된 분석 항목에 따른 얼굴 정보의 히스토리를 이미지 영역(4510) 혹은 분석 결과 영역(4520)을 통해 표시할 수 있다. Referring to FIG. 45 , in the analysis result screen 4500 , when one of various analysis items (eg, pigmentation 4531 ) is selected, the history of face information according to the selected analysis item is displayed in the image area 4510 or the analysis result. It may be displayed through the area 4520 .

본 발명의 다양한 실시 예에 따라, 상기 이미지 영역(4510)은 특정 이미지에서 이동 혹은 확대될 수 있으며, 상기 이동 혹은 확대된 위치는 다른 시점에서 분석된 이미지를 표시하는 경우에도 유지될 수 있다. 예컨대, 사용자는 상기 이미지 영역(4510)을 사용자 입력(예, 터치 제스처)을 입력하여, 확인하고자 하는 영역으로 상기 이미지 영역(4510)을 이동시키거나 이동된 영역을 확대시킬 수 있다. According to various embodiments of the present disclosure, the image area 4510 may be moved or enlarged in a specific image, and the moved or enlarged position may be maintained even when an image analyzed from another viewpoint is displayed. For example, the user may input a user input (eg, a touch gesture) to the image area 4510 to move the image area 4510 to a desired area or to enlarge the moved area.

본 발명의 다양한 실시 예에 따라, 사용자는 분석 항목들 중 색소 침착(4531)을 선택하고 이미지 영역(4510)의 위치를 왼쪽 볼 영역에 위치 혹은 확대시킬 수 있다. 여기서 상기 이미지 영역(4510)에서는 상기 색소 침착(4531)에 대해 분석된 이미지들 중 가장 먼저 분석된 시점에서의 이미지가 표시될 수 있다. According to various embodiments of the present disclosure, the user may select the pigmentation 4531 from among the analysis items and position or enlarge the position of the image region 4510 on the left cheek region. Here, in the image area 4510 , an image at the first analyzed time point among the images analyzed for the pigmentation 4531 may be displayed.

본 발명의 다양한 실시 예에 따라, 사용자는 제1시점(4521)으로 사용자 입력(4501)을 입력함에 따라, 상기 이미지 영역(4510)에서는 상기 제1시점(4521)에서 분석된 제1이미지(4511)가 표시될 수 있다. 예컨대, 사용자가 이미지 영역(4510)을 이동 혹은 확대시킨 것과 대응하여, 상기 제1이미지(4511) 중 상기 대응되는 이동 혹은 확대된 위치에서의 영역이 표시될 수 있다. According to various embodiments of the present disclosure, as the user inputs the user input 4501 as the first viewpoint 4521 , in the image area 4510 , the first image 4511 analyzed at the first viewpoint 4521 is displayed. ) may be displayed. For example, in response to the user moving or enlarging the image area 4510 , the area at the corresponding moved or enlarged position among the first image 4511 may be displayed.

본 발명의 다양한 실시 예에 따라, 사용자 입력(4501)이 제2시점(4522)으로 입력되는 경우, 상기 제2시점(4522)에서 분석된 제2이미지(4512)가 상기 이미지 영역(4510)을 통해 표시될 수 있다. 예컨대, 사용자가 이미지 영역(4510)을 이동 혹은 확대시킨 것과 대응하여, 상기 제2이미지(4512) 중 상기 대응되는 이동 혹은 확대된 위치에서의 영역이 표시될 수 있다. According to various embodiments of the present disclosure, when a user input 4501 is input as the second time point 4522 , the second image 4512 analyzed at the second time point 4522 is the image area 4510 . can be displayed through For example, in response to the user moving or enlarging the image area 4510 , the area at the corresponding moved or enlarged position among the second image 4512 may be displayed.

본 발명의 다양한 실시 예에 따라, 사용자 입력(4501)이 제3시점(4523)으로 입력되는 경우, 상기 제3시점(4523)에서 분석된 제3이미지(4513)가 상기 이미지 영역(4510)을 통해 표시될 수 있다. 예컨대, 사용자가 이미지 영역(4510)을 이동 혹은 확대시킨 것과 대응하여, 상기 제3이미지(4513) 중 상기 대응되는 이동 혹은 확대된 위치에서의 영역이 표시될 수 있다. According to various embodiments of the present disclosure, when the user input 4501 is input as the third time point 4523 , the third image 4513 analyzed at the third time point 4523 is the image area 4510 . can be displayed through For example, in response to the user moving or enlarging the image area 4510 , the area at the corresponding moved or enlarged position among the third image 4513 may be displayed.

도 46은 본 발명의 다양한 실시 예에 따라, 얼굴 분석을 위하여 촬영하는 동작의 일 예를 도시한 도면이다. 46 is a diagram illustrating an example of an operation of photographing for face analysis, according to various embodiments of the present disclosure.

도 46을 참조하면, 전자 장치에서는 상기 전자 장치의 전면부에 위치한 카메라 모듈을 활성화시켜, 사용자의 얼굴 이미지를 획득할 수 있다. 예컨대, 전자 장치는 미리 설정된 주기마다, 특정 각도로 사용자의 얼굴이 촬영되는 경우, 상기 전자 장치가 특정 각도로 기울여진 경우 등 다양한 상황에서 이미지를 획득할 수 있다. Referring to FIG. 46 , the electronic device may acquire a face image of the user by activating a camera module located on the front part of the electronic device. For example, the electronic device may acquire images in various situations, such as when the user's face is photographed at a specific angle at every preset period, when the electronic device is tilted at a specific angle, and the like.

본 발명의 다양한 실시 예에 따라, 사용자는 전자 장치를 이용하여 웹 브라우저 화면을 보고 있는 상황인 경우, 상기 전자 장치는 카메라 모듈을 백 그라운드로 실행시켜, 웹 브라우저 화면과는 상관 없이 사용자의 얼굴 이미지(4600)를 촬영할 수 있다. According to various embodiments of the present disclosure, when the user is viewing the web browser screen using the electronic device, the electronic device executes the camera module in the background to image the user's face regardless of the web browser screen. (4600) can be photographed.

본 발명의 다양한 실시 예에 따라, 전자 장치는 촬영된 얼굴 이미지(4600)에서 적어도 하나의 기준점(4601)을 확인하고 상기 기준점을 이용하여 얼굴 영역을 확인하여 얼굴 정보를 분석할 수 있다. According to various embodiments of the present disclosure, the electronic device may identify at least one reference point 4601 in the photographed face image 4600 and identify a face region using the reference point to analyze face information.

도 47a 및 도 47b는 피부 분석의 결과를 보여주는 화면의 다양한 예들을 도시한 도면들이다. 47A and 47B are views illustrating various examples of screens showing results of skin analysis.

본 발명의 다양한 실시 예에 따라, 분석 결과 화면(4700)은 디스플레이의 크기 혹은 회전 방향에 따라 다양한 레이아웃으로 구성될 수 있다. According to various embodiments of the present disclosure, the analysis result screen 4700 may be configured in various layouts according to the size or rotation direction of the display.

도 47a 및 도 47b를 참조하면, 디스플레이가 가로로 위치하거나 전자 장치가 태블릿 PC인 경우, 상기 분석 결과 화면(4700)에서는 이미지 영역(4710)과 분석 항목 영역(4700)을 가로로 배치될 수 있다. 47A and 47B , when the display is horizontally positioned or the electronic device is a tablet PC, the image area 4710 and the analysis item area 4700 may be arranged horizontally on the analysis result screen 4700 . .

본 발명의 다양한 실시 예에 따라, 사용자가 분석 항목 영역(4700)에서 색소 침착(pigmentation)(4722)을 선택한 경우, 적어도 하나의 얼굴 영역에서 색소 침착에 대해 분석한 결과가 이미지 영역(4710) 혹은 분석 결과 영역(4730)을 통해 표시될 수 있다. According to various embodiments of the present disclosure, when the user selects pigmentation 4722 in the analysis item area 4700, the result of analyzing pigmentation in at least one face area is the image area 4710 or It may be displayed through the analysis result area 4730 .

상기 이미지 영역(4710)에서는 사용자 입력(4701)이 특정 얼굴 영역(예, 볼 영역)으로 입력됨에 따라, 상기 사용자 입력(4701)이 입력된 얼굴 영역에 대한 분석 결과가 확대되어 별도의 창(4712)을 통해 표시될 수 있다. In the image region 4710 , as the user input 4701 is input to a specific face region (eg, cheek region), the analysis result for the face region to which the user input 4701 is input is enlarged and a separate window 4712 is displayed. ) can be displayed through

본 발명의 다양한 실시 예에 따라, 상기 분석 항목 영역(4700)에서 특정 분석 항목이 선택됨에 따라, 얼굴 정보에 대한 분석 결과는 분석 결과 영역(4730)을 통해 표시될 수 있다. 예컨대, 분석 결과 영역(4730)에서는 선택된 색소 침착에 대한 분석 결과를 이모티콘(4731), 각 항목 별 점수를 나타낸 그래프 혹은 이전 대비 색소 침착의 향상도(4732)가 포함될 수 있다. According to various embodiments of the present disclosure, as a specific analysis item is selected in the analysis item area 4700 , an analysis result for face information may be displayed through the analysis result area 4730 . For example, the analysis result area 4730 may include an emoticon 4731 for the analysis result for the selected pigmentation, a graph showing scores for each item, or an improvement in pigmentation 4732 compared to the previous one.

본 발명의 다양한 실시 예에 따라, 사용자가 분석 항목 영역(4700)에서 종합(total)(4721)을 선택한 경우, 적어도 하나의 얼굴 영역에서 다양한 분석 항목에 대해 분석한 결과가 이미지 영역(4710) 혹은 분석 결과 영역(4730)을 통해 표시될 수 있다. According to various embodiments of the present disclosure, when the user selects total 4721 in the analysis item area 4700, the result of analyzing various analysis items in at least one face area is the image area 4710 or It may be displayed through the analysis result area 4730 .

상기 이미지 영역(4710)에서는 다양한 분석 항목에 따라 분석된 적어도 하나의 얼굴 영역(4713)이 표시되고, 각 얼굴 영역의 색에 대응하는 피부 상태를 나타낸 범례(4714)가 포함될 수 있다. 예컨대, 사용자는 각 얼굴 영역의 색을 확인하여 해당 부분의 피부 상태를 판단할 수 있다. At least one facial region 4713 analyzed according to various analysis items may be displayed in the image region 4710 , and a legend 4714 indicating a skin state corresponding to the color of each facial region may be included. For example, the user may determine the skin condition of the corresponding part by checking the color of each face region.

본 발명의 다양한 실시 예에 따라, 분석 결과 영역(4730)에서는 다양한 분석 항목(예, 모공, 주름, 색소 침착 혹은 트러블)에 대한 분석 결과를 이전 분석 결과와 대비하여 점수를 나타낸 그래프(4733)가 포함될 수 있다. According to various embodiments of the present disclosure, in the analysis result area 4730, a graph 4733 showing a score by comparing the analysis results for various analysis items (eg, pores, wrinkles, pigmentation or trouble) with the previous analysis results is displayed. may be included.

그리고 본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 실시 예에 따른 발명의 기술 내용을 쉽게 설명하고 본 발명의 실시 예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시 예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시 예의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 다양한 실시 예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시 예의 범위에 포함되는 것으로 해석되어야 한다. In addition, the embodiments of the present invention disclosed in the present specification and drawings are merely provided for specific examples to easily explain the technical contents of the present invention according to the embodiments of the present invention and to help the understanding of the embodiments of the present invention. It is not intended to limit the scope. Therefore, in the scope of various embodiments of the present invention, in addition to the embodiments disclosed herein, all changes or modifications derived based on the technical ideas of various embodiments of the present invention should be construed as being included in the scope of various embodiments of the present invention.

Claims (30)

전자 장치에서 얼굴 정보를 분석하는 방법에 있어서,
상기 전자 장치의 카메라 모듈을 통해 촬영중인 이미지에서 복수의 얼굴 영역 중 적어도 하나의 얼굴 영역을 검출하는 동작;
상기 적어도 하나의 얼굴 영역 상에서 상기 카메라 모듈의 줌인 또는 포커싱 설정에 기초하여, 구강 영역, 코 영역, 안구 영역, 협측 영역 또는 이마 영역 중 적어도 하나에 대응하는 적어도 하나의 얼굴 영역을 식별하는 동작;
상기 적어도 하나의 얼굴 영역의 식별에 기초하여, 복수의 분석 항목들 중 상기 적어도 하나의 얼굴 영역의 식별에 대응하는 적어도 하나의 분석 항목을 식별하는 동작;
상기 식별된 적어도 하나의 분석 항목에 기초하여, 상기 적어도 하나의 분석 항목에서 적어도 하나의 피부 상태를 측정하는 동작;
상기 측정된 적어도 하나의 피부 상태에 기초하여, 상기 적어도 하나의 얼굴 영역에 대응하는 피부 분석 이력과 관련된 정보를 획득하는 동작; 및
상기 피부 분석 이력과 관련된 정보를 상기 전자 장치의 디스플레이에 표시하는 동작을 포함하는, 방법.
A method for analyzing face information in an electronic device, the method comprising:
detecting at least one face region from among a plurality of face regions in the image being photographed through the camera module of the electronic device;
identifying at least one facial region corresponding to at least one of an oral region, a nose region, an eye region, a buccal region, and a forehead region based on a zoom-in or focusing setting of the camera module on the at least one facial region;
identifying at least one analysis item corresponding to the identification of the at least one facial area from among a plurality of analysis items based on the identification of the at least one facial area;
measuring at least one skin condition in the at least one analysis item based on the identified at least one analysis item;
acquiring information related to a skin analysis history corresponding to the at least one face region based on the measured at least one skin condition; and
and displaying information related to the skin analysis history on a display of the electronic device.
삭제delete 삭제delete ◈청구항 4은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 4 was abandoned when paying the registration fee.◈ 제1항에 있어서, 상기 적어도 하나의 분석 항목에서 적어도 하나의 피부 상태를 측정하는 동작은,
상기 적어도 하나의 얼굴 영역에서 각 하나의 분석 항목에 대한 굵기, 크기, 개수, 넓이 또는 색 중 적어도 하나를 분석하는 동작을 포함하며,
상기 적어도 하나의 분석 항목은, 주름, 여드름, 색소 침착, 피부톤, 다크 서클 또는 모공 중 적어도 하나를 포함하는, 방법.
The method of claim 1, wherein measuring at least one skin condition in the at least one analysis item comprises:
and analyzing at least one of a thickness, a size, a number, a width, and a color for each one analysis item in the at least one face region,
The at least one analysis item includes at least one of wrinkles, acne, pigmentation, skin tone, dark circles, or pores.
◈청구항 5은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 5 was abandoned when paying the registration fee.◈ 제1항에 있어서,
상기 이미지에서의 특정 영역에 대해 제스처가 입력되는 경우, 상기 제스처가 감지된 영역에 대해 확대 또는 포커싱하여 획득된 이미지를 디스플레이하는 동작을 더 포함하는, 방법.
According to claim 1,
When a gesture is input to a specific region in the image, the method further comprising: displaying an image obtained by magnifying or focusing on the region in which the gesture is detected.
◈청구항 6은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 6 was abandoned when paying the registration fee.◈ 제1항에 있어서,
상기 이미지에서 상기 적어도 하나의 분석 항목에 대응하는 상기 적어도 하나의 얼굴 영역을 검출하는 동작; 및
상기 검출된 얼굴 영역을 상기 적어도 하나의 분석 항목에 따라 분석하는 동작을 더 포함하는, 방법.
According to claim 1,
detecting the at least one face region corresponding to the at least one analysis item in the image; and
The method further comprising analyzing the detected face region according to the at least one analysis item.
◈청구항 7은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 7 was abandoned when paying the registration fee.◈ 제1항에 있어서,
상기 적어도 하나의 얼굴 영역을 확대 또는 포커싱하여 획득된 화면을 디스플레이하는 동작을 더 포함하는, 방법.
According to claim 1,
The method further comprising the operation of displaying a screen obtained by enlarging or focusing the at least one face area.
◈청구항 8은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 8 was abandoned when paying the registration fee.◈ 제1항에 있어서,
미리 설정된 동작이 감지되는 경우, 상기 적어도 하나의 얼굴 영역을 확대 또는 포커스를 맞추는 동작을 더 포함하며,
상기 미리 설정된 동작은,
상기 카메라 모듈이 활성화되는 애플리케이션을 실행하는 동작, 잠금 상태의 상기 전자 장치를 활성화시키는 동작, 또는 상기 전자 장치를 특정 각도 또는 방향에 위치하는 동작 중 어느 하나를 포함하는, 방법.
According to claim 1,
The method further includes an operation of enlarging or focusing the at least one face region when a preset operation is detected,
The preset operation is
The method comprising any one of an operation of executing an application in which the camera module is activated, an operation of activating the electronic device in a locked state, or an operation of positioning the electronic device at a specific angle or direction.
삭제delete ◈청구항 10은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 10 was abandoned when paying the registration fee.◈ 제1항에 있어서,
상기 적어도 하나의 얼굴 영역 또는 상기 적어도 하나의 분석 항목에 대하여, 미리 저장된 분석 결과를 확인하는 동작; 및
상기 확인된 미리 저장된 분석 결과를 상기 확인된 분석 결과와 비교하고, 상기 비교의 결과를 디스플레이하는 동작을 더 포함하는, 방법.
According to claim 1,
checking a pre-stored analysis result for the at least one face region or the at least one analysis item; and
Comparing the identified pre-stored analysis result with the identified analysis result, and displaying a result of the comparison, the method further comprising:
전자 장치에 있어서,
카메라 모듈,
상기 카메라 모듈을 통해 촬영중인 이미지를 디스플레이하는 디스플레이, 및
상기 카메라 모듈 및 상기 디스플레이와 전기적으로 연결된 적어도 하나의 프로세서를 포함하며,
상기 적어도 하나의 프로세서는,
상기 이미지에서 복수의 얼굴 영역들 중 적어도 하나의 얼굴 영역을 검출하고,
상기 적어도 하나의 얼굴 영역 상에서 상기 카메라 모듈의 줌인 또는 포커싱 설정에 기초하여, 구강 영역, 코 영역, 안구 영역, 협측 영역 또는 이마 영역 중 적어도 하나에 대응하는 적어도 하나의 얼굴 영역을 식별하고,
상기 적어도 하나의 얼굴 영역의 식별에 기초하여, 복수의 분석 항목들 중 상기 적어도 하나의 얼굴 영역의 식별에 대응하는 적어도 하나의 분석 항목을 식별하고,
상기 식별된 적어도 하나의 분석 항목에 기초하여, 상기 적어도 하나의 분석 항목에서 적어도 하나의 피부 상태를 측정하고,
상기 측정된 적어도 하나의 피부 상태에 기초하여, 상기 적어도 하나의 얼굴 영역에 대응하는 피부 분석 이력과 관련된 정보를 획득하고,
상기 피부 분석 이력과 관련된 정보를 표시하도록 상기 디스플레이를 제어하도록 설정되는, 전자 장치.
In an electronic device,
camera module,
a display for displaying an image being photographed through the camera module; and
At least one processor electrically connected to the camera module and the display,
the at least one processor,
detecting at least one facial region from among a plurality of facial regions in the image;
identifying at least one facial region corresponding to at least one of an oral region, a nose region, an eye region, a buccal region, or a forehead region based on a zoom-in or focusing setting of the camera module on the at least one facial region;
based on the identification of the at least one facial region, identify at least one analysis item corresponding to the identification of the at least one facial region from among a plurality of analysis items;
measuring at least one skin condition in the at least one analysis item based on the identified at least one analysis item;
acquiring information related to a skin analysis history corresponding to the at least one face region based on the measured at least one skin condition;
The electronic device is configured to control the display to display information related to the skin analysis history.
삭제delete 삭제delete 제11항에 있어서,
상기 적어도 하나의 프로세서는,
상기 적어도 하나의 얼굴 영역에서 각 하나의 분석 항목에 대한 굵기, 크기, 개수, 넓이 또는 색 중 적어도 하나를 분석하도록 설정되며,
상기 적어도 하나의 분석 항목은,
주름, 여드름, 색소 침착, 피부톤, 다크 서클 또는 모공 중 적어도 하나를 포함하는, 전자 장치.
12. The method of claim 11,
the at least one processor,
It is set to analyze at least one of thickness, size, number, width, and color for each one analysis item in the at least one face region,
The at least one analysis item is
An electronic device comprising at least one of wrinkles, acne, pigmentation, skin tone, dark circles, or pores.
◈청구항 15은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 15 was abandoned when paying the registration fee.◈ 제11항에 있어서,
상기 적어도 하나의 프로세서는,
상기 이미지에서의 특정 영역에 대해 제스처가 입력됨을 감지하는 경우, 상기 제스처가 감지된 영역에 대해 세부 촬영된 이미지가 디스플레이하도록 상기 디스플레이를 제어하도록 설정되는, 전자 장치.
12. The method of claim 11,
the at least one processor,
When it is detected that a gesture is input to a specific region in the image, the electronic device is configured to control the display to display a detailed photographed image for the region in which the gesture is detected.
제11항에 있어서,
상기 적어도 하나의 프로세서는,
상기 이미지에서 상기 적어도 하나의 분석 항목에 대응하는 상기 적어도 하나의 얼굴 영역을 검출하고,
상기 검출된 얼굴 영역을 미리 설정된 분석 항목에 따라 분석하도록 설정되는, 전자 장치.
12. The method of claim 11,
the at least one processor,
detecting the at least one face region corresponding to the at least one analysis item in the image;
The electronic device is configured to analyze the detected face region according to a preset analysis item.
◈청구항 17은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 17 was abandoned when paying the registration fee.◈ 제11항에 있어서,
상기 적어도 하나의 프로세서는,
상기 적어도 하나의 얼굴 영역을 확대 또는 포커싱하여 획득된 화면을 디스플레이하도록 상기 디스플레이를 제어하도록 설정되는, 전자 장치.
12. The method of claim 11,
the at least one processor,
The electronic device is configured to control the display to display a screen obtained by enlarging or focusing the at least one face region.
제11항에 있어서,
상기 적어도 하나의 프로세서는,
미리 설정된 동작이 감지되는 경우, 상기 적어도 하나의 얼굴 영역을 확대 또는 포커스를 맞추도록 상기 카메라 모듈을 제어하도록 설정되며,
상기 미리 설정된 동작은 상기 카메라 모듈이 활성화되는 애플리케이션을 실행하는 동작, 잠금 상태의 상기 전자 장치를 활성화시키는 동작, 또는 상기 전자 장치를 특정 각도 또는 방향에 위치하는 동작 중 어느 하나를 포함하는, 전자 장치.
12. The method of claim 11,
the at least one processor,
When a preset motion is detected, it is set to control the camera module to enlarge or focus the at least one face region,
The preset operation includes any one of an operation of executing an application in which the camera module is activated, an operation of activating the electronic device in a locked state, or an operation of positioning the electronic device at a specific angle or direction. .
삭제delete 제11항에 있어서,
상기 적어도 하나의 프로세서는,
상기 적어도 하나의 얼굴 영역 또는 상기 적어도 하나의 분석 항목에 대하여, 미리 저장된 분석 결과를 확인하고,
확인된 미리 저장된 분석 결과를 상기 확인된 분석 결과와 비교하고, 상기 비교의 결과를 포함하는 화면을 디스플레이되도록 상기 디스플레이를 제어하도록 설정되는, 전자 장치.
12. The method of claim 11,
the at least one processor,
Checking a pre-stored analysis result for the at least one face region or the at least one analysis item,
Comparing the confirmed pre-stored analysis result with the confirmed analysis result, the electronic device is configured to control the display to display a screen including the result of the comparison.
전자 장치에서 얼굴 정보를 분석하는 방법에 있어서,
저장된 적어도 하나의 이미지에서 복수의 얼굴 영역 중 적어도 하나의 얼굴 영역을 검출하는 동작;
구강 영역, 코 영역, 안구 영역, 협측 영역 또는 이마 영역 중 적어도 하나에 대응하는 적어도 하나의 얼굴 영역을 식별하는 동작;
상기 적어도 하나의 얼굴 영역의 식별에 기초하여, 복수의 분석 항목들 중 상기 적어도 하나의 얼굴 영역의 식별에 대응하는 적어도 하나의 분석 항목을 식별하는 동작;
상기 식별된 적어도 하나의 분석 항목에 기초하여, 상기 적어도 하나의 분석 항목에서 적어도 하나의 피부 상태를 측정하는 동작;
상기 적어도 하나의 얼굴 영역이 분석된 상기 적어도 하나의 저장된 이미지 각각에 대한 분석 시간을 결정하는 동작;
상기 적어도 하나의 얼굴 영역에 대한 피부 분석 이력을 식별하도록 화면의 적어도 일부에 상기 분석 시간을 표현한 객체를 표시하는 동작;
사용자 입력에 따라 선택된 시점에 분석된 이미지를 획득하는 동작, 상기 선택된 시점은 상기 객체의 위치에 대응하며; 및
상기 획득된 이미지를 상기 화면의 적어도 일부와 다른 부분에 표시하는 동작을 포함하며,
상기 획득된 이미지는 상기 적어도 하나의 얼굴 영역에 대한 피부 분석 이력에 대응하는 이미지로서, 상기 객체의 위치에 대응하는 상기 시점에서 측정된 적어도 하나의 피부 상태에 기초하여 생성되는, 방법.
A method for analyzing face information in an electronic device, the method comprising:
detecting at least one facial region from among a plurality of facial regions in the stored at least one image;
identifying at least one facial region corresponding to at least one of an oral region, a nose region, an eye region, a buccal region, and a forehead region;
identifying at least one analysis item corresponding to the identification of the at least one facial area from among a plurality of analysis items based on the identification of the at least one facial area;
measuring at least one skin condition in the at least one analysis item based on the identified at least one analysis item;
determining an analysis time for each of the at least one stored image in which the at least one face region is analyzed;
displaying an object representing the analysis time on at least a portion of a screen to identify a skin analysis history for the at least one face region;
acquiring an image analyzed at a time point selected according to a user input, the selected point point corresponding to the position of the object; and
and displaying the acquired image on a part different from at least a part of the screen,
The obtained image is an image corresponding to a skin analysis history for the at least one face region, and is generated based on at least one skin condition measured at the time point corresponding to the position of the object.
◈청구항 22은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 22 was abandoned when paying the registration fee.◈ 제21항에 있어서,
상기 저장된 적어도 하나의 이미지에 설정된 적어도 하나의 기준점을 기초하여 상기 적어도 하나의 얼굴 영역을 검출하는 동작을 더 포함하는, 방법.
22. The method of claim 21,
The method further comprising: detecting the at least one face region based on at least one reference point set in the stored at least one image.
삭제delete 삭제delete ◈청구항 25은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 25 was abandoned when paying the registration fee.◈ 제21항에 있어서,
상기 전자 장치가 다른 이미지를 촬영하기 위한 상황인지를 판단하는 동작; 및
상기 판단 결과에 따라, 이미지를 촬영하는 동작을 더 포함하며,
상기 상황은 상기 전자 장치가 설정된 각도에 위치한 경우 또는 설정된 사용자 입력이 입력되는 경우를 포함하는, 방법.
22. The method of claim 21,
determining whether the electronic device is in a situation for capturing another image; and
According to the determination result, further comprising the operation of taking an image,
The situation includes a case in which the electronic device is positioned at a set angle or a case in which a set user input is input.
전자 장치에 있어서,
이미지를 촬영하는 카메라 모듈; 및
상기 카메라 모듈과 전기적으로 연결된 적어도 하나의 프로세서를 포함하며,
상기 적어도 하나의 프로세서는,
상기 카메라 모듈을 통해 촬영되어 저장된 적어도 하나의 이미지에서 복수의 얼굴 영역 중 적어도 하나의 얼굴 영역을 검출하고,
구강 영역, 코 영역, 안구 영역, 협측 영역 또는 이마 영역 중 적어도 하나에 대응하는 적어도 하나의 얼굴 영역을 식별하고,
상기 적어도 하나의 얼굴 영역의 식별에 기초하여, 복수의 분석 항목들 중 상기 적어도 하나의 얼굴 영역의 식별에 대응하는 적어도 하나의 분석 항목을 식별하고,
상기 식별된 적어도 하나의 분석 항목에 기초하여, 상기 적어도 하나의 분석 항목에서 적어도 하나의 피부 상태를 측정하고,
상기 적어도 하나의 얼굴 영역이 분석된 상기 적어도 하나의 저장된 이미지 각각에 대한 분석 시간을 결정하고,
상기 적어도 하나의 얼굴 영역에 대한 피부 분석 이력을 식별하도록 화면의 적어도 일부에 상기 분석 시간을 표현한 객체를 표시하고,
사용자 입력에 따라 선택된 시점에 분석된 이미지를 획득하는 동작, 상기 선택된 시점은 상기 객체의 위치에 대응하며;
상기 획득된 이미지를 상기 화면의 적어도 일부와 다른 부분에 표시하도록 설정되며,
상기 획득된 이미지는 상기 적어도 하나의 얼굴 영역에 대한 피부 분석 이력에 대응하는 이미지로서, 상기 객체의 위치에 대응하는 상기 시점에서 측정된 적어도 하나의 피부 상태에 기초하여 생성되는, 전자 장치.
In an electronic device,
a camera module for taking an image; and
At least one processor electrically connected to the camera module,
the at least one processor,
detecting at least one face region among a plurality of face regions from at least one image captured and stored through the camera module;
at least one facial region corresponding to at least one of an oral region, a nose region, an eye region, a buccal region, or a forehead region;
based on the identification of the at least one facial region, identify at least one analysis item corresponding to the identification of the at least one facial region from among a plurality of analysis items;
measuring at least one skin condition in the at least one analysis item based on the identified at least one analysis item;
determining an analysis time for each of the at least one stored image in which the at least one facial region is analyzed,
displaying an object expressing the analysis time on at least a part of a screen to identify a skin analysis history for the at least one face region;
acquiring an image analyzed at a time point selected according to a user input, the selected point point corresponding to the position of the object;
It is set to display the acquired image on a part different from at least a part of the screen,
The acquired image is an image corresponding to a skin analysis history for the at least one face region, and is generated based on at least one skin condition measured at the time point corresponding to the position of the object.
제26항에 있어서,
상기 적어도 하나의 프로세서는,
상기 저장된 적어도 하나의 이미지에 설정된 적어도 하나의 기준점을 기초하여 상기 적어도 하나의 얼굴 영역을 검출하도록 더 설정되는, 전자 장치.
27. The method of claim 26,
the at least one processor,
The electronic device is further configured to detect the at least one face region based on at least one reference point set in the stored at least one image.
삭제delete 삭제delete 제26항에 있어서,
상기 적어도 하나의 프로세서는,
상기 전자 장치가 다른 이미지를 촬영하기 위한 상황인지를 판단하고,
상기 판단 결과에 따라 이미지를 촬영하도록 상기 카메라 모듈을 제어하도록 설정되며,
상기 상황은 상기 전자 장치가 설정된 각도에 위치한 경우 또는 설정된 사용자 입력이 입력되는 경우를 포함하는, 전자 장치.
27. The method of claim 26,
the at least one processor,
Determining whether the electronic device is in a situation for taking another image,
It is set to control the camera module to take an image according to the determination result,
The situation includes a case in which the electronic device is positioned at a set angle or a case in which a set user input is input.
KR1020150092549A 2014-11-04 2015-06-29 Electronic device and method for analysis of face information in electronic device KR102424986B1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US14/928,402 US10664686B2 (en) 2014-11-04 2015-10-30 Electronic device, and method for analyzing face information in electronic device
EP20166334.1A EP3692896A1 (en) 2014-11-04 2015-10-30 Electronic device, and method for analyzing face information in electronic device
EP15192378.6A EP3017755A1 (en) 2014-11-04 2015-10-30 Electronic device, and method for analyzing face information in electronic device
CN201510736495.9A CN105574484B (en) 2014-11-04 2015-11-03 Electronic device and method for analyzing face information in electronic device
PCT/KR2015/011802 WO2016072749A1 (en) 2014-11-04 2015-11-04 Electronic device, and method for analyzing face information in electronic device
TW104136240A TWI708189B (en) 2014-11-04 2015-11-04 Electronic device, and method for analyzing face information in electronic device
US16/848,489 US11311195B2 (en) 2014-11-04 2020-04-14 Electronic device, and method for analyzing face information in electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140152239 2014-11-04
KR20140152239 2014-11-04

Publications (2)

Publication Number Publication Date
KR20160052309A KR20160052309A (en) 2016-05-12
KR102424986B1 true KR102424986B1 (en) 2022-07-26

Family

ID=56024809

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150092549A KR102424986B1 (en) 2014-11-04 2015-06-29 Electronic device and method for analysis of face information in electronic device

Country Status (2)

Country Link
KR (1) KR102424986B1 (en)
TW (1) TWI708189B (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101759444B1 (en) 2016-08-25 2017-07-18 연세대학교 산학협력단 Expression recognition sysyem and method using a head mounted display
KR102416500B1 (en) * 2016-11-14 2022-07-05 삼성전자주식회사 Electronic device and Method for controlling the electronic device thereof
TWI625648B (en) * 2017-04-14 2018-06-01 H P B Optoelectronic Co Ltd Hand-operated vegetable and fruit conditioning machine
CN108804976A (en) * 2017-04-27 2018-11-13 芜湖美的厨卫电器制造有限公司 bathroom mirror and its control method
KR102333101B1 (en) 2017-06-21 2021-12-01 삼성전자주식회사 Electronic device for providing property information of external light source for interest object
KR102093666B1 (en) * 2017-12-20 2020-03-26 이혜정 Method and system for providing skin care and color makeup information by analyzing skin using light emitting mirror
KR102165699B1 (en) 2019-05-24 2020-10-14 동서대학교 산학협력단 Skin disease care System for user specific real time service
CN111339813B (en) * 2019-09-30 2022-09-27 深圳市商汤科技有限公司 Face attribute recognition method and device, electronic equipment and storage medium
KR102184177B1 (en) * 2020-03-10 2020-11-27 주식회사 만컴퍼니 Apparatus and method for recommending cosmetics by analyzing a face image acquired using a user's mobile device
KR102364929B1 (en) * 2020-07-17 2022-02-18 주식회사 아트랩 Electronic device, sever, and system for tracking skin changes
WO2022114420A1 (en) * 2020-11-25 2022-06-02 ㈜인코돈바이오코스메틱 Non-face-to-face consulting system for cosmetic use and skin care
TWI820780B (en) * 2022-07-01 2023-11-01 亞東學校財團法人亞東科技大學 Head-mounted medical aid for bidirectional communication

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157771A (en) * 2002-11-06 2004-06-03 Toshiba Corp Person identification device, person identification method, and passage controller
JP2007133518A (en) * 2005-11-08 2007-05-31 Shiseido Co Ltd Cosmetic medical diagnostic method, cosmetic medical diagnostic program, and recording medium with its program recorded thereon

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6571003B1 (en) 1999-06-14 2003-05-27 The Procter & Gamble Company Skin imaging and analysis systems and methods
DE10309873A1 (en) * 2002-07-09 2004-01-29 RIC Co. Ltd. Digital zoom skin diagnostic device
US7454046B2 (en) * 2005-09-20 2008-11-18 Brightex Bio-Photonics, Llc Method and system for analyzing skin conditions using digital images
US8532346B2 (en) * 2009-03-11 2013-09-10 Sony Corporation Device, method and computer program product
KR101589501B1 (en) * 2009-08-24 2016-01-28 삼성전자주식회사 Method and apparatus for controlling zoom using touch screen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157771A (en) * 2002-11-06 2004-06-03 Toshiba Corp Person identification device, person identification method, and passage controller
JP2007133518A (en) * 2005-11-08 2007-05-31 Shiseido Co Ltd Cosmetic medical diagnostic method, cosmetic medical diagnostic program, and recording medium with its program recorded thereon

Also Published As

Publication number Publication date
TW201629847A (en) 2016-08-16
TWI708189B (en) 2020-10-21
KR20160052309A (en) 2016-05-12

Similar Documents

Publication Publication Date Title
US11311195B2 (en) Electronic device, and method for analyzing face information in electronic device
KR102424986B1 (en) Electronic device and method for analysis of face information in electronic device
US11113552B2 (en) Electronic device and method for displaying image for iris recognition in electronic device
KR102360453B1 (en) Apparatus And Method For Setting A Camera
US9922179B2 (en) Method and apparatus for user authentication
US9946393B2 (en) Method of controlling display of electronic device and electronic device
KR102277212B1 (en) Apparatus and method for iris recognition using display information
EP2891966B1 (en) Electronic glasses and method for correcting color blindness
EP2958316B1 (en) Electronic device using composition information of picture and shooting method using the same
KR102271833B1 (en) Electronic device, controlling method thereof and recording medium
KR102296396B1 (en) Apparatus and method for improving accuracy of contactless thermometer module
KR102294945B1 (en) Function controlling method and electronic device thereof
KR20160024143A (en) Method and Electronic Device for image processing
KR102262086B1 (en) Apparatus and method for processing image
KR20160059765A (en) Method and device for displaying in electronic device
KR20170028941A (en) Method and device for recognizing biometric information
KR102319286B1 (en) Apparatus and method for processing drag and drop
KR20160055337A (en) Method for displaying text and electronic device thereof
US9955068B2 (en) Apparatus and method for operating a composition of a picture in a portable terminal
KR102423364B1 (en) Method for providing image and electronic device supporting the same
KR102194787B1 (en) Apparatus and method for user based sensor data acquiring
KR102246645B1 (en) Apparatus and method for obtaining image
KR102311530B1 (en) Apparatus having saver mode and control method thereof
US11210828B2 (en) Method and electronic device for outputting guide

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant