WO2024058468A1 - Display device and control method thereof - Google Patents

Display device and control method thereof Download PDF

Info

Publication number
WO2024058468A1
WO2024058468A1 PCT/KR2023/012885 KR2023012885W WO2024058468A1 WO 2024058468 A1 WO2024058468 A1 WO 2024058468A1 KR 2023012885 W KR2023012885 W KR 2023012885W WO 2024058468 A1 WO2024058468 A1 WO 2024058468A1
Authority
WO
WIPO (PCT)
Prior art keywords
makeup
information
area
region
interest
Prior art date
Application number
PCT/KR2023/012885
Other languages
French (fr)
Korean (ko)
Inventor
한지연
김선혜
이가희
이교희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220144592A external-priority patent/KR20240038537A/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2024058468A1 publication Critical patent/WO2024058468A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Definitions

  • the present disclosure relates to a display device and a control method thereof, and more specifically, to a display device that provides a makeup guide and a control method thereof.
  • a method of controlling a display device including a camera includes identifying a makeup style selected by a user, displaying an image of the user's face when the user's face is captured through the camera.
  • the step of calculating the makeup matching rate includes color information and texture information of the other region included in the color matching database based on color information, texture information, and emphasis degree information of the region of interest included in the makeup information. and identifying emphasis degree information, respectively, and comparing the color information, texture information, and emphasis degree information of the identified other region with the color information, texture information, and emphasis degree information of the other region included in the makeup information.
  • it may include calculating the color matching rate, texture matching rate, and emphasis matching rate of the other regions based on the region of interest, respectively.
  • displaying the makeup guide may include displaying a makeup guide for the color of the other area based on the color matching rate of the other area based on the area of interest, and displaying the makeup guide for the color of the other area based on the area of interest. Displaying a makeup guide for the texture of the other area based on the texture matching rate of the other area, and displaying a makeup guide for the texture of the other area based on the emphasis information matching rate of the other area based on the area of interest. It may include displaying a makeup guide.
  • the step of calculating the makeup matching rate includes color information and texture information of the region of interest included in the color matching database based on color information, texture information, and emphasis degree information of the other region included in the makeup information. and identifying emphasis degree information, respectively, and comparing color information, texture information, and emphasis degree information of the identified region of interest with color information, texture information, and emphasis degree information of the region of interest included in the makeup information.
  • it may include calculating the color matching rate, texture matching rate, and emphasis matching rate of the region of interest based on the other region.
  • displaying the makeup guide may include displaying a makeup guide for a color of the region of interest based on a color matching rate of the region of interest based on the other region, Displaying a makeup guide for a texture of the region of interest based on a texture matching rate of the region of interest, and determining a degree of emphasis of the region of interest based on a matching rate of emphasis information of the region of interest based on the other regions. It may include displaying a makeup guide.
  • the identifying step includes displaying a plurality of images corresponding to a plurality of makeup styles, and when one image among the plurality of images is selected, identifying a makeup style corresponding to the selected image. can do.
  • the makeup guide may include at least one of an information message, a video, or a makeup product recommendation related to a makeup method to increase the calculated makeup matching rate.
  • the step of displaying the makeup guide includes the step of receiving the user's context information.
  • the makeup guide can be displayed by reflecting the information.
  • a display device identifies a display, a camera, and a makeup style selected by a user, and when the user's face is captured through the camera, the display device displays the user's face image. Controls and analyzes the user's face image to obtain makeup information including color information, texture information, and emphasis level information for each area of the user's face, and when a region of interest is selected from the user's face image, Based on the obtained makeup information and a matching database corresponding to the identified makeup style, a makeup matching rate between the area of interest and another area of the user's face is calculated, and the interest rate is calculated based on the calculated makeup matching rate.
  • At least one processor to control the display to display a makeup guide for at least one of the region or the other region, wherein the matching database includes color information for each region of the face corresponding to the identified makeup style.
  • the matching database includes color information for each region of the face corresponding to the identified makeup style.
  • a color matching database a texture matching database including texture information of each region of the face corresponding to the identified makeup style, and an emphasis degree matching including emphasis degree information of each region of the face corresponding to the identified makeup style.
  • the at least one processor is configured to store color information, texture information, and emphasis degree of the other region included in the color matching database based on color information, texture information, and emphasis degree information of the region of interest included in the makeup information.
  • Each piece of information is identified, and the color information, texture information, and emphasis degree information of the identified other region are compared with the color information, texture information, and emphasis degree information of the other region included in the makeup information, respectively, to determine the region of interest.
  • the color matching rate, texture matching rate, and emphasis degree matching rate of the different areas can be calculated, respectively.
  • the at least one processor displays a makeup guide for the color of the other area based on the color matching rate of the other area based on the area of interest, and displays a makeup guide for the color of the other area based on the area of interest.
  • a makeup guide for the texture of the other area based on the texture matching rate and to display a makeup guide for the degree of emphasis of the other area based on the emphasis information matching rate of the other area based on the region of interest.
  • the display can be controlled.
  • the at least one processor is configured to store color information, texture information, and emphasis degree of the region of interest included in the color matching database based on color information, texture information, and emphasis degree information of the other region included in the makeup information.
  • Each information is identified, and the color information, texture information, and emphasis degree information of the identified region of interest are compared with the color information, texture information, and emphasis degree information of the region of interest included in the makeup information, respectively, and the other region is Based on , the color matching rate, texture matching rate, and emphasis degree matching rate of the region of interest can be calculated, respectively.
  • the at least one processor displays a makeup guide for the color of the region of interest based on a color matching rate of the region of interest based on the other region, and displays a makeup guide for the color of the region of interest based on the other region.
  • the display can be controlled.
  • the at least one processor controls the display to display a plurality of images corresponding to a plurality of makeup styles, and when one image of the plurality of images is selected, identifies a makeup style corresponding to the selected image. can do.
  • the makeup guide may include at least one of an information message, a video, or a makeup product recommendation related to a makeup method to increase the calculated makeup matching rate.
  • the at least one processor reflects the user's context information to apply the makeup
  • the display can be controlled to display a guide.
  • a non-transitory computer-readable recording medium that stores computer instructions that cause the display device to perform an operation when executed by a processor of the display device
  • the operation is performed by a user. Identifying the makeup style selected by the camera, displaying the user's face image when the user's face is captured by the camera, analyzing the user's face image to include color information, texture information, and emphasis level information.
  • the matching database includes a color matching database containing color information of each area of the face corresponding to the identified makeup style, a texture matching database containing texture information of each area of the face corresponding to the identified makeup style, and It includes an emphasis degree matching database that includes information on the degree of emphasis of each area of the face corresponding to the identified makeup style.
  • FIG. 1 is a diagram for explaining the operation of a display device according to an embodiment of the present disclosure
  • FIG. 2 is a block diagram of a display device according to an embodiment of the present disclosure
  • Figure 3 is an example of a makeup style recommendation video
  • FIG. 4A is a diagram illustrating a screen displayed on a display device according to an embodiment of the present disclosure
  • FIG. 4B is a diagram illustrating a screen displayed on a display device according to an embodiment of the present disclosure
  • FIG. 4C is a diagram illustrating a screen displayed on a display device according to an embodiment of the present disclosure.
  • FIG. 5A is a diagram illustrating a screen displayed on a display device according to an embodiment of the present disclosure
  • 5B is a diagram illustrating a screen displayed on a display device according to an embodiment of the present disclosure.
  • FIG. 6 is a block diagram of a display device according to an embodiment of the present disclosure.
  • Figure 7 is a flowchart showing a method of controlling a display device according to an embodiment of the present disclosure.
  • a component e.g., a first component is “(operatively or communicatively) coupled with/to” another component (e.g., a second component).
  • another component e.g., a second component.
  • any component may be directly connected to the other component or may be connected through another component (e.g., a third component).
  • a component e.g., a first component
  • a second component it means that there is a connection between said component and said other component.
  • other components e.g., a third component do not exist.
  • FIG. 1 is a diagram for explaining the operation of a display device according to an embodiment of the present disclosure.
  • the display device 100 can recommend various makeup styles (11).
  • a makeup guide app may be installed on the display device 100 to perform functions according to various embodiments of the present disclosure, which will be described later, and the user may execute the makeup guide app.
  • the display device 100 allows the user to select, for example, various makeup style images (still images, videos) of influencers or images of the user stored in the display device 100. By displaying it so that various makeup styles can be recommended to the user.
  • the display device 100 can run a camera app and allow the user to take a picture of his or her current makeup state (13).
  • a guide UI User Interface
  • the display device 100 may display the captured image and analyze the displayed image to obtain makeup information for each facial area of the user.
  • the makeup information for each face area includes color information, texture information, and degree of emphasis for each of the user's face areas (e.g., forehead, eyes, eyebrows, nose, lips, cheeks, skin tone, etc.). It may include information, so it is not limited to this.
  • the display device 100 may display a guide UI that guides the user to select an area of interest.
  • the display device 100 is based on makeup information for each facial area obtained by analyzing the user's image and a matching database corresponding to the makeup style selected in the recommended image.
  • the makeup matching rate between the area of interest and other areas of the face can be calculated.
  • the matching database may include a color matching database, a texture matching database, and an emphasis information matching database.
  • the color matching database may include color information for each area of the face to implement the makeup style selected by the user.
  • the texture matching database may include texture information for each area of the face to implement the makeup style selected by the user.
  • the highlight information matching database may include texture information for each area of the face to implement the makeup style selected by the user.
  • a user can select the “natural style” corresponding to the recommended video. You can select an image and select “eyes” as the region of interest in the displayed image.
  • the display device 100 may analyze the displayed image to obtain current color information, texture information, and emphasis level information about the user's forehead, eyes, eyebrows, nose, lips, cheeks, skin tone, etc. Additionally, the display device 100 may obtain a matching database corresponding to the natural style.
  • the display device 100 can identify information about the colors of the remaining areas that match the color of the current user's eye area from the color matching database corresponding to the natural style. Additionally, the display device 100 may calculate the color matching rate for each of the remaining areas by comparing the current color information of the remaining areas with the color information of the remaining areas identified in the color matching database for each area. At this time, the calculated color matching rate indicates how much the current color of the remaining areas matches the current color of the eye area in order to implement a natural makeup style, so it is a standard for providing a makeup guide for the colors of the remaining areas. It can be.
  • the display device 100 may identify information about the textures of the remaining areas that match the texture of the current user's eye area from a texture matching database corresponding to the natural style. Additionally, the display device 100 may calculate a texture matching rate for each of the remaining regions by comparing the current texture information of the remaining regions with the texture information of the remaining regions identified in the texture matching database for each region. At this time, the calculated texture matching rate indicates how much the current texture of the remaining areas matches the current texture of the eye area in order to implement a natural makeup style, so it is a standard for providing a makeup guide for the textures of the remaining areas. It can be.
  • the display device 100 may identify the degree of emphasis of the color of the remaining areas that matches the degree of emphasis of the current user's eye region from the degree of emphasis matching database corresponding to the natural style. Additionally, the display device 100 may compare the current emphasis level information of the remaining areas with the emphasis level information of the remaining areas identified in the color matching database for each area, and calculate an emphasis level matching rate for each of the remaining areas. At this time, the calculated emphasis degree matching rate indicates how much the current emphasis degree of the remaining areas matches the current emphasis degree of the eye area in order to implement a natural makeup style, and thus provides a makeup guide for the degree of emphasis of the remaining areas. It can be a standard for doing so.
  • the display device 100 may display a makeup guide related to a makeup method to increase the makeup matching rate.
  • the display device 100 can calculate the color matching rate of the eye area and the lip area by comparing the color information of the eye area, which is the area of interest, and the lip area, which is another area, that is, "b” and "c.” Accordingly, a makeup guide may be displayed that guides changing the color “b” of the lip area to “c” to implement a natural makeup style. Makeup guides for texture and level of emphasis could also be provided in a similar way.
  • the makeup guide may be displayed in the form of a guide message in text form, a related video showing a makeup method, or a recommendation for a related makeup product.
  • the user selects a desired makeup style among recommended makeup styles and selects a region of interest among areas of the user's face, so that the desired makeup style is completed based on the user's current state.
  • FIG. 2 is a block diagram of a display device according to an embodiment of the present disclosure.
  • the display device 100 includes a camera 110, a processor 120, and a display 130.
  • the camera 110 may acquire an image by photographing the surrounding environment.
  • An image may include a static image containing one frame and a dynamic image containing multiple frames.
  • the camera 110 may include, but is not limited to, an RGB camera, a depth camera, a wide-angle camera, a telephoto camera, etc.
  • the display 130 can display various visual information such as still images, moving images, user interfaces (UI), icons, etc. under the control of the processor 120.
  • the display 170 may be implemented in various forms such as liquid crystal display panel (LCD), light emitting diode (LED), organic light emitting diode (OLED), micro LED, etc. Additionally, the display 130 may be combined with a touch panel and implemented in the form of a touch screen.
  • the processor 120 controls the overall operation of the display device 100.
  • the processor 120 may include at least one processor 120.
  • the processor 120 may include one or more central processing units (CPU), application processors (AP), or communication processors (CP). .
  • CPU central processing units
  • AP application processors
  • CP communication processors
  • the processor 120 may identify the makeup style selected by the user. For example, the processor 120 may display a plurality of images corresponding to a plurality of makeup styles. At this time, the plurality of images may be an influencer's makeup style video, a thumbnail of a video showing a makeup method, or a user's makeup image stored in the display device 100.
  • the processor 120 can identify the makeup style corresponding to the selected image. Specifically, when a plurality of images are displayed for each makeup style, when one image is selected by the user, the processor 120 can immediately identify which makeup style the selected image corresponds to. Alternatively, the processor 120 may analyze the image selected by the user and identify which makeup style the image corresponds to. At this time, various image recognition technologies or artificial intelligence models that are learned to output a makeup style for the input image when an image is input may be used. Since more specific details are unrelated to the gist of the present disclosure, description is omitted.
  • the processor 120 displays a makeup style list including various makeup styles in text form, and when the user selects one makeup style from the list, the processor 120 can identify the selected makeup style. At this time, depending on the embodiment, it goes without saying that an image corresponding to the makeup style and text representing the makeup style may be displayed together.
  • Figure 3 is an example of a makeup style recommendation image displayed on the display 130. Referring to Figure 3, you can see that various makeup styles such as classic makeup, natural makeup, spring makeup, chic makeup, etc. are displayed along with related images. The user can select one of the displayed images and select a desired makeup style from among a plurality of makeup styles.
  • various makeup styles such as classic makeup, natural makeup, spring makeup, chic makeup, etc.
  • the processor 120 can control the camera 110 to capture the user's current state.
  • the processor 120 may display a guide UI to guide the user in taking a picture of the user's face, and execute a camera app to allow the camera 110 to take a picture of the user's current state.
  • the processor 120 can control the display 130 to display the user's face image.
  • the embodiment is not limited to this. That is, depending on the embodiment, the makeup style may be selected after photographing the user's face.
  • the processor 120 may analyze the displayed image of the user's face and obtain makeup information including color information, texture information, and emphasis level information. At this time, makeup information may be obtained for each region of the user's face.
  • the processor 120 may use various image analysis technologies to identify each area of the face and obtain makeup information for each identified area.
  • the processor 120 may obtain makeup information for each area of the face using an artificial intelligence model that has been learned to output makeup information for each area of the face when a face image is input. More detailed information regarding this will be omitted as detailed information is irrelevant to the gist of the present disclosure.
  • color information may include information about the color of each area of the face, such as forehead, eyes, eyebrows, nose, lips, cheeks, skin tone, etc., but is not limited to this.
  • Texture information may include information about the degree of matte, degree of shimmer, degree of glitter, and degree of gloss of each area of the face, such as forehead, eyes, eyebrows, nose, lips, cheeks, skin tone, etc., but is limited to this. It doesn't work.
  • the emphasis level information may include, but is not limited to, information about the area, thickness, density, saturation, etc. of each area of the face such as the forehead, eyes, eyebrows, nose, lips, cheeks, skin tone, etc.
  • the emphasis level information includes the area, width, and concentration of eye makeup, the thickness of the eye line, the tail direction of the eye line, the lip line, information about the direction of the corner of the mouth, information about the gradation of the eyes, nose, and cheek areas, etc. can do.
  • the processor 120 calculates a makeup matching rate between the area of interest and other areas of the user's face based on the matching database corresponding to the makeup information and the identified makeup style. You can.
  • the processor 120 may control the display 130 to display a guide UI that guides selection of a region of interest from the displayed face image of the user. Accordingly, the user can select a region of interest from the displayed face image.
  • a guide UI that guides selection of a region of interest from the displayed face image of the user.
  • processor 120 may calculate a makeup matching rate between the area of interest and other areas of the face. Specifically, the processor 120 may calculate the makeup matching rate between the region of interest and other areas of the face based on makeup information obtained by analyzing the user's face image and a matching database corresponding to the makeup style selected by the user. .
  • the matching database corresponding to the makeup style selected by the user may be obtained from the storage unit 150 of the display device 100 or an external server.
  • the display device 100 may store a matching database for each makeup style.
  • a matching database corresponding to the makeup style selected by the user can be obtained from the matching database for each makeup style stored in the processor 120.
  • the processor 120 transmits information about the makeup style selected by the user to an external server that stores a matching database for each makeup style, and transmits a matching database corresponding to the makeup style selected by the user from the external server. It can also be obtained by receiving.
  • the matching database obtained in this way may include a color matching database, a texture matching database, and an emphasis information matching database corresponding to the makeup style selected by the user, as described above with reference to FIG. 1 .
  • the area of interest selected by the user may be a point area.
  • the point area may be an area in which the user satisfactorily applied makeup among areas of the face.
  • the user may want to complete the selected makeup style by applying makeup to the remaining areas based on the point area. For example, the user completes the eye makeup using a newly purchased eye makeup product or an eye makeup product that they really want to use, and then makes up the remaining areas to match the desired makeup style (for example, a natural makeup style). You may want to complete .
  • the processor 120 may calculate the matching rate of other areas of the face based on the point area and display a makeup guide based on this.
  • the processor 120 provides information about the colors of the remaining areas that match the color of the current eye area of the user, and selects the point area as “eyes.” It can be identified in the corresponding color matching database. Additionally, the processor 120 may compare the current color information of the remaining regions with the color information of the remaining regions identified in the color matching database for each region, and calculate the color matching rate for each of the remaining regions. At this time, since the color information compared to the current color information is identified in the color matching database based on the color of the eye region, the calculated color matching rate can be the color matching rate of each of the remaining regions based on the eye region. there is. Likewise, the processor 120 may calculate the texture matching rate and the emphasis degree matching rate of the remaining regions based on the eye region, respectively.
  • the processor 120 may control the display 130 to display a makeup guide for the point area based on the calculated makeup matching rate.
  • the processor 120 displays a makeup guide for the color of another area based on the color matching rate of the other area based on the point area, and displays a makeup guide for the color of the other area based on the point area.
  • the display 130 can be controlled to display a makeup guide for the texture of another area and to display a makeup guide for the degree of emphasis of another area based on the matching rate of emphasis information of the other area based on the point area.
  • FIGS. 4A, 4B, and 4B illustrate an example in which a makeup guide is displayed when a point area is selected according to an embodiment of the present disclosure.
  • a captured image of the user's face may be displayed on the display 130.
  • the processor 120 may analyze the displayed image of the user's face and obtain makeup information including color information, texture information, and emphasis level information for each region of the user's face.
  • Figure 4b shows an example in which the eye area is selected as the point area.
  • the processor 120 calculates the color matching rate of other areas based on the selected eye area, and based on this, creates a makeup guide for other areas as shown in FIG. 4C. can be displayed.
  • the guidance message is displayed as a makeup guide, but it is not limited thereto.
  • the makeup guide may include at least one of a video or makeup product recommendation related to the makeup method as well as a guidance message related to the makeup method to increase the calculated makeup matching rate.
  • the processor 120 uses an artificial intelligence model learned to output an appropriate makeup guide when the matching rate is input, or stores a makeup guide table according to the matching rate and uses it to display a makeup guide according to the matching rate. You can.
  • the area of interest selected by the user may be a complementary area.
  • the user may have an area that they would like to further improve and can select this as the area of interest.
  • the complementary area is an area that the user wants to supplement, so when the area of interest selected by the user is the complementary area, the processor 120 calculates the matching rate of the complementary area based on the remaining areas of the face, and based on this Thus, the makeup guide can be displayed.
  • the processor 120 provides information about the color of the cheek area that matches the current color of the remaining areas excluding the cheek area, It can be identified in the color matching database corresponding to the natural style. Additionally, the processor 120 may calculate the color matching rate of the cheek area by comparing the current color information of the cheek area with the color information of the cheek area identified in the color matching database. At this time, the color information compared to the current color information of the current ball is identified in the color matching database based on the colors of the remaining areas, so the calculated color matching rate will be the color matching rate of the ball area based on the remaining areas. You can.
  • the processor 120 may calculate the texture matching rate and the emphasis level matching rate of the ball area based on the remaining areas excluding the ball. For example, the processor 120 may identify information about the texture of the cheek area that matches the current texture of the remaining areas excluding the cheek area from a texture matching database corresponding to the natural style. Additionally, the processor 120 may compare the current texture information of the ball area with the texture information of the ball area identified in the texture matching database and calculate the texture matching rate of the ball area based on the remaining areas. Additionally, the processor 120 may identify information about the emphasis level of the cheek area that matches the current emphasis level of the remaining areas excluding the cheek area from an emphasis level matching database corresponding to the natural style. Additionally, the processor 120 may compare the current emphasis level information of the cheek area with the emphasis level information of the ball area identified in the texture matching database, and calculate the matching rate of the emphasis level of the cheek area based on the remaining areas.
  • the processor 120 may control the display 130 to display a makeup guide for the complementary area based on the calculated makeup matching rate.
  • the processor 120 displays a makeup guide for the color of the complementary area based on the color matching rate of the complementary area based on the remaining areas, and displays a makeup guide for the color of the complementary area based on the texture matching rate of the complementary area based on the remaining areas.
  • the display 130 may be controlled to display a makeup guide for the texture of the complementary area and to display a makeup guide for the degree of emphasis of the complementary area based on the matching rate of emphasis information of the complementary area based on the remaining areas.
  • FIGS. 5A and 5B illustrate an example in which a makeup guide is displayed when a complementary area is selected according to an embodiment of the present disclosure.
  • a captured image of the user's face may be displayed on the display 130.
  • the processor 120 may analyze the displayed image of the user's face and obtain makeup information including color information, texture information, and emphasis level information for each region of the user's face.
  • FIG. 5A Figure 4a shows an example in which the cheek area is selected as the supplementary area.
  • the processor 120 calculates the color matching rate of the cheek area based on the remaining areas of the face, and based on this, applies makeup to the cheek area as shown in FIG. 5B.
  • the guide can be displayed.
  • the processor 120 may display a makeup guide including a comment about the current makeup state of the cheek area and a video about a makeup method to increase the matching rate, as indicated by reference number 51 in FIG. 5B.
  • the processor 120 may display a makeup guide including recommendations for makeup products to increase the matching rate, as shown by reference number 52 in FIG. 5B.
  • this is only an example, and the makeup guide is not limited to this.
  • the processor 120 may use an artificial intelligence model learned to output an appropriate makeup guide when the matching rate is input, or may store a makeup guide table according to the matching rate and use this to display a makeup guide according to the matching rate. .
  • the processor 120 may display a guide UI that guides the user to select one of the point area or the supplementary area. At this time, a guidance message explaining the point area and the supplementary area may be displayed together.
  • the selected area becomes the point area, and accordingly, a makeup guide for another area based on the point area may be displayed.
  • a makeup guide for the complementary area based on the remaining areas of the face may be displayed.
  • a user can input context information. For example, while selecting an area of interest, the user may input the user's context information including at least one of the purpose of makeup, a place to visit, or information about products used for makeup in the area of interest. At this time, context information may be input to the display device 100 through the user's voice or message input.
  • the processor 120 may control the display 130 to display the makeup guide by reflecting the user's context information.
  • the processor 120 uses an artificial intelligence model learned to output an appropriate makeup guide when the matching rate and context information is input, or stores a makeup guide table according to the matching rate and context and uses this to provide the user's context information.
  • a makeup guide reflecting the may be displayed, but is not limited to this.
  • the processor 120 may display an additional makeup guide suitable for the context, such as recommending a full lip rather than a gradient lip for lip makeup.
  • the processor 120 may display a makeup guide by reflecting the characteristics of the product used.
  • a guide for makeup for the point area selected by the user may be provided.
  • the processor 120 may receive information about the user's current makeup state. For example, the processor 120 displays a UI that allows selection of whether the user is before or during makeup, and can identify whether the user is before or during makeup. Alternatively, the user's current makeup state may be determined by analyzing the user's face image.
  • the processor 120 provides a makeup guide image regarding the makeup method of the point area corresponding to the makeup style selected by the user so that the user can perform point makeup from the beginning. can do.
  • the processor 120 applies the makeup selected by the user.
  • a makeup guide video can be provided on how to apply makeup in the point area corresponding to the style.
  • the image may be provided to provide a makeup guide for the point area.
  • the processor 120 may control the display 130 to display the matching rate of each of the remaining areas based on the point area.
  • the processor 120 may display the matching rate of each of the remaining areas based on the point area adjacent to each of the remaining areas in the face image, but the method is not limited to this.
  • the displayed matching rate may be displayed as a single number by considering all the color matching rate, texture matching rate, and emphasis level matching rate based on the point area.
  • the processor 120 calculates the average matching rate for the color matching rate, texture matching rate, and emphasis degree matching rate of other areas based on the point area, and displays the calculated average value as the matching rate of the other area. can do. Through this, users can visually check the makeup matching rate of the remaining areas.
  • FIG. 6 is a block diagram showing the configuration of a display device according to an embodiment of the present disclosure.
  • FIG. 6 comprehensively illustrates various components that may be included in the display device 100. Therefore, depending on the embodiment, some of the components shown in FIG. 6 may be omitted or changed, and other components may be added. In explaining FIG. 6, the description of content that overlaps with the above will be omitted or simplified.
  • the display device 100 includes a camera 110, a processor 120, a display 130, a communication unit 140, a storage unit 150, a microphone 160, a speaker 170, and a user input unit. It may include (180).
  • the communication unit 140 can communicate with various external devices according to various types of communication methods.
  • the communication unit 130 may communicate with an external server that stores a matching database for each makeup style. Accordingly, the processor 120 may request and receive a matching database corresponding to the makeup style selected by the user from an external server through the communication unit 140. Additionally, the communication unit 140 can perform Internet communication. Accordingly, the processor 120 can receive various contents related to makeup methods or various information about makeup products through the communication unit 140.
  • the communication unit 140 may include wired and wireless LAN communication modules.
  • the communication unit 130 may include a short-range wireless communication module (not shown) or a mobile communication module, depending on the embodiment.
  • the short-range wireless communication module (not shown) is a communication device that wirelessly communicates data with an electronic device located nearby, such as a Bluetooth module, ZigBee module, or NFC (Near Field Communication) module. It says module.
  • the mobile communication module refers to a communication module that connects to a mobile communication network and performs communication according to various mobile communication standards such as 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), and LTE (Long Term Evolution).
  • the communication unit 140 may include a broadcast reception module, and at least one of wired communication modules (not shown) such as USB (Universal Serial Bus), IEEE (Institute of Electrical and Electronics Engineers) 1394, and RS-232. It may also contain one.
  • wired communication modules not shown
  • USB Universal Serial Bus
  • IEEE Institute of Electrical and Electronics Engineers 1394
  • RS-232 RS-232
  • the storage unit 150 may store an operating system (OS) for controlling the overall operation of the electronic device 100. Additionally, the storage unit 150 may store various algorithms, programs, data, etc. for performing various functions of the display device 100 described above. In particular, the storage unit 150 can store the various artificial intelligence models, makeup guide tables, and matching databases described above. Additionally, the storage unit 150 may store a camera app for driving the camera 110, a makeup guide app for performing the above-described makeup guide operation, etc. Additionally, the storage unit 150 may store a voice recognition module for performing a voice recognition function, but is not limited thereto.
  • OS operating system
  • the storage unit 150 may store various algorithms, programs, data, etc. for performing various functions of the display device 100 described above. In particular, the storage unit 150 can store the various artificial intelligence models, makeup guide tables, and matching databases described above. Additionally, the storage unit 150 may store a camera app for driving the camera 110, a makeup guide app for performing the above-described makeup guide operation, etc. Additionally, the storage unit 150 may store a voice recognition module for performing a voice
  • the storage unit 150 may include volatile memory such as DRAM and SRAM, and non-volatile memory such as EEPOM and flash memory that can retain information even when the power is turned off. Additionally, the storage unit 150 may include a hard disk drive (HDD), solid state drive (SSD), or a memory card (e.g., SD card, memory stick) that is removable or attachable to the electronic device 100. .
  • volatile memory such as DRAM and SRAM
  • non-volatile memory such as EEPOM and flash memory that can retain information even when the power is turned off.
  • the storage unit 150 may include a hard disk drive (HDD), solid state drive (SSD), or a memory card (e.g., SD card, memory stick) that is removable or attachable to the electronic device 100.
  • HDD hard disk drive
  • SSD solid state drive
  • memory card e.g., SD card, memory stick
  • the microphone 160 can receive sound from the surrounding environment or the user's voice.
  • the processor 120 can identify an input sound or voice signal and perform an operation corresponding to the input sound or voice signal.
  • the microphone 160 may include a general microphone, a surround microphone, a directional microphone, etc.
  • the speaker 170 can output a sound signal.
  • the speaker 170 may output various messages, inquiries, notifications, guides, etc. related to the operation of the display device 100 described above as voice or notification sounds.
  • the user input unit 180 can receive various user commands such as control commands, selection commands, input commands, etc.
  • the user input unit 180 may receive the user's context information described above. Additionally, the user can input selection commands through the various UIs described above.
  • the user input unit 180 may include a keyboard, buttons, key pad, touch pad, and touch screen.
  • the user input unit 180 may be implemented as an input/output port.
  • the user input unit 180 may be called an input/output interface.
  • the input/output ports include High-Definition Multimedia Interface (HDMI), DisplayPort (DP), RGB, Digital Visual Interface (DVI), Universal Serial Bus (USB), Thunderbolt, and audio. May include jacks, video jacks, etc.
  • the user input unit 180 may be called an input device, an input unit, an input module, etc., and when implemented as an input/output port, it may be called an input/output device, an input/output unit, an input/output module, etc.
  • the processor 120 controls the overall operation of the display device 100.
  • the processor 120 may perform various operations and data processing to perform the operation of the display device 100 according to various embodiments of the present disclosure described above, and may control the operations of other components. .
  • the processor 120 can control hardware or software components connected to the processor 120 by running an operating system or application program, and can perform various data processing and calculations. Additionally, the processor 120 may load and process commands or data received from at least one of the other components into volatile memory and store various data in non-volatile memory.
  • Figure 7 is a flowchart illustrating a method of controlling a display device according to an embodiment of the present disclosure.
  • the display device 100 can identify the makeup style selected by the user (S710).
  • the display device 100 may display a plurality of images corresponding to a plurality of makeup styles, and when one image among the plurality of images is selected, the makeup style corresponding to the selected image may be identified.
  • the display device 100 may display the user's face image on the display 130 (S720).
  • the display device 100 may analyze the user's face image and obtain makeup information including color information, texture information, and emphasis level information for each region of the user's face (S730).
  • the display device 100 calculates a makeup matching rate between the area of interest and other areas of the user's face based on the matching database corresponding to the makeup information and the identified makeup style. You can do it (S740).
  • the matching database is a color matching database containing color information of each area of the face corresponding to the identified makeup style, a texture matching database containing texture information of each area of the face corresponding to the identified makeup style, and identification
  • An emphasis degree matching database containing information on the degree of emphasis of each area of the face corresponding to the applied makeup style may be included.
  • the display device 100 may display a makeup guide for at least one of the area of interest or another area based on the makeup matching rate.
  • the display device 100 identifies color information of another region included in the color matching database based on color information of the region of interest included in the makeup information, and identifies color information of another region included in the color matching database. By comparing the color information of the identified other area with the color information of the other area included in the makeup information, the color matching rate of the other area based on the area of interest can be calculated. Additionally, the display device 100 identifies texture information of another area included in the texture matching database based on texture information of the area of interest included in the makeup information, and matches the makeup with the texture information of the other area identified in the texture matching database. By comparing texture information of other areas included in the information, the texture matching rate of other areas based on the area of interest can be calculated.
  • the display device 100 identifies the emphasis level information of other areas included in the emphasis degree matching database based on the emphasis degree information of the region of interest included in the makeup information, and identifies the emphasis degree information of other areas identified in the emphasis degree matching database. By comparing the emphasis level information with the emphasis level information of other areas included in the makeup information, the matching rate of the emphasis level of other areas based on the area of interest can be calculated.
  • the display device 100 may display a makeup guide for the color of another area based on the color matching rate of the other area based on the area of interest. Additionally, the display device 100 may display a makeup guide for the texture of another area based on the texture matching rate of the other area based on the area of interest. Additionally, the display device 100 may display a makeup guide for the degree of emphasis of another area based on the matching rate of the emphasis information of the other area based on the area of interest.
  • the display device 100 identifies color information of a region of interest included in the color matching database based on color information of another region included in the makeup information, and identifies the region of interest in the color matching database. By comparing the color information of the region of interest included in the makeup information with the color information of the region of interest included in the makeup information, the color matching rate of the region of interest based on another region can be calculated.
  • the display device 100 identifies texture information of a region of interest included in the texture matching database based on texture information of another region included in the makeup information, and matches the texture information of the region of interest identified in the texture matching database, By comparing the texture information of the region of interest included in the makeup information, the texture matching rate of the region of interest based on other regions can be calculated.
  • the display device 100 identifies the emphasis level information of the region of interest included in the emphasis degree matching database based on the emphasis degree information of other regions included in the makeup information, and emphasizes the region of interest identified in the emphasis degree matching database. By comparing the degree information and the emphasis degree information of the region of interest included in the makeup information, the matching rate of the degree of emphasis of the region of interest based on other regions can be calculated.
  • the display device 100 may display a makeup guide for the color of the area of interest based on the color matching rate of the area of interest based on other areas. Additionally, the display device 100 may display a makeup guide for the texture of the region of interest based on the texture matching rate of the region of interest based on other regions. Additionally, the display device 100 may display a makeup guide for the degree of emphasis of the area of interest based on the matching rate of emphasis information of the area of interest based on other areas.
  • the makeup guide may include at least one of a guidance message, a video, or a makeup product recommendation related to a makeup method to increase the calculated makeup matching rate.
  • the display device 100 receives user context information including at least one of information about the purpose of makeup, a place to visit, or a product used for makeup in an area of interest, and the input user
  • the makeup guide can be displayed by reflecting the context information.
  • a user can select a desired makeup style and select a region of interest among areas of the user's face, thereby providing an appropriate makeup guide to complete the desired makeup style. Accordingly, users can more conveniently and accurately complete the desired makeup style based on their current state.
  • various embodiments of the present disclosure may be implemented as software including instructions stored in a machine-readable storage media (e.g., a computer).
  • the device is a device capable of calling commands stored from a storage medium and operating according to the called commands, and may include the display device 100 according to the disclosed embodiments.
  • the processor may perform the function corresponding to the instruction directly or using other components under the control of the processor.
  • Instructions may contain code generated or executed by a compiler or interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium does not contain signals and is tangible, and does not distinguish whether the data is stored semi-permanently or temporarily in the storage medium.
  • methods according to various embodiments disclosed in the present disclosure may be included and provided in a computer program product.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed on a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or online through an application store (e.g. Play StoreTM).
  • a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play StoreTM
  • at least a portion of the computer program product may be at least temporarily stored or created temporarily in a storage medium such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • Each component may be composed of a single or plural entity, and some of the above-described sub-components may be omitted, or other sub-components may be variously used. Further examples may be included. Alternatively or additionally, some components (e.g., modules or programs) may be integrated into a single entity and perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or at least some operations may be executed in a different order, omitted, or other operations may be added. You can.

Abstract

Disclosed is a control method of a display device. This control method comprises the steps of: identifying a makeup style selected by a user; displaying a facial image of the user when the user's face is photographed through a camera; obtaining makeup information comprising color information, texture information, and highlight degree information for each area of the user's face by analyzing the facial image of the user; calculating, when an area of interest is selected from the facial image of the user, a makeup matching rate between the area of interest and the remaining areas on the basis of a matching database corresponding to the obtained makeup information and the identified makeup style; and displaying a makeup guide for at least one of the area of interest or the remaining areas on the basis of the calculated makeup matching rate.

Description

디스플레이 장치 및 이의 제어 방법Display device and control method thereof
본 개시는 디스플레이 장치 및 이의 제어 방법에 관한 것으로, 보다 상세하게는, 메이크업 가이드를 제공하는 디스플레이 장치 및 이의 제어 방법에 관한 것이다. The present disclosure relates to a display device and a control method thereof, and more specifically, to a display device that provides a makeup guide and a control method thereof.
최근, 사람들은 소셜 플랫폼을 통해 자신의 메이크업이나 패션을 타인과 공유하고 있다. 특히, 메이크업의 경우, 많은 인플루언서들이 다양한 스타일의 컨텐츠를 제작 및 배포하고 있으며, 사람들은 이를 보고 메이크업 방법이나 스타일을 따라하는 경우가 많다. Recently, people are sharing their makeup and fashion with others through social platforms. In particular, in the case of makeup, many influencers are producing and distributing content in various styles, and people often follow the makeup method or style after seeing this.
하지만, 인플루언서들의 컨텐츠를 그대로 따라하는 데는 시간의 소모가 크며, 이를 따라하더라도 자신과는 잘 어울리지 않아 메이크업을 실패하는 경우가 자주 일어난다. 따라서, 원하는 메이크업 스타일을 자신과 잘 어울리게 구현하도록 가이드를 제공하는 기술이 필요하다. However, it is very time-consuming to copy the influencer's content, and even if you follow it, you often end up with makeup failure because it does not suit you well. Therefore, there is a need for technology that provides guidance to achieve the desired makeup style that suits oneself.
본 개시의 일 실시 예에 따른, 카메라를 포함하는 디스플레이 장치의 제어 방법은, 사용자에 의해 선택된 메이크업 스타일을 식별하는 단계, 상기 카메라를 통해 사용자의 얼굴이 촬영되면, 상기 사용자의 얼굴 영상을 디스플레이하는 단계, 상기 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 상기 사용자의 얼굴의 각 영역 별로 획득하는 단계, 상기 사용자의 얼굴 영상에서 관심 영역이 선택되면, 상기 획득된 메이크업 정보 및 상기 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 상기 관심 영역과 상기 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출하는 단계, 및 상기 산출된 메이크업 매칭률에 기초하여 상기 관심 영역 또는 상기 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이하는 단계를 포함하고, 상기 매칭 데이터베이스는, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함한다. According to an embodiment of the present disclosure, a method of controlling a display device including a camera includes identifying a makeup style selected by a user, displaying an image of the user's face when the user's face is captured through the camera. A step of analyzing the user's face image to obtain makeup information including color information, texture information, and emphasis level information for each area of the user's face. When a region of interest is selected from the user's face image, Calculating a makeup matching rate between the region of interest and another region of the user's face based on acquired makeup information and a matching database corresponding to the identified makeup style, and calculating a makeup matching rate between the region of interest and another region of the user's face based on the calculated makeup matching rate Displaying a makeup guide for at least one of a region of interest or the other region, wherein the matching database includes color information for each region of the face corresponding to the identified makeup style, the identification It includes a texture matching database including texture information of each area of the face corresponding to the identified makeup style, and an emphasis degree matching database including emphasis degree information of each region of the face corresponding to the identified makeup style.
또한, 상기 메이크업 매칭률을 산출하는 단계는, 상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하는 단계, 및 상기 식별된 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출하는 단계를 포함할 수 있다. In addition, the step of calculating the makeup matching rate includes color information and texture information of the other region included in the color matching database based on color information, texture information, and emphasis degree information of the region of interest included in the makeup information. and identifying emphasis degree information, respectively, and comparing the color information, texture information, and emphasis degree information of the identified other region with the color information, texture information, and emphasis degree information of the other region included in the makeup information. Thus, it may include calculating the color matching rate, texture matching rate, and emphasis matching rate of the other regions based on the region of interest, respectively.
또한, 상기 메이크업 가이드를 디스플레이하는 단계는, 상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률에 기초하여 상기 다른 영역의 컬러에 대한 메이크업 가이드를 디스플레이하는 단계, 상기 관심 영역을 기준으로 한 상기 다른 영역의 텍스쳐 매칭률에 기초하여 상기 다른 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하는 단계, 및 상기 관심 영역을 기준으로 한 상기 다른 영역의 강조 정보 매칭률에 기초하여 상기 다른 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하는 단계를 포함할 수 있다. In addition, displaying the makeup guide may include displaying a makeup guide for the color of the other area based on the color matching rate of the other area based on the area of interest, and displaying the makeup guide for the color of the other area based on the area of interest. Displaying a makeup guide for the texture of the other area based on the texture matching rate of the other area, and displaying a makeup guide for the texture of the other area based on the emphasis information matching rate of the other area based on the area of interest. It may include displaying a makeup guide.
또한, 상기 메이크업 매칭률을 산출하는 단계는, 상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하는 단계, 및 상기 식별된 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출하는 단계를 포함할 수 있다. In addition, the step of calculating the makeup matching rate includes color information and texture information of the region of interest included in the color matching database based on color information, texture information, and emphasis degree information of the other region included in the makeup information. and identifying emphasis degree information, respectively, and comparing color information, texture information, and emphasis degree information of the identified region of interest with color information, texture information, and emphasis degree information of the region of interest included in the makeup information. Thus, it may include calculating the color matching rate, texture matching rate, and emphasis matching rate of the region of interest based on the other region.
또한, 상기 메이크업 가이드를 디스플레이하는 단계는, 상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률에 기초하여 상기 관심 영역의 컬러에 대한 메이크업 가이드를 디스플레이하는 단계, 상기 다른 영역을 기준으로 한 상기 관심 영역의 텍스쳐 매칭률에 기초하여 상기 관심 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하는 단계, 및 상기 다른 영역을 기준으로 한 상기 관심 영역의 강조 정보 매칭률에 기초하여 상기 관심 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하는 단계를 포함할 수 있다. In addition, displaying the makeup guide may include displaying a makeup guide for a color of the region of interest based on a color matching rate of the region of interest based on the other region, Displaying a makeup guide for a texture of the region of interest based on a texture matching rate of the region of interest, and determining a degree of emphasis of the region of interest based on a matching rate of emphasis information of the region of interest based on the other regions. It may include displaying a makeup guide.
또한, 상기 식별하는 단계는, 복수의 메이크업 스타일에 대응되는 복수의 이미지를 디스플레이하는 단계, 및 상기 복수의 이미지 중 하나의 이미지가 선택되면, 상기 선택된 이미지에 대응되는 메이크업 스타일을 식별하는 단계를 포함할 수 있다. Additionally, the identifying step includes displaying a plurality of images corresponding to a plurality of makeup styles, and when one image among the plurality of images is selected, identifying a makeup style corresponding to the selected image. can do.
또한, 상기 메이크업 가이드는, 상기 산출된 메이크업 매칭률을 높이기 위한 메이크업 방법과 관련된, 안내 메시지, 동영상 또는 메이크업 제품 추천 중 적어도 하나를 포함할 수 있다. Additionally, the makeup guide may include at least one of an information message, a video, or a makeup product recommendation related to a makeup method to increase the calculated makeup matching rate.
또한, 메이크업 목적, 방문 장소 또는 상기 관심 영역의 메이크업에 사용한 제품에 관한 정보 중 적어도 하나를 포함하는 사용자의 컨텍스트 정보를 입력받는 단계를 포함하고, 상기 메이크업 가이드를 디스플레이하는 단계는, 상기 사용자의 컨텍스트 정보를 반영하여 상기 메이크업 가이드를 디스플레이할 수 있다. In addition, it includes receiving user context information including at least one of information about the purpose of makeup, a place to visit, or information about products used for makeup in the area of interest, and the step of displaying the makeup guide includes the step of receiving the user's context information. The makeup guide can be displayed by reflecting the information.
한편, 본 개시의 일 실시 예에 따른 디스플레이 장치는, 디스플레이, 카메라, 및 사용자에 의해 선택된 메이크업 스타일을 식별하고, 상기 카메라를 통해 사용자의 얼굴이 촬영되면, 상기 사용자의 얼굴 영상을 디스플레이하도록 상기 디스플레이를 제어하고, 상기 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 상기 사용자의 얼굴의 각 영역 별로 획득하고, 상기 사용자의 얼굴 영상에서 관심 영역이 선택되면, 상기 획득된 메이크업 정보 및 상기 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 상기 관심 영역과 상기 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출하고, 상기 산출된 메이크업 매칭률에 기초하여 상기 관심 영역 또는 상기 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어하는 적어도 하나의 프로세서를 포함하고, 상기 매칭 데이터베이스는, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함한다. Meanwhile, a display device according to an embodiment of the present disclosure identifies a display, a camera, and a makeup style selected by a user, and when the user's face is captured through the camera, the display device displays the user's face image. Controls and analyzes the user's face image to obtain makeup information including color information, texture information, and emphasis level information for each area of the user's face, and when a region of interest is selected from the user's face image, Based on the obtained makeup information and a matching database corresponding to the identified makeup style, a makeup matching rate between the area of interest and another area of the user's face is calculated, and the interest rate is calculated based on the calculated makeup matching rate. At least one processor to control the display to display a makeup guide for at least one of the region or the other region, wherein the matching database includes color information for each region of the face corresponding to the identified makeup style. a color matching database, a texture matching database including texture information of each region of the face corresponding to the identified makeup style, and an emphasis degree matching including emphasis degree information of each region of the face corresponding to the identified makeup style. Includes database.
또한, 상기 적어도 하나의 프로세서는, 상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하고, 상기 식별된 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출할 수 있다. In addition, the at least one processor is configured to store color information, texture information, and emphasis degree of the other region included in the color matching database based on color information, texture information, and emphasis degree information of the region of interest included in the makeup information. Each piece of information is identified, and the color information, texture information, and emphasis degree information of the identified other region are compared with the color information, texture information, and emphasis degree information of the other region included in the makeup information, respectively, to determine the region of interest. Based on , the color matching rate, texture matching rate, and emphasis degree matching rate of the different areas can be calculated, respectively.
또한, 상기 적어도 하나의 프로세서는, 상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률에 기초하여 상기 다른 영역의 컬러에 대한 메이크업 가이드를 디스플레이하고, 상기 관심 영역을 기준으로 한 상기 다른 영역의 텍스쳐 매칭률에 기초하여 상기 다른 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하고, 상기 관심 영역을 기준으로 한 상기 다른 영역의 강조 정보 매칭률에 기초하여 상기 다른 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어할 수 있다. In addition, the at least one processor displays a makeup guide for the color of the other area based on the color matching rate of the other area based on the area of interest, and displays a makeup guide for the color of the other area based on the area of interest. To display a makeup guide for the texture of the other area based on the texture matching rate, and to display a makeup guide for the degree of emphasis of the other area based on the emphasis information matching rate of the other area based on the region of interest. The display can be controlled.
또한, 상기 적어도 하나의 프로세서는, 상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하고, 상기 식별된 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출할 수 있다. In addition, the at least one processor is configured to store color information, texture information, and emphasis degree of the region of interest included in the color matching database based on color information, texture information, and emphasis degree information of the other region included in the makeup information. Each information is identified, and the color information, texture information, and emphasis degree information of the identified region of interest are compared with the color information, texture information, and emphasis degree information of the region of interest included in the makeup information, respectively, and the other region is Based on , the color matching rate, texture matching rate, and emphasis degree matching rate of the region of interest can be calculated, respectively.
또한, 상기 적어도 하나의 프로세서는, 상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률에 기초하여 상기 관심 영역의 컬러에 대한 메이크업 가이드를 디스플레이하고, 상기 다른 영역을 기준으로 한 상기 관심 영역의 텍스쳐 매칭률에 기초하여 상기 관심 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하고, 상기 다른 영역을 기준으로 한 상기 관심 영역의 강조 정보 매칭률에 기초하여 상기 관심 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어할 수 있다. In addition, the at least one processor displays a makeup guide for the color of the region of interest based on a color matching rate of the region of interest based on the other region, and displays a makeup guide for the color of the region of interest based on the other region. Display a makeup guide for the texture of the region of interest based on the texture matching rate, and display a makeup guide for the degree of emphasis of the region of interest based on the matching rate of emphasis information of the region of interest based on the other regions. The display can be controlled.
또한, 상기 적어도 하나의 프로세서는, 복수의 메이크업 스타일에 대응되는 복수의 이미지를 디스플레이하도록 상기 디스플레이를 제어하고, 상기 복수의 이미지 중 하나의 이미지가 선택되면, 상기 선택된 이미지에 대응되는 메이크업 스타일을 식별할 수 있다. In addition, the at least one processor controls the display to display a plurality of images corresponding to a plurality of makeup styles, and when one image of the plurality of images is selected, identifies a makeup style corresponding to the selected image. can do.
또한, 상기 메이크업 가이드는, 상기 산출된 메이크업 매칭률을 높이기 위한 메이크업 방법과 관련된, 안내 메시지, 동영상 또는 메이크업 제품 추천 중 적어도 하나를 포함할 수 있다. Additionally, the makeup guide may include at least one of an information message, a video, or a makeup product recommendation related to a makeup method to increase the calculated makeup matching rate.
또한, 상기 적어도 하나의 프로세서는, 메이크업 목적, 방문 장소 또는 상기 관심 영역의 메이크업에 사용한 제품에 관한 정보 중 적어도 하나를 포함하는 사용자의 컨텍스트 정보가 입력되면, 상기 사용자의 컨텍스트 정보를 반영하여 상기 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어할 수 있다. In addition, when the user's context information including at least one of the purpose of makeup, the place to visit, or information about the product used for makeup in the area of interest is input, the at least one processor reflects the user's context information to apply the makeup The display can be controlled to display a guide.
한편, 본 개시의 일 실시 예에 따른, 디스플레이 장치의 프로세서에 의해 실행되는 경우 상기 디스플레이 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 기록 매체에 있어서, 상기 동작은, 사용자에 의해 선택된 메이크업 스타일을 식별하는 단계, 상기 카메라를 통해 사용자의 얼굴이 촬영되면, 상기 사용자의 얼굴 영상을 디스플레이하는 단계, 상기 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 상기 사용자의 얼굴의 각 영역 별로 획득하는 단계, 상기 사용자의 얼굴 영상에서 관심 영역이 선택되면, 상기 획득된 메이크업 정보 및 상기 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 상기 관심 영역과 상기 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출하는 단계, 및 상기 산출된 메이크업 매칭률에 기초하여 상기 관심 영역 또는 상기 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이하는 단계를 포함하고, 상기 매칭 데이터베이스는, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함한다. Meanwhile, according to an embodiment of the present disclosure, in a non-transitory computer-readable recording medium that stores computer instructions that cause the display device to perform an operation when executed by a processor of the display device, the operation is performed by a user. Identifying the makeup style selected by the camera, displaying the user's face image when the user's face is captured by the camera, analyzing the user's face image to include color information, texture information, and emphasis level information. Obtaining makeup information for each area of the user's face, when a region of interest is selected from the face image of the user, based on the obtained makeup information and a matching database corresponding to the identified makeup style, calculating a makeup matching rate between the region of interest and another region of the user's face, and displaying a makeup guide for at least one of the region of interest or the other region based on the calculated makeup matching rate, The matching database includes a color matching database containing color information of each area of the face corresponding to the identified makeup style, a texture matching database containing texture information of each area of the face corresponding to the identified makeup style, and It includes an emphasis degree matching database that includes information on the degree of emphasis of each area of the face corresponding to the identified makeup style.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치의 동작을 설명하기 위한 도면,1 is a diagram for explaining the operation of a display device according to an embodiment of the present disclosure;
도 2는 본 개시의 일 실시 예에 따른 디스플레이 장치의 블럭도,2 is a block diagram of a display device according to an embodiment of the present disclosure;
도 3은 메이크업 스타일 추천 영상의 예시도, Figure 3 is an example of a makeup style recommendation video,
도 4a는 본 개시의 일 실시 예에 따라 디스플레이 장치에 디스플레이된 화면을 도시한 도면, FIG. 4A is a diagram illustrating a screen displayed on a display device according to an embodiment of the present disclosure;
도 4b는 본 개시의 일 실시 예에 따라 디스플레이 장치에 디스플레이된 화면을 도시한 도면, FIG. 4B is a diagram illustrating a screen displayed on a display device according to an embodiment of the present disclosure;
도 4c는 본 개시의 일 실시 예에 따라 디스플레이 장치에 디스플레이된 화면을 도시한 도면, FIG. 4C is a diagram illustrating a screen displayed on a display device according to an embodiment of the present disclosure;
도 5a는 본 개시의 일 실시 예에 따라 디스플레이 장치에 디스플레이된 화면을 도시한 도면, FIG. 5A is a diagram illustrating a screen displayed on a display device according to an embodiment of the present disclosure;
도 5b는 본 개시의 일 실시 예에 따라 디스플레이 장치에 디스플레이된 화면을 도시한 도면, 5B is a diagram illustrating a screen displayed on a display device according to an embodiment of the present disclosure;
도 6은 본 개시의 일 실시 예에 따른 디스플레이 장치의 블럭도, 및 6 is a block diagram of a display device according to an embodiment of the present disclosure, and
도 7은 본 개시의 일 실시 예에 따른 디스플레이 장치의 제어 방법을 나타내는 흐름도이다. Figure 7 is a flowchart showing a method of controlling a display device according to an embodiment of the present disclosure.
이하 도면을 참조하여 설명되는 본 개시의 다양한 실시 예들은 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Various embodiments of the present disclosure described below with reference to the drawings are not intended to limit the scope to specific embodiments, but are understood to include various modifications, equivalents, and/or alternatives. It has to be. In connection with the description of the drawings, similar reference numbers may be used for similar components.
본 개시를 설명함에 있어, 관련된 공지 기술에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 동일한 구성의 중복 설명은 되도록 생략하기로 한다. In describing the present disclosure, if it is determined that a detailed description of related known technologies may unnecessarily obscure the gist of the present disclosure, the detailed description will be omitted. Additionally, duplicate descriptions of the same configuration will be omitted as much as possible.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. The suffix "part" for the components used in the following description is given or used interchangeably only considering the ease of preparing the specification, and does not have a distinct meaning or role in itself.
본 개시에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 본 개시를 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terms used in this disclosure are used to describe embodiments and are not intended to limit and/or limit the present disclosure. Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 개시에서, '포함하다' 또는 '가지다' 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present disclosure, terms such as 'include' or 'have' are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. Expressions such as “first,” “second,” “first,” or “second,” used in the present disclosure can modify various components regardless of order and/or importance, and can refer to one component. It is only used to distinguish from other components and does not limit the components.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is “(operatively or communicatively) coupled with/to” another component (e.g., a second component). When referred to as being “connected to,” it should be understood that any component may be directly connected to the other component or may be connected through another component (e.g., a third component). On the other hand, when a component (e.g., a first component) is referred to as being “directly connected” or “directly connected” to another component (e.g., a second component), it means that there is a connection between said component and said other component. It may be understood that other components (e.g., a third component) do not exist.
본 개시의 실시 예들에서 사용되는 용어들은 다르게 정의되지 않는 한, 해당 기술 분야에서 통상의 지식을 가진 자에게 통상적으로 알려진 의미로 해석될 수 있다.Unless otherwise defined, terms used in the embodiments of the present disclosure may be interpreted as meanings commonly known to those skilled in the art.
이하에서 첨부된 도면을 참조하여 본 개시의 다양한 실시 예를 상세히 설명한다. Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the attached drawings.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치의 동작을 설명하기 위한 도면이다. 1 is a diagram for explaining the operation of a display device according to an embodiment of the present disclosure.
도 1에 따르면, 디스플레이 장치(100)는 다양한 메이크업 스타일을 추천할 수 있다(11). 예를 들어, 디스플레이 장치(100)에는 후술할 본 개시의 다양한 실시 예들에 따른 기능을 수행하기 위한 메이크업 가이드 앱이 설치될 수 있으며, 사용자는 메이크업 가이드 앱을 실행시킬 수 있다. According to FIG. 1, the display device 100 can recommend various makeup styles (11). For example, a makeup guide app may be installed on the display device 100 to perform functions according to various embodiments of the present disclosure, which will be described later, and the user may execute the makeup guide app.
메이크업 가이드 앱이 실행되면, 디스플레이 장치(100)는, 예를 들어, 인플루언서의 다양한 메이크업 스타일 영상(정지 영상, 동영상)이나, 디스플레이 장치(100)에 저장된 사용자의 영상 등을 사용자가 선택할 수 있도록 디스플레이함으로써, 사용자에게 다양한 메이크업 스타일들을 추천할 수 있다. When the makeup guide app is executed, the display device 100 allows the user to select, for example, various makeup style images (still images, videos) of influencers or images of the user stored in the display device 100. By displaying it so that various makeup styles can be recommended to the user.
사용자가 하나의 메이크업 스타일을 선택하면(12), 디스플레이 장치(100)는 카메라 앱을 실행시켜, 사용자가 자신의 현재 메이크업 상태를 촬영하도록 할 수 있다(13). 이때, 사용자의 얼굴이 촬영되도록 가이드 UI(User Interface)를 디스플레이할 수도 있다. When the user selects one makeup style (12), the display device 100 can run a camera app and allow the user to take a picture of his or her current makeup state (13). At this time, a guide UI (User Interface) may be displayed so that the user's face is captured.
사용자의 현재 상태가 촬영되면, 디스플레이 장치(100)는 촬영된 영상을 디스플레이하고, 디스플레이된 영상을 분석하여 사용자의 얼굴 영역별 메이크업 정보를 획득할 수 있다. 이때, 얼굴 영역별 메이크업 정보는, 사용자의 얼굴 영역(예를 들어, 이마, 눈, 눈썹, 코, 입술, 볼, 피부톤 등을 포함할 수 있다.) 각각에 대한 컬러 정보, 텍스쳐 정보, 강조 정도 정보를 포함할 수 있으니, 이에 한정되는 것은 아니다. When the user's current state is captured, the display device 100 may display the captured image and analyze the displayed image to obtain makeup information for each facial area of the user. At this time, the makeup information for each face area includes color information, texture information, and degree of emphasis for each of the user's face areas (e.g., forehead, eyes, eyebrows, nose, lips, cheeks, skin tone, etc.). It may include information, so it is not limited to this.
한편, 사용자는 디스플레이된 영상에서 얼굴 영역들 중 관심 영역을 선택할 수 있다. 이때, 디스플레이 장치(100)는 사용자가 관심 영역을 선택하도록 안내하는 가이드 UI를 디스플레이할 수도 있다. Meanwhile, the user can select an area of interest among facial areas in the displayed image. At this time, the display device 100 may display a guide UI that guides the user to select an area of interest.
사용자가 촬영된 사진을 기반으로 관심 영역을 선택하면(14), 디스플레이 장치(100)는 사용자의 영상을 분석하여 획득된 얼굴 영역별 메이크업 정보와 추천 영상에서 선택된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 관심 영역과 얼굴의 다른 영역들 간의 메이크업 매칭률을 산출할 수 있다. When the user selects an area of interest based on the captured photo (14), the display device 100 is based on makeup information for each facial area obtained by analyzing the user's image and a matching database corresponding to the makeup style selected in the recommended image. Thus, the makeup matching rate between the area of interest and other areas of the face can be calculated.
이때, 매칭 데이터베이스는, 컬러 매칭 데이터베이스, 텍스쳐 매칭 데이터 베이스, 강조 정보 매칭 데이터베이스를 포함할 수 있다. 컬러 매칭 데이터베이스는, 사용자에 의해 선택된 메이크업 스타일을 구현하기 위한 얼굴의 각 영역 별 컬러 정보를 포함할 수 있다. 텍스쳐 매칭 데이터 베이스는, 사용자에 의해 선택된 메이크업 스타일을 구현하기 위한 얼굴의 각 영역 별 텍스쳐 정보를 포함할 수 있다. 강조 정보 매칭 데이터베이스는, 사용자에 의해 선택된 메이크업 스타일을 구현하기 위한 얼굴의 각 영역 별 텍스쳐 정보를 포함할 수 있다. At this time, the matching database may include a color matching database, a texture matching database, and an emphasis information matching database. The color matching database may include color information for each area of the face to implement the makeup style selected by the user. The texture matching database may include texture information for each area of the face to implement the makeup style selected by the user. The highlight information matching database may include texture information for each area of the face to implement the makeup style selected by the user.
예를 들어, 사용가가 새로 산 아이메이크업 제품을 사용하여 아이메이크업을 하고 나서, 현재 아이메이크업 상태에 어울리도록 "내추럴 스타일"의 메이크업을 하고 싶은 경우, 사용자는 추천 영상에서 "내추럴 스타일"에 대응되는 이미지를 선택하고, 디스플레이된 영상에서 "눈"을 관심 영역으로 선택할 수 있다. For example, if a user applies eye makeup using a newly purchased eye makeup product and then wants to apply a “natural style” makeup to match the current eye makeup condition, the user can select the “natural style” corresponding to the recommended video. You can select an image and select “eyes” as the region of interest in the displayed image.
이 경우, 디스플레이 장치(100)는 디스플레이된 영상을 분석하여 사용자의 이마, 눈, 눈썹, 코, 입술, 볼, 피부톤 등에 대한 현재의 컬러 정보, 텍스쳐 정보, 강조 정도 정보를 획득할 수 있다. 또한, 디스플레이 장치(100)는 내추럴 스타일에 대응되는 매칭 데이터베이스를 획득할 수 있다. In this case, the display device 100 may analyze the displayed image to obtain current color information, texture information, and emphasis level information about the user's forehead, eyes, eyebrows, nose, lips, cheeks, skin tone, etc. Additionally, the display device 100 may obtain a matching database corresponding to the natural style.
이에 따라, 디스플레이 장치(100)는 현재 사용자의 눈 영역의 컬러에 매칭되는 나머지 영역들의 컬러에 대한 정보를, 내추럴 스타일에 대응되는 컬러 매칭 데이터베이스에서 식별할 수 있다. 또한, 디스플레이 장치(100)는 나머지 영역들의 현재 컬러 정보와 컬러 매칭 데이터베이스에서 식별된 나머지 영역들의 컬러 정보를 영역별로 비교하여, 나머지 영역들 각각의 컬러 매칭률을 산출할 수 있다. 이때, 산출되는 컬러 매칭률은, 내추럴 메이크업 스타일을 구현하기 위해, 나머지 영역들의 현재 컬러가 눈 영역의 현재 컬러와 얼마나 매칭되는 지를 나타내므로, 나머지 영역들의 컬러에 대한 메이크업 가이드를 제공하기 위한 기준이 될 수 있다. Accordingly, the display device 100 can identify information about the colors of the remaining areas that match the color of the current user's eye area from the color matching database corresponding to the natural style. Additionally, the display device 100 may calculate the color matching rate for each of the remaining areas by comparing the current color information of the remaining areas with the color information of the remaining areas identified in the color matching database for each area. At this time, the calculated color matching rate indicates how much the current color of the remaining areas matches the current color of the eye area in order to implement a natural makeup style, so it is a standard for providing a makeup guide for the colors of the remaining areas. It can be.
한편, 디스플레이 장치(100)는 현재 사용자의 눈 영역의 텍스쳐에 매칭되는 나머지 영역들의 텍스쳐에 대한 정보를, 내추럴 스타일에 대응되는 텍스쳐 매칭 데이터베이스에서 식별할 수 있다. 또한, 디스플레이 장치(100)는 나머지 영역들의 현재 텍스쳐 정보와 텍스쳐 매칭 데이터베이스에서 식별된 나머지 영역들의 텍스쳐 정보를 영역별로 비교하여, 나머지 영역들 각각의 텍스쳐 매칭률을 산출할 수 있다. 이때, 산출되는 텍스쳐 매칭률은, 내추럴 메이크업 스타일을 구현하기 위해, 나머지 영역들의 현재 텍스쳐가 눈 영역의 현재 텍스쳐와 얼마나 매칭되는 지를 나타내므로, 나머지 영역들의 텍스쳐에 대한 메이크업 가이드를 제공하기 위한 기준이 될 수 있다. Meanwhile, the display device 100 may identify information about the textures of the remaining areas that match the texture of the current user's eye area from a texture matching database corresponding to the natural style. Additionally, the display device 100 may calculate a texture matching rate for each of the remaining regions by comparing the current texture information of the remaining regions with the texture information of the remaining regions identified in the texture matching database for each region. At this time, the calculated texture matching rate indicates how much the current texture of the remaining areas matches the current texture of the eye area in order to implement a natural makeup style, so it is a standard for providing a makeup guide for the textures of the remaining areas. It can be.
또한, 디스플레이 장치(100)는 현재 사용자의 눈 영역의 강조 정도에 매칭되는 나머지 영역들의 컬러에 대한 강조 정도를, 내추럴 스타일에 대응되는 강조 정도 매칭 데이터베이스에서 식별할 수 있다. 또한, 디스플레이 장치(100)는 나머지 영역들의 현재 강조 정도 정보와 컬러 매칭 데이터베이스에서 식별된 나머지 영역들의 강조 정도 정보를 영역별로 비교하여, 나머지 영역들 각각의 강조 정도 매칭률을 산출할 수 있다. 이때, 산출되는 강조 정도 매칭률은, 내추럴 메이크업 스타일을 구현하기 위해, 나머지 영역들의 현재 강조 정도가 눈 영역의 현재 강조 정도와 얼마나 매칭되는 지를 나타내므로, 나머지 영역들의 강조 정도에 대한 메이크업 가이드를 제공하기 위한 기준이 될 수 있다. Additionally, the display device 100 may identify the degree of emphasis of the color of the remaining areas that matches the degree of emphasis of the current user's eye region from the degree of emphasis matching database corresponding to the natural style. Additionally, the display device 100 may compare the current emphasis level information of the remaining areas with the emphasis level information of the remaining areas identified in the color matching database for each area, and calculate an emphasis level matching rate for each of the remaining areas. At this time, the calculated emphasis degree matching rate indicates how much the current emphasis degree of the remaining areas matches the current emphasis degree of the eye area in order to implement a natural makeup style, and thus provides a makeup guide for the degree of emphasis of the remaining areas. It can be a standard for doing so.
이와 같이, 관심 영역과 얼굴의 다른 영역들 간의 메이크업 매칭률이 산출되면, 디스플레이 장치(100)는 메이크업 매칭률을 높이기 위한 메이크업 방법과 관련된 메이크업 가이드를 디스플레이할 수 있다. In this way, when the makeup matching rate between the region of interest and other areas of the face is calculated, the display device 100 may display a makeup guide related to a makeup method to increase the makeup matching rate.
상술한 예에서, 사용자의 현재 눈 영역의 컬러는 "a"이고, 입술 영역의 컬러는 "b"이지만, 눈 영역의 컬러 "a"에 어울리는 입술 영역의 컬러는 "c"인 것으로 컬러 매칭 데이터베이스에서 식별된 경우, 디스플레이 장치(100)는 관심 영역인 눈 영역과 다른 영역인 입술 영역의 컬러 정보 즉, "b"와 "c"를 비교하여 눈 영역과 입술 영역의 컬러 매칭률을 산출할 수 있으며, 이에 따라, 내추럴 메이크업 스타일을 구현하기 위해 입술 영역의 컬러 "b"를 "c"로 수정할 것을 가이드하는 메이크업 가이드를 디스플레이할 수 있을 것이다. 텍스쳐나 강조 정도에 대한 메이크업 가이드 역시 이와 유사한 방법으로 제공될 수 있을 것이다. In the above example, the user's current eye area color is "a", the lip area color is "b", but the lip area color that matches the eye area color "a" is "c", and the color matching database When identified, the display device 100 can calculate the color matching rate of the eye area and the lip area by comparing the color information of the eye area, which is the area of interest, and the lip area, which is another area, that is, "b" and "c." Accordingly, a makeup guide may be displayed that guides changing the color “b” of the lip area to “c” to implement a natural makeup style. Makeup guides for texture and level of emphasis could also be provided in a similar way.
이때, 메이크업 가이드는, 실시 예에 따라, 텍스트 형태의 가이드 메시지, 메이크업 방법을 보여주는 관련 영상, 또는 관련 메이크업 제품 추천의 형태로 디스플레이될 수 있다. At this time, depending on the embodiment, the makeup guide may be displayed in the form of a guide message in text form, a related video showing a makeup method, or a recommendation for a related makeup product.
이상과 같은 본 개시의 일 실시 예에 따르면, 사용자는 추천된 메이크업 스타일들 중 원하는 메이크업 스타일을 선택하고, 자신의 얼굴 영역 중 관심 영역을 선택함으로써, 원하는 메이크업 스타일이 자신의 현재 상태를 기준으로 완성될 수 있도록 메이크업 가이드를 제공받을 수 있다. 이에 따라, 사용자는 보다 편리하고 정확하게 자신이 원하는 메이크업 스타일을 완성할 수 있다. According to an embodiment of the present disclosure as described above, the user selects a desired makeup style among recommended makeup styles and selects a region of interest among areas of the user's face, so that the desired makeup style is completed based on the user's current state. You can receive a makeup guide to help you achieve your goal. Accordingly, users can complete the makeup style they want more conveniently and accurately.
도 2는 본 개시의 일 실시 예에 따른 디스플레이 장치의 블럭도이다. 도 2에 따르면, 디스플레이 장치(100)는 카메라(110), 프로세서(120) 및 디스플레이(130)를 포함한다. Figure 2 is a block diagram of a display device according to an embodiment of the present disclosure. According to FIG. 2, the display device 100 includes a camera 110, a processor 120, and a display 130.
카메라(110)는 주변 환경을 촬영하여 이미지를 획득할 수 있다. 이미지는 하나의 프레임을 포함하는 정적 이미지와 복수의 프레임을 포함하는 동적 이미지를 포함할 수 있다. 예를 들어, 카메라(110)는 RGB 카메라, 뎁스 카메라, 광각 카메라, 망원 카메라 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The camera 110 may acquire an image by photographing the surrounding environment. An image may include a static image containing one frame and a dynamic image containing multiple frames. For example, the camera 110 may include, but is not limited to, an RGB camera, a depth camera, a wide-angle camera, a telephoto camera, etc.
디스플레이(130)는 프로세서(120)의 제어를 받아 정지 영상, 동영상, 유저 인터페이스(UI), 아이콘 등과 같은 각종 시각 정보를 디스플레이할 수 있다. 이를 위해, 디스플레이(170)는 LCD(Liquid Crystal Display Panel), LED(light emitting diode), OLED(Organic Light Emitting Diodes), 마이크로 LED 등과 같은 다양한 형태로 구현될 수 있다. 또한, 디스플레이(130)는 터치 패널과 결합되어 터치 스크린 형태로 구현될 수도 있다.The display 130 can display various visual information such as still images, moving images, user interfaces (UI), icons, etc. under the control of the processor 120. To this end, the display 170 may be implemented in various forms such as liquid crystal display panel (LCD), light emitting diode (LED), organic light emitting diode (OLED), micro LED, etc. Additionally, the display 130 may be combined with a touch panel and implemented in the form of a touch screen.
프로세서(120)는 디스플레이 장치(100)의 전반적인 동작을 제어한다. 이때, 프로세서(120)는 적어도 하나의 프로세서(120)를 포함할 수 있다. 예를 들어, 프로세서(120)는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP))를 하나 또는 그 이상 포함할 수 있다.The processor 120 controls the overall operation of the display device 100. At this time, the processor 120 may include at least one processor 120. For example, the processor 120 may include one or more central processing units (CPU), application processors (AP), or communication processors (CP). .
특히, 프로세서(120)는 사용자에 의해 선택된 메이크업 스타일을 식별할 수 있다. 예를 들어, 프로세서(120)는 복수의 메이크업 스타일에 대응되는 복수의 이미지를 디스플레이할 수 있다. 이때, 복수의 이미지는 인플루언서의 메이크업 스타일 영상일 수도 있고, 메이크업 방법을 보여주는 동영상의 썸네일 수도 있고, 디스플레이 장치(100)에 저장된 사용자의 메이크업 이미지일 수도 있다. In particular, the processor 120 may identify the makeup style selected by the user. For example, the processor 120 may display a plurality of images corresponding to a plurality of makeup styles. At this time, the plurality of images may be an influencer's makeup style video, a thumbnail of a video showing a makeup method, or a user's makeup image stored in the display device 100.
이에 따라, 사용자에 의해 하나의 이미지가 선택되면, 프로세서(120)는 선택된 이미지에 대응되는 메이크업 스타일을 식별할 수 있다. 구체적으로, 복수의 이미지가 메이크업 스타일 별로 디스플레이된 경우, 사용자에 의해 하나의 이미지가 선택되면, 프로세서(120)는 선택된 이미지가 어떤 메이크업 스타일에 대응되는지 바로 식별할 수 있다. 또는, 프로세서(120)는 사용자에 의해 선택된 이미지를 분석하여 해당 이미지가 어떤 메이크업 스타일에 대응되는지 식별할 수 있다. 이때, 다양한 영상 인식 기술이나, 영상이 입력되면 입력된 영상에 대한 메이크업 스타일을 출력하도록 학습된 인공 지능 모델 등이 이용될 수 있다. 보다 구체적인 내용은 본 개시의 요지와 무관하므로, 설명을 생략한다. Accordingly, when one image is selected by the user, the processor 120 can identify the makeup style corresponding to the selected image. Specifically, when a plurality of images are displayed for each makeup style, when one image is selected by the user, the processor 120 can immediately identify which makeup style the selected image corresponds to. Alternatively, the processor 120 may analyze the image selected by the user and identify which makeup style the image corresponds to. At this time, various image recognition technologies or artificial intelligence models that are learned to output a makeup style for the input image when an image is input may be used. Since more specific details are unrelated to the gist of the present disclosure, description is omitted.
또한, 일 실시 예에 따르면, 프로세서(120)는 다양한 메이크업 스타일들을 포함하는 메이크업 스타일 리스트를 텍스트 형태로 디스플레이하고, 사용자가 리스트에서 하나의 메이크업 스타일을 선택하면, 선택된 메이크업 스타일을 식별할 수 있다. 이때, 실시 예에 따라, 메이크업 스타일에 대응되는 이미지와 해당 메이크업 스타일을 나타내는 텍스트가 함께 디스플레이될 수도 있음은 물론이다. Additionally, according to one embodiment, the processor 120 displays a makeup style list including various makeup styles in text form, and when the user selects one makeup style from the list, the processor 120 can identify the selected makeup style. At this time, depending on the embodiment, it goes without saying that an image corresponding to the makeup style and text representing the makeup style may be displayed together.
도 3은 디스플레이(130)에 디스플레이된 메이크업 스타일 추천 영상의 예시도이다. 도 3을 참조하면, 클래식 메이크업, 네추럴 메이크업, 봄 분위기 메이크업, 시크 메이크업 등과 같은 다양한 메이크업 스타일들이 관련 이미지와 함께 디스플레이된 것을 볼 수 있다. 사용자는 디스플레이된 이미지들 중 하나를 선택하여 복수의 메이크업 스타일 중 자신이 원하는 메이크업 스타일을 선택할 수 있다. Figure 3 is an example of a makeup style recommendation image displayed on the display 130. Referring to Figure 3, you can see that various makeup styles such as classic makeup, natural makeup, spring makeup, chic makeup, etc. are displayed along with related images. The user can select one of the displayed images and select a desired makeup style from among a plurality of makeup styles.
이와 같이, 메이크업 스타일이 선택되면, 프로세서(120)는 사용자의 현재 상태를 촬영하도록 카메라(110)를 제어할 수 있다. 예를 들어, 프로세서(120)는 사용자의 얼굴을 촬영할 것을 안내하는 가이드 UI를 디스플레이하고, 카메라 앱을 실행하여 카메라(110)가 사용자의 현재 상태를 촬영하도록 할 수 있다. In this way, when a makeup style is selected, the processor 120 can control the camera 110 to capture the user's current state. For example, the processor 120 may display a guide UI to guide the user in taking a picture of the user's face, and execute a camera app to allow the camera 110 to take a picture of the user's current state.
카메라(110)를 통해 사용자의 얼굴이 촬영되면, 프로세서(120)는 사용자의 얼굴 영상을 디스플레이하도록 디스플레이(130)를 제어할 수 있다. When the user's face is captured through the camera 110, the processor 120 can control the display 130 to display the user's face image.
이상에서는, 메이크업 스타일 선택후에 사용자의 얼굴이 촬영되는 경우를 예로 들었으나, 실시 예가 이에 한정되는 것은 아니다. 즉, 실시 예에 따라, 사용자의 얼굴 촬영 후에 메이크업 스타일의 선택이 이루어질 수도 있다. In the above, the case where the user's face is photographed after selecting a makeup style is given as an example, but the embodiment is not limited to this. That is, depending on the embodiment, the makeup style may be selected after photographing the user's face.
이에 따라, 프로세서(120)는, 디스플레이된 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 획득할 수 있다. 이때, 메이크업 정보는, 사용자의 얼굴의 영역 별로 각각 획득될 수 있다. Accordingly, the processor 120 may analyze the displayed image of the user's face and obtain makeup information including color information, texture information, and emphasis level information. At this time, makeup information may be obtained for each region of the user's face.
구체적으로, 프로세서(120)는, 다양한 영상 분석 기술을 이용하여, 얼굴의 각 영역을 식별하고 식별된 각 영역에 대한 메이크업 정보를 획득할 수 있다. 또는 프로세서(120)는, 얼굴 영상이 입력되면 얼굴의 각 영역에 대한 메이크업 정보를 출력하도록 학습된 인공 지능 모델을 이용하여, 얼굴의 각 영역에 대한 메이크업 정보를 획득할 수도 있다. 이에 관한 보다 자세한 내용은 보다 구체적인 내용은 본 개시의 요지와 무관하므로 설명을 생략한다. Specifically, the processor 120 may use various image analysis technologies to identify each area of the face and obtain makeup information for each identified area. Alternatively, the processor 120 may obtain makeup information for each area of the face using an artificial intelligence model that has been learned to output makeup information for each area of the face when a face image is input. More detailed information regarding this will be omitted as detailed information is irrelevant to the gist of the present disclosure.
예를 들어, 컬러 정보는, 이마, 눈, 눈썹, 코, 입술, 볼, 피부톤 등과 같은 얼굴의 각 영역의 컬러가 어떤 컬러인지에 관한 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다. 텍스쳐 정보는, 이마, 눈, 눈썹, 코, 입술, 볼, 피부톤 등과 같은 얼굴의 각 영역의 매트한 정도, 쉬머한 정도, 글리터한 정도, 글로시한 정도에 관한 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다. 강조 정도 정보는, 이마, 눈, 눈썹, 코, 입술, 볼, 피부톤 등과 같은 얼굴의 각 영역의 넓이, 두께, 농도, 채도 등에 관한 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다. 가령, 강조 정도 정보는, 아이 메이크업의 영역, 넓이, 농도, 아이 라인의 두께, 아이 라인의 꼬리 방향, 립 라인, 입꼬리 방향에 관한 정보, 눈, 코 및 볼 영역의 그라데이션에 관한 정보 등을 포함할 수 있다.For example, color information may include information about the color of each area of the face, such as forehead, eyes, eyebrows, nose, lips, cheeks, skin tone, etc., but is not limited to this. Texture information may include information about the degree of matte, degree of shimmer, degree of glitter, and degree of gloss of each area of the face, such as forehead, eyes, eyebrows, nose, lips, cheeks, skin tone, etc., but is limited to this. It doesn't work. The emphasis level information may include, but is not limited to, information about the area, thickness, density, saturation, etc. of each area of the face such as the forehead, eyes, eyebrows, nose, lips, cheeks, skin tone, etc. For example, the emphasis level information includes the area, width, and concentration of eye makeup, the thickness of the eye line, the tail direction of the eye line, the lip line, information about the direction of the corner of the mouth, information about the gradation of the eyes, nose, and cheek areas, etc. can do.
한편, 프로세서(120)는 사용자의 얼굴 영상에서 관심 영역이 선택되면, 메이크업 정보 및 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 관심 영역과 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출할 수 있다. Meanwhile, when an area of interest is selected from the user's face image, the processor 120 calculates a makeup matching rate between the area of interest and other areas of the user's face based on the matching database corresponding to the makeup information and the identified makeup style. You can.
예를 들어, 프로세서(120)는 디스플레이된 사용자의 얼굴 영상에서 관심 영역을 선택할 것을 안내하는 가이드 UI를 디스플레이하도록 디스플레이(130)를 제어할 수 있다. 이에 따라, 사용자는 디스플레이된 얼굴 영상에서 관심 영역을 선택할 수 있다. 그러나, 이에 한정되는 것은 아니다.For example, the processor 120 may control the display 130 to display a guide UI that guides selection of a region of interest from the displayed face image of the user. Accordingly, the user can select a region of interest from the displayed face image. However, it is not limited to this.
관심 영역이 선택되면, 프로세서(120)는 관심 영역과 얼굴의 다른 영역 간의 메이크업 매칭률을 산출할 수 있다. 구체적으로, 프로세서(120)는 사용자의 얼굴 영상을 분석하여 획득한 메이크업 정보 및 사용자가 선택한 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 관심 영역과 얼굴의 다른 영역 간의 메이크업 매칭률을 산출할 수 있다. Once an area of interest is selected, processor 120 may calculate a makeup matching rate between the area of interest and other areas of the face. Specifically, the processor 120 may calculate the makeup matching rate between the region of interest and other areas of the face based on makeup information obtained by analyzing the user's face image and a matching database corresponding to the makeup style selected by the user. .
이때, 사용자가 선택한 메이크업 스타일에 대응되는 매칭 데이터베이스는, 디스플레이 장치(100)의 저장부(150) 또는 외부 서버로부터 획득될 수 있다. 일 실시 예에 따르면, 디스플레이 장치(100)는 메이크업 스타일 별 매칭 데이터베이스를 저장할 수 있다. 이 경우, 프로세서(120) 저장된 메이크업 스타일 별 매칭 데이터베이스로부터, 사용자가 선택한 메이크업 스타일에 대응되는 매칭 데이터베이스를 획득할 수 있다. 또는 일 실시 예에 따르면, 프로세서(120)는 메이크업 스타일 별 매칭 데이터베이스를 저장하고 있는 외부 서버로, 사용자가 선택한 메이크업 스타일에 관한 정보를 전송하고, 외부 서버로부터 사용자가 선택한 메이크업 스타일에 대응되는 매칭 데이터베이스를 수신하여 획득할 수도 있다. 이와 같이 획득된 매칭 데이터베이스는, 도 1에서 전술한 바와 같이, 사용자가 선택한 메이크업 스타일에 대응되는, 컬러 매칭 데이터베이스, 텍스쳐 매칭 데이터 베이스, 강조 정보 매칭 데이터베이스를 포함할 수 있다.At this time, the matching database corresponding to the makeup style selected by the user may be obtained from the storage unit 150 of the display device 100 or an external server. According to one embodiment, the display device 100 may store a matching database for each makeup style. In this case, a matching database corresponding to the makeup style selected by the user can be obtained from the matching database for each makeup style stored in the processor 120. Or, according to one embodiment, the processor 120 transmits information about the makeup style selected by the user to an external server that stores a matching database for each makeup style, and transmits a matching database corresponding to the makeup style selected by the user from the external server. It can also be obtained by receiving. The matching database obtained in this way may include a color matching database, a texture matching database, and an emphasis information matching database corresponding to the makeup style selected by the user, as described above with reference to FIG. 1 .
한편, 본 개시의 일 실시 예에 따르면, 사용자가 선택한 관심 영역은 포인트 영역일 수 있다. 포인트 영역은, 얼굴의 영역들 중 사용자가 만족스럽게 메이크업을 한 영역일 수 있다. 사용자는 포인트 영역을 기준으로 나머지 영역들을 메이크업하여, 선택한 메이크업 스타일을 완성하고 싶을 수 있다. 예를 들어, 사용자는 새로 구입한 아이메이크업 제품이나 꼭 사용하고 싶은 아이메이크업 제품을 활용하여 아이메이크업을 완성 한 후, 그와 어울리게 나머지 영역들을 메이크업하여 원하는 메이크업 스타일(예를 들어, 내추럴 메이크업 스타일)을 완성하고 싶을 수 있다. Meanwhile, according to an embodiment of the present disclosure, the area of interest selected by the user may be a point area. The point area may be an area in which the user satisfactorily applied makeup among areas of the face. The user may want to complete the selected makeup style by applying makeup to the remaining areas based on the point area. For example, the user completes the eye makeup using a newly purchased eye makeup product or an eye makeup product that they really want to use, and then makes up the remaining areas to match the desired makeup style (for example, a natural makeup style). You may want to complete .
따라서, 사용자가 선택한 관심 영역이 포인트 영역인 경우, 프로세서(120)는 포인트 영역을 기준으로 얼굴의 다른 영역의 매칭률을 산출하고, 이에 기초하여 메이크업 가이드를 디스플레이할 수 있다. Accordingly, when the area of interest selected by the user is a point area, the processor 120 may calculate the matching rate of other areas of the face based on the point area and display a makeup guide based on this.
예를 들어, 사용자가 "내추럴 스타일"을 선택하고, 포인트 영역을 "눈"으로 선택한 경우, 프로세서(120)는 현재 사용자의 눈 영역의 컬러에 매칭되는 나머지 영역들의 컬러에 대한 정보를, 내추럴 스타일에 대응되는 컬러 매칭 데이터베이스에서 식별할 수 있다. 또한, 프로세서(120)는 나머지 영역들의 현재 컬러 정보와 컬러 매칭 데이터베이스에서 식별된 나머지 영역들의 컬러 정보를 영역별로 비교하여, 나머지 영역들 각각의 컬러 매칭률을 산출할 수 있다. 이때, 현재 컬러 정보와 비교되는 컬러 정보는, 눈 영역의 컬러를 기준으로 컬러 매칭 데이터베이스에서 식별된 것이므로, 산출된 컬러 매칭률은 눈 영역을 기준으로 한 나머지 영역들 각각의 컬러 매칭률이 될 수 있다. 이와 마찬가지로, 프로세서(120)는 눈 영역을 기준으로 한 나머지 영역들의 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출할 수 있다. For example, if the user selects “natural style” and selects the point area as “eyes,” the processor 120 provides information about the colors of the remaining areas that match the color of the current eye area of the user, and selects the point area as “eyes.” It can be identified in the corresponding color matching database. Additionally, the processor 120 may compare the current color information of the remaining regions with the color information of the remaining regions identified in the color matching database for each region, and calculate the color matching rate for each of the remaining regions. At this time, since the color information compared to the current color information is identified in the color matching database based on the color of the eye region, the calculated color matching rate can be the color matching rate of each of the remaining regions based on the eye region. there is. Likewise, the processor 120 may calculate the texture matching rate and the emphasis degree matching rate of the remaining regions based on the eye region, respectively.
이와 같이, 메이크업 매칭률이 산출되면, 프로세서(120)는 산출된 메이크업 매칭률에 기초하여 포인트 영역에 대한 메이크업 가이드를 디스플레이하도록 디스플레이(130)를 제어할 수 있다. In this way, when the makeup matching rate is calculated, the processor 120 may control the display 130 to display a makeup guide for the point area based on the calculated makeup matching rate.
구체적으로, 프로세서(120)는 포인트 영역을 기준으로 한 다른 영역의 컬러 매칭률에 기초하여 다른 영역의 컬러에 대한 메이크업 가이드를 디스플레이하고, 포인트 영역을 기준으로 한 다른 영역의 텍스쳐 매칭률에 기초하여 다른 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하고, 포인트 영역을 기준으로 한 다른 영역의 강조 정보 매칭률에 기초하여 다른 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하도록 디스플레이(130)를 제어할 수 있다. Specifically, the processor 120 displays a makeup guide for the color of another area based on the color matching rate of the other area based on the point area, and displays a makeup guide for the color of the other area based on the point area. The display 130 can be controlled to display a makeup guide for the texture of another area and to display a makeup guide for the degree of emphasis of another area based on the matching rate of emphasis information of the other area based on the point area.
도 4a, 도 4b 및 도 4b는 본 개시의 일 실시 예에 따라 포인트 영역이 선택된 경우, 메이크업 가이드가 디스플레이된 일 예를 도시하고 있다. FIGS. 4A, 4B, and 4B illustrate an example in which a makeup guide is displayed when a point area is selected according to an embodiment of the present disclosure.
먼저, 도 4a에 도시된 바와 같이, 촬영된 사용자의 얼굴 영상이 디스플레이(130)에 디스플레이될 수 있다. 이 경우, 프로세서(120)는 디스플레이된 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 사용자의 얼굴의 영역 별로 각각 획득할 수 있다. First, as shown in FIG. 4A, a captured image of the user's face may be displayed on the display 130. In this case, the processor 120 may analyze the displayed image of the user's face and obtain makeup information including color information, texture information, and emphasis level information for each region of the user's face.
이후, 사용자는 포인트 영역을 선택할 수 있다. 도 4b는 눈 영역이 포인트 영역으로 선택된 예를 도시하고 있다. 이와 같이, 눈 영역이 포인트 영역으로 선택되면, 프로세서(120)는 선택된 눈 영역을 기준으로, 다른 영역의 컬러 매칭률을 산출하고, 이에 기초하여 도 4c에 도시된 바와 같은 다른 영역에 대한 메이크업 가이드를 디스플레이할 수 있다. Afterwards, the user can select a point area. Figure 4b shows an example in which the eye area is selected as the point area. In this way, when the eye area is selected as the point area, the processor 120 calculates the color matching rate of other areas based on the selected eye area, and based on this, creates a makeup guide for other areas as shown in FIG. 4C. can be displayed.
한편, 도 4b에서는, 안내 메시지가 메이크업 가이드로 디스플레이된 것을 예로 들었으나, 이에 한정되는 것은 아니다. 예를 들어, 메이크업 가이드는 산출된 메이크업 매칭률을 높이기 위한 메이크업 방법과 관련된 안내 메시지 뿐만 아니라, 메이크업 방법과 관련된 동영상 또는 메이크업 제품 추천 중 적어도 하나를 포함할 수 있다. Meanwhile, in Figure 4b, an example is given where the guidance message is displayed as a makeup guide, but it is not limited thereto. For example, the makeup guide may include at least one of a video or makeup product recommendation related to the makeup method as well as a guidance message related to the makeup method to increase the calculated makeup matching rate.
이때, 프로세서(120)는 매칭률이 입력되면 적절한 메이크업 가이드를 출력하도록 학습된 인공 지능 모델을 이용하거나, 또는 매칭률에 따른 메이크업 가이드 테이블을 저장하고 이를 이용하여 매칭률에 따른 메이크업 가이드를 디스플레이할 수 있다. At this time, the processor 120 uses an artificial intelligence model learned to output an appropriate makeup guide when the matching rate is input, or stores a makeup guide table according to the matching rate and uses it to display a makeup guide according to the matching rate. You can.
한편, 본 개시의 일 실시 예에 따르면, 사용자가 선택한 관심 영역은 보완 영역일 수 있다. 예를 들어, 사용자는 메이크업을 완료한 후 추가적으로 보완하고 싶은 영역이 있을 수 있으며, 이를 관심 영역으로 선택할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the area of interest selected by the user may be a complementary area. For example, after completing makeup, the user may have an area that they would like to further improve and can select this as the area of interest.
보완 영역은 포인트 영역과 달리, 사용자가 보완하고 싶은 영역이므로, 사용자가 선택한 관심 영역이 보완 영역인 경우, 프로세서(120)는 얼굴의 나머지 영역들을 기준으로 보완 영역의 매칭률을 산출하고, 이에 기초하여 메이크업 가이드를 디스플레이할 수 있다. Unlike the point area, the complementary area is an area that the user wants to supplement, so when the area of interest selected by the user is the complementary area, the processor 120 calculates the matching rate of the complementary area based on the remaining areas of the face, and based on this Thus, the makeup guide can be displayed.
예를 들어, 사용자가 "내추럴 스타일"을 선택하고, 보완 영역을 "볼"로 선택한 경우, 프로세서(120)는 볼 영역을 제외한 나머지 영역들의 현재 컬러에 매칭되는 볼 영역의 컬러에 대한 정보를, 내추럴 스타일에 대응되는 컬러 매칭 데이터베이스에서 식별할 수 있다. 또한, 프로세서(120)는 볼 영역의 현재 컬러 정보와 컬러 매칭 데이터베이스에서 식별된 볼 영역의 컬러 정보를 비교하여, 볼 영역의 컬러 매칭률을 산출할 수 있다. 이때, 현재 볼의 현재 컬러 정보와 비교되는 컬러 정보는, 나머지 영역들의 컬러를 기준으로 컬러 매칭 데이터베이스에서 식별된 것이므로, 산출된 컬러 매칭률은 나머지 영역들을 기준으로 한 볼 영역의 컬러 매칭률이 될 수 있다. For example, if the user selects “natural style” and selects “cheeks” as the complementary area, the processor 120 provides information about the color of the cheek area that matches the current color of the remaining areas excluding the cheek area, It can be identified in the color matching database corresponding to the natural style. Additionally, the processor 120 may calculate the color matching rate of the cheek area by comparing the current color information of the cheek area with the color information of the cheek area identified in the color matching database. At this time, the color information compared to the current color information of the current ball is identified in the color matching database based on the colors of the remaining areas, so the calculated color matching rate will be the color matching rate of the ball area based on the remaining areas. You can.
이와 마찬가지로, 프로세서(120)는 볼을 제외한 나머지 영역들을 기준으로 한 볼 영역의 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출할 수 있다. 예를 들어, 프로세서(120)는 볼 영역을 제외한 나머지 영역들의 현재 텍스쳐에 매칭되는 볼 영역의 텍스쳐에 대한 정보를, 내추럴 스타일에 대응되는 텍스쳐 매칭 데이터베이스에서 식별할 수 있다. 또한, 프로세서(120)는 볼 영역의 현재 텍스쳐 정보와 텍스쳐 매칭 데이터베이스에서 식별된 볼 영역의 텍스쳐 정보를 비교하여, 나머지 영역들을 기준으로 한 볼 영역의 텍스쳐 매칭률을 산출할 수 있다. 또한, 프로세서(120)는 볼 영역을 제외한 나머지 영역들의 현재 강조 정도에 매칭되는 볼 영역의 강조 정도에 대한 정보를, 내추럴 스타일에 대응되는 강조 정도 매칭 데이터베이스에서 식별할 수 있다. 또한, 프로세서(120)는 볼 영역의 현재 강조 정도 정보와 텍스쳐 매칭 데이터베이스에서 식별된 볼 영역의 강조 정도 정보를 비교하여, 나머지 영역들을 기준으로 한 볼 영역의 강조 정도 매칭률을 산출할 수 있다. Likewise, the processor 120 may calculate the texture matching rate and the emphasis level matching rate of the ball area based on the remaining areas excluding the ball. For example, the processor 120 may identify information about the texture of the cheek area that matches the current texture of the remaining areas excluding the cheek area from a texture matching database corresponding to the natural style. Additionally, the processor 120 may compare the current texture information of the ball area with the texture information of the ball area identified in the texture matching database and calculate the texture matching rate of the ball area based on the remaining areas. Additionally, the processor 120 may identify information about the emphasis level of the cheek area that matches the current emphasis level of the remaining areas excluding the cheek area from an emphasis level matching database corresponding to the natural style. Additionally, the processor 120 may compare the current emphasis level information of the cheek area with the emphasis level information of the ball area identified in the texture matching database, and calculate the matching rate of the emphasis level of the cheek area based on the remaining areas.
이와 같이, 메이크업 매칭률이 산출되면, 프로세서(120)는 산출된 메이크업 매칭률에 기초하여 보완 영역에 대한 메이크업 가이드를 디스플레이하도록 디스플레이(130)를 제어할 수 있다. In this way, when the makeup matching rate is calculated, the processor 120 may control the display 130 to display a makeup guide for the complementary area based on the calculated makeup matching rate.
구체적으로, 프로세서(120)는 나머지 영역들을 기준으로 한 보완 영역의 컬러 매칭률에 기초하여 보완 영역의 컬러에 대한 메이크업 가이드를 디스플레이하고, 나머지 영역들을 기준으로 한 보완 영역의 텍스쳐 매칭률에 기초하여 보완 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하고, 나머지 영역들을 기준으로 한 보완 영역의 강조 정보 매칭률에 기초하여 보완 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하도록 디스플레이(130)를 제어할 수 있다. Specifically, the processor 120 displays a makeup guide for the color of the complementary area based on the color matching rate of the complementary area based on the remaining areas, and displays a makeup guide for the color of the complementary area based on the texture matching rate of the complementary area based on the remaining areas. The display 130 may be controlled to display a makeup guide for the texture of the complementary area and to display a makeup guide for the degree of emphasis of the complementary area based on the matching rate of emphasis information of the complementary area based on the remaining areas.
도 5a 및 도 5b는 본 개시의 일 실시 예에 따라 보완 영역이 선택된 경우, 메이크업 가이드가 디스플레이된 일 예를 도시하고 있다. FIGS. 5A and 5B illustrate an example in which a makeup guide is displayed when a complementary area is selected according to an embodiment of the present disclosure.
먼저, 도 4a에 도시된 바와 같이, 촬영된 사용자의 얼굴 영상이 디스플레이(130)에 디스플레이될 수 있다. 이 경우, 프로세서(120)는 디스플레이된 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 사용자의 얼굴의 영역 별로 각각 획득할 수 있다. First, as shown in FIG. 4A, a captured image of the user's face may be displayed on the display 130. In this case, the processor 120 may analyze the displayed image of the user's face and obtain makeup information including color information, texture information, and emphasis level information for each region of the user's face.
이후, 사용자는 도 5a에 도시된 바와 같이, 보완 영역을 선택할 수 있다. 도 4a는 볼 영역이 보완 영역으로 선택된 예를 도시하고 있다. 이와 같이, 볼 영역이 보완 영역으로 선택되면, 프로세서(120)는 얼굴의 나머지 영역들을 기준으로, 볼 영역의 컬러 매칭률을 산출하고, 이에 기초하여 도 5b에 도시된 바와 같은 볼 영역에 대한 메이크업 가이드를 디스플레이할 수 있다. Afterwards, the user can select a supplementary area, as shown in FIG. 5A. Figure 4a shows an example in which the cheek area is selected as the supplementary area. In this way, when the cheek area is selected as the complementary area, the processor 120 calculates the color matching rate of the cheek area based on the remaining areas of the face, and based on this, applies makeup to the cheek area as shown in FIG. 5B. The guide can be displayed.
이때, 프로세서(120)는 도 5b의 참조 번호 51과 같이, 볼 영역의 현재 메이크업 상태에 관한 코멘트 및 매칭률을 높이기 위한 메이크업 방법에 관한 동영상을 포함하는 메이크업 가이드를 디스플레이할 수 있다. 또는 프로세서(120)는 도 5b의참조 번호 52와 같이, 매칭률을 높이기 위한 메이크업 제품에 관한 추천을 포함하는 메이크업 가이드를 디스플레이할 수도 있다. 그러나, 이는 일 실시 예일 뿐, 메이크업 가이드가 이에 한정되는 것은 아니다. At this time, the processor 120 may display a makeup guide including a comment about the current makeup state of the cheek area and a video about a makeup method to increase the matching rate, as indicated by reference number 51 in FIG. 5B. Alternatively, the processor 120 may display a makeup guide including recommendations for makeup products to increase the matching rate, as shown by reference number 52 in FIG. 5B. However, this is only an example, and the makeup guide is not limited to this.
프로세서(120)는 매칭률이 입력되면 적절한 메이크업 가이드를 출력하도록 학습된 인공 지능 모델을 이용하거나, 또는 매칭률에 따른 메이크업 가이드 테이블을 저장하고 이를 이용하여 매칭률에 따른 메이크업 가이드를 디스플레이할 수 있다. The processor 120 may use an artificial intelligence model learned to output an appropriate makeup guide when the matching rate is input, or may store a makeup guide table according to the matching rate and use this to display a makeup guide according to the matching rate. .
한편, 본 개시의 일 실시 예에 따르면, 프로세서(120)는 사용자가 포인트 영역 또는 보완 영역 중 하나를 선택하도록 안내하는 가이드 UI를 디스플레이할 수 있다. 이때, 포인트 영역과 보완 영역을 설명하는 안내 메시지기 함께 디스플레이될 수 있다. Meanwhile, according to an embodiment of the present disclosure, the processor 120 may display a guide UI that guides the user to select one of the point area or the supplementary area. At this time, a guidance message explaining the point area and the supplementary area may be displayed together.
사용자가 포인트 영역을 선택하고, 얼굴의 일 영역을 선택하면, 선택된 영역은 포인트 영역이 되며, 이에 따라, 포인트 영역을 기준으로 한 다른 영역에 대한 메이크업 가이드가 디스플레이될 수 있다. 만일, 사용자가 보완 영역을 선택하고, 얼굴의 일 영역을 선택하면, 선택된 영역은 보완 영역이 되며, 이에 따라, 얼굴의 나머지 영역들을 기준으로 한 보완 영역에 대한 메이크업 가이드가 디스플레이 될 수 있다. When a user selects a point area and selects an area of the face, the selected area becomes the point area, and accordingly, a makeup guide for another area based on the point area may be displayed. If the user selects the complementary area and selects one area of the face, the selected area becomes the complementary area, and accordingly, a makeup guide for the complementary area based on the remaining areas of the face may be displayed.
한편, 본 개시의 일 실시 예에 따르면, 사용자는 컨텍스트 정보를 입력할 수 있다. 예를 들어, 사용자는 관심 영역을 선택하면서, 메이크업 목적, 방문 장소 또는 관심 영역의 메이크업에 사용한 제품에 관한 정보 중 적어도 하나를 포함하는 사용자의 컨텍스트 정보를 입력할 수 있다. 이때, 컨텍스트 정보는 사용자의 음성이나, 메시지 입력을 통해 디스플레이 장치(100)에 입력될 수 있다. Meanwhile, according to an embodiment of the present disclosure, a user can input context information. For example, while selecting an area of interest, the user may input the user's context information including at least one of the purpose of makeup, a place to visit, or information about products used for makeup in the area of interest. At this time, context information may be input to the display device 100 through the user's voice or message input.
이에 따라, 프로세서(120)는 사용자의 컨텍스트 정보를 반영하여 메이크업 가이드를 디스플레이하도록 디스플레이(130)를 제어할 수 있다. 이때, 프로세서(120)는 매칭률 및 컨텍스트 정보가 입력되면 적절한 메이크업 가이드를 출력하도록 학습된 인공 지능 모델을 이용하거나, 또는 매칭률 및 컨텍스트에 따른 메이크업 가이드 테이블을 저장하고 이를 이용하여 사용자의 컨텍스트 정보를 반영한 메이크업 가이드를 디스플레이할 수 있으나, 이에 한정되는 것은 아니다. Accordingly, the processor 120 may control the display 130 to display the makeup guide by reflecting the user's context information. At this time, the processor 120 uses an artificial intelligence model learned to output an appropriate makeup guide when the matching rate and context information is input, or stores a makeup guide table according to the matching rate and context and uses this to provide the user's context information. A makeup guide reflecting the may be displayed, but is not limited to this.
예를 들어, 메이크업 목적으로 "증명 사진"이 입력된 경우, 프로세서(120)는 입술 메이크업에 대해 그라데이션 립보다 풀 립을 추천하는 등 컨텍스트에 맞는 추가적인 메이크업 가이드를 디스플레이할 수 있다. For example, when an “ID photo” is input for makeup purposes, the processor 120 may display an additional makeup guide suitable for the context, such as recommending a full lip rather than a gradient lip for lip makeup.
또한, 예를 들어, 사용자가 포인트 영역으로 선택한 눈 영역의 메이크업에 사용한 제품에 관한 정보가 입력된 경우, 프로세서(120)는 사용된 제품의 특성을 반영하여 메이크업 가이드를 디스플레이할 수 있다. Additionally, for example, when information about the product used for makeup in the eye area selected by the user as the point area is input, the processor 120 may display a makeup guide by reflecting the characteristics of the product used.
한편, 본 개시의 일 실시 예에 따르면, 사용자가 아무런 메이크업도 하지 않은 경우, 사용자가 선택한 포인트 영역에 대한 메이크업에 대한 가이드를 제공할 수 있다. Meanwhile, according to an embodiment of the present disclosure, when the user does not wear any makeup, a guide for makeup for the point area selected by the user may be provided.
예를 들어, 프로세서(120)는 사용자의 현재 메이크업 상태에 관한 정보를 입력받을 수 있다. 예를 들어, 프로세서(120)는 메이크업 전인지 또는 메이크업 중인지 여부를 선택할 수 있는 UI를 디스플레이하고, 이를 통해 사용자가 메이크업 전 상태인지 아니면, 메이크업 중인 상태인지를 식별할 수 있다. 또는, 사용자의 얼굴 영상을 분석하여 사용자의 현재 메이크업 상태를 판단할 수도 있다. For example, the processor 120 may receive information about the user's current makeup state. For example, the processor 120 displays a UI that allows selection of whether the user is before or during makeup, and can identify whether the user is before or during makeup. Alternatively, the user's current makeup state may be determined by analyzing the user's face image.
이에 따라, 사용자가 메이크업 전 상태인 것으로 식별되면, 프로세서(120)는 사용자가 선택한 메이크업 스타일에 대응되는 포인트 영역의 메이크업 방법에 관한 메이크업 가이드 영상을 제공하여 사용자가 포인트 메이크업을 처음부터 수행할 수 있도록 할 수 있다. Accordingly, when the user is identified as being in a pre-makeup state, the processor 120 provides a makeup guide image regarding the makeup method of the point area corresponding to the makeup style selected by the user so that the user can perform point makeup from the beginning. can do.
한편, 메이크업 중인 상태로 식별되었으나, 포인트 영역의 메이크업이 부족한 것으로 식별되면, 즉, 현재 사용자의 포인트 영역의 메이크업 정보에 대응되는 정보가 매칭 데이터베이스에 없다고 판단되면, 프로세서(120)는 사용자가 선택한 메이크업 스타일에 대응되는 포인트 영역의 메이크업 방법에 관한 메이크업 가이드 영상을 제공할 수 있다. 또는, 사용자가 선택한 메이크업 스타일로 메이크업을 수행한 히스토리가 영상으로 디스플레이 장치(100)에 저장되어 있는 경우, 해당 영상을 제공하여 포인트 영역에 대한 메이크업 가이드를 제공할 수 있다. On the other hand, if it is identified as being in a makeup state, but the makeup of the point area is identified as insufficient, that is, if it is determined that there is no information corresponding to the makeup information of the current user's point area in the matching database, the processor 120 applies the makeup selected by the user. A makeup guide video can be provided on how to apply makeup in the point area corresponding to the style. Alternatively, if the history of performing makeup using the makeup style selected by the user is stored in the display device 100 as an image, the image may be provided to provide a makeup guide for the point area.
한편, 본 개시의 일 실시 예에 따르면, 프로세서(120)는 포인트 영역을 기준으로 한 나머지 영역들 각각의 매칭률을 디스플레이하도록 디스플레이(130)를 제어할 수 있다. 예를 들어, 프로세서(120)는 포인트 영역을 기준으로 한 나머지 영역들 각각의 매칭률을, 얼굴 영상 내에서 나머지 영역들 각각에 인접하여 디스플레이할 수 있으나, 이에 한정되는 것은 아니다. Meanwhile, according to an embodiment of the present disclosure, the processor 120 may control the display 130 to display the matching rate of each of the remaining areas based on the point area. For example, the processor 120 may display the matching rate of each of the remaining areas based on the point area adjacent to each of the remaining areas in the face image, but the method is not limited to this.
이때, 디스플레이되는 매칭률은, 포인트 영역을 기준으로 한 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 모두 고려하여 하나의 수치로 디스플레이될 수 있다. 예를 들어, 프로세서(120)는 포인트 영역을 기준으로 한 다른 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률에 대한 매칭률 평균값을 산출하고, 산출된 평균값을 다른 영역의 매칭률로 디스플레이할 수 있다. 사용자는 이를 통해 나머지 영역의 메이크업 매칭률을 시각적으로 확인할 수 있게 된다. At this time, the displayed matching rate may be displayed as a single number by considering all the color matching rate, texture matching rate, and emphasis level matching rate based on the point area. For example, the processor 120 calculates the average matching rate for the color matching rate, texture matching rate, and emphasis degree matching rate of other areas based on the point area, and displays the calculated average value as the matching rate of the other area. can do. Through this, users can visually check the makeup matching rate of the remaining areas.
도 6은 본 개시의 일 실시 예에 따른 디스플레이 장치의 구성을 도시한 블럭도이다. 도 6은 디스플레이 장치(100)에 포함될 수 있는 각종 구성 요소들을 종합적으로 도시한 것이다. 따라서, 실시 예에 따라서는, 도 6에 도시된 구성 요소 중 일부는 생략 또는 변경될 수도 있고, 다른 구성요소가 더 추가될 수도 있다. 도 6을 설명함에 있어, 전술한 것과 중복되는 내용은 설명을 생략하거나 간략히 한다.Figure 6 is a block diagram showing the configuration of a display device according to an embodiment of the present disclosure. FIG. 6 comprehensively illustrates various components that may be included in the display device 100. Therefore, depending on the embodiment, some of the components shown in FIG. 6 may be omitted or changed, and other components may be added. In explaining FIG. 6, the description of content that overlaps with the above will be omitted or simplified.
도 6에 따르면, 디스플레이 장치(100)는, 카메라(110), 프로세서(120), 디스플레이(130), 통신부(140), 저장부(150), 마이크(160), 스피커(170), 사용자 입력부(180)를 포함할 수 있다. According to FIG. 6, the display device 100 includes a camera 110, a processor 120, a display 130, a communication unit 140, a storage unit 150, a microphone 160, a speaker 170, and a user input unit. It may include (180).
통신부(140)는 다양한 유형의 통신방식에 따라 다양한 외부 기기와 통신을 수행할 수 있다. The communication unit 140 can communicate with various external devices according to various types of communication methods.
예를 들어, 통신부(130)는 메이크업 스타일 별 매칭 데이터베이스를 저장하고 있는 외부 서버 통신할 수 있다. 이에 따라, 프로세서(120)는, 통신부(140)를 통해, 사용자가 선택한 메이크업 스타일에 대응되는 매칭 데이터베이스를 외부 서버로 요청하여 수신할 수 있다. 또한, 통신부(140)는 인터넷 통신을 수행할 수 있다. 이에 따라, 프로세서(120)는 통신부(140)를 통해, 메이크업 방법과 관련된 다양한 컨텐츠나 메이크업 제품에 관한 각종 정보를 수신할 수 있다. For example, the communication unit 130 may communicate with an external server that stores a matching database for each makeup style. Accordingly, the processor 120 may request and receive a matching database corresponding to the makeup style selected by the user from an external server through the communication unit 140. Additionally, the communication unit 140 can perform Internet communication. Accordingly, the processor 120 can receive various contents related to makeup methods or various information about makeup products through the communication unit 140.
이를 위해, 통신부(140)는 유, 무선 랜 통신 모듈을 포함할 수 있다. 또한, 통신부(130)는 실시 예에 따라 근거리 무선 통신 모듈(미도시)이나, 이동 통신 모듈을 포함할 수도 있다. 여기서, 근거리 무선 통신 모듈(미도시)은 예를 들어, 블루투스(Bluetooth) 모듈, 지그비(ZigBee) 모듈, NFC(Near Field Communication) 모듈 등과 같이 근거리에 위치한 전자 장치와 무선으로 데이터 통신을 수행하는 통신 모듈을 말한다. 또한, 이동 통신 모듈은 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신망에 접속하여 통신을 수행하는 통신 모듈을 말한다. For this purpose, the communication unit 140 may include wired and wireless LAN communication modules. Additionally, the communication unit 130 may include a short-range wireless communication module (not shown) or a mobile communication module, depending on the embodiment. Here, the short-range wireless communication module (not shown) is a communication device that wirelessly communicates data with an electronic device located nearby, such as a Bluetooth module, ZigBee module, or NFC (Near Field Communication) module. It says module. In addition, the mobile communication module refers to a communication module that connects to a mobile communication network and performs communication according to various mobile communication standards such as 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), and LTE (Long Term Evolution).
실시 예에 따라 통신부(140)는 방송 수신 모듈을 포함할 수도 있으며, USB(Universal Serial Bus), IEEE(Institute of Electrical and Eletronics Engineers) 1394, RS-232 등의 유선 통신 모듈(미도시) 중 적어도 하나를 포함할 수도 있다. Depending on the embodiment, the communication unit 140 may include a broadcast reception module, and at least one of wired communication modules (not shown) such as USB (Universal Serial Bus), IEEE (Institute of Electrical and Electronics Engineers) 1394, and RS-232. It may also contain one.
저장부(150)는 전자 장치(100)의 전반적인 동작을 제어하기 위한 운영체제(Operating System: OS)를 저장할 수 있다. 또한, 저장부(150)는 전술한 디스플레이 장치(100)의 다양한 기능을 수행하기 위한 각종 알고리즘, 프로그램, 데이터 등을 저장할 수 있다. 특히, 저장부(150)는 전술한 각종 인공 지능 모델, 메이크업 가이드 테이블, 매칭 데이터베이스를 저장할 수 있다. 또한, 저장부(150)는 카메라(110)를 구동하기 위한 카메라 앱, 전술한 메이크업 가이드 동작을 수행하기 위한 메이크업 가이드 앱 등을 저장할 수 있다. 또한, 저장부(150)은 음성 인식 기능을 수행하기 위한 음성 인식 모듈 등을 저장할 수도 있으나, 이에 한정되는 것은 아니다. The storage unit 150 may store an operating system (OS) for controlling the overall operation of the electronic device 100. Additionally, the storage unit 150 may store various algorithms, programs, data, etc. for performing various functions of the display device 100 described above. In particular, the storage unit 150 can store the various artificial intelligence models, makeup guide tables, and matching databases described above. Additionally, the storage unit 150 may store a camera app for driving the camera 110, a makeup guide app for performing the above-described makeup guide operation, etc. Additionally, the storage unit 150 may store a voice recognition module for performing a voice recognition function, but is not limited thereto.
이를 위해, 저장부(150)는 DRAM, SRAM과 같은 휘발성 메모리, 전원이 오프된 상태에서도 정보를 유지할 수 있는 EEPOM과 플래시 메모리 등과 같은 비휘발성 메모리를 포함할 수 있다. 또한, 저장부(150)는 하드 디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 전자 장치(100)에 탈,부착 가능한 메모리 카드(예, SD 카드, 메모리 스틱)등을 포함할 수 있다. To this end, the storage unit 150 may include volatile memory such as DRAM and SRAM, and non-volatile memory such as EEPOM and flash memory that can retain information even when the power is turned off. Additionally, the storage unit 150 may include a hard disk drive (HDD), solid state drive (SSD), or a memory card (e.g., SD card, memory stick) that is removable or attachable to the electronic device 100. .
마이크(160)는 주변 환경의 사운드 또는 사용자의 음성을 입력받을 수 있다. 프로세서(120)는 입력된 사운드 또는 음성 신호를 식별할 수 있고, 입력된 사운드 또는 음성 신호에 대응되는 동작을 수행할 수 있다. 예를 들어, 마이크(160)는 일반 마이크, 서라운드 마이크, 지향성 마이크 등을 포함할 수 있다.The microphone 160 can receive sound from the surrounding environment or the user's voice. The processor 120 can identify an input sound or voice signal and perform an operation corresponding to the input sound or voice signal. For example, the microphone 160 may include a general microphone, a surround microphone, a directional microphone, etc.
스피커(170)는 사운드 신호를 출력할 수 있다. 예를 들어, 스피커(170)는 전술한 디스플레이 장치(100)의 동작과 관련된 각종 메시지나 문의, 알림, 가이드 등을 음성이나 알림음으로 출력할 수 있다.The speaker 170 can output a sound signal. For example, the speaker 170 may output various messages, inquiries, notifications, guides, etc. related to the operation of the display device 100 described above as voice or notification sounds.
사용자 입력부(180)는 제어 명령, 선택 명령, 입력 명령 등과 같은 각종 사용자 명령을 입력받을 수 있다. 예를 들어, 사용자 입력부(180)는 전술한 사용자의 컨텍스트 정보를 입력받을 수 있다. 또한, 사용자는 전술한 각종 UI를 통한 선택 명령을입력 받을 수 있다. The user input unit 180 can receive various user commands such as control commands, selection commands, input commands, etc. For example, the user input unit 180 may receive the user's context information described above. Additionally, the user can input selection commands through the various UIs described above.
이를 위해, 사용자 입력부(180)는, 키보드, 버튼, 키 패드, 터치 패드, 터치 스크린을 포함할 수 있다. 또는, 사용자 입력부(180)는 입출력 포트로 구현될 수 있다. 이 경우, 사용자 입력부(180)는 입출력 인터페이스로 불릴 수 있다. 사용자 입력부(180)가 입출력 포트로 구현되는 경우, 입출력 포트는 HDMI(High-Definition Multimedia Interface), DP(DisplayPort), RGB, DVI(Digital Visual Interface), USB(Universal Serial Bus), 썬더볼트, 오디오 잭, 비디오 잭 등을 포함할 수 있다. 사용자 입력부(180)는 입력 장치, 입력부, 입력 모듈 등으로 불릴 수 있고, 입출력 포트로 구현되는 경우, 입출력 장치, 입출력부, 입출력 모듈 등으로 불릴 수도 있다.To this end, the user input unit 180 may include a keyboard, buttons, key pad, touch pad, and touch screen. Alternatively, the user input unit 180 may be implemented as an input/output port. In this case, the user input unit 180 may be called an input/output interface. When the user input unit 180 is implemented as an input/output port, the input/output ports include High-Definition Multimedia Interface (HDMI), DisplayPort (DP), RGB, Digital Visual Interface (DVI), Universal Serial Bus (USB), Thunderbolt, and audio. May include jacks, video jacks, etc. The user input unit 180 may be called an input device, an input unit, an input module, etc., and when implemented as an input/output port, it may be called an input/output device, an input/output unit, an input/output module, etc.
프로세서(120)는 디스플레이 장치(100)의 전반적인 동작을 제어한다. 특히, 프로세서(120)는 전술한 본 개시의 다양한 실시 예들에 따른 디스플레이 장치(100)의 동작을 수행하기 위해, 각종 연산 및 데이터 처리를 수행할 수 있으며, 다른 구성 요소들의 동작을 제어할 수 있다. The processor 120 controls the overall operation of the display device 100. In particular, the processor 120 may perform various operations and data processing to perform the operation of the display device 100 according to various embodiments of the present disclosure described above, and may control the operations of other components. .
이를 위해, 프로세서(120)는 운영 체제 또는 응용 프로그램을 구동하여 프로세서(120)에 연결된 하드웨어 또는 소프트웨어 구성 요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 또한, 프로세서(120)는 다른 구성요소들 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장할 수 있다. To this end, the processor 120 can control hardware or software components connected to the processor 120 by running an operating system or application program, and can perform various data processing and calculations. Additionally, the processor 120 may load and process commands or data received from at least one of the other components into volatile memory and store various data in non-volatile memory.
도 7은 본 개시의 일 실시 예에 따른 디스플레이 장치의 제어 방법을 도시한 흐름도이다. Figure 7 is a flowchart illustrating a method of controlling a display device according to an embodiment of the present disclosure.
도 7에 따르면, 디스플레이 장치(100)는 사용자에 의해 선택된 메이크업 스타일을 식별할 수 있다(S710). 예를 들어, 디스플레이 장치(100)는 복수의 메이크업 스타일에 대응되는 복수의 이미지를 디스플레이하고, 복수의 이미지 중 하나의 이미지가 선택되면, 선택된 이미지에 대응되는 메이크업 스타일을 식별할 수 있다. According to FIG. 7, the display device 100 can identify the makeup style selected by the user (S710). For example, the display device 100 may display a plurality of images corresponding to a plurality of makeup styles, and when one image among the plurality of images is selected, the makeup style corresponding to the selected image may be identified.
이후, 카메라(110)를 통해 사용자의 얼굴이 촬영되면, 디스플레이 장치(100)는 사용자의 얼굴 영상을 디스플레이(130)에 디스플레이할 수 있다(S720). Thereafter, when the user's face is photographed through the camera 110, the display device 100 may display the user's face image on the display 130 (S720).
한편, 디스플레이 장치(100)는 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를, 사용자의 얼굴의 각 영역 별로 획득할 수 있다(S730). Meanwhile, the display device 100 may analyze the user's face image and obtain makeup information including color information, texture information, and emphasis level information for each region of the user's face (S730).
또한, 디스플레이 장치(100)는 사용자의 얼굴 영상에서 관심 영역이 선택되면, 메이크업 정보 및 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 관심 영역과 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출할 수 있다(S740). 이때, 매칭 데이터베이스는, 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함할 수 있다. In addition, when an area of interest is selected from the user's face image, the display device 100 calculates a makeup matching rate between the area of interest and other areas of the user's face based on the matching database corresponding to the makeup information and the identified makeup style. You can do it (S740). At this time, the matching database is a color matching database containing color information of each area of the face corresponding to the identified makeup style, a texture matching database containing texture information of each area of the face corresponding to the identified makeup style, and identification An emphasis degree matching database containing information on the degree of emphasis of each area of the face corresponding to the applied makeup style may be included.
이와 같이, 메이크업 매칭률이 산출되면, 디스플레이 장치(100)는, 메이크업 매칭률에 기초하여 관심 영역 또는 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이할 수 있다. In this way, when the makeup matching rate is calculated, the display device 100 may display a makeup guide for at least one of the area of interest or another area based on the makeup matching rate.
한편, 본 개시의 일 실시 예에 따르면, 디스플레이 장치(100)는, 메이크업 정보에 포함된 관심 영역의 컬러 정보에 기초하여 컬러 매칭 데이터베이스에 포함된 다른 영역의 컬러 정보를 식별하고, 컬러 매칭 데이터베이스에서 식별된 다른 영역의 컬러 정보와 메이크업 정보에 포함된 다른 영역의 컬러 정보를 비교하여, 관심 영역을 기준으로 한 다른 영역의 컬러 매칭률을 산출할 수 있다. 또한, 디스플레이 장치(100)는, 메이크업 정보에 포함된 관심 영역의 텍스쳐 정보에 기초하여 텍스쳐 매칭 데이터베이스에 포함된 다른 영역의 텍스쳐 정보를 식별하고, 텍스쳐 매칭 데이터베이스에서 식별된 다른 영역의 텍스쳐 정보와 메이크업 정보에 포함된 다른 영역의 텍스쳐 정보를 비교하여, 관심 영역을 기준으로 한 다른 영역의 텍스쳐 매칭률을 산출할 수 있다. 또한, 디스플레이 장치(100)는, 메이크업 정보에 포함된 관심 영역의 강조 정도 정보에 기초하여 강조 정도 매칭 데이터베이스에 포함된 다른 영역의 강조 정도 정보를 식별하고, 강조 정도 매칭 데이터베이스에서 식별된 다른 영역의 강조 정도 정보와 메이크업 정보에 포함된 다른 영역의 강조 정도 정보를 비교하여, 관심 영역을 기준으로 한 다른 영역의 강조 정도 매칭률을 산출할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the display device 100 identifies color information of another region included in the color matching database based on color information of the region of interest included in the makeup information, and identifies color information of another region included in the color matching database. By comparing the color information of the identified other area with the color information of the other area included in the makeup information, the color matching rate of the other area based on the area of interest can be calculated. Additionally, the display device 100 identifies texture information of another area included in the texture matching database based on texture information of the area of interest included in the makeup information, and matches the makeup with the texture information of the other area identified in the texture matching database. By comparing texture information of other areas included in the information, the texture matching rate of other areas based on the area of interest can be calculated. In addition, the display device 100 identifies the emphasis level information of other areas included in the emphasis degree matching database based on the emphasis degree information of the region of interest included in the makeup information, and identifies the emphasis degree information of other areas identified in the emphasis degree matching database. By comparing the emphasis level information with the emphasis level information of other areas included in the makeup information, the matching rate of the emphasis level of other areas based on the area of interest can be calculated.
한편, 디스플레이 장치(100)는 관심 영역을 기준으로 한 다른 영역의 컬러 매칭률에 기초하여 다른 영역의 컬러에 대한 메이크업 가이드를 디스플레이할 수 있다. 또한, 디스플레이 장치(100)는 관심 영역을 기준으로 한 다른 영역의 텍스쳐 매칭률에 기초하여 다른 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이할 수 있다. 또한, 디스플레이 장치(100)는 관심 영역을 기준으로 한 다른 영역의 강조 정보 매칭률에 기초하여 다른 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이할 수 있다. Meanwhile, the display device 100 may display a makeup guide for the color of another area based on the color matching rate of the other area based on the area of interest. Additionally, the display device 100 may display a makeup guide for the texture of another area based on the texture matching rate of the other area based on the area of interest. Additionally, the display device 100 may display a makeup guide for the degree of emphasis of another area based on the matching rate of the emphasis information of the other area based on the area of interest.
한편, 본 개시의 일 실시 예에 따르면, 디스플레이 장치(100)는 메이크업 정보에 포함된 다른 영역의 컬러 정보에 기초하여 컬러 매칭 데이터베이스에 포함된 관심 영역의 컬러 정보를 식별하고, 컬러 매칭 데이터베이스에서 식별된 관심 영역의 컬러 정보 정보와, 메이크업 정보에 포함된 관심 영역의 컬러 정보를 비교하여, 다른 영역을 기준으로 한 관심 영역의 컬러 매칭률을 산출할 수 있다. 또한, 디스플레이 장치(100)는 메이크업 정보에 포함된 다른 영역의 텍스쳐 정보에 기초하여 텍스쳐 매칭 데이터베이스에 포함된 관심 영역의 텍스쳐 정보를 식별하고, 텍스쳐 매칭 데이터베이스에서 식별된 관심 영역의 텍스쳐 정보 정보와, 메이크업 정보에 포함된 관심 영역의 텍스쳐 정보를 비교하여, 다른 영역을 기준으로 한 관심 영역의 텍스쳐 매칭률을 산출할 수 있다. 또한, 디스플레이 장치(100)는 메이크업 정보에 포함된 다른 영역의 강조 정도 정보에 기초하여 강조 정도 매칭 데이터베이스에 포함된 관심 영역의 강조 정도 정보를 식별하고, 강조 정도 매칭 데이터베이스에서 식별된 관심 영역의 강조 정도 정보 정보와, 메이크업 정보에 포함된 관심 영역의 강조 정도 정보를 비교하여, 다른 영역을 기준으로 한 관심 영역의 강조 정도 매칭률을 산출할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the display device 100 identifies color information of a region of interest included in the color matching database based on color information of another region included in the makeup information, and identifies the region of interest in the color matching database. By comparing the color information of the region of interest included in the makeup information with the color information of the region of interest included in the makeup information, the color matching rate of the region of interest based on another region can be calculated. In addition, the display device 100 identifies texture information of a region of interest included in the texture matching database based on texture information of another region included in the makeup information, and matches the texture information of the region of interest identified in the texture matching database, By comparing the texture information of the region of interest included in the makeup information, the texture matching rate of the region of interest based on other regions can be calculated. In addition, the display device 100 identifies the emphasis level information of the region of interest included in the emphasis degree matching database based on the emphasis degree information of other regions included in the makeup information, and emphasizes the region of interest identified in the emphasis degree matching database. By comparing the degree information and the emphasis degree information of the region of interest included in the makeup information, the matching rate of the degree of emphasis of the region of interest based on other regions can be calculated.
한편, 디스플레이 장치(100)는 다른 영역을 기준으로 한 관심 영역의 컬러 매칭률에 기초하여 관심 영역의 컬러에 대한 메이크업 가이드를 디스플레이할 수 있다. 또한, 디스플레이 장치(100)는 다른 영역을 기준으로 한 관심 영역의 텍스쳐 매칭률에 기초하여 관심 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이할 수 있다. 또한, 디스플레이 장치(100)는 다른 영역을 기준으로 한 관심 영역의 강조 정보 매칭률에 기초하여 관심 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이할 수 있다. Meanwhile, the display device 100 may display a makeup guide for the color of the area of interest based on the color matching rate of the area of interest based on other areas. Additionally, the display device 100 may display a makeup guide for the texture of the region of interest based on the texture matching rate of the region of interest based on other regions. Additionally, the display device 100 may display a makeup guide for the degree of emphasis of the area of interest based on the matching rate of emphasis information of the area of interest based on other areas.
한편, 본 개시의 일 실시 예에 따르면, 메이크업 가이드는, 산출된 메이크업 매칭률을 높이기 위한 메이크업 방법과 관련된, 안내 메시지, 동영상 또는 메이크업 제품 추천 중 적어도 하나를 포함할 수 있다. Meanwhile, according to an embodiment of the present disclosure, the makeup guide may include at least one of a guidance message, a video, or a makeup product recommendation related to a makeup method to increase the calculated makeup matching rate.
또한, 본 개시의 일 실시 예에 따르면, 디스플레이 장치(100)는 메이크업 목적, 방문 장소 또는 관심 영역의 메이크업에 사용한 제품에 관한 정보 중 적어도 하나를 포함하는 사용자의 컨텍스트 정보를 입력받고, 입력된 사용자의 컨텍스트 정보를 반영하여 메이크업 가이드를 디스플레이할 수 있다. In addition, according to an embodiment of the present disclosure, the display device 100 receives user context information including at least one of information about the purpose of makeup, a place to visit, or a product used for makeup in an area of interest, and the input user The makeup guide can be displayed by reflecting the context information.
이상과 같은 본 개시의 다양한 실시 예에 따르면, 사용자는 원하는 메이크업 스타일을 선택하고, 자신의 얼굴 영역 중 관심 영역을 선택함으로써, 자신이 원하는 메이크업 스타일을 완성시키기 위한 적절한 메이크업 가이드를 제공받을 수 있다. 이에 따라, 사용자는 자신의 현재 상태를 기준으로 보다 편리하고 정확하게 원하는 메이크업 스타일을 완성시킬 수 있다. According to the various embodiments of the present disclosure as described above, a user can select a desired makeup style and select a region of interest among areas of the user's face, thereby providing an appropriate makeup guide to complete the desired makeup style. Accordingly, users can more conveniently and accurately complete the desired makeup style based on their current state.
한편, 본 개시의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 여기서, 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 디스플레이 장치(100)를 포함할 수 있다. Meanwhile, various embodiments of the present disclosure may be implemented as software including instructions stored in a machine-readable storage media (e.g., a computer). Here, the device is a device capable of calling commands stored from a storage medium and operating according to the called commands, and may include the display device 100 according to the disclosed embodiments.
상기 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.When the instruction is executed by a processor, the processor may perform the function corresponding to the instruction directly or using other components under the control of the processor. Instructions may contain code generated or executed by a compiler or interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium does not contain signals and is tangible, and does not distinguish whether the data is stored semi-permanently or temporarily in the storage medium.
일 실시 예에 따르면, 본 개시에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in the present disclosure may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed on a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or online through an application store (e.g. Play Store™). In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or created temporarily in a storage medium such as the memory of a manufacturer's server, an application store's server, or a relay server.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다. Each component (e.g., module or program) according to various embodiments may be composed of a single or plural entity, and some of the above-described sub-components may be omitted, or other sub-components may be variously used. Further examples may be included. Alternatively or additionally, some components (e.g., modules or programs) may be integrated into a single entity and perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or at least some operations may be executed in a different order, omitted, or other operations may be added. You can.
이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 또한, 본 개시에 따른 실시 예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 한 것이고, 이러한 실시 예에 의하여 본 개시의 기술 사상의 범위가 한정되는 것은 아니다. 따라서, 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present disclosure, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present disclosure. In addition, the embodiments according to the present disclosure are not intended to limit the technical idea of the present disclosure, but are provided for explanation, and the scope of the technical idea of the present disclosure is not limited by these embodiments. Therefore, the scope of protection of this disclosure should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this disclosure.

Claims (15)

  1. 카메라를 포함하는 디스플레이 장치의 제어 방법에 있어서,In a method of controlling a display device including a camera,
    사용자에 의해 선택된 메이크업 스타일을 식별하는 단계; identifying the makeup style selected by the user;
    상기 카메라를 통해 사용자의 얼굴이 촬영되면, 상기 사용자의 얼굴 영상을 디스플레이하는 단계; When the user's face is photographed through the camera, displaying the user's face image;
    상기 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 상기 사용자의 얼굴의 각 영역 별로 획득하는 단계; Analyzing the user's face image to obtain makeup information including color information, texture information, and emphasis level information for each area of the user's face;
    상기 사용자의 얼굴 영상에서 관심 영역이 선택되면, 상기 획득된 메이크업 정보 및 상기 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 상기 관심 영역과 상기 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출하는 단계; 및When an area of interest is selected in the face image of the user, calculating a makeup matching rate between the area of interest and other areas of the user's face based on the obtained makeup information and a matching database corresponding to the identified makeup style. step; and
    상기 산출된 메이크업 매칭률에 기초하여 상기 관심 영역 또는 상기 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이하는 단계;를 포함하고, Comprising: displaying a makeup guide for at least one of the area of interest or the other area based on the calculated makeup matching rate,
    상기 매칭 데이터베이스는, The matching database is,
    상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함하는 제어 방법. A color matching database containing color information of each area of the face corresponding to the identified makeup style, a texture matching database containing texture information of each area of the face corresponding to the identified makeup style, and the identified makeup style. A control method including an emphasis degree matching database containing information on the degree of emphasis of each region of the face corresponding to.
  2. 제 1 항에 있어서, According to claim 1,
    상기 메이크업 매칭률을 산출하는 단계는, The step of calculating the makeup matching rate is,
    상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하는 단계; 및identifying color information, texture information, and emphasis degree information of the other region included in the color matching database based on color information, texture information, and emphasis degree information of the region of interest included in the makeup information; and
    상기 식별된 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출하는 단계;를 포함하는 제어 방법. The color information, texture information, and emphasis degree information of the identified other region are compared with the color information, texture information, and emphasis degree information of the other region included in the makeup information, and the other region based on the region of interest is compared. A control method including calculating the color matching rate, texture matching rate, and emphasis degree matching rate of each area.
  3. 제 2 항에 있어서, According to claim 2,
    상기 메이크업 가이드를 디스플레이하는 단계는, The step of displaying the makeup guide is,
    상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률에 기초하여 상기 다른 영역의 컬러에 대한 메이크업 가이드를 디스플레이하는 단계; displaying a makeup guide for the color of the other area based on the color matching rate of the other area based on the area of interest;
    상기 관심 영역을 기준으로 한 상기 다른 영역의 텍스쳐 매칭률에 기초하여 상기 다른 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하는 단계; 및displaying a makeup guide for the texture of the other area based on the texture matching rate of the other area based on the area of interest; and
    상기 관심 영역을 기준으로 한 상기 다른 영역의 강조 정보 매칭률에 기초하여 상기 다른 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하는 단계;를 포함하는 제어 방법. A control method comprising: displaying a makeup guide for the degree of emphasis of the other area based on a matching rate of the emphasis information of the other area based on the area of interest.
  4. 제 1 항에 있어서, According to claim 1,
    상기 메이크업 매칭률을 산출하는 단계는, The step of calculating the makeup matching rate is,
    상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하는 단계; 및identifying color information, texture information, and emphasis degree information of the region of interest included in the color matching database based on color information, texture information, and emphasis degree information of the other region included in the makeup information; and
    상기 식별된 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출하는 단계;를 포함하는 제어 방법. By comparing the color information, texture information, and emphasis degree information of the identified region of interest with the color information, texture information, and emphasis degree information of the region of interest included in the makeup information, the interest based on the other region is determined. A control method including calculating the color matching rate, texture matching rate, and emphasis degree matching rate of each area.
  5. 제 4 항에 있어서, According to claim 4,
    상기 메이크업 가이드를 디스플레이하는 단계는, The step of displaying the makeup guide is,
    상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률에 기초하여 상기 관심 영역의 컬러에 대한 메이크업 가이드를 디스플레이하는 단계; displaying a makeup guide for a color of the region of interest based on a color matching rate of the region of interest based on the other region;
    상기 다른 영역을 기준으로 한 상기 관심 영역의 텍스쳐 매칭률에 기초하여 상기 관심 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하는 단계; 및displaying a makeup guide for a texture of the region of interest based on a texture matching rate of the region of interest based on the other region; and
    상기 다른 영역을 기준으로 한 상기 관심 영역의 강조 정보 매칭률에 기초하여 상기 관심 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하는 단계;를 포함하는 제어 방법. A control method comprising: displaying a makeup guide for the degree of emphasis of the region of interest based on a matching rate of emphasis information of the region of interest with respect to the other regions.
  6. 제 1 항에 있어서, According to claim 1,
    상기 식별하는 단계는, The identification step is,
    복수의 메이크업 스타일에 대응되는 복수의 이미지를 디스플레이하는 단계; 및Displaying a plurality of images corresponding to a plurality of makeup styles; and
    상기 복수의 이미지 중 하나의 이미지가 선택되면, 상기 선택된 이미지에 대응되는 메이크업 스타일을 식별하는 단계;를 포함하는 제어 방법. When one of the plurality of images is selected, identifying a makeup style corresponding to the selected image.
  7. 제 1 항에 있어서, According to claim 1,
    상기 메이크업 가이드는, The makeup guide is,
    상기 산출된 메이크업 매칭률을 높이기 위한 메이크업 방법과 관련된, 안내 메시지, 동영상 또는 메이크업 제품 추천 중 적어도 하나를 포함하는 제어 방법. A control method including at least one of an information message, a video, or a makeup product recommendation related to a makeup method to increase the calculated makeup matching rate.
  8. 제 1 항에 있어서, According to claim 1,
    메이크업 목적, 방문 장소 또는 상기 관심 영역의 메이크업에 사용한 제품에 관한 정보 중 적어도 하나를 포함하는 사용자의 컨텍스트 정보를 입력받는 단계;를 포함하고, Receiving context information of the user including at least one of the purpose of makeup, the place of visit, or information about products used for makeup in the area of interest,
    상기 메이크업 가이드를 디스플레이하는 단계는, The step of displaying the makeup guide is,
    상기 사용자의 컨텍스트 정보를 반영하여 상기 메이크업 가이드를 디스플레이하는 제어 방법. A control method for displaying the makeup guide by reflecting the user's context information.
  9. 디스플레이 장치에 있어서,In the display device,
    디스플레이;display;
    카메라; 및camera; and
    사용자에 의해 선택된 메이크업 스타일을 식별하고, Identify the makeup style selected by the user,
    상기 카메라를 통해 사용자의 얼굴이 촬영되면, 상기 사용자의 얼굴 영상을 디스플레이하도록 상기 디스플레이를 제어하고, When the user's face is captured through the camera, control the display to display the user's face image,
    상기 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 상기 사용자의 얼굴의 각 영역 별로 획득하고, By analyzing the user's face image, makeup information including color information, texture information, and emphasis level information is obtained for each area of the user's face,
    상기 사용자의 얼굴 영상에서 관심 영역이 선택되면, 상기 획득된 메이크업 정보 및 상기 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 상기 관심 영역과 상기 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출하고, When an area of interest is selected in the face image of the user, a makeup matching rate between the area of interest and other areas of the user's face is calculated based on the obtained makeup information and a matching database corresponding to the identified makeup style; ,
    상기 산출된 메이크업 매칭률에 기초하여 상기 관심 영역 또는 상기 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어하는 적어도 하나의 프로세서;를 포함하고, At least one processor that controls the display to display a makeup guide for at least one of the area of interest or the other area based on the calculated makeup matching rate,
    상기 매칭 데이터베이스는, The matching database is,
    상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함하는 디스플레이 장치. A color matching database containing color information of each area of the face corresponding to the identified makeup style, a texture matching database containing texture information of each area of the face corresponding to the identified makeup style, and the identified makeup style. A display device including an emphasis degree matching database that includes information on the degree of emphasis of each region of the face corresponding to.
  10. 제 9 항에 있어서, According to clause 9,
    상기 적어도 하나의 프로세서는, The at least one processor,
    상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하고, Identifying color information, texture information, and emphasis degree information of the other regions included in the color matching database based on color information, texture information, and emphasis degree information of the region of interest included in the makeup information, respectively,
    상기 식별된 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출하는 디스플레이 장치. The color information, texture information, and emphasis degree information of the identified other region are compared with the color information, texture information, and emphasis degree information of the other region included in the makeup information, and the other region based on the region of interest is compared. A display device that calculates the color matching rate, texture matching rate, and emphasis matching rate of each area.
  11. 제 10 항에 있어서, According to claim 10,
    상기 적어도 하나의 프로세서는, The at least one processor,
    상기 관심 영역을 기준으로 한 상기 다른 영역의 컬러 매칭률에 기초하여 상기 다른 영역의 컬러에 대한 메이크업 가이드를 디스플레이하고, 상기 관심 영역을 기준으로 한 상기 다른 영역의 텍스쳐 매칭률에 기초하여 상기 다른 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하고, 상기 관심 영역을 기준으로 한 상기 다른 영역의 강조 정보 매칭률에 기초하여 상기 다른 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어하는 디스플레이 장치. Displaying a makeup guide for the color of the other area based on the color matching rate of the other area based on the area of interest, and displaying a makeup guide for the color of the other area based on the texture matching rate of the other area based on the area of interest. Displaying a makeup guide for the texture of and controlling the display to display a makeup guide for the degree of emphasis of the other region based on a matching rate of emphasis information of the other region based on the region of interest.
  12. 제 9 항에 있어서, According to clause 9,
    상기 프로세서는, The processor,
    상기 메이크업 정보에 포함된 상기 다른 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보에 기초하여 상기 컬러 매칭 데이터베이스에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 식별하고, Identifying color information, texture information, and emphasis degree information of the region of interest included in the color matching database based on color information, texture information, and emphasis degree information of the other region included in the makeup information, respectively,
    상기 식별된 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보와, 상기 메이크업 정보에 포함된 상기 관심 영역의 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 각각 비교하여, 상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률, 텍스쳐 매칭률 및 강조 정도 매칭률을 각각 산출하는 디스플레이 장치. By comparing the color information, texture information, and emphasis degree information of the identified region of interest with the color information, texture information, and emphasis degree information of the region of interest included in the makeup information, the interest based on the other region is determined. A display device that calculates the color matching rate, texture matching rate, and emphasis matching rate of each area.
  13. 제 12 항에 있어서, According to claim 12,
    상기 디스플레이 장치는, The display device is,
    상기 다른 영역을 기준으로 한 상기 관심 영역의 컬러 매칭률에 기초하여 상기 관심 영역의 컬러에 대한 메이크업 가이드를 디스플레이하고, 상기 다른 영역을 기준으로 한 상기 관심 영역의 텍스쳐 매칭률에 기초하여 상기 관심 영역의 텍스쳐에 대한 메이크업 가이드를 디스플레이하고, 상기 다른 영역을 기준으로 한 상기 관심 영역의 강조 정보 매칭률에 기초하여 상기 관심 영역의 강조 정도에 대한 메이크업 가이드를 디스플레이하도록 상기 디스플레이를 제어하는 디스플레이 장치. Displaying a makeup guide for the color of the region of interest based on the color matching rate of the region of interest based on the other region, and displaying a makeup guide for the color of the region of interest based on the texture matching rate of the region of interest based on the other region. Displaying a makeup guide for a texture, and controlling the display to display a makeup guide for a degree of emphasis of the region of interest based on a matching rate of emphasis information of the region of interest based on the other regions.
  14. 제 9 항에 있어서, According to clause 9,
    상기 적어도 하나의 프로세서는, The at least one processor,
    복수의 메이크업 스타일에 대응되는 복수의 이미지를 디스플레이하도록 상기 디스플레이를 제어하고, 상기 복수의 이미지 중 하나의 이미지가 선택되면, 상기 선택된 이미지에 대응되는 메이크업 스타일을 식별하는 디스플레이 장치. A display device that controls the display to display a plurality of images corresponding to a plurality of makeup styles, and when one image among the plurality of images is selected, identifies a makeup style corresponding to the selected image.
  15. 카메라를 포함하는 디스플레이 장치의 제어 방법을 실행하는 프로그램을 포함하는 컴퓨터 판독 가능 기록매체에 있어서,In the computer-readable recording medium including a program executing a method of controlling a display device including a camera,
    상기 디스플레이 장치의 제어 방법은,The control method of the display device is,
    사용자에 의해 선택된 메이크업 스타일을 식별하는 단계; identifying the makeup style selected by the user;
    상기 카메라를 통해 사용자의 얼굴이 촬영되면, 상기 사용자의 얼굴 영상을 디스플레이하는 단계; When the user's face is photographed through the camera, displaying the user's face image;
    상기 사용자의 얼굴 영상을 분석하여 컬러 정보, 텍스쳐 정보 및 강조 정도 정보를 포함하는 메이크업 정보를 상기 사용자의 얼굴의 각 영역 별로 획득하는 단계; Analyzing the user's face image to obtain makeup information including color information, texture information, and emphasis level information for each area of the user's face;
    상기 사용자의 얼굴 영상에서 관심 영역이 선택되면, 상기 획득된 메이크업 정보 및 상기 식별된 메이크업 스타일에 대응되는 매칭 데이터베이스에 기초하여, 상기 관심 영역과 상기 사용자의 얼굴의 다른 영역 간의 메이크업 매칭률을 산출하는 단계; 및When an area of interest is selected in the face image of the user, calculating a makeup matching rate between the area of interest and other areas of the user's face based on the obtained makeup information and a matching database corresponding to the identified makeup style. step; and
    상기 산출된 메이크업 매칭률에 기초하여 상기 관심 영역 또는 상기 다른 영역 중 적어도 하나에 대한 메이크업 가이드를 디스플레이하는 단계;를 포함하고, Comprising: displaying a makeup guide for at least one of the area of interest or the other area based on the calculated makeup matching rate,
    상기 매칭 데이터베이스는, The matching database is,
    상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 컬러 정보를 포함하는 컬러 매칭 데이터베이스, 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 텍스쳐 정보를 포함하는 텍스쳐 매칭 데이터베이스, 및 상기 식별된 메이크업 스타일에 대응되는 얼굴의 각 영역의 강조 정도 정보를 포함하는 강조 정도 매칭 데이터베이스를 포함하는, 컴퓨터 판독 가능 기록매체A color matching database containing color information of each area of the face corresponding to the identified makeup style, a texture matching database containing texture information of each area of the face corresponding to the identified makeup style, and the identified makeup style. A computer-readable recording medium including an emphasis degree matching database containing information on the degree of emphasis of each region of the face corresponding to
PCT/KR2023/012885 2022-09-16 2023-08-30 Display device and control method thereof WO2024058468A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220117459 2022-09-16
KR10-2022-0117459 2022-09-16
KR1020220144592A KR20240038537A (en) 2022-09-16 2022-11-02 Display apparatus and controlling method therof
KR10-2022-0144592 2022-11-02

Publications (1)

Publication Number Publication Date
WO2024058468A1 true WO2024058468A1 (en) 2024-03-21

Family

ID=90275190

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/012885 WO2024058468A1 (en) 2022-09-16 2023-08-30 Display device and control method thereof

Country Status (1)

Country Link
WO (1) WO2024058468A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120066773A (en) * 2010-12-15 2012-06-25 고스트리트(주) A method of virtual make-up using mobile device
KR20160131873A (en) * 2015-05-06 2016-11-16 최명수 Makeup support method of creating and applying makeup guide content for user's face image with realtime
KR101872635B1 (en) * 2017-02-01 2018-06-29 주식회사 엘지생활건강 Automatic make-up evaluation system and operating method thereof
KR20200117251A (en) * 2019-04-03 2020-10-14 강형진 Apparatus and method for recommending cosmetics for skin type
KR102184177B1 (en) * 2020-03-10 2020-11-27 주식회사 만컴퍼니 Apparatus and method for recommending cosmetics by analyzing a face image acquired using a user's mobile device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120066773A (en) * 2010-12-15 2012-06-25 고스트리트(주) A method of virtual make-up using mobile device
KR20160131873A (en) * 2015-05-06 2016-11-16 최명수 Makeup support method of creating and applying makeup guide content for user's face image with realtime
KR101872635B1 (en) * 2017-02-01 2018-06-29 주식회사 엘지생활건강 Automatic make-up evaluation system and operating method thereof
KR20200117251A (en) * 2019-04-03 2020-10-14 강형진 Apparatus and method for recommending cosmetics for skin type
KR102184177B1 (en) * 2020-03-10 2020-11-27 주식회사 만컴퍼니 Apparatus and method for recommending cosmetics by analyzing a face image acquired using a user's mobile device

Similar Documents

Publication Publication Date Title
US9674485B1 (en) System and method for image processing
WO2015167160A1 (en) Command displaying method and command displaying device
WO2018128472A1 (en) Virtual reality experience sharing
WO2020085666A1 (en) Electronic device and control method thereof
EP3895130A1 (en) Electronic device for providing avatar animation and method thereof
WO2017213439A1 (en) Method and apparatus for generating image by using multi-sticker
WO2021101087A1 (en) Electronic apparatus and controlling method thereof
WO2019108028A1 (en) Portable device for measuring skin condition and skin condition diagnosis and management system
WO2015012495A1 (en) User terminal device and the control method thereof
WO2018074618A1 (en) Method and system for sharing effect for image
EP3366038A1 (en) Method for synthesizing image and an electronic device using the same
WO2021071155A1 (en) Electronic apparatus and control method thereof
WO2020159185A1 (en) Electronic device and control method thereof
WO2024058468A1 (en) Display device and control method thereof
EP3652924A1 (en) Electronic device for transmitting message and method for operating same
WO2019039861A1 (en) Electronic device and method for providing content associated with camera function from electronic device
WO2018058777A1 (en) Method and apparatus for providing ar content, ar device and server
WO2020050550A1 (en) Methods and systems for performing editing operations on media
WO2023075508A1 (en) Electronic device and control method therefor
WO2016036049A1 (en) Search service providing apparatus, system, method, and computer program
WO2022108008A1 (en) Electronic apparatus and controlling method thereof
WO2022019389A1 (en) Device and method for learning data augmentation-based space analysis model
WO2021006648A1 (en) Method of providing real-time vr service through avatar
WO2021029719A1 (en) Computing apparatus for converting image and method for operating same
WO2023219240A1 (en) Electronic device and method for controlling same