WO2023068633A1 - 퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램 - Google Patents

퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램 Download PDF

Info

Publication number
WO2023068633A1
WO2023068633A1 PCT/KR2022/015376 KR2022015376W WO2023068633A1 WO 2023068633 A1 WO2023068633 A1 WO 2023068633A1 KR 2022015376 W KR2022015376 W KR 2022015376W WO 2023068633 A1 WO2023068633 A1 WO 2023068633A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
user
image
warm
cool
Prior art date
Application number
PCT/KR2022/015376
Other languages
English (en)
French (fr)
Inventor
김재현
윤정하
Original Assignee
주식회사 작당모의
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220120193A external-priority patent/KR20230055355A/ko
Application filed by 주식회사 작당모의 filed Critical 주식회사 작당모의
Priority to JP2023568457A priority Critical patent/JP2024519418A/ja
Publication of WO2023068633A1 publication Critical patent/WO2023068633A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Definitions

  • the present invention relates to a personal color recognition method, a device for performing the same, and a computer program, and more particularly, to a method, device, and computer program for recognizing a user's personal color.
  • Personal color refers to the color that best matches the user's skin tone. Diagnosis of personal color is mainly performed offline, and has many limitations in terms of time and space.
  • An object of the present invention is to provide a personal color recognition method for recognizing a user's personal color by repetitive color selection by the user, a device for performing the same, and a computer program.
  • an object of the present invention is to provide a personal color recognition method for recognizing a user's personal color by the user's repetitive color selection for each surrounding environment (bright environment, dark environment, etc.), a device and a computer program for performing the same. is to provide
  • the acquiring of the plurality of modified images includes acquiring a first modified image corresponding to an image captured in a bright environment and a second modified image corresponding to an image captured in a dark environment, based on the target image. It can be done.
  • the acquiring of the plurality of modified images may include acquiring the first modified image and the second modified image based on the target image using a deep learning-based image conversion network that has been learned and built in advance. .
  • the target image is input to the deep learning-based image conversion network, and the first modified image and the second modified image are acquired based on the output of the deep learning-based image conversion network. It can be done by doing
  • the deep learning-based image conversion network uses training data including a base image including a face, a bright environment image corresponding to the base image, and a dark environment image corresponding to the base image, It can be learned by taking as an input value and using the bright environment image and the dark environment image as correct answer labels.
  • Warm-Spring-True WST
  • Warm-Spring-Light WSL
  • Warm-Spring-Bright Warm-Spring-Bright, WSB
  • Warm-Autumn-True WAT
  • Warm-Autumn-Mute WAM
  • Warm-Autumn-Deep WAD
  • Cool-Summer -Cool-Summer-True CST
  • Cool-Summer-Light CSL
  • Cool-Summer-Mute CSM
  • Cool-Winter-True Winter-True CWT
  • Cool-Winter-Bright CWB
  • Cool-Winter-Deep CWD
  • the personal color recognizing step may include performing a warm/cool test based on the modified image and recognizing whether the user has a warm tone or a cool tone with respect to the modified image based on a result of the warm/cool test. cool recognition phase; a season recognition step of performing a season test based on the modified image and a result of the warm/cool recognizing step and recognizing a season corresponding to the user with respect to the modified image based on a result of performing the season test; A detailed type test is performed based on the modified image, the result of the warm/cool recognition step, and the result of the season recognition step, and based on the result of the detailed type test, details corresponding to the user are obtained for the modified image. a detailed type recognition step of recognizing a type; and recognizing the user's personal color for the modified image based on the result of the warm/cool recognizing step, the season recognizing step, and the detailed type recognizing step.
  • the recognizing warm/cool may include displaying two colors in the preset area based on a preset color pair, and displaying the warm color based on information selected by the user from among the two colors displayed in the preset area. /can be done by doing a cool test.
  • the season recognizing step may include displaying one color in the preset area based on a color set selected based on a result of the warm/cool recognizing step, and providing information to the user for the one color displayed in the preset area. It may consist of performing the season test based on the information selected by
  • the detailed type recognition step displays three colors in the preset area based on a color set selected based on the result of the warm/cool recognition step and the season recognition step, and displays three colors in the preset area.
  • the detailed type test may be performed based on information selected by the user among the displayed three colors.
  • the preset area may be at least one area selected by the user from among a plurality of sub areas of the modified image.
  • a personal color recognition device for recognizing a user's personal color, comprising: a memory for storing one or more programs for recognizing a user's personal color; and one or more processors for performing an operation for recognizing a user's personal color according to the one or more programs stored in the memory, wherein the processor obtains a target image including a user's face, which is a personal color recognition target obtaining a plurality of modified images having different brightnesses based on the target image, and displaying at least one preset color in a preset area of the modified image based on each of the plurality of modified images; Recognize the user's personal color for the modified image based on information selected by the user based on at least one color displayed in the preset area, and based on the user's personal color for each of the plurality of modified images Personal color information is displayed with .
  • a device for performing the same, and a computer program the user's personal color can be detected more conveniently and accurately by recognizing the user's personal color by repetitive color selection by the user.
  • a device for performing the same, and a computer program the user's personal color is recognized by the user's repeated color selection for each surrounding environment (bright environment, dark environment, etc.) By doing so, it is possible to detect a user's personal color suitable for each surrounding environment.
  • FIG. 1 is a block diagram illustrating a personal color recognition device according to a preferred embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating a personal color recognition method according to an embodiment of the present invention.
  • FIG. 3 is a diagram for explaining a personal color recognition process according to an embodiment of the present invention.
  • FIG. 4 is a diagram for explaining a process of performing a warm/cool test according to an embodiment of the present invention.
  • FIG. 5 is a diagram for explaining a result of performing a warm/cool test according to an embodiment of the present invention.
  • FIG. 6 is a diagram for explaining a process of performing a season test according to an embodiment of the present invention.
  • 7 and 8 are diagrams for explaining results of performing a season test according to an embodiment of the present invention.
  • FIG. 9 is a diagram showing an example of performing a season test according to an embodiment of the present invention.
  • FIG. 10 is a diagram for explaining a process of performing a detailed type test according to an embodiment of the present invention.
  • FIG. 11 is a diagram for explaining a result of performing a detailed type test according to an embodiment of the present invention.
  • FIG. 12 is a diagram for explaining an example of displaying a result of performing a detailed type test according to an embodiment of the present invention.
  • FIG. 12 (a) shows an example of a detailed type display format
  • FIG. 12 (b) 12 (c) shows an example of display when the B color set detailed type is displayed
  • FIG. 12 (d) is the C color set detailed type. An example of display at the time is shown.
  • FIG. 13 is a diagram illustrating an example of performing a detailed type test according to an embodiment of the present invention.
  • FIG. 14 is a diagram illustrating an example of displaying personal color information according to an embodiment of the present invention.
  • 15 is a flowchart illustrating a personal color recognition method according to another embodiment of the present invention.
  • 16 is a diagram for explaining a process of acquiring a plurality of modified images according to another embodiment of the present invention.
  • 17 is a diagram for explaining a process of acquiring a plurality of modified images using a deep learning-based image conversion network according to another embodiment of the present invention.
  • FIG. 18 is a diagram for explaining a learning process of the deep learning-based image conversion network shown in FIG. 17 .
  • 19 is a diagram for explaining a personal color recognition process according to another embodiment of the present invention.
  • 20 is a diagram illustrating an example of displaying personal color information according to another embodiment of the present invention.
  • first and second are used to distinguish one component from another, and the scope of rights should not be limited by these terms.
  • a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
  • identification codes e.g., a, b, c, etc.
  • identification codes do not describe the order of each step, and each step is clearly a specific order in context. Unless specified, it may occur in a different order from the specified order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
  • expressions such as “has”, “can have”, “includes” or “can include” indicate the existence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). indicated, and does not preclude the presence of additional features.
  • FIG. 1 is a block diagram illustrating a personal color recognition device according to a preferred embodiment of the present invention.
  • the personal color recognition apparatus 100 can recognize a user's personal color by repetitive color selection by the user.
  • the personal color refers to a color that best matches the skin tone of the user. Accordingly, the present invention can more conveniently and accurately detect the user's personal color.
  • the personal color recognition apparatus 100 may recognize the user's personal color by the user's repetitive color selection for each surrounding environment (bright environment, dark environment, etc.). Accordingly, the present invention can detect a user's personal color suitable for each surrounding environment.
  • the personal color recognition device 100 may include one or more processors 110 , a computer readable storage medium 130 and a communication bus 150 .
  • the processor 110 may control the personal color recognition apparatus 100 to operate.
  • the processor 110 may execute one or more programs 131 stored in the computer readable storage medium 130 .
  • the one or more programs 131 may include one or more computer executable instructions, which, when executed by the processor 110, cause the personal color recognition apparatus 100 to recognize the user's personal color. It can be configured to perform an action.
  • the computer readable storage medium 130 is configured to store computer executable instructions or program codes, program data and/or other suitable form of information for recognizing a user's personal color.
  • the program 131 stored in the computer readable storage medium 130 includes a set of instructions executable by the processor 110 .
  • computer readable storage medium 130 may include memory (volatile memory such as random access memory, non-volatile memory, or a suitable combination thereof), one or more magnetic disk storage devices, optical disk storage devices, flash It may be memory devices, other types of storage media that can be accessed by the personal color recognition apparatus 100 and store desired information, or a suitable combination thereof.
  • the communication bus 150 interconnects various other components of the personal color recognition device 100, including the processor 110 and the computer readable storage medium 130.
  • the personal color recognition device 100 may also include one or more input/output interfaces 170 and one or more communication interfaces 190 providing interfaces for one or more input/output devices.
  • the input/output interface 170 and the communication interface 190 are connected to the communication bus 150 .
  • An input/output device (not shown) may be connected to other components of the personal color recognition device 100 through an input/output interface 170 .
  • FIG. 2 is a flowchart for explaining a personal color recognition method according to an embodiment of the present invention
  • FIG. 3 is a diagram for explaining a personal color recognition process according to an embodiment of the present invention
  • FIG. is a diagram for explaining a process of performing a warm/cool test according to an embodiment of the present invention
  • FIG. 5 is a diagram for explaining a result of performing a warm/cool test according to an embodiment of the present invention
  • FIG. 7 and 8 are views for explaining the results of performing a season test according to an embodiment of the present invention
  • FIG. 10 is a diagram for explaining a process of performing a detailed type test according to an embodiment of the present invention
  • FIG. 11 is a diagram according to an embodiment of the present invention.
  • 12 is a diagram for explaining a result of performing a detailed type test
  • FIG. 12 is a diagram for explaining an example of displaying a result of performing a detailed type test according to an embodiment of the present invention.
  • An example of the display format is shown, FIG. 12(b) shows an example of display when the Ath color set detail type, FIG. 12(c) shows an example of display when the Bth color set detail type, FIG. 12(d) shows an example of display for the Cth color set detailed type,
  • FIG. 13 is a diagram showing an example of performing a detailed type test according to an embodiment of the present invention, and
  • FIG. 14 is an example of the present invention. It is a diagram showing an example of displaying personal color information according to the example.
  • the processor 110 of the personal color recognition apparatus 100 may obtain a target image including a user's face, which is a personal color recognition target (S110).
  • the personal color is Warm-Spring-True (WST), Warm-Spring-Light (WSL), Warm-Spring-Bright (WSB), Warm-Autumn-True (WAT), Warm-Autumn-Mute (WAM), Warm-Autumn-Deep (WAD), Cool-Summer-True (Cool-Summer-True (CST), Cool-Summer-Light (CSL), Cool-Summer-Mute (CSM), Cool-Winter-True True, CWT), Cool-Winter-Bright (CWB), and Cool-Winter-Deep (CWD).
  • WST Warm-Spring-True
  • WST Warm-Spring-Light
  • WAM Warm-Autumn-Mute
  • WAD Warm-Autumn-Deep
  • Cool-Summer-True Cool-Summer-True
  • CSL Cool-Summer-Light
  • CSM Cool-S
  • the processor 110 displays at least one preset color on a preset area of the target image based on the target image, and based on information selected by the user based on the at least one color displayed on the preset region.
  • the user's personal color may be recognized (S120).
  • the preset area may be at least one area selected by the user from among a plurality of sub areas of the target image. That is, the processor 110 may set one or more regions selected by the user from a plurality of sub-regions such as “lips”, “cheeks”, “eyes”, and “hair” obtained from the target image as regions to display colors. . For example, the user may select “lips” as an area used to confirm his or her personal color. In addition, the user may select "lips" and "hair” at the same time as regions used to check his or her personal color. At this time, if a specific area is not selected by the user, the processor 110 may set a preset default area such as “lips” as an area to display a color.
  • a preset default area such as “lips” as an area to display a color.
  • the processor 110 uses the personal color DB in which test colors are stored for each personal color, as shown in FIG. It is possible to recognize the user's personal color through "test -> 3rd detailed type test".
  • the processor 110 may perform a warm/cool test based on the target image and recognize whether the user has a warm tone or a cool tone based on a result of the warm/cool test.
  • the processor 110 may display two colors in a preset area based on a preset color pair and perform a warm/cool test based on information selected by a user from the two colors displayed in the preset area. there is.
  • the processor 110 may display a target image on the screen SCR and display “color 1 (C_1)” and “color 2 (C_2)”. Thereafter, the processor 110 displays the corresponding color 1 (C_1) in a preset area when “color 1 (C_1)” is selected by the user, and displays the corresponding color 2 (C_2) when “color 2 (C_2)” is selected by the user. (C_2) can be displayed in a preset area. Then, the user can select one of the two colors by selecting “Select (B_S)” in a state in which a color matching the user is displayed.
  • the processor 110 performs a warm/cool test repeatedly 8 times based on 8 first color pairs composed of different colors based on the first color pair and the second color pair, and 7 warm/cool tests are performed based on 7 second color pairs consisting of colors, and a total of 15 warm/cool tests (8 warm/cool tests using the first color pair + 2 color pairs) Based on the results of seven warm/cool tests), it is possible to recognize whether the user has warm tones or cool tones.
  • the first color pair may include a color belonging to warm-spring-true (WST) and a color belonging to cool-summer-true (CST).
  • the second color pair may include a color belonging to warm-autumn-true (WAT) and a color belonging to cool-winter-true (CWT).
  • the processor 110 may count the user's selection value (+1 point for selection) for each color pair to obtain a warm/cool test result as shown in FIG. 5 .
  • the processor 110 may recognize whether the user has a warm tone or a cool tone based on a warm/cool test result, and obtain a probability value belonging to the corresponding tone (warm tone or cool tone). For example, if the user selects "Warm-Spring-True (WST)” "six times” in the warm/cool test based on the first color pair and “warm-spring-true” in the warm/cool test based on the second color pair. If “Fall-True (WAT)” is selected “5 times”, the processor 110 sends the user to It is recognized as “warm tone (W)” and "70%” can be obtained as a probability value belonging to warm tone (W).
  • WST Warm-Spring-True
  • the processor 110 may perform a season test based on the target image and the result of the warm/cool recognition step, and recognize a season corresponding to the user based on the result of the season test.
  • the processor 110 displays one color in a preset area based on the color set selected based on the result of the warm/cool recognition step, and displays one color on the preset area based on information selected by the user.
  • Seasonal testing can be performed with
  • the processor 110 may display a target image and “color (C)” on the screen SCR. Thereafter, when “color (C)” is selected by the user, the processor 110 may display the corresponding color (C) in a preset area. Then, the user can select "It suits (B_Y)” if the corresponding color (C) suits him/herself, and can select "It doesn't suit (B_N)” if the corresponding color (C) does not suit him or her.
  • the processor 110 performs a seasonal test 7 times based on the A-th color set and the B-th color set, based on the 7 A-th color sets consisting of different colors, and 8 repetitive seasonal tests are performed based on the 8 B color sets consisting of, and a total of 15 seasonal tests (7 seasonal tests using the A color set + 8 seasonal tests using the B color set)
  • the season corresponding to the user can be recognized based on the result of the execution of .
  • the processor 110 performs a total of 15 seasonal tests in which the Ath color set and the Bth color set are alternately exposed (seasonal test based on the Ath color set -> seasonal test based on the Bth color set -> based on the Ath color set)
  • a season test -> a season test based on the Bth color set -> may be performed.
  • the Ath color set is composed of colors belonging to warm-spring-true (WST), and the Bth color set is composed of colors belonging to warm-autumn-true (WAT). It can be done.
  • the result of the warm/cool recognition step is a cool tone
  • the A-th color set is made up of colors belonging to cool-summer-true (CST)
  • the B-th color set is made up of colors belonging to cool-winter-true (CWT). It can be done.
  • the processor 110 counts the user's selection value for each color set (+1 point when selecting Good / -1 point when selecting Bad), as shown in FIGS. 7 and 8 The performance results of the same seasonal test can be obtained.
  • the processor 110 may recognize the season of the user based on the result of performing the season test, and obtain a probability value belonging to the corresponding season. For example, if the final score of the season test, "score for the A-th color set - score for the B-th color set" is "+”, the processor 110 determines it to be the A-th season (spring or summer), and determines that the season test If the final score "score for the A-th color set-score for the B-th color set" is "-”, it can be determined as the B-season (fall or winter). For example, the user selects “Good” “six times” in the seasonal test based on the Ath color set and “Good” "1” in the seasonal test based on the Bth color set.
  • the processor 110 determines the user's season based on the result of the second season test for a user whose first warm/cool test result is “warm tone (W)”. can do. If the score for the Ath color set is "-5 points" and the score for the Bth color set is “-6 points", the processor 110 returns "Spring (S)" since the final score is "1 point”. It can be judged by the user's season. If the score for the Ath color set is "-7 points" and the score for the Bth color set is "-6 points”, the processor 110 returns "fall (A)” because the final score is "-1 point”. It can be determined based on the user's season. If the score for the Ath color set is "7 points” and the score for the Bth color set is "8 points", the processor 110 assigns "fall (A)” to the user, since the final score is "-1 point”. can be judged by the season of
  • the processor 110 performs a detailed type test based on the target image, the result of the warm/cool recognition step, and the result of the season recognition step, and recognizes a detailed type corresponding to the user based on the result of the detailed type test. there is.
  • the processor 110 displays three colors in a pre-set area based on the color set selected based on the result of the warm/cool recognition step and the result of the season recognition step, and selects the user from among the three colors displayed in the preset area.
  • a detailed type test can be performed based on the information selected by .
  • the processor 110 displays the target image on the screen SCR, and displays "color 1 (C_1)", “color 2 (C_2)", and “color 3 (C_3)”. can be displayed. Thereafter, the processor 110 displays the corresponding color 1 (C_1) in a preset area when “color 1 (C_1)” is selected by the user, and displays the corresponding color 2 (C_2) when “color 2 (C_2)” is selected by the user. (C_2) is displayed in the preset area, and when “color 3 (C_3)” is selected by the user, the corresponding color 3 (C_3) can be displayed in the preset area. Then, the user can select one color out of the three colors by selecting “Select (B_S)” in a state where the color matching the user is displayed.
  • the processor 110 performs a detailed type test iteratively four times based on four color pairs consisting of different color pairs based on the Ath color set, the Bth color set, and the Cth color set. And, based on the results of four detailed type tests, it is possible to recognize the detailed type corresponding to the user.
  • the color pair may consist of a total of three color pairs consisting of a randomly selected color from the Ath color set, a randomly selected color from the Bth color set, and a randomly selected color from the Cth color set.
  • the Ath color set is composed of colors belonging to warm-spring-true (WST), and the Bth color set is warm-spring - It is composed of colors belonging to the light (WSL), and the Cth color set may be composed of colors belonging to the warm-spring-bright (WSB).
  • the result of the warm/cool recognition step is a warm tone and the result of the season recognition step is an autumn tone
  • the Ath color set is composed of colors belonging to warm-autumn-true (WAT)
  • the Bth color set is warm-autumn-true (WAT).
  • the Cth color set may be composed of colors belonging to warm-fall-deep (WAD).
  • WAM fall-mute
  • WAD warm-fall-deep
  • the Ath color set is composed of colors belonging to cool-summer-true (CST)
  • the Bth color set is cool-toned.
  • CSL summer-light
  • the Cth color set may be composed of colors belonging to cool-summer-mute (CSM).
  • the color set A is composed of colors belonging to cool-winter-true (CWT)
  • the color set B is cool-tone. It is composed of colors belonging to winter-bright (CWB)
  • the Cth color set may be composed of colors belonging to cool-winter-deep (CWD).
  • the processor 110 may count the user's selection value (+1 point for selection) for each color pair, and obtain a result of performing the detailed type test as shown in FIG. 11 .
  • the processor 110 may recognize the detailed type of the user based on the result of performing the detailed type test, and obtain a probability value belonging to the corresponding detailed type. In this case, the processor 110 may determine the color set selected two or more times as the detailed type of the corresponding user. Also, when there are a plurality of color sets having the same number of selections, the processor 110 may determine the detailed type according to a preset priority (Ath color set > Bth color set > Cth color set).
  • the processor 110 displays the detailed type corresponding to the Ath color set having the highest priority in the center, as shown in (a) of FIG. 12, and A detailed type corresponding to the color set may be displayed on the left side, and a detailed type corresponding to the Cth color set may be displayed on the right side.
  • the processor 110 may display the detailed type in the center regardless of the corresponding probability value. For example, if the user's detailed type is "the detailed type corresponding to the Ath color set", the processor 110 determines the value shown in (b) of FIG. As shown, the detailed type can be displayed in the middle.
  • the processor 110 may display the detailed type based on a probability value corresponding thereto. For example, if the user's detail type is "the detail type corresponding to the B-th color set” and the corresponding probability value is "79%”, the processor 110 displays the detail type in the middle left as shown in (c) of FIG. type can be displayed. In addition, if the user's detailed type is "a detailed type corresponding to the Cth color set” and the corresponding probability value is "90%", the processor 110 displays the detailed information on the right side as shown in (d) of FIG. type can be displayed.
  • the processor 110 determines the user whose performance result of the first warm/cool test is “warm tone (W)” and the performance result of the second seasonal test is “bom tone (S)”. Based on the result of the tertiary detailed type test, the detailed type of the corresponding user can be determined. If the selection value for the Ath color set is “1”, the selection value for the Bth color set is “1”, and the selection value for the Cth color set is “2”, the processor 110 determines “user 1”. The detailed type of " is recognized as “bright (B)", and "68%" can be obtained as a probability value belonging to bright (B).
  • the processor 110 determines “user 2”.
  • the detailed type of " can be recognized as “true (T)” and obtained as "68%” as a probability value belonging to true (T).
  • the processor 110 determines “User 3
  • the detailed type of " is recognized as "light (L)”, and "68%” may be obtained as a probability value belonging to light (L).
  • the processor 110 determines “user 4”.
  • the detailed type of " may be recognized as “bright (B)", and “79%” may be determined as a probability value belonging to bright (B).
  • the processor 110 determines “User 5
  • the detailed type of " may be recognized as “true (T)", and “90%” may be determined as a probability value belonging to true (T).
  • the processor 110 may recognize the user's personal color based on the result of the warm/cool recognition step, the season recognition step, and the detailed type recognition step.
  • the processor 110 may display personal color information based on the user's personal color (S130).
  • the processor 110 may display the personal color information (PCI) of the corresponding user on the screen SCR.
  • PCI personal color information
  • FIG. 15 is a flowchart for explaining a personal color recognition method according to another embodiment of the present invention
  • FIG. 16 is a diagram for explaining a process of acquiring a plurality of modified images according to another embodiment of the present invention
  • FIG. 20 is a diagram showing an example of displaying personal color information according to another embodiment of the present invention.
  • the processor 110 of the personal color recognition apparatus 100 may obtain a target image including a user's face, which is a personal color recognition target (S210).
  • the processor 110 may obtain a plurality of modified images having different brightness based on the target image (S220).
  • the processor 110 generates a first modified image corresponding to an image captured in a bright environment and a second modified image corresponding to an image captured in a dark environment based on a target image. can be obtained
  • the processor 110 may obtain a first modified image and a second modified image based on the target image by using a deep learning-based image conversion network that has been previously trained and built. That is, the processor 110 may input the target image to the deep learning-based image conversion network and acquire the first modified image and the second modified image based on the output of the deep learning-based image conversion network.
  • the deep learning-based image conversion network uses learning data including a basic image including a face, a bright environment image corresponding to the basic image, and a dark environment image corresponding to the basic image. , It can be pre-learned and built with a basic image as an input value and a bright environment image and a dark environment image as the correct answer labels.
  • the processor 110 may detect whether the target image is an image captured in a bright environment or an image captured in a dark environment based on the brightness value of the target image. And, if it is detected that the target image is an image taken in a bright environment, the processor 110 obtains the target image as a first modified image, and inputs the target image to a first deep learning-based image conversion network built by learning in advance. and a second modified image corresponding to a dark environment may be obtained based on the output of the first deep learning-based image conversion network. On the other hand, if it is detected that the target image is an image taken in a dark environment, the processor 110 acquires the target image as a second modified image, and inputs the target image to a second deep learning-based image conversion network built in advance.
  • a first modified image corresponding to a bright environment may be obtained. That is, a first deep learning-based image transformation network that takes a bright environment image as an input and a dark environment image as an output, and a second deep learning-based image transformation network that takes a dark environment image as an input and a bright environment image as an output, respectively.
  • the processor 110 detects whether the target image is a bright environment image or a dark environment image, and a deep learning-based image conversion network to be used to obtain a modified image based on the detection result. (The first deep learning-based image conversion network or the second deep learning-based image conversion network) may be selected.
  • the processor 110 displays at least one preset color in a preset region of the modified image based on each of the plurality of modified images, and information selected by the user based on the at least one color displayed on the preset region. It is possible to recognize the user's personal color for the modified image based on (S230).
  • the preset area may be set differently for each modified image.
  • “lips” may be set as an area to display color by the user's selection
  • “cheeks” may be set as an area to be displayed in color by the user's selection.
  • the processor 110 sets a default area preset for each modified image ("lips" for the first modified image / "hair” for the second modified image) as an area to display color. can be set
  • the preset area may be set as the same area regardless of the modified image.
  • the processor 110 performs a test hierarchically performed on each of the first modified image and the second modified image using the personal color DB, “1st warm/cool test- > Through the 2nd season test -> 3rd detailed type test, the user's personal color can be recognized.
  • the processor 110 may perform a warm/cool test based on the modified image and recognize whether the user has warm tones or cool tones for the modified image based on the result of the warm/cool test.
  • the processor 110 may perform a season test based on the modified image and a result of the warm/cool recognition step, and recognize a season corresponding to the user for the modified image based on the result of the season test.
  • the processor 110 performs a detailed type test based on the modified image, the result of the warm/cool recognition step, and the result of the season recognition step, and based on the result of the detailed type test, the detailed type corresponding to the user is determined for the modified image.
  • the processor 110 may recognize the user's personal color for the modified image based on the result of the warm/cool recognition step, the season recognition step, and the detailed type recognition step.
  • the processor 110 may display personal color information based on the user's personal color for each of the plurality of modified images (S240).
  • the processor 110 determines a first modified image and a corresponding user's personal color for the first modified image, and a second modified image and a corresponding user's personal color for the second modified image.
  • the included personal color information (PCI) of the corresponding user may be displayed on the screen SCR.
  • Operations according to the present embodiments may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable storage medium.
  • a computer readable storage medium refers to any medium that participates in providing instructions to a processor for execution.
  • a computer readable storage medium may include program instructions, data files, data structures, or combinations thereof. For example, there may be a magnetic medium, an optical recording medium, a memory, and the like.
  • the computer program may be distributed over networked computer systems so that computer readable codes are stored and executed in a distributed manner. Functional programs, codes, and code segments for implementing this embodiment may be easily inferred by programmers in the art to which this embodiment belongs.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Finance (AREA)
  • Artificial Intelligence (AREA)
  • Accounting & Taxation (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 바람직한 실시예에 따른 퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램은, 주변 환경(밝은 환경, 어두운 환경 등)별로 사용자의 반복적인 컬러 선택에 의해 사용자의 퍼스널 컬러를 인식함으로써, 주변 환경별로 적합한 사용자의 퍼스널 컬러를 검출할 수 있다.

Description

퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램
본 발명은 퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램에 관한 것으로서, 더욱 상세하게는 사용자의 퍼스널 컬러를 인식하는, 방법, 장치 및 컴퓨터 프로그램에 관한 것이다.
퍼스널 컬러는 사용자의 피부톤과 가장 어울리는 컬러를 말한다. 퍼스널 컬러의 진단은 주로 오프라인을 통해 이루어지고 있어, 시간적 측면과 공간적 측면에서 많은 제약을 가지고 있다.
본 발명이 이루고자 하는 목적은, 사용자의 반복적인 컬러 선택에 의해 사용자의 퍼스널 컬러를 인식하는, 퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램을 제공하는 데 있다.
또한, 본 발명이 이루고자 하는 목적은, 주변 환경(밝은 환경, 어두운 환경 등)별로 사용자의 반복적인 컬러 선택에 의해 사용자의 퍼스널 컬러를 인식하는, 퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램을 제공하는 데 있다.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.
상기의 기술적 과제를 달성하기 위한 본 발명의 바람직한 실시예에 따른 퍼스널 컬러 인식 방법은, 퍼스널 컬러의 인식 대상인 사용자의 얼굴을 포함하는 대상 이미지를 획득하는 단계; 상기 대상 이미지를 기반으로, 서로 다른 밝기를 가지는 복수개의 변형 이미지를 획득하는 단계; 복수개의 상기 변형 이미지 각각을 기반으로, 상기 변형 이미지의 미리 설정된 영역에 미리 설정된 적어도 하나의 컬러를 표시하고, 상기 미리 설정된 영역에 표시된 적어도 하나의 컬러를 토대로 상기 사용자에 의해 선택된 정보를 기반으로 상기 변형 이미지에 대한 상기 사용자의 퍼스널 컬러를 인식하는 단계; 및 복수개의 상기 변형 이미지 각각에 대한 상기 사용자의 퍼스널 컬러를 기반으로 퍼스널 컬러 정보를 표시하는 단계;를 포함한다.
여기서, 상기 복수개의 변형 이미지 획득 단계는, 상기 대상 이미지를 기반으로, 밝은 환경에서 촬영된 이미지에 대응되는 제1 변형 이미지, 및 어두운 환경에서 촬영된 이미지에 대응되는 제2 변형 이미지를 획득하는 것으로 이루어질 수 있다.
여기서, 상기 복수개의 변형 이미지 획득 단계는, 미리 학습되어 구축된 딥러닝 기반 이미지 변환 네트워크를 이용하여, 상기 대상 이미지를 기반으로 상기 제1 변형 이미지와 상기 제2 변형 이미지를 획득하는 것으로 이루어질 수 있다.
여기서, 상기 복수개의 변형 이미지 획득 단계는, 상기 대상 이미지를 상기 딥러닝 기반 이미지 변환 네트워크에 입력하고, 상기 딥러닝 기반 이미지 변환 네트워크의 출력을 토대로 상기 제1 변형 이미지와 상기 제2 변형 이미지를 획득하는 것으로 이루어질 수 있다.
여기서, 상기 딥러닝 기반 이미지 변환 네트워크는, 얼굴을 포함하는 기본 이미지, 상기 기본 이미지에 대응되는 밝은 환경 이미지, 및 상기 기본 이미지에 대응되는 어두운 환경 이미지를 포함하는 학습 데이터를 이용하여, 상기 기본 이미지를 입력 값으로 하고, 상기 밝은 환경 이미지와 상기 어두운 환경 이미지를 정답 레이블로 하여 학습될 수 있다.
여기서, 상기 퍼스널 컬러는, 웜-봄-트루(Warm-Spring-True, WST), 웜-봄-라이트(Warm-Spring-Light, WSL), 웜-봄-브라이트(Warm-Spring-Bright, WSB), 웜-가을-트루(Warm-Autumn-True, WAT), 웜-가을-뮤트(Warm-Autumn-Mute, WAM), 웜-가을-딥(Warm-Autumn-Deep, WAD), 쿨-여름-트루(Cool-Summer-True, CST), 쿨-여름-라이트(Cool-Summer-Light, CSL), 쿨-여름-뮤트(Cool-Summer-Mute, CSM), 쿨-겨울-트루(Cool-Winter-True, CWT), 쿨-겨울-브라이트(Cool-Winter-Bright, CWB), 및 쿨-겨울-딥(Cool-Winter-Deep, CWD) 중 하나일 수 있다.
여기서, 상기 퍼스널 컬러 인식 단계는, 상기 변형 이미지를 기반으로, 웜/쿨 테스트를 수행하여 상기 웜/쿨 테스트의 수행 결과를 토대로 상기 변형 이미지에 대해 상기 사용자가 웜톤인지 쿨톤인지를 인식하는 웜/쿨 인식 단계; 상기 변형 이미지, 및 상기 웜/쿨 인식 단계의 결과를 기반으로, 계절 테스트를 수행하여 상기 계절 테스트의 수행 결과를 토대로 상기 변형 이미지에 대해 상기 사용자에 해당하는 계절을 인식하는 계절 인식 단계; 상기 변형 이미지, 상기 웜/쿨 인식 단계의 결과, 및 상기 계절 인식 단계의 결과를 기반으로, 상세 타입 테스트를 수행하여 상기 상세 타입 테스트의 수행 결과를 토대로 상기 변형 이미지에 대해 상기 사용자에 해당하는 상세 타입을 인식하는 상세 타입 인식 단계; 및 상기 웜/쿨 인식 단계의 결과, 상기 계절 인식 단계의 결과, 및 상기 상세 타입 인식 단계의 결과를 기반으로, 상기 변형 이미지에 대한 상기 사용자의 퍼스널 컬러를 인식하는 단계;를 포함할 수 있다.
여기서, 상기 웜/쿨 인식 단계는, 미리 설정된 컬러 페어를 기반으로 상기 미리 설정된 영역에 2개의 컬러를 표시하고, 상기 미리 설정된 영역에 표시된 2개의 컬러 중에서 상기 사용자에 의해 선택된 정보를 기반으로 상기 웜/쿨 테스트를 수행하는 것으로 이루어질 수 있다.
여기서, 상기 계절 인식 단계는, 상기 웜/쿨 인식 단계의 결과를 토대로 선택된 컬러 세트를 기반으로 상기 미리 설정된 영역에 1개의 컬러를 표시하고, 상기 미리 설정된 영역에 표시된 1개의 컬러에 대해 상기 사용자에 의해 선택된 정보를 기반으로 상기 계절 테스트를 수행하는 것으로 이루어질 수 있다.
여기서, 상기 상세 타입 인식 단계는, 상기 웜/쿨 인식 단계의 결과, 및 상기 계절 인식 단계의 결과를 토대로 선택된 컬러 세트를 기반으로 상기 미리 설정된 영역에 3개의 컬러를 표시하고, 상기 미리 설정된 영역에 표시된 3개의 컬러 중에서 상기 사용자에 의핸 선택된 정보를 기반으로 상기 상세 타입 테스트를 수행하는 것으로 이루어질 수 있다.
여기서, 상기 미리 설정된 영역은, 상기 변형 이미지의 복수개의 서브 영역 중에서 상기 사용자에 의해 선택된 적어도 하나의 영역일 수 있다.
상기의 기술적 과제를 달성하기 위한 본 발명의 바람직한 실시예에 따른 퍼스널 컬러 인식 장치는, 사용자의 퍼스널 컬러를 인식하는 장치로서, 사용자의 퍼스널 컬러를 인식하기 위한 하나 이상의 프로그램을 저장하는 메모리; 및 상기 메모리에 저장된 상기 하나 이상의 프로그램에 따라 사용자의 퍼스널 컬러를 인식하기 위한 동작을 수행하는 하나 이상의 프로세서;를 포함하며, 상기 프로세서는, 퍼스널 컬러의 인식 대상인 사용자의 얼굴을 포함하는 대상 이미지를 획득하고, 상기 대상 이미지를 기반으로, 서로 다른 밝기를 가지는 복수개의 변형 이미지를 획득하며, 복수개의 상기 변형 이미지 각각을 기반으로, 상기 변형 이미지의 미리 설정된 영역에 미리 설정된 적어도 하나의 컬러를 표시하고, 상기 미리 설정된 영역에 표시된 적어도 하나의 컬러를 토대로 상기 사용자에 의해 선택된 정보를 기반으로 상기 변형 이미지에 대한 상기 사용자의 퍼스널 컬러를 인식하며, 복수개의 상기 변형 이미지 각각에 대한 상기 사용자의 퍼스널 컬러를 기반으로 퍼스널 컬러 정보를 표시한다.
본 발명의 바람직한 실시예에 따른 퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램에 의하면, 사용자의 반복적인 컬러 선택에 의해 사용자의 퍼스널 컬러를 인식함으로써, 사용자의 퍼스널 컬러를 보다 편리하고 정확하게 검출할 수 있다.
또한, 본 발명의 바람직한 실시예에 따른 퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램에 의하면, 주변 환경(밝은 환경, 어두운 환경 등)별로 사용자의 반복적인 컬러 선택에 의해 사용자의 퍼스널 컬러를 인식함으로써, 주변 환경별로 적합한 사용자의 퍼스널 컬러를 검출할 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 바람직한 실시예에 따른 퍼스널 컬러 인식 장치를 설명하기 위한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 퍼스널 컬러 인식 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 퍼스널 컬러의 인식 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 웜/쿨 테스트의 수행 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 웜/쿨 테스트의 수행 결과를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 계절 테스트의 수행 과정을 설명하기 위한 도면이다.
도 7 및 도 8은 본 발명의 일 실시예에 따른 계절 테스트의 수행 결과를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 계절 테스트의 수행 일례를 나타내는 도면이다.
도 10은 본 발명의 일 실시예에 따른 상세 타입 테스트의 수행 과정을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따른 상세 타입 테스트의 수행 결과를 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 상세 타입 테스트의 수행 결과를 표시하는 일례를 설명하기 위한 도면으로, 도 12의 (a)는 상세 타입 표시 형식의 일례를 나타내고, 도 12의 (b)는 제A 컬러 세트 상세 타입일 때의 표시 일례를 나타내며, 도 12의 (c)는 제B 컬러 세트 상세 타입일 때의 표시 일례를 나타내고, 도 12의 (d)는 제C 컬러 세트 상세 타입일 때의 표시 일례를 나타낸다.
도 13은 본 발명의 일 실시예에 따른 상세 타입 테스트의 수행 일례를 나타내는 도면이다.
도 14는 본 발명의 일 실시예에 따른 퍼스널 컬러 정보의 표시 일례를 나타내는 도면이다.
도 15는 본 발명의 다른 실시예에 따른 퍼스널 컬러 인식 방법을 설명하기 위한 흐름도이다.
도 16은 본 발명의 다른 실시예에 따른 복수개의 변형 이미지 획득 과정을 설명하기 위한 도면이다.
도 17은 본 발명의 다른 실시예에 따른 딥러닝 기반 이미지 변환 네트워크를 이용한 복수개의 변형 이미지 획득 과정을 설명하기 위한 도면이다
도 18은 도 17에 도시한 딥러닝 기반 이미지 변환 네트워크의 학습 과정을 설명하기 위한 도면이다.
도 19는 본 발명의 다른 실시예에 따른 퍼스널 커러의 인식 과정을 설명하기 위한 도면이다.
도 20은 본 발명의 다른 실시예에 따른 퍼스널 컬러 정보의 표시 일례를 나타내는 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 "제1", "제2" 등의 용어는 하나의 구성 요소를 다른 구성 요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예컨대, 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
본 명세서에서 각 단계들에 있어 식별부호(예컨대, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 명세서에서, "가진다", "가질 수 있다", "포함한다" 또는 "포함할 수 있다" 등의 표현은 해당 특징(예컨대, 수치, 기능, 동작, 또는 부품 등의 구성 요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
이하에서 첨부한 도면을 참조하여 본 발명에 따른 퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램의 바람직한 실시예에 대해 상세하게 설명한다.
먼저, 도 1을 참조하여 본 발명의 바람직한 실시예에 따른 퍼스널 컬러 인식 장치에 대하여 설명한다.
도 1은 본 발명의 바람직한 실시예에 따른 퍼스널 컬러 인식 장치를 설명하기 위한 블록도이다.
도 1을 참조하면, 본 발명의 바람직한 실시예에 따른 퍼스널 컬러 인식 장치(100)는 사용자의 반복적인 컬러 선택에 의해 사용자의 퍼스널 컬러를 인식할 수 있다. 여기서, 퍼스널 컬러는 사용자의 피부톤과 가장 어울리는 컬러를 말한다. 이에 따라, 본 발명은 사용자의 퍼스널 컬러를 보다 편리하고 정확하게 검출할 수 있다.
또한, 퍼스널 컬러 인식 장치(100)는 주변 환경(밝은 환경, 어두운 환경 등)별로 사용자의 반복적인 컬러 선택에 의해 사용자의 퍼스널 컬러를 인식할 수 있다. 이에 따라, 본 발명은 주변 환경별로 적합한 사용자의 퍼스널 컬러를 검출할 수 있다.
이를 위해, 퍼스널 컬러 인식 장치(100)는 하나 이상의 프로세서(110), 컴퓨터 판독 가능한 저장 매체(130) 및 통신 버스(150)를 포함할 수 있다.
프로세서(110)는 퍼스널 컬러 인식 장치(100)가 동작하도록 제어할 수 있다. 예컨대, 프로세서(110)는 컴퓨터 판독 가능한 저장 매체(130)에 저장된 하나 이상의 프로그램(131)을 실행할 수 있다. 하나 이상의 프로그램(131)은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 컴퓨터 실행 가능 명령어는 프로세서(110)에 의해 실행되는 경우 퍼스널 컬러 인식 장치(100)로 하여금 사용자의 퍼스널 컬러를 인식하기 위한 동작을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능한 저장 매체(130)는 사용자의 퍼스널 컬러를 인식하기 위한 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능한 저장 매체(130)에 저장된 프로그램(131)은 프로세서(110)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능한 저장 매체(130)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 퍼스널 컬러 인식 장치(100)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(150)는 프로세서(110), 컴퓨터 판독 가능한 저장 매체(130)를 포함하여 퍼스널 컬러 인식 장치(100)의 다른 다양한 컴포넌트들을 상호 연결한다.
퍼스널 컬러 인식 장치(100)는 또한 하나 이상의 입출력 장치를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(170) 및 하나 이상의 통신 인터페이스(190)를 포함할 수 있다. 입출력 인터페이스(170) 및 통신 인터페이스(190)는 통신 버스(150)에 연결된다. 입출력 장치(도시하지 않음)는 입출력 인터페이스(170)를 통해 퍼스널 컬러 인식 장치(100)의 다른 컴포넌트들에 연결될 수 있다.
그러면, 도 2 내지 도 14를 참조하여 본 발명의 일 실시예에 따른 퍼스널 컬러 인식 방법에 대하여 설명한다.
도 2는 본 발명의 일 실시예에 따른 퍼스널 컬러 인식 방법을 설명하기 위한 흐름도이고, 도 3은 본 발명의 일 실시예에 따른 퍼스널 컬러의 인식 과정을 설명하기 위한 도면이며, 도 4는 본 발명의 일 실시예에 따른 웜/쿨 테스트의 수행 과정을 설명하기 위한 도면이고, 도 5는 본 발명의 일 실시예에 따른 웜/쿨 테스트의 수행 결과를 설명하기 위한 도면이며, 도 6은 본 발명의 일 실시예에 따른 계절 테스트의 수행 과정을 설명하기 위한 도면이고, 도 7 및 도 8은 본 발명의 일 실시예에 따른 계절 테스트의 수행 결과를 설명하기 위한 도면이며, 도 9는 본 발명의 일 실시예에 따른 계절 테스트의 수행 일례를 나타내는 도면이고, 도 10은 본 발명의 일 실시예에 따른 상세 타입 테스트의 수행 과정을 설명하기 위한 도면이며, 도 11은 본 발명의 일 실시예에 따른 상세 타입 테스트의 수행 결과를 설명하기 위한 도면이고, 도 12는 본 발명의 일 실시예에 따른 상세 타입 테스트의 수행 결과를 표시하는 일례를 설명하기 위한 도면으로, 도 12의 (a)는 상세 타입 표시 형식의 일례를 나타내고, 도 12의 (b)는 제A 컬러 세트 상세 타입일 때의 표시 일례를 나타내며, 도 12의 (c)는 제B 컬러 세트 상세 타입일 때의 표시 일례를 나타내고, 도 12의 (d)는 제C 컬러 세트 상세 타입일 때의 표시 일례를 나타내며, 도 13은 본 발명의 일 실시예에 따른 상세 타입 테스트의 수행 일례를 나타내는 도면이고, 도 14는 본 발명의 일 실시예에 따른 퍼스널 컬러 정보의 표시 일례를 나타내는 도면이다.
도 2를 참조하면, 퍼스널 컬러 인식 장치(100)의 프로세서(110)는 퍼스널 컬러의 인식 대상인 사용자의 얼굴을 포함하는 대상 이미지를 획득할 수 있다(S110).
여기서, 퍼스널 컬러는 웜-봄-트루(Warm-Spring-True, WST), 웜-봄-라이트(Warm-Spring-Light, WSL), 웜-봄-브라이트(Warm-Spring-Bright, WSB), 웜-가을-트루(Warm-Autumn-True, WAT), 웜-가을-뮤트(Warm-Autumn-Mute, WAM), 웜-가을-딥(Warm-Autumn-Deep, WAD), 쿨-여름-트루(Cool-Summer-True, CST), 쿨-여름-라이트(Cool-Summer-Light, CSL), 쿨-여름-뮤트(Cool-Summer-Mute, CSM), 쿨-겨울-트루(Cool-Winter-True, CWT), 쿨-겨울-브라이트(Cool-Winter-Bright, CWB), 및 쿨-겨울-딥(Cool-Winter-Deep, CWD) 중 하나일 수 있다.
그런 다음, 프로세서(110)는 대상 이미지를 기반으로, 대상 이미지의 미리 설정된 영역에 미리 설정된 적어도 하나의 컬러를 표시하고, 미리 설정된 영역에 표시된 적어도 하나의 컬러를 토대로 사용자에 의해 선택된 정보를 기반으로 사용자의 퍼스널 컬러를 인식할 수 있다(S120).
여기서, 미리 설정된 영역은 대상 이미지의 복수개의 서브 영역 중에서 사용자에 의해 선택된 적어도 하나의 영역일 수 있다. 즉, 프로세서(110)는 컬러를 표시할 영역으로 대상 이미지에서 획득된 "입술", "볼", "눈", "머리카락" 등과 같은 복수개의 서브 영역 중에서 사용자가 선택한 하나 이상의 영역을 설정할 수 있다. 예컨대, 사용자는 자신의 퍼스널 컬러를 확인하는데 이용되는 영역으로 "입술"을 선택할 수 있다. 또한, 사용자은 자신의 퍼스널 컬러를 확인하는데 이용되는 영역으로 "입술"과 "머리카락"을 동시에 선택할 수도 있다. 이때, 사용자에 의해 특정 영역이 선택되지 않으면, 프로세서(110)는 컬러를 표시할 영역으로 "입술" 등과 같이 미리 설정된 디폴트 영역을 설정할 수 있다.
즉, 프로세서(110)는 퍼스널 컬러별로 테스트 컬러가 저장되어 있는 퍼스널 컬러 DB를 이용하여, 도 3에 도시된 바와 같이, 계층적으로 수행되는 테스트인 "1차 웜/쿨 테스트 -> 2차 계절 테스트 -> 3차 상세 타입 테스트"를 통해 사용자의 퍼스널 컬러를 인식할 수 있다.
- 1차 테스트 : 웜/쿨 인식 단계
프로세서(110)는 대상 이미지를 기반으로, 웜/쿨 테스트를 수행하여 웜/쿨 테스트의 수행 결과를 토대로 사용자가 웜톤인지 쿨톤인지를 인식할 수 있다.
즉, 프로세서(110)는 미리 설정된 컬러 페어를 기반으로 미리 설정된 영역에 2개의 컬러를 표시하고, 미리 설정된 영역에 표시된 2개의 컬러 중에서 사용자에 의해 선택된 정보를 기반으로 웜/쿨 테스트를 수행할 수 있다.
예컨대, 프로세서(110)는 도 4에 도시된 바와 같이, 화면(SCR)에 대상 이미지를 표시하고, "컬러 1(C_1)"과 "컬러 2(C_2)"를 표시할 수 있다. 이후, 프로세서(110)는 사용자에 의해 "컬러 1(C_1)"이 선택되면 해당 컬러 1(C_1)을 미리 설정된 영역에 표시하고, 사용자에 의해 "컬러 2(C_2)"이 선택되면 해당 컬러 2(C_2)를 미리 설정된 영역에 표시할 수 있다. 그러면, 사용자는 자신과 어울리는 컬러가 표시된 상태에서 "선택하기(B_S)"를 선택하여 2개의 컬러 중 하나의 컬러를 선택할 수 있다.
보다 자세하게 설명하면, 프로세서(110)는 제1 컬러 페어 및 제2 컬러 페어를 기반으로, 서로 다른 컬러로 이루어지는 8개의 제1 컬러 페어를 토대로 8회의 반복적인 웜/쿨 테스트를 수행하고, 서로 다른 컬러로 이루어지는 7개의 제2 컬러 페어를 토대로 7회의 웜/쿨 테스트를 수행하며, 총 15회의 웜/쿨 테스트(제1 컬러 페어를 이용하여 8회의 웜/쿨 테스트 + 제2 컬러 페어를 이용하여 7회의 웜/쿨 테스트)의 수행 결과를 기반으로 사용자가 웜톤인지 쿨톤인지를 인식할 수 있다.
여기서, 제1 컬러 페어는 웜-봄-트루(WST)에 속하는 컬러와 쿨-여름-트루(CST)에 속하는 컬러가 쌍으로 이루어질 수 있다. 그리고, 제2 컬러 페어는 웜-가을-트루(WAT)에 속하는 컬러와 쿨-겨울-트루(CWT)에 속하는 컬러가 쌍으로 이루어질 수 있다.
그리고, 프로세서(110)는 각 컬러 페어별 사용자의 선택 값(선택 시 +1점)을 카운트하여, 도 5에 도시된 바와 같은 웜/쿨 테스트의 수행 결과를 획득할 수 있다.
그리고, 프로세서(110)는 웜/쿨 테스트의 수행 결과를 토대로 사용자가 웜톤인지 쿨톤인지를 인식하고, 해당 톤(웜톤 또는 쿨톤)에 속하는 확률 값을 획득할 수 있다. 예컨대, 사용자가 제1 컬러 페어를 기반으로 하는 웜/쿨 테스트에서 "웜-봄-트루(WST)"를 "6번" 선택하고 제2 컬러 페어를 기반으로 하는 웜/쿨 테스트에서 "웜-가을-트루(WAT)"를 "5번" 선택한 경우, 프로세서(110)는 "웜-봄-트루(WST)와 웜-가을-트루(WAT)의 합"이 "11"이므로, 해당 사용자를 "웜톤(W)"으로 인식하고, 웜톤(W)에 속하는 확률 값으로 "70%"를 획득할 수 있다. 반면, 사용자가 제1 컬러 페어를 기반으로 하는 웜/쿨 테스트에서 "웜-봄-트루(WST)"를 "2번" 선택하고 제2 컬러 페어를 기반으로 하는 웜/쿨 테스트에서 "웜-가을-트루(WAT)"를 "3번" 선택한 경우, 프로세서(110)는 "웜-봄-트루(WST)와 웜-가을-트루(WAT)의 합"이 "5"이므로, 해당 사용자를 "쿨톤(C)"으로 인식하고, 쿨톤(C)에 속하는 확률 값으로 "63%"를 획득할 수 있다.
- 2차 테스트 : 계절 인식 단계
프로세서(110)는 대상 이미지, 및 웜/쿨 인식 단계의 결과를 기반으로, 계절 테스트를 수행하여 계절 테스트의 수행 결과를 토대로 사용자에 해당하는 계절을 인식할 수 있다.
즉, 프로세서(110)는 웜/쿨 인식 단계의 결과를 토대로 선택된 컬러 세트를 기반으로 미리 설정된 영역에 1개의 컬러를 표시하고, 미리 설정된 영역에 표시된 1개의 컬러에 대해 사용자에 의해 선택된 정보를 기반으로 계절 테스트를 수행할 수 있다.
예컨대, 프로세서(110)는 도 6에 도시된 바와 같이, 화면(SCR)에 대상 이미지를 표시하고, "컬러(C)"를 표시할 수 있다. 이후, 프로세서(110)는 사용자에 의해 "컬러(C)"가 선택되면 해당 컬러(C)를 미리 설정된 영역에 표시할 수 있다. 그러면, 사용자는 해당 컬러(C)가 자신과 어울리면 "어울려요(B_Y)"를 선택하고, 해당 컬러(C)가 자신과 어울리지 않으면 "안어울려요(B_N)"를 선택할 수 있다.
보다 자세하게 설명하면, 프로세서(110)는 제A 컬러 세트, 및 제B 컬러 세트를 기반으로, 서로 다른 컬러로 이루어지는 7개의 제A 컬러 세트를 토대로 7회의 반복적인 계절 테스트를 수행하고, 서로 다른 컬러로 이루어지는 8개의 제B 컬러 세트를 토대로 8회의 반복적인 계절 테스트를 수행하며, 총 15회의 계절 테스트(제A 컬러 세트를 이용하여 7회의 계절 테스트 + 제B 컬러 세트를 이용하여 8회의 계절 테스트)의 수행 결과를 기반으로 사용자에 해당하는 계절을 인식할 수 있다. 이때, 프로세서(110)는 제A 컬러 세트와 제B 컬러 세트가 번갈아 가며 노출된 총 15회의 계절 테스트(제A 컬러 세트 기반 계절 테스트 -> 제B 컬러 세트 기반 계절 테스트 -> 제A 컬러 세트 기반 계절 테스트 -> 제B 컬러 세트 기반 계절 테스트 -> …)를 수행할 수 있다.
여기서, 웜/쿨 인식 단계의 결과가 웜톤이면, 제A 컬러 세트는 웜-봄-트루(WST)에 속하는 컬러로 이루어지고, 제B 컬러 세트는 웜-가을-트루(WAT)에 속하는 컬러로 이루어질 수 있다. 반면, 웜/쿨 인식 단계의 결과가 쿨톤이면, 제A 컬러 세트는 쿨-여름-트루(CST)에 속하는 컬러로 이루어지고, 제B 컬러 세트는 쿨-겨울-트루(CWT)에 속하는 컬러로 이루어질 수 있다.
그리고, 프로세서(110)는 각 컬러 세트별 사용자의 선택 값(어울려요(Good) 선택 시 +1점 / 안어울려요(Bad) 선택 시 -1점)을 카운트하여, 도 7 및 도 8에 도시된 바와 같은 계절 테스트의 수행 결과를 획득할 수 있다.
그리고, 프로세서(110)는 계절 테스트의 수행 결과를 토대로 사용자의 계절을 인식하고, 해당 계절에 속하는 확률 값을 획득할 수 있다. 예컨대, 프로세서(110)는 계절 테스트의 최종 점수인 "제A 컬러 세트에 대한 점수 - 제B 컬러 세트에 대한 점수"가 "+"이면 제A 계절(봄 또는 여름)로 판단하고, 계절 테스트의 최종 점수인 "제A 컬러 세트에 대한 점수 - 제B 컬러 세트에 대한 점수"가 "-"이면 제B 계절(가을 또는 겨울)로 판단할 수 있다. 예컨대, 사용자가 제A 컬러 세트를 기반으로 하는 계절 테스트에서 "어울려요(Good)"를 "6번" 선택하고 제B 컬러 세트를 기반으로 하는 계절 테스트에서 "어울려요(Good)"를 "1번" 선택한 경우, 프로세서(110)는 "제A 컬러 세트에 대한 점수"인 "5점"과 "제B 컬러 세트에 대한 점수"인 "-6점"을 토대로 획득한 최종 점수가 "11점 = 5점 - (-6점)"이므로, 해당 사용자의 계절을 "봄 또는 여름"으로 인식하고, "봄 또는 여름"에 속하는 확률 값으로 "81%"를 획득할 수 있다.
즉, 프로세서(110)는 도 9에 도시된 바와 같이, 1차 웜/쿨 테스트의 수행 결과가 "웜톤(W)"인 사용자에 대한 2차 계절 테스트의 수행 결과를 토대로 해당 사용자의 계절을 판단할 수 있다. 제A 컬러 세트에 대한 점수가 "-5점"이고 제B 컬러 세트에 대한 점수가 "-6점"이면, 프로세서(110)는 최종 점수가 "1점"이므로 "봄(S)"을 해당 사용자의 계절로 판단할 수 있다. 제A 컬러 세트에 대한 점수가 "-7점"이고 제B 컬러 세트에 대한 점수가 "-6점"이면, 프로세서(110)는 최종 점수가 "-1점"이므로 "가을(A)"을 해당 사용자의 계절로 판단할 수 있다. 제A 컬러 세트에 대한 점수가 "7점"이고 제B 컬러 세트에 대한 점수가 "8점"이면, 프로세서(110)는 최종 점수가 "-1점"이므로 "가을(A)"을 해당 사용자의 계절로 판단할 수 있다.
- 3차 테스트 : 상세 타입 인식 단계
프로세서(110)는 대상 이미지, 웜/쿨 인식 단계의 결과, 및 계절 인식 단계의 결과를 기반으로, 상세 타입 테스트를 수행하여 상세 타입 테스트의 수행 결과를 토대로 사용자에 해당하는 상세 타입을 인식할 수 있다.
즉, 프로세서(110)는 웜/쿨 인식 단계의 결과, 및 계절 인식 단계의 결과를 토대로 선택된 컬러 세트를 기반으로 미리 설정된 영역에 3개의 컬러를 표시하고, 미리 설정된 영역에 표시된 3개의 컬러 중에서 사용자에 의핸 선택된 정보를 기반으로 상세 타입 테스트를 수행할 수 있다.
예컨대, 프로세서(110)는 도 10에 도시된 바와 같이, 화면(SCR)에 대상 이미지를 표시하고, "컬러 1(C_1)", "컬러 2(C_2)", 및 "컬러 3(C_3)"을 표시할 수 있다. 이후, 프로세서(110)는 사용자에 의해 "컬러 1(C_1)"이 선택되면 해당 컬러 1(C_1)을 미리 설정된 영역에 표시하고, 사용자에 의해 "컬러 2(C_2)"이 선택되면 해당 컬러 2(C_2)를 미리 설정된 영역에 표시하며, 사용자에 의해 "컬러 3(C_3)"이 선택되면 해당 컬러 3(C_3)을 미리 설정된 영역에 표시할 수 있다. 그러면, 사용자는 자신과 어울리는 컬러가 표시된 상태에서 "선택하기(B_S)"를 선택하여 3개의 컬러 중 하나의 컬러를 선택할 수 있다.
보다 자세하게 설명하면, 프로세서(110)는 제A 컬러 세트, 제B 컬러 세트, 및 제C 컬러 세트를 기반으로, 서로 다른 컬러 페어로 이루어지는 4개의 컬러 페어를 토대로 4회의 반복적인 상세 타입 테스트를 수행하고, 총 4회의 상세 타입 테스트의 수행 결과를 기반으로 사용자에 해당하는 상세 타입을 인식할 수 있다.
여기서, 컬러 페어는 제A 컬러 세트에서 랜덤하게 선택된 컬러, 제B 컬러 세트에서 랜덤하게 선택된 컬러, 및 제C 컬러 세트에서 랜덤하게 선택된 컬러로 이루어지는 총 3개의 컬러가 쌍으로 이루어질 수 있다.
이때, 웜/쿨 인식 단계의 결과가 웜톤이고, 계절 인식 단계의 결과가 봄톤이면, 제A 컬러 세트는 웜-봄-트루(WST)에 속하는 컬러로 이루어지고, 제B 컬러 세트는 웜-봄-라이트(WSL)에 속하는 컬러로 이루어지며, 제C 컬러 세트는 웜-봄-브라이트(WSB)에 속하는 컬러로 이루어질 수 있다. 그리고, 웜/쿨 인식 단계의 결과가 웜톤이고, 계절 인식 단계의 결과가 가을톤이면, 제A 컬러 세트는 웜-가을-트루(WAT)에 속하는 컬러로 이루어지고, 제B 컬러 세트는 웜-가을-뮤트(WAM)에 속하는 컬러로 이루어지며, 제C 컬러 세트는 웜-가을-딥(WAD)에 속하는 컬러로 이루어질 수 있다. 그리고, 웜/쿨 인식 단계의 결과가 쿨톤이고, 계절 인식 단계의 결과가 여름톤이면, 제A 컬러 세트는 쿨-여름-트루(CST)에 속하는 컬러로 이루어지고, 제B 컬러 세트는 쿨-여름-라이트(CSL)에 속하는 컬러로 이루어지며, 제C 컬러 세트는 쿨-여름-뮤트(CSM)에 속하는 컬러로 이루어질 수 있다. 그리고, 웜/쿨 인식 단계의 결과가 쿨톤이고, 계절 인식 단계의 결과가 겨울톤이면, 제A 컬러 세트는 쿨-겨울-트루(CWT)에 속하는 컬러로 이루어지고, 제B 컬러 세트는 쿨-겨울-브라이트(CWB)에 속하는 컬러로 이루어지며, 제C 컬러 세트는 쿨-겨울-딥(CWD)에 속하는 컬러로 이루어질 수 있다.
그리고, 프로세서(110)는 각 컬러 페어별 사용자의 선택 값(선택 시 +1점)을 카운트하여, 도 11에 도시된 바와 같은 상세 타입 테스트의 수행 결과를 획득할 수 있다.
그리고, 프로세서(110)는 상세 타입 테스트의 수행 결과를 토대로 사용자의 상세 타입을 인식하고, 해당 상세 타입에 속하는 확률 값을 획득할 수 있다. 이때, 프로세서(110)는 2번 이상 선택된 컬러 세트를 해당 사용자의 상세 타입으로 판단할 수 있다. 또한, 선택된 횟수가 동일한 컬러 세트가 복수개 존재하는 경우, 프로세서(110)는 미리 설정된 우선순위(제A 컬러 세트 > 제B 컬러 세트 > 제C 컬러세트)에 따라 상세 타입을 판단할 수 있다.
그리고, 프로세서(110)는 사용자의 상세 타입을 표시하는 경우, 도 12의 (a)에 도시된 바와 같이, 우선순위가 가장 높은 제A 컬러 세트에 대응되는 상세 타입을 가운데에 표시하고, 제B 컬러 세트에 대응되는 상세 타입은 좌측에 표시하며, 제C 컬러 세트에 대응되는 상세 타입은 우측에 표시할 수 있다. 이때, 프로세서(110)는 사용자의 상세 타입이 "제A 컬러 세트에 대응되는 상세 타입"인 경우 그에 해당하는 확률 값에 상관없이 가운데에 상세 타입을 표시할 수 있다. 예컨대, 사용자의 상세 타입이 "제A 컬러 세트에 대응되는 상세 타입"이면, 프로세서(110)는 해당 확률 값(68%, 79%, 90%)에 상관없이 도 12의 (b)에 도시된 바와 같이, 가운데에 상세 타입을 표시할 수 있다. 반면, 프로세서(110)는 사용자의 상세 타입이 "제B 컬러 세트에 대응되는 상세 타입 또는 제C 컬러 세트에 대응되는 상세 타입"인 경우 그에 해당하는 확률 값을 토대로 상세 타입을 표시할 수 있다. 예컨대, 사용자의 상세 타입이 "제B 컬러 세트에 대응되는 상세 타입"이고 해당 확률 값이 "79%"이면, 프로세서(110)는 도 12의 (c)에 도시된 바와 같이, 좌측 중간에 상세 타입을 표시할 수 있다. 그리고, 사용자의 상세 타입이 "제C 컬러 세트에 대응되는 상세 타입"이고 해당 확률 값이 "90%"이면, 프로세서(110)는 도 12의 (d)에 도시된 바와 같이, 우측 오른쪽에 상세 타입을 표시할 수 있다.
즉, 프로세서(110)는 도 13에 도시된 바와 같이, 1차 웜/쿨 테스트의 수행 결과가 "웜톤(W)"이고 2차 계절 테스트의 수행 결과가 "봄톤(S)"인 사용자에 대한 3차 상세 타입 테스트의 수행 결과를 토대로 해당 사용자의 상세 타입을 판단할 수 있다. 제A 컬러 세트에 대한 선택 값이 "1"이고, 제B 컬러 세트에 대한 선택 값이 "1"이며, 제C 컬러 세트에 대한 선택 값이 "2"이면, 프로세서(110)는 "유저 1"의 상세 타입을 "브라이트(B)"로 인식하고, 브라이트(B)에 속하는 확률 값으로 "68%"를 획득할 수 있다. 제A 컬러 세트에 대한 선택 값이 "2"이고, 제B 컬러 세트에 대한 선택 값이 "2"이며, 제C 컬러 세트에 대한 선택 값이 "0"이면, 프로세서(110)는 "유저 2"의 상세 타입을 "트루(T)"로 인식하고, 트루(T)에 속하는 확률 값으로 "68%"로 획득할 수 있다. 제A 컬러 세트에 대한 선택 값이 "0"이고, 제B 컬러 세트에 대한 선택 값이 "2"이며, 제C 컬러 세트에 대한 선택 값이 "2"이면, 프로세서(110)는 "유저 3"의 상세 타입을 "라이트(L)"로 인식하고, 라이트(L)에 속하는 확률 값으로 "68%"를 획득할 수 있다. 제A 컬러 세트에 대한 선택 값이 "1"이고, 제B 컬러 세트에 대한 선택 값이 "0"이며, 제C 컬러 세트에 대한 선택 값이 "3"이면, 프로세서(110)는 "유저 4"의 상세 타입을 "브라이트(B)"로 인식하고, 브라이트(B)에 속하는 확률 값으로 "79%"로 판단할 수 있다. 제A 컬러 세트에 대한 선택 값이 "4"이고, 제B 컬러 세트에 대한 선택 값이 "0"이며, 제C 컬러 세트에 대한 선택 값이 "0"이면, 프로세서(110)는 "유저 5"의 상세 타입을 "트루(T)"로 인식하고, 트루(T)에 속하는 확률 값으로 "90%"로 판단할 수 있다.
- 퍼스널 컬러 인식 단계
프로세서(110)는 웜/쿨 인식 단계의 결과, 계절 인식 단계의 결과, 및 상세 타입 인식 단계의 결과를 기반으로, 사용자의 퍼스널 컬러를 인식할 수 있다.
이후, 프로세서(110)는 사용자의 퍼스널 컬러를 기반으로 퍼스널 컬러 정보를 표시할 수 있다(S130).
예컨대, 프로세서(110)는 도 14에 도시된 바와 같이, 화면(SCR)에 해당 사용자의 퍼스널 컬러 정보(PCI)를 표시할 수 있다.
그러면, 도 15 내지 도 20을 참조하여 본 발명의 다른 실시예에 따른 퍼스널 컬러 인식 방법에 대하여 설명한다.
도 15는 본 발명의 다른 실시예에 따른 퍼스널 컬러 인식 방법을 설명하기 위한 흐름도이고, 도 16은 본 발명의 다른 실시예에 따른 복수개의 변형 이미지 획득 과정을 설명하기 위한 도면이며, 도 17은 본 발명의 다른 실시예에 따른 딥러닝 기반 이미지 변환 네트워크를 이용한 복수개의 변형 이미지 획득 과정을 설명하기 위한 도면이고, 도 18은 도 17에 도시한 딥러닝 기반 이미지 변환 네트워크의 학습 과정을 설명하기 위한 도면이며, 도 19는 본 발명의 다른 실시예에 따른 퍼스널 커러의 인식 과정을 설명하기 위한 도면이고, 도 20은 본 발명의 다른 실시예에 따른 퍼스널 컬러 정보의 표시 일례를 나타내는 도면이다.
본 실시에에 따른 퍼스널 컬러 인식 방법은 앞선 실시예에 따른 퍼스널 컬러 인식 방법과 실질적으로 동일하므로, 차이가 있는 부분에 대해서만 이하 설명한다.
도 15를 참조하면, 퍼스널 컬러 인식 장치(100)의 프로세서(110)는 퍼스널 컬러의 인식 대상인 사용자의 얼굴을 포함하는 대상 이미지를 획득할 수 있다(S210).
그런 다음, 프로세서(110)는 대상 이미지를 기반으로, 서로 다른 밝기를 가지는 복수개의 변형 이미지를 획득할 수 있다(S220).
즉, 프로세서(110)는 도 16에 도시된 바와 같이, 대상 이미지를 기반으로, 밝은 환경에서 촬영된 이미지에 대응되는 제1 변형 이미지, 및 어두운 환경에서 촬영된 이미지에 대응되는 제2 변형 이미지를 획득할 수 있다.
이때, 프로세서(110)는 도 17에 도시된 바와 같이, 미리 학습되어 구축된 딥러닝 기반 이미지 변환 네트워크를 이용하여, 대상 이미지를 기반으로 제1 변형 이미지와 제2 변형 이미지를 획득할 수 있다. 즉, 프로세서(110)는 대상 이미지를 딥러닝 기반 이미지 변환 네트워크에 입력하고, 딥러닝 기반 이미지 변환 네트워크의 출력을 토대로 제1 변형 이미지와 제2 변형 이미지를 획득할 수 있다. 여기서, 딥러닝 기반 이미지 변환 네트워크는 도 18에 도시된 바와 같이, 얼굴을 포함하는 기본 이미지, 기본 이미지에 대응되는 밝은 환경 이미지, 및 기본 이미지에 대응되는 어두운 환경 이미지를 포함하는 학습 데이터를 이용하여, 기본 이미지를 입력 값으로 하고, 밝은 환경 이미지와 어두운 환경 이미지를 정답 레이블로 하여 미리 학습되어 구축될 수 있다.
또한, 프로세서(110)는 대상 이미지의 밝기 값을 토대로 대상 이미지가 밝은 환경에서 촬영된 이미지인지 어두운 환경에서 촬영된 이미지인지 검출할 수 있다. 그리고, 대상 이미지가 밝은 환경에서 촬영된 이미지인 것으로 검출되면, 프로세서(110)는 대상 이미지를 제1 변형 이미지로 획득하고, 미리 학습되어 구축된 제1 딥러닝 기반 이미지 변환 네트워크에 대상 이미지를 입력하며, 제1 딥러닝 기반 이미지 변환 네트워크의 출력을 토대로 어두운 환경에 대응되는 제2 변형 이미지를 획득할 수 있다. 반면, 대상 이미지가 어두운 환경에서 촬영된 이미지인 것으로 검출되면, 프로세서(110)는 대상 이미지를 제2 변형 이미지로 획득하고, 미리 학습되어 구축된 제2 딥러닝 기반 이미지 변환 네트워크에 대상 이미지를 입력하며, 제2 딥러닝 기반 이미지 변환 네트워크의 출력을 토대로 밝은 환경에 대응되는 제1 변형 이미지를 획득할 수 있다. 즉, 밝은 환경 이미지를 입력으로 하고 어두운 환경 이미지를 출력으로 하는 제1 딥러닝 기반 이미지 변환 네트워크, 및 어두운 환경 이미지를 입력으로 하고 밝은 환경 이미지를 출력으로 하는 제2 딥러닝 기반 이미지 변환 네트워크 각각을 학습 데이터를 이용하여 미리 학습하여 구축한 상태에서, 프로세서(110)는 대상 이미지가 밝은 환경 이미지인지 어두운 환경 이미지인지를 검출하고, 검출 결과를 토대로 변형 이미지를 획득하는데 이용될 딥러닝 기반 이미지 변환 네트워크(제1 딥러닝 기반 이미지 변환 네트워크 또는 제2 딥러닝 기반 이미지 변환 네트워크)를 선택할 수 있다.
그런 다음, 프로세서(110)는 복수개의 변형 이미지 각각을 기반으로, 변형 이미지의 미리 설정된 영역에 미리 설정된 적어도 하나의 컬러를 표시하고, 미리 설정된 영역에 표시된 적어도 하나의 컬러를 토대로 사용자에 의해 선택된 정보를 기반으로 변형 이미지에 대한 사용자의 퍼스널 컬러를 인식할 수 있다(S230).
여기서, 미리 설정된 영역은 변형 이미지별로 서로 상이하게 설정될 수 있다. 예컨대, 제1 변형 이미지는 컬러를 표시할 영역으로 사용자의 선택에 의해 "입술"이 설정될 수 있고, 제2 변형 이미지는 컬러를 표시할 영역으로 사용자의 선택에 의해 "볼"이 설정될 수 있다. 이때, 사용자에 의해 특정 영역이 선택되지 않으면, 프로세서(110)는 변형 이미지별로 미리 설정된 디폴트 영역(제1 변형 이미지는 "입술" / 제2 변형 이미지는 "머리카락")을 컬러를 표시할 영역으로 설정할 수 있다. 물론, 미리 설정된 영역은 변형 이미지와 상관없이 동일한 영역으로 설정될 수도 있다.
즉, 프로세서(110)는 도 19에 도시된 바와 같이, 퍼스널 컬러 DB를 이용하여, 제1 변형 이미지 및 제2 변형 이미지 각각에 대하여, 계층적으로 수행되는 테스트인 "1차 웜/쿨 테스트 -> 2차 계절 테스트 -> 3차 상세 타입 테스트"를 통해 사용자의 퍼스널 컬러를 인식할 수 있다.
- 1차 테스트 : 웜/쿨 인식 단계
프로세서(110)는 변형 이미지를 기반으로, 웜/쿨 테스트를 수행하여 웜/쿨 테스트의 수행 결과를 토대로 변형 이미지에 대해 사용자가 웜톤인지 쿨톤인지를 인식할 수 있다.
- 2차 테스트 : 계절 인식 단계
프로세서(110)는 변형 이미지, 및 웜/쿨 인식 단계의 결과를 기반으로, 계절 테스트를 수행하여 계절 테스트의 수행 결과를 토대로 변형 이미지에 대해 사용자에 해당하는 계절을 인식할 수 있다.
- 3차 테스트 : 상세 타입 인식 단계
프로세서(110)는 변형 이미지, 웜/쿨 인식 단계의 결과, 및 계절 인식 단계의 결과를 기반으로, 상세 타입 테스트를 수행하여 상세 타입 테스트의 수행 결과를 토대로 변형 이미지에 대해 사용자에 해당하는 상세 타입을 인식할 수 있다.
- 퍼스널 컬러 인식 단계
프로세서(110)는 웜/쿨 인식 단계의 결과, 계절 인식 단계의 결과, 및 상세 타입 인식 단계의 결과를 기반으로, 변형 이미지에 대한 사용자의 퍼스널 컬러를 인식할 수 있다.
이후, 프로세서(110)는 복수개의 변형 이미지 각각에 대한 사용자의 퍼스널 컬러를 기반으로 퍼스널 컬러 정보를 표시할 수 있다(S240).
예컨대, 프로세서(110)는 도 20에 도시된 바와 같이, 제1 변형 이미지와 제1 변형 이미지에 대한 해당 사용자의 퍼스널 컬러, 및 제2 변형 이미지 및 제2 변형 이미지에 대한 해당 사용자의 퍼스널 컬러를 포함하는 해당 사용자의 퍼스널 컬러 정보(PCI)를 화면(SCR)에 표시할 수 있다.
본 실시예들에 따른 동작은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능한 저장 매체에 기록될 수 있다. 컴퓨터 판독 가능한 저장 매체는 실행을 위해 프로세서에 명령어를 제공하는데 참여한 임의의 매체를 나타낸다. 컴퓨터 판독 가능한 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조 또는 이들의 조합을 포함할 수 있다. 예컨대, 자기 매체, 광기록 매체, 메모리 등이 있을 수 있다. 컴퓨터 프로그램은 네트워크로 연결된 컴퓨터 시스템 상에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 본 실시예를 구현하기 위한 기능적인(Functional) 프로그램, 코드, 및 코드 세그먼트들은 본 실시예가 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있을 것이다.
본 실시예들은 본 실시예의 기술 사상을 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
< 부호의 설명 >
100 : 퍼스널 컬러 인식 장치,
110 : 프로세서,
130 : 컴퓨터 판독 가능한 저장 매체,
131 : 프로그램,
150 : 통신 버스,
170 : 입출력 인터페이스,
190 : 통신 인터페이스

Claims (12)

  1. 퍼스널 컬러의 인식 대상인 사용자의 얼굴을 포함하는 대상 이미지를 획득하는 단계;
    상기 대상 이미지를 기반으로, 서로 다른 밝기를 가지는 복수개의 변형 이미지를 획득하는 단계;
    복수개의 상기 변형 이미지 각각을 기반으로, 상기 변형 이미지의 미리 설정된 영역에 미리 설정된 적어도 하나의 컬러를 표시하고, 상기 미리 설정된 영역에 표시된 적어도 하나의 컬러를 토대로 상기 사용자에 의해 선택된 정보를 기반으로 상기 변형 이미지에 대한 상기 사용자의 퍼스널 컬러를 인식하는 단계; 및
    복수개의 상기 변형 이미지 각각에 대한 상기 사용자의 퍼스널 컬러를 기반으로 퍼스널 컬러 정보를 표시하는 단계;
    를 포함하는 퍼스널 컬러 인식 방법.
  2. 제1항에서,
    상기 복수개의 변형 이미지 획득 단계는,
    상기 대상 이미지를 기반으로, 밝은 환경에서 촬영된 이미지에 대응되는 제1 변형 이미지, 및 어두운 환경에서 촬영된 이미지에 대응되는 제2 변형 이미지를 획득하는 것으로 이루어지는,
    퍼스널 컬러 인식 방법.
  3. 제2항에서,
    상기 복수개의 변형 이미지 획득 단계는,
    미리 학습되어 구축된 딥러닝 기반 이미지 변환 네트워크를 이용하여, 상기 대상 이미지를 기반으로 상기 제1 변형 이미지와 상기 제2 변형 이미지를 획득하는 것으로 이루어지는,
    퍼스널 컬러 인식 방법.
  4. 제3항에서,
    상기 복수개의 변형 이미지 획득 단계는,
    상기 대상 이미지를 상기 딥러닝 기반 이미지 변환 네트워크에 입력하고, 상기 딥러닝 기반 이미지 변환 네트워크의 출력을 토대로 상기 제1 변형 이미지와 상기 제2 변형 이미지를 획득하는 것으로 이루어지는,
    퍼스널 컬러 인식 방법.
  5. 제4항에서,
    상기 딥러닝 기반 이미지 변환 네트워크는,
    얼굴을 포함하는 기본 이미지, 상기 기본 이미지에 대응되는 밝은 환경 이미지, 및 상기 기본 이미지에 대응되는 어두운 환경 이미지를 포함하는 학습 데이터를 이용하여, 상기 기본 이미지를 입력 값으로 하고, 상기 밝은 환경 이미지와 상기 어두운 환경 이미지를 정답 레이블로 하여 학습되는,
    퍼스널 컬러 인식 방법.
  6. 제1항에서,
    상기 퍼스널 컬러는,
    웜-봄-트루(Warm-Spring-True, WST), 웜-봄-라이트(Warm-Spring-Light, WSL), 웜-봄-브라이트(Warm-Spring-Bright, WSB), 웜-가을-트루(Warm-Autumn-True, WAT), 웜-가을-뮤트(Warm-Autumn-Mute, WAM), 웜-가을-딥(Warm-Autumn-Deep, WAD), 쿨-여름-트루(Cool-Summer-True, CST), 쿨-여름-라이트(Cool-Summer-Light, CSL), 쿨-여름-뮤트(Cool-Summer-Mute, CSM), 쿨-겨울-트루(Cool-Winter-True, CWT), 쿨-겨울-브라이트(Cool-Winter-Bright, CWB), 및 쿨-겨울-딥(Cool-Winter-Deep, CWD) 중 하나인,
    퍼스널 컬러 인식 방법.
  7. 제6항에서,
    상기 퍼스널 컬러 인식 단계는,
    상기 변형 이미지를 기반으로, 웜/쿨 테스트를 수행하여 상기 웜/쿨 테스트의 수행 결과를 토대로 상기 변형 이미지에 대해 상기 사용자가 웜톤인지 쿨톤인지를 인식하는 웜/쿨 인식 단계;
    상기 변형 이미지, 및 상기 웜/쿨 인식 단계의 결과를 기반으로, 계절 테스트를 수행하여 상기 계절 테스트의 수행 결과를 토대로 상기 변형 이미지에 대해 상기 사용자에 해당하는 계절을 인식하는 계절 인식 단계;
    상기 변형 이미지, 상기 웜/쿨 인식 단계의 결과, 및 상기 계절 인식 단계의 결과를 기반으로, 상세 타입 테스트를 수행하여 상기 상세 타입 테스트의 수행 결과를 토대로 상기 변형 이미지에 대해 상기 사용자에 해당하는 상세 타입을 인식하는 상세 타입 인식 단계; 및
    상기 웜/쿨 인식 단계의 결과, 상기 계절 인식 단계의 결과, 및 상기 상세 타입 인식 단계의 결과를 기반으로, 상기 변형 이미지에 대한 상기 사용자의 퍼스널 컬러를 인식하는 단계;
    를 포함하는 퍼스널 컬러 인식 방법.
  8. 제7항에서,
    상기 웜/쿨 인식 단계는,
    미리 설정된 컬러 페어를 기반으로 상기 미리 설정된 영역에 2개의 컬러를 표시하고, 상기 미리 설정된 영역에 표시된 2개의 컬러 중에서 상기 사용자에 의해 선택된 정보를 기반으로 상기 웜/쿨 테스트를 수행하는 것으로 이루어지는,
    퍼스널 컬러 인식 방법.
  9. 제7항에서,
    상기 계절 인식 단계는,
    상기 웜/쿨 인식 단계의 결과를 토대로 선택된 컬러 세트를 기반으로 상기 미리 설정된 영역에 1개의 컬러를 표시하고, 상기 미리 설정된 영역에 표시된 1개의 컬러에 대해 상기 사용자에 의해 선택된 정보를 기반으로 상기 계절 테스트를 수행하는 것으로 이루어지는,
    퍼스널 컬러 인식 방법.
  10. 제7항에서,
    상기 상세 타입 인식 단계는,
    상기 웜/쿨 인식 단계의 결과, 및 상기 계절 인식 단계의 결과를 토대로 선택된 컬러 세트를 기반으로 상기 미리 설정된 영역에 3개의 컬러를 표시하고, 상기 미리 설정된 영역에 표시된 3개의 컬러 중에서 상기 사용자에 의핸 선택된 정보를 기반으로 상기 상세 타입 테스트를 수행하는 것으로 이루어지는,
    퍼스널 컬러 인식 방법.
  11. 제1항에서,
    상기 미리 설정된 영역은,
    상기 변형 이미지의 복수개의 서브 영역 중에서 상기 사용자에 의해 선택된 적어도 하나의 영역인,
    퍼스널 컬러 인식 방법.
  12. 사용자의 퍼스널 컬러를 인식하는 장치로서,
    사용자의 퍼스널 컬러를 인식하기 위한 하나 이상의 프로그램을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 프로그램에 따라 사용자의 퍼스널 컬러를 인식하기 위한 동작을 수행하는 하나 이상의 프로세서;
    를 포함하며,
    상기 프로세서는,
    퍼스널 컬러의 인식 대상인 사용자의 얼굴을 포함하는 대상 이미지를 획득하고,
    상기 대상 이미지를 기반으로, 서로 다른 밝기를 가지는 복수개의 변형 이미지를 획득하며,
    복수개의 상기 변형 이미지 각각을 기반으로, 상기 변형 이미지의 미리 설정된 영역에 미리 설정된 적어도 하나의 컬러를 표시하고, 상기 미리 설정된 영역에 표시된 적어도 하나의 컬러를 토대로 상기 사용자에 의해 선택된 정보를 기반으로 상기 변형 이미지에 대한 상기 사용자의 퍼스널 컬러를 인식하며,
    복수개의 상기 변형 이미지 각각에 대한 상기 사용자의 퍼스널 컬러를 기반으로 퍼스널 컬러 정보를 표시하는,
    퍼스널 컬러 인식 장치.
PCT/KR2022/015376 2021-10-18 2022-10-12 퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램 WO2023068633A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023568457A JP2024519418A (ja) 2021-10-18 2022-10-12 パーソナルカラー認識方法、これを実行する装置、およびコンピュータプログラム

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
KR10-2021-0138755 2021-10-18
KR20210138756 2021-10-18
KR10-2021-0138754 2021-10-18
KR20210138755 2021-10-18
KR10-2021-0138756 2021-10-18
KR20210138754 2021-10-18
KR1020220120193A KR20230055355A (ko) 2021-10-18 2022-09-22 퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램
KR10-2022-0120193 2022-09-22

Publications (1)

Publication Number Publication Date
WO2023068633A1 true WO2023068633A1 (ko) 2023-04-27

Family

ID=86058388

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/015376 WO2023068633A1 (ko) 2021-10-18 2022-10-12 퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램

Country Status (2)

Country Link
JP (1) JP2024519418A (ko)
WO (1) WO2023068633A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180070293A (ko) * 2016-12-16 2018-06-26 김효진 개인별 컬러 매칭 장치 및 방법
KR20180072021A (ko) * 2016-12-20 2018-06-29 주식회사 아이패밀리에스씨 퍼스널 컬러 진단 시스템 및 퍼스널 컬러 진단 방법
KR20190103097A (ko) * 2019-08-16 2019-09-04 엘지전자 주식회사 뷰티 카운슬링 정보 제공 방법 및 장치
KR20210004596A (ko) * 2019-07-05 2021-01-13 전재원 인공지능의 퍼스널컬러 추천 어플
KR102253750B1 (ko) * 2020-11-09 2021-05-18 임호 딥러닝을 이용한 메이크업 추천 및 추천 기반 화장품 구매 서비스 제공 플랫폼

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180070293A (ko) * 2016-12-16 2018-06-26 김효진 개인별 컬러 매칭 장치 및 방법
KR20180072021A (ko) * 2016-12-20 2018-06-29 주식회사 아이패밀리에스씨 퍼스널 컬러 진단 시스템 및 퍼스널 컬러 진단 방법
KR20210004596A (ko) * 2019-07-05 2021-01-13 전재원 인공지능의 퍼스널컬러 추천 어플
KR20190103097A (ko) * 2019-08-16 2019-09-04 엘지전자 주식회사 뷰티 카운슬링 정보 제공 방법 및 장치
KR102253750B1 (ko) * 2020-11-09 2021-05-18 임호 딥러닝을 이용한 메이크업 추천 및 추천 기반 화장품 구매 서비스 제공 플랫폼

Also Published As

Publication number Publication date
JP2024519418A (ja) 2024-05-13

Similar Documents

Publication Publication Date Title
WO2019132168A1 (ko) 수술영상데이터 학습시스템
WO2019235828A1 (ko) 투 페이스 질병 진단 시스템 및 그 방법
WO2021002549A1 (ko) 딥러닝 기반의 자동차 부위별 파손정도 자동 판정 시스템 및 방법
WO2020251142A1 (ko) 업무 담당자의 인사 평가를 수행하는 장치 및 방법
WO2020111754A9 (ko) 세미 슈퍼바이즈드 학습을 이용한 진단 시스템 제공방법 및 이를 이용하는 진단 시스템
WO2020032559A2 (ko) 뉴럴 네트워크를 이용한 질병의 진단 시스템 및 방법
WO2020130309A1 (ko) 영상 마스킹 장치 및 영상 마스킹 방법
WO2020045848A1 (ko) 세그멘테이션을 수행하는 뉴럴 네트워크를 이용한 질병 진단 시스템 및 방법
WO2010041836A2 (en) Method of detecting skin-colored area using variable skin color model
WO2018066742A1 (ko) 영상 제공 장치 및 방법
WO2022146050A1 (ko) 우울증 진단을 위한 인공지능 연합학습 방법 및 시스템
WO2021040287A1 (ko) 사람 재식별 장치 및 방법
WO2018117353A1 (ko) 홍채와 공막의 경계선 검출 방법
WO2020032562A2 (ko) 생체 이미지 진단 시스템, 생체 이미지 진단 방법, 및 이를 수행하기 위한 단말
WO2021010671A2 (ko) 뉴럴 네트워크 및 비국소적 블록을 이용하여 세그멘테이션을 수행하는 질병 진단 시스템 및 방법
WO2022039322A1 (ko) 임플란트 검색 및 자동 식별을 수행하는 시스템
WO2023068633A1 (ko) 퍼스널 컬러 인식 방법, 이를 수행하는 장치 및 컴퓨터 프로그램
WO2020032561A2 (ko) 다중 색 모델 및 뉴럴 네트워크를 이용한 질병 진단 시스템 및 방법
WO2018088649A1 (ko) 글린트 검출 방법
WO2019235827A1 (ko) 듀얼 클래스를 지원하는 질병 진단 시스템 및 그 방법
WO2023153863A1 (ko) 온라인 기반 시험 및 평가 시스템
WO2023282500A1 (ko) 슬라이드 스캔 데이터의 자동 레이블링 방법, 장치 및 프로그램
WO2023282454A1 (ko) Ai 학습을 위한 임플란트 클래스 분류 방법
WO2023068634A1 (ko) 퍼스널 컬러 인식 방법, 퍼스널 컬러 기반 아이템 추천 방법, 이들을 수행하는 장치 및 컴퓨터 프로그램
WO2023033270A1 (ko) 딥러닝 기반 분석 결과 예측 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22883856

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023568457

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE