WO2023054967A1 - Age estimating device - Google Patents

Age estimating device Download PDF

Info

Publication number
WO2023054967A1
WO2023054967A1 PCT/KR2022/014057 KR2022014057W WO2023054967A1 WO 2023054967 A1 WO2023054967 A1 WO 2023054967A1 KR 2022014057 W KR2022014057 W KR 2022014057W WO 2023054967 A1 WO2023054967 A1 WO 2023054967A1
Authority
WO
WIPO (PCT)
Prior art keywords
age
estimation model
individual
final
mobile terminal
Prior art date
Application number
PCT/KR2022/014057
Other languages
French (fr)
Korean (ko)
Inventor
임상섭
강명주
조현수
안성권
최명제
서현
신중곤
김윤관
Original Assignee
주식회사 엘지생활건강
서울대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지생활건강, 서울대학교 산학협력단 filed Critical 주식회사 엘지생활건강
Publication of WO2023054967A1 publication Critical patent/WO2023054967A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly

Definitions

  • An object of the present disclosure is to provide an age estimation device capable of calculating a user's age using only a partial face image.
  • An object of the present disclosure is to provide an age estimating device capable of estimating a user's age through an image including only a specific part of the face.
  • An age estimation system is based on a server generating and storing an individual age estimation model, an overall age estimation model, or a final age estimation model, and the individual age estimation model, the overall age estimation model, or the final age estimation model. and a mobile terminal displaying the individual age, the total age, or the final age calculated by the above, wherein the server receives the entire face image of the user from the mobile terminal, and divides the received full face image and the entire face image into divisions. At least one of the images is applied to the individual age estimation model, the total age estimation model, or the final age estimation model to calculate the individual age, total age, or final age, and transmit the calculated individual age, total age, or final age to the mobile terminal. can transmit
  • the server may receive only the whole face image from the mobile terminal or receive both the whole face image and the divided images from the mobile terminal.
  • An age estimation system includes a server generating an individual age estimation model, an overall age estimation model, or a final age estimation model, and receiving the individual age estimation model, the total age estimation model, or the final age estimation model from the server. and a mobile terminal for storing and displaying the individual age, the total age, or the final age calculated based on the stored individual age estimation model, the total age estimation model, or the final age estimation model, wherein the mobile terminal includes an entire face image of the user. is input, and at least one of the input whole face image and the divided image obtained by dividing the whole face image is applied to the individual age estimation model, the total age estimation model, or the final age estimation model to determine the individual age, the total age, or the final age. can be calculated
  • the server or the mobile terminal acquires the divided image for each face part by dividing the whole face image by face part, and the individual age may be the age of each face part.
  • the server or the mobile terminal may extract feature points for segmentation for each face part and divide the entire face image based on the extracted feature points.
  • the server or the mobile terminal may calculate the average of the individual ages and the total ages as the final age.
  • the server or the mobile terminal may calculate a weighted average of the estimated age for each part as the final age after assigning a weight to each part of the face.
  • the average weight may be a value obtained by dividing the sum of values obtained by multiplying the weight for each part by the age of the corresponding part by the sum of the weights.
  • An age estimation system includes a server for generating an individual age estimation model, an overall age estimation model, or a final age estimation model, and a mobile terminal receiving an entire face image of a user, wherein the server generates the individual age estimation model.
  • the mobile terminal includes a transmission device that transmits the received entire face image to a server, and the server receives the information from the mobile terminal.
  • An individual age, total age, or final age is calculated from the received whole face image through the individual estimation model, the total age estimation model, or the final age estimation model stored in the memory, and the calculated individual age and total age are calculated by the mobile terminal.
  • age can be estimated even for a user who is wearing a mask or whose face is partly covered, thereby minimizing inconvenience such as having to take off the mask.
  • the age estimating device has an advantage of utilizing a cosmetic performance evaluation index by estimating the age before and after using the cosmetic and comparing the estimated age.
  • FIG. 1 is a control block diagram of an age estimation device according to an embodiment of the present disclosure.
  • FIG. 2 is a flowchart illustrating an operating method of an age estimation apparatus according to an embodiment of the present disclosure.
  • FIG 3 is an exemplary view of an image divided by an image segmentation unit according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram illustrating an example of a convolution operation according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating an example of a method for visualizing an age analysis result by an age estimation device according to an embodiment of the present disclosure.
  • FIG. 7 is a block diagram of an age estimation system according to an embodiment of the present disclosure.
  • the 'estimator' referred to in the present specification means a step or device for estimating each age using an estimation model obtained through machine learning using learning data paired with an actual age and an input variable as an outcome variable. .
  • FIG. 1 is a control block diagram of an age estimation device according to an embodiment of the present disclosure.
  • An age estimation device 1 includes an image input unit 11, an image segmentation unit 12, an individual age estimation unit 13, a total age estimation unit 14, and a final age estimation unit 15. , at least some or all of the age output unit 16 and the control unit 17.
  • the image input unit 11 may receive an input of a user's face image, which is a target of age estimation.
  • the image input unit 11 may include an image capturing device such as a camera, and in this case, the user's face image may be obtained by capturing the user's face through the image capturing device.
  • an image capturing device such as a camera
  • the image input unit 11 may include a communication module capable of transmitting and receiving data with an external device such as a mobile terminal.
  • the user's face image is received from the external device through the communication module to receive data related to the user's face image. can be obtained.
  • the image input unit 11 may include both an image capture device and a communication module, or may include other image input means.
  • the entire face image input to the image input unit 11 may be a face image in which a part of the face is covered or a face image in which a part of the face is not covered.
  • the image input unit 11 may correct the input user's face image.
  • the image input unit 11 may standardize the user's face image. Specifically, when the input user's face image is used as it is without a separate standardization process, since the possibility of error in the age estimation process increases depending on the angle of the face or the lighting environment, the image input unit 11 may perform image standardization. there is.
  • the standard for the angle of the face or the standard for the lighting environment may be previously set in the image input unit 11 . Accordingly, the image input unit 11 may correct the angle of the face included in the entire face image of the user or the lighting environment to correspond to a preset standard.
  • the image division unit 12 may receive the user's face image from the image input unit 11 and divide the received user's face image into a plurality of pieces.
  • the image division unit 12 may divide the user's face image by face part.
  • the image segmentation unit 12 may perform image reduction or image cropping as well as image segmentation.
  • the image input unit 11 acquires a user's face image
  • the size of the image may vary, and even if the size of the image is fixed, the size of the face in the image may vary. You can zoom out or crop the image.
  • the 'reduced image' refers to an image that has undergone a process of reducing the number of pixels of an input image.
  • an image having a long axis of 2,500 pixels is reduced by a reduction ratio of 1/2 to 1/10,
  • it may be an image obtained by reducing an image of 2,500*2,500 pixels at a reduction ratio of 1/2 to 1/10, but is not limited thereto.
  • the 'reduced image' may provide an effect of estimating the age only by the contour of the face or the contour of individual parts of the face without considering blemishes or fine skin conditions of the face, for example.
  • the individual age estimation unit 13 may calculate at least one individual age based on the face image of the user.
  • the user's face image may include both an input image such as a normalized image, a segmented image, a reduced image, and the like, and a result image obtained by performing various tasks after being input.
  • the individual age estimation unit 13 may calculate the individual age based on each of the divided images divided by facial parts.
  • the individual age may mean an estimated age for each face part.
  • the individual age may be the age for each facial part.
  • the individual age may be at least one. That is, there may be a plurality of individual ages.
  • the total age estimator 14 may calculate the total age based on at least one of a standardized image and a reduced face image.
  • the total age may refer to an age estimated based on the entire face of the user.
  • the final age estimating unit 15 is based on the age calculated by the individual age estimating unit 13 alone or the combination of the age calculated by the individual age estimating unit 13 and the age estimated by the total age estimating unit 14. to extract the final age.
  • the final age may refer to an age finally calculated based on the user's face image.
  • the final age may be an age finally calculated by considering or integrating only individual ages or combinations of all ages.
  • the final age may be an age in which individual ages and total ages are combined.
  • the age output unit 16 may output the age calculated by analyzing the user's face image.
  • the age output unit 16 may output at least one of individual ages, total ages, and final ages.
  • the age output unit 16 may be implemented as a display that visually outputs the result of analyzing the user's face image or a speaker that audibly outputs the result of analyzing the user's face image, but this is only exemplary and is not limited thereto.
  • the controller 17 may control the operation of the age estimation device 1 .
  • the control unit 17 may include at least a part of the image input unit 11, the image segmentation unit 12, the individual age estimation unit 13, the total age unit 14, the final age estimation unit 15, and the age output unit 16. Or you can control all of them.
  • the image input unit 11 may receive an entire face image of the user (S11).
  • the entire face image is a user's face image, and may mean an image including the entire user's face.
  • the image containing the entire face means an image that includes all or part of the face contour, and at least 10% or more, 20% or more, 30% or more, 40% or more, 50% or more, It may be an image that includes 60% or more, 70% or more, 80% or more, 90% or more, or all facial contours.
  • the image input unit 11 may perform image standardization on the input entire face image of the user (S13).
  • Image standardization may include a task of converting an image property (eg, brightness or contrast) to be identical to a preset property, and a task of adjusting an angle of a face to a preset angle.
  • an image property eg, brightness or contrast
  • the controller 17 may calculate individual ages and total ages after performing image standardization.
  • the individual age estimation process and the overall age estimation process may be separately performed.
  • the individual age estimation process and the overall age estimation process may be performed simultaneously. Meanwhile, in FIG. 2 , for convenience of description, it is described that an individual age estimation process is performed and then the entire age estimation process is performed, but it is reasonable that the age estimation process is not limited thereto.
  • the image segmentation unit 12 may extract feature points for image segmentation (S15).
  • the image segmentation unit 12 may segment the face image based on at least one extracted feature point.
  • the image segmentation unit 12 may obtain a plurality of divided images of the entire face image based on feature points.
  • the divided image may include images for each face part.
  • FIG 3 is an exemplary view of an image divided by an image segmentation unit according to an embodiment of the present disclosure.
  • the image segmentation unit 12 divides the entire face image based on feature points, such that a first divided image including the forehead, a second divided image including the left eye, and a third division including the right eye image, a fourth segmented image including a nose, a fifth segmented image including a left cheek, a sixth segmented image including a right cheek, and a seventh segmented image including a mouth.
  • FIG. 2 is described.
  • the individual age estimation unit 13 may estimate individual ages through the divided images (S19).
  • the individual age estimating unit 13 may estimate the individual age, which is the age of each facial part, based on at least one divided image.
  • the individual age may be at least one.
  • the individual age estimation unit 13 calculates the age corresponding to the forehead, the age corresponding to the eyes, the age corresponding to the nose, the age corresponding to the cheeks, and the age corresponding to the lips, thereby estimating the individual age.
  • the total age estimation unit 14 may estimate the total age through the entire face image (S21).
  • the total age estimator 14 may calculate the total age based on at least one of a standardized whole face image or a normalized and reduced whole face image.
  • the total age estimator 14 may use an ensemble model when calculating the total age.
  • FIG. 4 is a schematic diagram illustrating the use of an ensemble model in an age estimation device according to an embodiment of the present disclosure.
  • the individual age estimator 13 may finally calculate the average of the forehead ages estimated through 10 individual learning models for the divided images including the forehead as the age corresponding to the forehead.
  • the individual age estimator 13 converts the average of the eye ages estimated through 10 individual learning models for the divided images including the left eye part and the divided image including the right eye part into the final age corresponding to the eye. can be calculated
  • the individual age estimator 13 may finally calculate the average of nose ages estimated through 10 individual learning models for the segmented images including the nose as the age corresponding to the nose.
  • the individual age estimator 13 finally calculates the average of the cheek ages estimated through 10 individual learning models for the divided images including the left cheek and the divided images including the right cheek as the age corresponding to the cheek. can
  • the individual age estimator 13 may finally calculate the average of the lip ages estimated through 10 individual learning models for the segmented image including the lip portion as the age corresponding to the lips.
  • FIG. 5 is a diagram illustrating an example of a convolution operation according to an embodiment of the present disclosure.
  • FIG. 2 is described.
  • the final age estimating unit 15 may estimate the final age of the user by integrating division or division/whole image estimation values (S23).
  • the division image estimation value may refer to an individual age calculated through division images.
  • the total image estimation value may mean the total age calculated through the entire face image.
  • the final age estimation unit 15 may calculate an average of individual ages or an average of individual ages and total ages as the final age.
  • the final age estimating unit 15 may calculate an average of individual ages and/or total ages as the final age after assigning weights. That is, according to the third and fourth embodiments, the final age estimator 15 reflects the weight when calculating the final age, but the weight calculation method may be different. Hereinafter, a weight calculation method will be described.
  • the final age estimator 15 may assign 1/estimation error as a weight of individual models for each part and then calculate the weighted average of the estimated age for each part as the final age. Specifically, the final age estimation unit 15 may calculate the final age through Equation 1 below.
  • the weight W is determined by 1/MAE, and the weight of the non-measurable item (part) may be 0.
  • the non-measurable item (part) may refer to a face part that is not recognized because it is covered by a mask or the like.
  • the final age estimator 15 may decrease the weight by a predetermined value or a predetermined ratio when a penalty is imposed.
  • a predetermined value or a predetermined ratio when a penalty is imposed.
  • the final age estimator 15 may determine the weight W of each part as 1/MAE, and may determine the weight W of the non-measurable item as 0 based on the entire image and the divided images. The final age estimator 15 may determine the weight W for each part as the reciprocal of the MAE.
  • CA-k is the accuracy when it is assumed that the difference between the estimated value and the measured value is equal to or less than k, and may be a scale made to talk about age prediction accuracy in % units.
  • the final The age estimator 15 may assign a separate weight to each part, and calculate an average of the weighted individual age and overall age for each part as the final age. And, the final age estimator 15 may determine the weight of the non-measurable part as 0.
  • the final age can be calculated by reflecting the weight according to the performance of each part.
  • the final age can be calculated by excluding weights of parts not included in the image.
  • the final age estimating unit 15 may calculate the final age using weight adjustment and regression or a form of an all-age matching table. Through this, it may be possible to correct the tendency of predicting that young people are slightly older and older people are slightly younger.
  • FIG. 2 is described.
  • the age output unit 16 may visualize the analysis result (S25).
  • the age output unit 16 may display the final age.
  • the age output unit 16 may display the individual age, which is the age for each part, together with the final age.
  • the age output unit 16 may also display the average individual age of people of the same age while displaying the individual age for each part.
  • FIG. 6 is a diagram illustrating an example of a method for visualizing an age analysis result by an age estimation device according to an embodiment of the present disclosure.
  • the age output unit 16 may display the individual ages of people of the same age as a radial chart along with the individual ages of the user.
  • the age output unit 16 may visualize the individual age of the user and the individual age of people of the same age in the form of a radar plot. That is, the age output unit 16 may display the age of each part along with the average age of people of a similar age other than the user's age.
  • the age output unit 16 When the age output unit 16 outputs the age analysis result, it may further display a guide such as care/product recommendation. In the case of the example of FIG. 6 , the age output unit 16 may recommend intensive care for the eyes and lips, and may emphasize the eye area.
  • the age output unit 16 may show the severely aged parts of the face and recommend suitable procedures or cosmetics.
  • the final age estimation unit 15 may predict skin age.
  • the final age estimator 15 may calculate skin age by integrating ages of specific parts (eg, forehead + eyes + cheeks) among facial parts.
  • the age output unit 16 may diagnose the degree of aging (eg, severe, moderate, or good). And, accordingly, the age output unit 16 may classify the aging part reference type (eg, eye aging type, forehead aging type).
  • the aging part reference type eg, eye aging type, forehead aging type.
  • the above-described age estimating device 1 may be a device manufactured separately to acquire and output an age, or may be a mobile terminal such as a smart phone. That is, the mobile terminal may be an age estimation device that obtains and outputs an age.
  • the present disclosure may be implemented as an age estimation system that estimates and outputs an age through communication between a plurality of devices.
  • FIG. 7 is a block diagram of an age estimation system according to an embodiment of the present disclosure.
  • the age estimation system may include a mobile terminal 110, a server 120, and a data providing server 130.
  • the mobile terminal 110 or the server 120 may be the above-mentioned age estimation device, may include some or all of the features of the above-mentioned age estimation device, and may include the terminal 110 and
  • the server 120 may perform each function by dividing the function of the age estimation device described above. In the following, functions of the age estimating device are divided into exemplary descriptions of performing each function in the system.
  • the mobile terminal 110 may be a user terminal such as a smart phone, a tablet PC, or a laptop computer.
  • the server 120 may obtain an age estimation model.
  • the age estimation model may include an individual age estimation model, an overall age estimation model, and a final age estimation model.
  • the server 120 may obtain an age estimation model based on data received from the data providing server 130 .
  • the server 120 may directly obtain the individual age, total age, and final age based on the age estimation model, or use the mobile terminal 110 to obtain the individual age, total age, and final age from the mobile terminal 110.
  • An estimation model may be transmitted.
  • the data providing server 130 may store and update data necessary for calculating an age estimation model.
  • the data providing server 130 may store and update algorithms and user information necessary for calculating an age estimation model.
  • the data providing server 130 may store data necessary for calculating an age estimation model.
  • the data providing server 130 may transmit data necessary for calculating the age estimation model to the server 120 .
  • the data providing server 130 may directly obtain an age estimation model based on data necessary to calculate the age estimation model. Alternatively, the data providing server 130 may transmit data necessary for calculating the age estimation model to the server 120 so that the server 20 may acquire the age estimation model.
  • FIG. 8 is a flowchart illustrating an operating method of an age estimation system according to an embodiment of the present disclosure.
  • the data providing server 130 may store data necessary for obtaining an age estimation model (S111).
  • the data providing server 130 may store and manage data necessary for obtaining an age estimation model.
  • the data providing server 130 may transmit data necessary for acquiring the age estimation model to the server 120 (S113).
  • the server 120 may receive data necessary for obtaining an age estimation model from the data providing server 130 .
  • the server 120 may obtain an age estimation model based on data necessary for acquiring the age estimation model (S115).
  • the age estimation model may include at least one of an individual age estimation model, an overall age estimation model, and a final age estimation model.
  • the server 120 may include a memory (not shown) for storing an individual age estimation model, a total age estimation model, or a final age estimation model.
  • An individual age estimation model may be generated using training data in which a segmented image obtained by segmenting an entire face image and an actual age are paired.
  • the full age learning model may be generated using training data in which a full face image and an actual age are paired.
  • the final age estimation model may be generated using learning data in which the individual age calculated by the individual age estimation model, the total age calculated by the total age learning model, and the actual age are paired.
  • the mobile terminal 110 may receive the user's entire face image (S117).
  • the mobile terminal 110 may transmit the entire face image of the user to the server 120 (S119).
  • the server 120 may receive the entire face image of the user from the mobile terminal 110 .
  • the mobile terminal 110 may divide the entire face image of the user to obtain divided images, and transmit both the entire face image and the divided images to the server 120 .
  • the mobile terminal 110 may further include a transmission device (not shown), and may transmit an entire face image or a divided image through the transmission device (not shown).
  • the server 120 may receive only the entire face image, and in this case, it may obtain divided images by dividing the entire face image.
  • the server 120 may receive both the entire face image and the divided images.
  • the server 120 may analyze the user's entire face image to obtain an individual age, total age, and final age (S121).
  • the server 120 may calculate an individual age, a total age, or a final age by applying at least one of the full face image and the segmented images to an individual age estimation model, an overall age estimation model, or a final age estimation model.
  • the server 120 may transmit individual ages, total ages, and final ages to the mobile terminal 110 (S123).
  • the server 120 may further include a transmission device (not shown), and may transmit the individual age, total age, and final age to the mobile terminal 110 through the transmission device (not shown).
  • the mobile terminal 110 may visualize the analysis result (S125).
  • the mobile terminal 110 may include a display device (not shown) displaying analysis results.
  • the mobile terminal 110 may display individual ages, total ages, or final ages through a display device (not shown).
  • the mobile terminal 110 may output at least one of individual ages, total ages, and final ages.
  • the mobile terminal 110 may also display the average individual age of people of the same age while displaying the individual age for each part.
  • the age estimation model acquired and stored in the server 120 is transmitted to the mobile terminal 110, and the mobile terminal 110 does not need to transmit the entire face image of the user to the server 120.
  • the individual age, total age, and final age may be directly obtained by performing the above step (S121).
  • the mobile terminal 110 may receive and store an individual age estimation model, an overall age estimation model, or a final age estimation model from the server.
  • the mobile terminal 110 may include a memory (not shown) for storing an individual age estimation model, a total age estimation model, or a final age estimation model.
  • the mobile terminal 110 may directly receive an entire face image and obtain divided images by dividing the received entire face image.
  • the mobile terminal 110 may calculate an individual age, total age, or final age by applying at least one of the entire face image and the segmented images to an age estimation model, a total age estimation model, or a final age estimation model.
  • the individual age, total age, and final age obtained by the server 120 or the mobile terminal 110 are transmitted and stored again to the data providing server 130, and the mobile terminal 110
  • the age estimation model may be updated by the server 120 again by being provided from and stored in the data providing server 130 as additional learning data together with the actual age stored in the data providing server 130.
  • the present disclosure described above can be implemented as computer readable codes in a medium on which a program is recorded.
  • the computer-readable medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. there is

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

The objective of the present disclosure is to provide an age estimating device capable of calculating a user's age by using only a partial face image. The age estimating device may comprise: an image input unit that receives a user's entire face image; an image segmentation unit that obtains segmented images by segmenting the entire face image; an individual age estimation unit that calculates an individual age on the basis of the segmented images; an overall age estimation unit that calculates an overall age on the basis of the entire face image; and a final age estimation unit that calculates a final age by integrating the individual age and the overall age.

Description

나이 추정 장치age estimation device
본 개시는 나이 추정 장치에 관한 것이다.The present disclosure relates to an age estimation device.
사람들이 외모, 피부 관리 등에 대한 관심이 많아지면서 피부 상태를 측정하여 피부 나이를 산출하는 장치 등이 등장하였다. 그런데, 이러한 피부 나이는 피부 자체에만 국한되어 있기 때문에, 피부 나이가 높게 산출되더라도 피부를 자세히 관찰하지 않으면 피부가 좋지 않은 상태임을 다소 알기 어려워, 산출된 피부 나이를 신뢰하지 않거나, 이후 관리에 대한 노력으로 이어지지 못하는 한계가 있다.As people become more interested in appearance, skin care, etc., devices for calculating skin age by measuring skin conditions have appeared. However, since this skin age is limited only to the skin itself, even if the skin age is calculated high, it is somewhat difficult to know that the skin is in a poor state unless the skin is observed closely, so that the calculated skin age is not trusted, or efforts for subsequent management are made. There is a limit that cannot be reached.
이에, 사람들의 외모 또는 피부와 관련하여, 신뢰성 높고, 경각심을 불러일으킬 수 있는 새로운 가이드가 요구되는 상태이며, 그에 따라 사용자의 얼굴 이미지에 기초하여 나이를 추정하는 장치도 개발되었다.Accordingly, there is a demand for a new guide that is highly reliable and can arouse awareness in relation to people's appearance or skin, and accordingly, a device for estimating age based on a user's face image has been developed.
한편, 나이를 추정하기 위해서는 얼굴 전체 이미지가 요구되기 때문에, 사진의 일부가 잘리거나, 얼굴의 특정 부위가 가려진 경우에는 오류가 발생하는 한계가 있다. 특히, 최근 코로나 바이러스의 확산 등과 같은 감염 위험이 있는 경우 마스크를 벗을 수 없어 나이 추정이 불가한 문제가 발생한다.On the other hand, since an entire face image is required to estimate age, there is a limit to an error occurring when a part of the photo is cut off or a specific part of the face is covered. In particular, when there is a risk of infection such as the recent spread of the corona virus, it is impossible to take off the mask, resulting in an impossible age estimation.
본 개시는 부분 얼굴 이미지 만으로도 사용자의 나이를 산출 가능한 나이 추정 장치를 제공하고자 한다.An object of the present disclosure is to provide an age estimation device capable of calculating a user's age using only a partial face image.
본 개시는 얼굴의 일부가 가려지더라도 사용자의 나이를 추정 가능한 나이 추정 장치를 제공하고자 한다.An object of the present disclosure is to provide an age estimating device capable of estimating a user's age even when a part of the face is covered.
본 개시는 얼굴의 특정 부위만 포함된 이미지를 통해서도 사용자의 나이를 추정 가능한 나이 추정 장치를 제공하고자 한다.An object of the present disclosure is to provide an age estimating device capable of estimating a user's age through an image including only a specific part of the face.
본 개시의 실시 예에 따른 나이 추정 시스템은 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 생성 및 저장하는 서버, 및 상기 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델에 기초하여 산출된 개별 나이, 전체 나이 또는 최종 나이를 디스플레이하는 이동 단말기를 포함하고, 상기 서버는 상기 이동 단말기로부터 사용자의 얼굴 전체 이미지를 수신하고, 수신된 얼굴 전체 이미지 및 상기 얼굴 전체 이미지를 분할한 분할 이미지 중 적어도 하나를 상기 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델에 적용하여 개별 나이, 전체 나이 또는 최종 나이를 산출하고, 산출된 개별 나이, 전체 나이 또는 최종 나이를 상기 이동 단말기로 전송할 수 있다.An age estimation system according to an embodiment of the present disclosure is based on a server generating and storing an individual age estimation model, an overall age estimation model, or a final age estimation model, and the individual age estimation model, the overall age estimation model, or the final age estimation model. and a mobile terminal displaying the individual age, the total age, or the final age calculated by the above, wherein the server receives the entire face image of the user from the mobile terminal, and divides the received full face image and the entire face image into divisions. At least one of the images is applied to the individual age estimation model, the total age estimation model, or the final age estimation model to calculate the individual age, total age, or final age, and transmit the calculated individual age, total age, or final age to the mobile terminal. can transmit
서버는 상기 이동 단말기로부터 상기 얼굴 전체 이미지만 수신하거나, 상기 이동 단말기로부터 상기 얼굴 전체 이미지 및 상기 분할 이미지를 모두 수신할 수 있다.The server may receive only the whole face image from the mobile terminal or receive both the whole face image and the divided images from the mobile terminal.
본 개시의 실시 예에 따른 나이 추정 시스템은 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 생성하는 서버, 및 상기 서버로부터 상기 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델 수신 및 저장하고, 저장된 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델에 기초하여 산출된 개별 나이, 전체 나이 또는 최종 나이를 디스플레이하는 이동 단말기를 포함하고, 상기 이동 단말기는 사용자의 얼굴 전체 이미지를 입력받고, 입력받은 얼굴 전체 이미지 및 상기 얼굴 전체 이미지를 분할한 분할 이미지 중 적어도 하나를 상기 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델에 적용하여 개별 나이, 전체 나이 또는 최종 나이를 산출할 수 있다.An age estimation system according to an embodiment of the present disclosure includes a server generating an individual age estimation model, an overall age estimation model, or a final age estimation model, and receiving the individual age estimation model, the total age estimation model, or the final age estimation model from the server. and a mobile terminal for storing and displaying the individual age, the total age, or the final age calculated based on the stored individual age estimation model, the total age estimation model, or the final age estimation model, wherein the mobile terminal includes an entire face image of the user. is input, and at least one of the input whole face image and the divided image obtained by dividing the whole face image is applied to the individual age estimation model, the total age estimation model, or the final age estimation model to determine the individual age, the total age, or the final age. can be calculated
서버 또는 상기 이동 단말기는 상기 얼굴 전체 이미지를 얼굴 부위별로 분할함으로써 얼굴 부위별로 상기 분할 이미지를 획득하고, 상기 개별 나이는 얼굴 부위별 나이일 수 있다.The server or the mobile terminal acquires the divided image for each face part by dividing the whole face image by face part, and the individual age may be the age of each face part.
서버 또는 상기 이동 단말기는 상기 얼굴 부위별로 분할하기 위해 특징점을 추출하고, 추출된 특징점 기준으로 상기 얼굴 전체 이미지를 분할할 수 있다.The server or the mobile terminal may extract feature points for segmentation for each face part and divide the entire face image based on the extracted feature points.
서버 또는 상기 이동 단말기는 상기 개별 나이 및 상기 전체 나이의 평균을 상기 최종 나이로 산출할 수 있다.The server or the mobile terminal may calculate the average of the individual ages and the total ages as the final age.
서버 또는 상기 이동 단말기는 얼굴 부위별 가중치를 부여한 후 부위별 추정 나이의 가중치 평균을 상기 최종 나이로 산출할 수 있다.The server or the mobile terminal may calculate a weighted average of the estimated age for each part as the final age after assigning a weight to each part of the face.
가중치 평균은 각 부위별로 가중치와 해당 부위의 나이를 곱한 값들을 합을 가중치들의 합으로 나눈 값일 수 있다.The average weight may be a value obtained by dividing the sum of values obtained by multiplying the weight for each part by the age of the corresponding part by the sum of the weights.
서버 또는 상기 이동 단말기는 측정 불가 부위의 가중치를 0으로 결정할 수 있다.The server or the mobile terminal may determine the weight of the non-measurable part as 0.
서버 또는 상기 이동 단말기는 상기 가중치를 절대 값 오차의 평균의 역수로 결정할 수 있다.The server or the mobile terminal may determine the weight as the reciprocal of the mean of the absolute error.
서버 또는 상기 이동 단말기는 상기 개별 나이를 추정할 때 앙상블 모델을 이용할 수 있다.The server or the mobile terminal may use an ensemble model when estimating the individual age.
나이 추정 시스템은 나이 추정 모델의 획득에 필요한 데이터를 저장하는 데이터 제공 서버를 더 포함하고, 상기 서버 또는 상기 이동 단말기는 상기 데이터 제공 서버로부터 수신한 데이터에 기초하여 상기 앙상블 모델을 적용한 나이 추정 모델을 획득할 수 있다.The age estimation system further includes a data providing server storing data necessary for obtaining an age estimation model, and the server or the mobile terminal generates an age estimation model to which the ensemble model is applied based on data received from the data providing server. can be obtained
서버 또는 상기 이동 단말기는 입력된 상기 얼굴 전체 이미지에 포함된 얼굴의 각도 또는 조명 환경이 기설정된 표준에 상응하도록 보정할 수 있다.The server or the mobile terminal may correct the angle or lighting environment of the face included in the input whole face image to correspond to a preset standard.
서버 또는 상기 이동 단말기는 입력된 상기 얼굴 전체 이미지 혹은 얼굴 부위별 상기 분할 이미지의 포커스 또는 품질에 따라 상기 가중치에 패널티를 부여할 수 있다.The server or the mobile terminal may assign a penalty to the weight according to the focus or quality of the input whole face image or the split image for each face part.
본 개시의 실시 예에 따른 나이 추정 시스템은 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 생성하는 서버, 및 사용자의 얼굴 전체 이미지를 입력받는 이동 단말기를 포함하고, 상기 서버가 상기 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 저장하는 메모리를 포함하는 경우, 상기 이동 단말기는 상기 입력 받은 얼굴 전체 이미지를 서버로 전송하는 전송 장치를 포함하고, 상기 서버는 상기 이동 단말기로부터 전송 받은 얼굴 전체 이미지로부터 상기 메모리에 저장된 상기 개별 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 통해 개별 나이, 전체 나이 또는 최종 나이를 산출하고, 상기 이동 단말기로 상기 산출된 개별 나이, 전체 나이 또는 최종 나이를 전송하는 전송 장치를 포함하며, 상기 서버가 상기 이동 단말기로 상기 개별 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 전송할 수 있는 전송 장치를 포함하는 경우, 상기 이동 단말기는 상기 서버로부터 전송 받은 상기 개별 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 저장하는 메모리를 포함하며, 상기 이동 단말기는 상기 입력 받은 얼굴 전체 이미지로부터 상기 메모리에 저장된 상기 개별 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 통해 개별 나이, 전체 나이 또는 최종 나이를 산출하고, 상기 이동 단말기는 산출된 개별 나이, 전체 나이 또는 최종 나이를 디스플레이하는 디스플레이 장치를 포함하며, 상기 개별 나이 추정 모델은 얼굴 전체 이미지를 분할하여 획득된 분할 이미지와 실제 나이가 쌍으로 되어 있는 학습 데이터를 이용하여 생성되며, 상기 전체 나이 학습 모델은 얼굴 전체 이미지와 실제 나이를 쌍으로 되어 있는 학습 데이터를 이용하여 생성되며, 상기 최종 나이 추정 모델은 상기 개별 나이 추정 모델에 의해 산출된 개별 나이 및 상기 전체 나이 학습 모델에 의해 산출된 전체 나이와, 실제 나이가 쌍으로 되어 있는 학습 데이터를 이용하여 생성될 수 있다.An age estimation system according to an embodiment of the present disclosure includes a server for generating an individual age estimation model, an overall age estimation model, or a final age estimation model, and a mobile terminal receiving an entire face image of a user, wherein the server generates the individual age estimation model. When a memory for storing an age estimation model, a total age estimation model, or a final age estimation model is included, the mobile terminal includes a transmission device that transmits the received entire face image to a server, and the server receives the information from the mobile terminal. An individual age, total age, or final age is calculated from the received whole face image through the individual estimation model, the total age estimation model, or the final age estimation model stored in the memory, and the calculated individual age and total age are calculated by the mobile terminal. or a transmission device that transmits the final age, and if the server includes a transmission device capable of transmitting the individual estimation model, the total age estimation model, or the final age estimation model to the mobile terminal, the mobile terminal may send the server and a memory for storing the individual estimation model, the total age estimation model, or the final age estimation model received from the mobile terminal, wherein the mobile terminal stores the individual estimation model, the total age estimation model, or An individual age, total age, or final age is calculated through a final age estimation model, and the mobile terminal includes a display device displaying the calculated individual age, total age, or final age, and the individual age estimation model is a whole face image. It is created using training data in which a split image obtained by dividing and an actual age are paired, and the full age learning model is created using training data in which a whole face image and an actual age are paired, and the final The age estimation model may be generated using learning data in which the individual age calculated by the individual age estimation model, the total age calculated by the total age learning model, and the actual age are paired.
본 개시의 실시 예에 따르면, 마스크를 쓰고 있거나, 얼굴의 일부가 가려진 사용자에 대해서도 나이 추정이 가능하므로, 마스크를 벗어야 하는 등의 불편이 최소화되는 이점이 있다.According to an embodiment of the present disclosure, age can be estimated even for a user who is wearing a mask or whose face is partly covered, thereby minimizing inconvenience such as having to take off the mask.
본 개시의 실시 예에 따르면, 각 부위별 성능에 따른 가중치를 반영하여 최종 나이를 산출 가능하며, 일부 부위가 가려지더라도, 이미지에 포함되지 않은 부위의 가중치를 배제함으로써, 최종 나이의 산출이 가능한 이점이 있다.According to an embodiment of the present disclosure, the final age can be calculated by reflecting the weight according to the performance of each part, and even if some parts are covered, the final age can be calculated by excluding the weight of parts not included in the image. There is an advantage.
본 개시의 실시 예에 따르면, 나이 추정 장치는 화장품 사용 전후의 나이를 추정하고, 추정된 나이를 비교함으로써, 화장품 성능 평가 지표를 활용 가능한 이점이 있다.According to an embodiment of the present disclosure, the age estimating device has an advantage of utilizing a cosmetic performance evaluation index by estimating the age before and after using the cosmetic and comparing the estimated age.
본 개시의 실시 예에 따르면, 광고판 등을 보고 있는 사람의 나이를 추정 가능하므로, 사용자 개개인에 적합한 맞춤형 광고의 출력 수단으로 사용 가능한 이점이 있다.According to an embodiment of the present disclosure, since the age of a person viewing a billboard or the like can be estimated, there is an advantage in that the advertisement can be used as a means for outputting customized advertisements suitable for each user.
본 개시의 실시 예에 따르면, 어떠한 조건에서도 나이 추정이 가능하며, 정확도가 높아, 보안 강화 및 나이 제한 컨텐츠 제어 등 나이 제한 서비스에 이용되거나, 인간-컴퓨터 상호작용 등 특정 상품에 적용 가능한 이점이 있다.According to an embodiment of the present disclosure, age can be estimated under any conditions, and the accuracy is high, so it can be used for age-restricted services such as security enhancement and age-restricted content control, or applied to specific products such as human-computer interaction. .
본 개시의 실시 예에 따르면, 범죄 용의자 등 일부 얼굴 이미지를 이용하여 나이를 추정하거나, 실종자 얼굴 변화 등 시뮬레이션에 활용 가능한 이점이 있다.According to an embodiment of the present disclosure, there is an advantage in that age can be estimated using some face images of a criminal suspect or the like, or used for simulation such as face change of a missing person.
도 1은 본 개시의 실시 예에 따른 나이 추정 장치의 제어 블록도이다.1 is a control block diagram of an age estimation device according to an embodiment of the present disclosure.
도 2는 본 개시의 실시 예에 따른 나이 추정 장치의 동작 방법이 도시된 순서도이다.2 is a flowchart illustrating an operating method of an age estimation apparatus according to an embodiment of the present disclosure.
도 3은 본개시의 실시 예에 따른 이미지 분할부에 의해 분할된 이미지의 예시 도면이다.3 is an exemplary view of an image divided by an image segmentation unit according to an embodiment of the present disclosure.
도 4는 본 개시의 실시 예에 따른 나이 추정 장치에서 앙상블 모델 사용되는 모습이 도시된 개략도이다.4 is a schematic diagram illustrating the use of an ensemble model in an age estimation device according to an embodiment of the present disclosure.
도 5는 본 개시의 실시 예에 따른 합성곱 연산의 예시가 도시된 도면이다.5 is a diagram illustrating an example of a convolution operation according to an embodiment of the present disclosure.
도 6 본 개시의 실시 예에 따른 나이 추정 장치가 나이 분석 결과를 시각화하는 방법의 일 예가 도시된 도면이다.6 is a diagram illustrating an example of a method for visualizing an age analysis result by an age estimation device according to an embodiment of the present disclosure.
도 7은 본 개시의 실시 예에 따른 나이 추정 시스템의 블록도이다.7 is a block diagram of an age estimation system according to an embodiment of the present disclosure.
도 8은 본 개시의 실시 예에 따른 나이 추정 시스템의 동작 방법이 도시된 순서도이다.8 is a flowchart illustrating an operating method of an age estimation system according to an embodiment of the present disclosure.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar elements are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffix "part" for components used in the following description is given or used interchangeably in consideration of ease of writing the specification, and does not itself have a meaning or role distinct from each other. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.
본원 명세서에 언급된 '추정부'는, 결과변수로서 실제 나이와 입력 변수를 쌍으로 된 학습 데이터를 이용하여 기계 학습을 통해 획득된 추정 모델을 이용하여 각 나이를 추정하는 단계 또는 장치를 의미한다.The 'estimator' referred to in the present specification means a step or device for estimating each age using an estimation model obtained through machine learning using learning data paired with an actual age and an input variable as an outcome variable. .
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
도 1은 본 개시의 실시 예에 따른 나이 추정 장치의 제어 블록도이다.1 is a control block diagram of an age estimation device according to an embodiment of the present disclosure.
본 개시의 실시 예에 따른 나이 추정 장치(1)는 이미지 입력부(11), 이미지 분할부(12), 개별 나이 추정부(13), 전체 나이 추정부(14), 최종 나이 추정부(15), 나이 출력부(16) 및 제어부(17) 중 적어도 일부 또는 전부를 포함할 수 있다.An age estimation device 1 according to an embodiment of the present disclosure includes an image input unit 11, an image segmentation unit 12, an individual age estimation unit 13, a total age estimation unit 14, and a final age estimation unit 15. , at least some or all of the age output unit 16 and the control unit 17.
이미지 입력부(11)는 나이 추정의 대상이 되는 사용자의 얼굴 이미지를 입력받을 수 있다. The image input unit 11 may receive an input of a user's face image, which is a target of age estimation.
일 예로, 이미지 입력부(11)는 카메라 등과 같은 이미지 촬영 장치를 포함할 수 있고, 이 경우 이미지 촬영 장치를 통해 사용자의 얼굴을 촬영함으로써, 사용자의 얼굴 이미지를 획득할 수 있다. For example, the image input unit 11 may include an image capturing device such as a camera, and in this case, the user's face image may be obtained by capturing the user's face through the image capturing device.
다른 예로, 이미지 입력부(11)는 이동 단말기 등과 같은 외부 기기와 데이터 송수신이 가능한 통신 모듈을 포함할 수 있고, 이 경우 통신 모듈을 통해 사용자의 얼굴 이미지 관련 데이터를 외부 기기로부터 수신함으로써 사용자의 얼굴 이미지를 획득할 수 있다. As another example, the image input unit 11 may include a communication module capable of transmitting and receiving data with an external device such as a mobile terminal. In this case, the user's face image is received from the external device through the communication module to receive data related to the user's face image. can be obtained.
한편, 상술한 예들은 설명의 편의를 위한 것에 불과하며, 이미지 입력부(11)는 이미지 촬영 장치 및 통신 모듈을 모두 구비할 수 있고, 또는 이밖에 다른 이미지 입력 수단을 구비할 수도 있다.Meanwhile, the above-described examples are merely for convenience of explanation, and the image input unit 11 may include both an image capture device and a communication module, or may include other image input means.
이미지 입력부(11)에 입력되는 얼굴 전체 이미지는 얼굴의 일부가 가려진 얼굴 이미지일 수도 있고, 가려진 부위가 없는 얼굴 이미지일 수도 있다.The entire face image input to the image input unit 11 may be a face image in which a part of the face is covered or a face image in which a part of the face is not covered.
또한, 이미지 입력부(11)는 입력된 사용자의 얼굴 이미지를 보정할 수도 있다. 특히, 이미지 입력부(11)는 사용자의 얼굴 이미지에 대한 표준화를 수행할 수 있다. 구체적으로, 입력된 사용자의 얼굴 이미지를 별도의 표준화 작업 없이 그대로 사용할 경우, 얼굴의 각도 또는 조명 환경 등에 따라 나이 추정 과정에서 오차 발생 가능성이 높아지기 때문에, 이미지 입력부(11)는 이미지 표준화를 수행할 수 있다.Also, the image input unit 11 may correct the input user's face image. In particular, the image input unit 11 may standardize the user's face image. Specifically, when the input user's face image is used as it is without a separate standardization process, since the possibility of error in the age estimation process increases depending on the angle of the face or the lighting environment, the image input unit 11 may perform image standardization. there is.
보다 상세하게, 이미지 입력부(11)는 얼굴의 각도에 대한 표준 또는 조명 환경에 대한 표준이 미리 설정하고 있을 수 있다. 따라서, 이미지 입력부(11)는 입력된 사용자의 얼굴 전체 이미지에 포함된 얼굴의 각도 또는 조명 환경이 기설정된 표준에 상응하도록 보정할 수 있다.More specifically, the standard for the angle of the face or the standard for the lighting environment may be previously set in the image input unit 11 . Accordingly, the image input unit 11 may correct the angle of the face included in the entire face image of the user or the lighting environment to correspond to a preset standard.
이미지 분할부(12)는 이미지 입력부(11)로부터 사용자의 얼굴 이미지를 전달받을 수 있고, 전달받은 사용자의 얼굴 이미지를 복수개로 분할할 수 있다. The image division unit 12 may receive the user's face image from the image input unit 11 and divide the received user's face image into a plurality of pieces.
예를 들어, 이미지 분할부(12)는 사용자의 얼굴 이미지를 얼굴 부위별로 분할할 수 있다. For example, the image division unit 12 may divide the user's face image by face part.
또한, 이미지 분할부(12)는 이미지 분할 뿐만 아니라, 이미지 축소 또는 이미지 자르기를 수행할 수도 있다. 예를 들어, 이미지 입력부(11)가 사용자의 얼굴 이미지를 획득할 때, 이미지의 크기가 다양할 수 있고, 이미지의 크기가 고정되어 있다고 하더라도, 이미지 내 얼굴의 크기가 다양할 수 있기 때문에, 이미지 축소 또는 이미지 자르기를 수행할 수 있다. 여기에서, '축소 이미지'는 입력된 이미지의 픽셀수를 줄이는 프로세스를 거친 이미지를 의미하며, 일 예로, 장축이 2,500개의 픽셀인 이미지를 1/2~1/10 의 축소 비율로 축소시킨 이미지, 가령 2,500*2,500 픽셀수의 이미지를 1/2~1/10 의 축소 비율로 축소시킨 이미지일 수 있으나, 이에 제한되지 않는다. '축소 이미지'는 예를 들면 얼굴의 잡티 혹은 미세한 피부 상태의 고려 없이 얼굴 윤곽 혹은 얼굴 개별 부위의 윤곽에 의해서만 나이를 추정하는 효과를 제공할 수 있다.Also, the image segmentation unit 12 may perform image reduction or image cropping as well as image segmentation. For example, when the image input unit 11 acquires a user's face image, the size of the image may vary, and even if the size of the image is fixed, the size of the face in the image may vary. You can zoom out or crop the image. Here, the 'reduced image' refers to an image that has undergone a process of reducing the number of pixels of an input image. For example, an image having a long axis of 2,500 pixels is reduced by a reduction ratio of 1/2 to 1/10, For example, it may be an image obtained by reducing an image of 2,500*2,500 pixels at a reduction ratio of 1/2 to 1/10, but is not limited thereto. The 'reduced image' may provide an effect of estimating the age only by the contour of the face or the contour of individual parts of the face without considering blemishes or fine skin conditions of the face, for example.
개별 나이 추정부(13)는 사용자의 얼굴 이미지에 기초하여 적어도 하나의 개별 나이를 산출할 수 있다. 여기서, 사용자의 얼굴 이미지는 표준화된 이미지, 분할된 이미지, 축소된 이미지 등과 같이 입력된 이미지 및 입력된 후 다양한 작업이 수행된 결과 이미지를 모두 포함할 수 있다.The individual age estimation unit 13 may calculate at least one individual age based on the face image of the user. Here, the user's face image may include both an input image such as a normalized image, a segmented image, a reduced image, and the like, and a result image obtained by performing various tasks after being input.
특히, 개별 나이 추정부(13)는 얼굴 부위별로 분할된 분할 이미지 각각에 기초하여 개별 나이를 산출할 수 있다. 개별 나이는 각 얼굴 부위에 대한 추정 나이를 의미할 수 있다. 개별 나이는 얼굴 부위별 나이일 수 있다. 개별 나이는 적어도 하나 이상일 수 있다. 즉, 개별 나이는 복수개일 수 있다.In particular, the individual age estimation unit 13 may calculate the individual age based on each of the divided images divided by facial parts. The individual age may mean an estimated age for each face part. The individual age may be the age for each facial part. The individual age may be at least one. That is, there may be a plurality of individual ages.
전체 나이 추정부(14)는 사용자의 얼굴 이미지에 기초하여 전체 나이를 산출할 수 있다. 마찬가지로, 여기서, 사용자의 얼굴 이미지는 표준화된 이미지, 분할된 이미지, 축소된 이미지 등과 같이 입력된 이미지 및 입력된 후 다양한 작업이 수행된 결과 이미지를 모두 포함할 수 있다.The total age estimator 14 may calculate the total age based on the user's face image. Similarly, here, the user's face image may include both an input image such as a normalized image, a segmented image, a reduced image, and the like, and a result image obtained by performing various tasks after being input.
특히, 전체 나이 추정부(14)는 표준화된 이미지 또는 축소된 얼굴 이미지 중 적어도 하나에 기초하여 전체 나이를 산출할 수 있다. 전체 나이는 사용자의 얼굴 전체에 기초하여 추정된 나이를 의미할 수 있다.In particular, the total age estimator 14 may calculate the total age based on at least one of a standardized image and a reduced face image. The total age may refer to an age estimated based on the entire face of the user.
최종 나이 추정부(15)는 개별 나이 추정부(13)에서 산출된 나이 단독으로, 또는 개별 나이 추정부(13)에서 산출된 나이와 전체 나이 추정부(14)에서 추정된 나이의 조합에 기초하여 최종 나이를 추출할 수 있다.The final age estimating unit 15 is based on the age calculated by the individual age estimating unit 13 alone or the combination of the age calculated by the individual age estimating unit 13 and the age estimated by the total age estimating unit 14. to extract the final age.
최종 나이는 사용자의 얼굴 이미지에 기초하여 최종적으로 산출된 나이를 의미할 수 있다. 최종 나이는 개별 나이만을, 또는 전체 나이와의 조합을 모두 고려 또는 통합하여 마지막으로 산출된 나이일 수 있다. 최종 나이는 개별 나이와 전체 나이를 통합한 나이일 수 있다.The final age may refer to an age finally calculated based on the user's face image. The final age may be an age finally calculated by considering or integrating only individual ages or combinations of all ages. The final age may be an age in which individual ages and total ages are combined.
나이 출력부(16)는 사용자의 얼굴 이미지를 분석하여 산출된 나이를 출력할 수 있다. 나이 출력부(16)는 개별 나이, 전체 나이 및 최종 나이 중 적어도 하나를 출력할 수 있다.The age output unit 16 may output the age calculated by analyzing the user's face image. The age output unit 16 may output at least one of individual ages, total ages, and final ages.
나이 출력부(16)는 사용자의 얼굴 이미지를 분석한 결과를 시각적으로 출력하는 디스플레이 또는 청각적으로 출력하는 스피커 등으로 구현될 수 있으나, 이는 예시적인 것에 불과하므로, 이에 제한되지 않음이 타당하다.The age output unit 16 may be implemented as a display that visually outputs the result of analyzing the user's face image or a speaker that audibly outputs the result of analyzing the user's face image, but this is only exemplary and is not limited thereto.
제어부(17)는 나이 추정 장치(1)의 동작을 제어할 수 있다.The controller 17 may control the operation of the age estimation device 1 .
제어부(17)는 이미지 입력부(11), 이미지 분할부(12), 개별 나이 추정부(13), 전체 나이부(14), 최종 나이 추정부(15) 및 나이 출력부(16) 중 적어도 일부 또는 전부를 제어할 수 있다.The control unit 17 may include at least a part of the image input unit 11, the image segmentation unit 12, the individual age estimation unit 13, the total age unit 14, the final age estimation unit 15, and the age output unit 16. Or you can control all of them.
다음으로, 본 개시의 실시 예에 따른 나이 추정 장치(1)의 동작 방법을 상세히 설명한다.Next, an operating method of the age estimation device 1 according to an embodiment of the present disclosure will be described in detail.
도 2는 본 개시의 실시 예에 따른 나이 추정 장치의 동작 방법이 도시된 순서도이다.2 is a flowchart illustrating an operating method of an age estimation apparatus according to an embodiment of the present disclosure.
이미지 입력부(11)는 사용자의 얼굴 전체 이미지를 입력받을 수 있다(S11).The image input unit 11 may receive an entire face image of the user (S11).
얼굴 전체 이미지란, 사용자의 얼굴 이미지로서, 특히 사용자의 얼굴 전체가 모두 포함된 이미지를 의미할 수 있다. 여기에서 얼굴 전체가 모두 포함된 이미지라 함은 얼굴 윤곽선 전체 또는 일부가 포함된 이미지를 의미하며, 얼굴 전체 윤곽선의 적어도 10% 이상, 20% 이상, 30% 이상, 40% 이상, 50% 이상, 60% 이상, 70% 이상, 80% 이상, 90% 이상, 또는 모든 얼굴 윤곽선이 포함된 이미지 일 수 있다.The entire face image is a user's face image, and may mean an image including the entire user's face. Here, the image containing the entire face means an image that includes all or part of the face contour, and at least 10% or more, 20% or more, 30% or more, 40% or more, 50% or more, It may be an image that includes 60% or more, 70% or more, 80% or more, 90% or more, or all facial contours.
이미지 입력부(11)는 입력된 사용자의 얼굴 전체 이미지에 대해 이미지 표준화를 수행할 수 있다(S13).The image input unit 11 may perform image standardization on the input entire face image of the user (S13).
이미지 표준화는, 이미지의 속성(예를 들어, 밝기 또는 콘트라스트 등)을 기설정된 속성과 동일하게 변환하는 작업 및 얼굴의 각도를 기설정된 각도로 조절하는 작업 등을 포함할 수 있다.Image standardization may include a task of converting an image property (eg, brightness or contrast) to be identical to a preset property, and a task of adjusting an angle of a face to a preset angle.
제어부(17)는 이미지 표준화를 수행한 후 개별 나이와 전체 나이를 산출할 수 있다. 개별 나이 추정 과정과 전체 나이 추정 과정은 각각 분리되어 수행될 수 있다. 개별 나이 추정 과정과 전체 나이 추정 과정은 동시에 수행될 수도 있다. 한편, 도 2에서는 설명의 편의를 위해 개별 나이 추정 과정을 수행한 후 전체 나이 추정 과정을 수행하는 것으로 설명하나, 이에 제한되지 않음이 타당하다.The controller 17 may calculate individual ages and total ages after performing image standardization. The individual age estimation process and the overall age estimation process may be separately performed. The individual age estimation process and the overall age estimation process may be performed simultaneously. Meanwhile, in FIG. 2 , for convenience of description, it is described that an individual age estimation process is performed and then the entire age estimation process is performed, but it is reasonable that the age estimation process is not limited thereto.
이미지 분할부(12)는 이미지 분할용 특징점을 추출할 수 있다(S15).The image segmentation unit 12 may extract feature points for image segmentation (S15).
이미지 분할부(12)는 얼굴 전체 이미지를 얼굴 부위별로 분할하기 위해 특징점을 추출할 수 있다. 예를 들어 이미지 분할부(12)는 얼굴 특징점은 openCV, Dlib (이미지 처리 라이브러리) 등을 이용하여 추출할 수 있으나 당업계에 공지된 어떠한 방법도 사용 가능하다. 특징점은 적어도 하나 이상일 수 있다. 예를 들어, 이미지 분할부(12)는 얼굴 전체 이미지에서, 눈에 대응하는 제1 특징점, 코에 대응하는 제2 특징점, 입에 대응하는 제3 특징점 등을 추출할 수 있다.The image segmentation unit 12 may extract feature points in order to divide the entire face image by facial parts. For example, the image segmentation unit 12 may extract facial feature points using openCV, Dlib (image processing library), etc., but any method known in the art may be used. The feature point may be at least one or more. For example, the image segmentation unit 12 may extract a first feature point corresponding to the eyes, a second feature point corresponding to the nose, and a third feature point corresponding to the mouth from the entire face image.
이미지 분할부(12)는 특징점 기준으로 얼굴 이미지를 분할할 수 있다(S17).The image division unit 12 may divide the face image based on feature points (S17).
이미지 분할부(12)는 추출된 적어도 하나의 특징점에 기초하여 얼굴 이미지를 분할할 수 있다. 이미지 분할부(12)는 얼굴 전체 이미지를 특징점에 기초하여 복수의 분할 이미지를 획득할 수 있다.The image segmentation unit 12 may segment the face image based on at least one extracted feature point. The image segmentation unit 12 may obtain a plurality of divided images of the entire face image based on feature points.
분할 이미지는 얼굴 부위별 이미지를 포함할 수 있다.The divided image may include images for each face part.
한편, 이미지 분할부(12)는 얼굴 이미지를 분할할 때 얼굴 전체 이미지를 축소시킨 축소 이미지를 더 획득할 수도 있다.Meanwhile, when dividing the face image, the image divider 12 may further obtain a reduced image obtained by reducing the entire face image.
도 3은 본개시의 실시 예에 따른 이미지 분할부에 의해 분할된 이미지의 예시 도면이다.3 is an exemplary view of an image divided by an image segmentation unit according to an embodiment of the present disclosure.
도 3에 도시된 예시와 같이, 이미지 분할부(12)은 얼굴 전체 이미지를 축소시킨 전체 축소 이미지를 획득할 수 있다.As in the example shown in FIG. 3 , the image segmentation unit 12 may obtain an entire reduced image obtained by reducing the entire face image.
또한, 이미지 분할부(12)는 특징점에 기초하여 얼굴 전체 이미지를 분할함으로써, 이마 부위가 포함된 제1 분할 이미지, 왼쪽 눈 부위가 포함된 제2 분할 이미지, 오른쪽 눈 부위가 포함된 제3 분할 이미지, 코 부위가 포함된 제4 분할 이미지, 좌측 볼 부위가 포함된 제5 분할 이미지, 우측 볼 부위가 포함된 제6 분할 이미지 및 입 부위가 포함된 제7 분할 이미지를 포함할 수 있다.In addition, the image segmentation unit 12 divides the entire face image based on feature points, such that a first divided image including the forehead, a second divided image including the left eye, and a third division including the right eye image, a fourth segmented image including a nose, a fifth segmented image including a left cheek, a sixth segmented image including a right cheek, and a seventh segmented image including a mouth.
한편, 도 3에 도시된 축소 이미지 및 분할 이미지는 예시적인 것에 불과하므로, 이에 제한되지 않음이 타당하다.On the other hand, since the reduced image and divided image shown in FIG. 3 are only examples, it is appropriate that they are not limited thereto.
다시, 도 2를 설명한다.Again, FIG. 2 is described.
개별 나이 추정부(13)는 분할 이미지를 통해 개별 나이를 추정할 수 있다(S19).The individual age estimation unit 13 may estimate individual ages through the divided images (S19).
즉, 개별 나이 추정부(13)는 적어도 하나의 분할 이미지에 기초하여, 얼굴 부위별 나이인 개별 나이를 추정할 수 있다. 개별 나이는 적어도 하나 이상일 수 있다. 예를 들어, 개별 나이 추정부(13)는 이마에 대응하는 나이, 눈에 대응하는 나이, 코에 대응하는 나이, 볼에 대응하는 나이 및 입술에 대응하는 나이를 산출함으로써, 개별 나이를 추정할 수 있다.That is, the individual age estimating unit 13 may estimate the individual age, which is the age of each facial part, based on at least one divided image. The individual age may be at least one. For example, the individual age estimation unit 13 calculates the age corresponding to the forehead, the age corresponding to the eyes, the age corresponding to the nose, the age corresponding to the cheeks, and the age corresponding to the lips, thereby estimating the individual age. can
한편, 전체 나이 추정부(14)는 얼굴 전체 이미지를 통해 전체 나이를 추정할 수 있다(S21).Meanwhile, the total age estimation unit 14 may estimate the total age through the entire face image (S21).
전체 나이 추정부(14)는 표준화된 얼굴 전체 이미지 혹은 표준화 및 축소된 얼굴 전체 이미지 중 적어도 하나에 기초하여 전체 나이를 산출할 수 있다.The total age estimator 14 may calculate the total age based on at least one of a standardized whole face image or a normalized and reduced whole face image.
한편, 개별 나이 추정부(13) 및 전체 나이 추정부(14) 각각은 개별 나이와 전체 나이를 산출할 때 앙상블(ensemble) 모델을 이용할 수 있다.Meanwhile, each of the individual age estimating unit 13 and the total age estimating unit 14 may use an ensemble model when calculating the individual age and the total age.
앙상블 모델(ensemble)은 여러 모델이 동일한 문제를 해결하고 더 나은 결과를 얻도록 훈련시키는 기계 학습 패러다임을 기반으로 만들어진 모델일 수 있다. 앙상블 모델은 개별로 학습한 여러 모델을 조합하여 일반화한 모델일 수 있다. 앙상블 모델은 다수의 학습 모델을 이용하는 추정 기법일 수 있다. An ensemble can be a model built on top of a machine learning paradigm where multiple models are trained to solve the same problem and get better results. The ensemble model may be a generalized model by combining several individually learned models. An ensemble model may be an estimation technique using multiple learning models.
개별 나이 추정부(13)는 개별 나이를 추정에 앙상블 모델을 적용할 수 있다. 즉, 개별 나이 추정부(13)는 이마에 대응하는 나이, 눈에 대응하는 나이, 코에 대응하는 나이, 볼에 대응하는 나이 및 입술에 대응하는 나이 각각을 산출할 때 앙상블 모델을 이용할 수 있다. The individual age estimator 13 may apply an ensemble model to estimate individual ages. That is, the individual age estimation unit 13 may use the ensemble model when calculating the age corresponding to the forehead, the age corresponding to the eyes, the age corresponding to the nose, the age corresponding to the cheeks, and the age corresponding to the lips. .
또한, 전체 나이 추정부(14)는 전체 나이를 산출할 때 앙상블 모델을 이용할 수 있다.Also, the total age estimator 14 may use an ensemble model when calculating the total age.
도 4는 본 개시의 실시 예에 따른 나이 추정 장치에서 앙상블 모델 사용되는 모습이 도시된 개략도이다.4 is a schematic diagram illustrating the use of an ensemble model in an age estimation device according to an embodiment of the present disclosure.
도 4의 예시를 참고하면, 전체 나이 추정부(14)는 얼굴 전체 이미지에 대해 10개의 개별 학습 모델을 통해 추정된 나이의 평균을 전체 나이로 최종 산출할 수 있다.Referring to the example of FIG. 4 , the overall age estimator 14 may finally calculate the average of ages estimated through 10 individual learning models for the entire face image as the overall age.
또한, 개별 나이 추정부(13)는 이마 부위가 포함된 분할 이미지에 대해 10개의 개별 학습 모델을 통해 추정된 이마 나이의 평균을 이마에 대응하는 나이로 최종 산출할 수 있다. 마찬가지로, 개별 나이 추정부(13)는 왼쪽 눈 부위가 포함된 분할 이미지 및 오른쪽 눈 부위가 포함된 분할 이미지에 대해 10개의 개별 학습 모델을 통해 추정된 눈 나이의 평균을 눈에 대응하는 나이로 최종 산출할 수 있다. 개별 나이 추정부(13)는 코 부위가 포함된 분할 이미지에 대해 10개의 개별 학습 모델을 통해 추정된 코 나이의 평균을 코에 대응하는 나이로 최종 산출할 수 있다. 개별 나이 추정부(13)는 좌측 볼 부위가 포함된 분할 이미지 및 우측 볼 부위가 포함된 분할 이미지에 대해 10개의 개별 학습 모델을 통해 추정된 볼 나이의 평균을 볼에 대응하는 나이로 최종 산출할 수 있다. 개별 나이 추정부(13)는 입술 부위가 포함된 분할 이미지에 대해 10개의 개별 학습 모델을 통해 추정된 입술 나이의 평균을 입술에 대응하는 나이로 최종 산출할 수 있다.In addition, the individual age estimator 13 may finally calculate the average of the forehead ages estimated through 10 individual learning models for the divided images including the forehead as the age corresponding to the forehead. Similarly, the individual age estimator 13 converts the average of the eye ages estimated through 10 individual learning models for the divided images including the left eye part and the divided image including the right eye part into the final age corresponding to the eye. can be calculated The individual age estimator 13 may finally calculate the average of nose ages estimated through 10 individual learning models for the segmented images including the nose as the age corresponding to the nose. The individual age estimator 13 finally calculates the average of the cheek ages estimated through 10 individual learning models for the divided images including the left cheek and the divided images including the right cheek as the age corresponding to the cheek. can The individual age estimator 13 may finally calculate the average of the lip ages estimated through 10 individual learning models for the segmented image including the lip portion as the age corresponding to the lips.
위 개별 학습 모델은 AI 구조로, 특히 CNN 중 MobileNet 구조로 구현될 수 있다. CNN(Convolutional Neural Network)은 이미지 기반 딥 러닝의 주요한 방법으로, 이미지의 2차원 특성을 활용한다. The above individual learning model can be implemented as an AI structure, especially a MobileNet structure among CNNs. Convolutional Neural Network (CNN) is a major method of image-based deep learning, which utilizes the two-dimensional characteristics of images.
딥 러닝(Deep learning)은 여러 비선형 계산의 조합을 통해 추상화(다량의 자료에서 핵심 정보 추출)하는 알고리즘으로, 기존의 학습은 PCA, 패턴인식 등을 통해 특징(feature)을 추출한 후 판단하였다. 딥 러닝은 대량의 자료를 이용하여 학습하므로, 선험적인 편견(bias)이나 가정이 없다.Deep learning is an algorithm that abstracts (extracts key information from a large amount of data) through a combination of various nonlinear calculations. Existing learning was judged after extracting features through PCA and pattern recognition. Because deep learning learns using a large amount of data, there are no a priori biases or assumptions.
합성곱(convolution)은 인접한 픽셀 값들 필터를 이용한 계산 활용 방법으로, 그 연산 방법에 대해 도 5에 예시로 도시하였다.Convolution is a calculation utilization method using a filter of adjacent pixel values, and the calculation method is illustrated in FIG. 5 as an example.
도 5는 본 개시의 실시 예에 따른 합성곱 연산의 예시가 도시된 도면이다.5 is a diagram illustrating an example of a convolution operation according to an embodiment of the present disclosure.
흑백 이미지에 합성곱 연산을 수행하는 경우를 예로 들면, 우선 인접 픽셀 연산을 위해 수치가 0인 픽셀을 테두리에 추가할 수 있다. 그리고, 모든 픽셀 각각에 대해 오른쪽으로 한 칸씩 밀면서 필터와 곱셈 후 덧셈 연산을 수행할 수 있다. 합성곱 연산을 통한 세로 강조 결과와 가로 강조의 결과가 예시로 도시되었다.For example, in the case of performing a convolution operation on a black-and-white image, a pixel with a value of 0 may be added to a border for an adjacent pixel operation. Then, for each pixel, an addition operation after filtering and multiplication can be performed while pushing one space to the right. A result of vertical emphasis and a result of horizontal emphasis through the convolution operation are shown as an example.
MobileNet은 CNN의 한 방법으로 이미지 기반 딥 러닝 모형 파라미터 및 연산을 줄이는 방법일 수 있다. 일반적인 CNN은 인접한 3*3 픽셀에 RGB 세가지 색이 중첩되어 있는 3*3*3 필터 연산이나, MobileNet은 3*3 필터 연산과 RGB 3개를 분리하여 3*3+3 연산으로, 512*512 이미지의 경우 약 4,800,000 개 파라미터를 학습할 수 있다.MobileNet can be a method of reducing image-based deep learning model parameters and operations as a method of CNN. A general CNN is a 3*3*3 filter operation in which three RGB colors are superimposed on adjacent 3*3 pixels, but MobileNet is a 3*3+3 operation by separating the 3*3 filter operation and the RGB 3, which is 512*512 For images, about 4,800,000 parameters can be learned.
본 개시와 같이, 10개의 개별 학습 모델을 이용할 경우 약 100개의 레이어(layer), 약 4,800,000개 이상의 파라미터를 포함할 수 있다.As in the present disclosure, when using 10 individual learning models, about 100 layers and about 4,800,000 or more parameters may be included.
이와 같이 앙상블 모델을 이용할 경우, 머신 러닝(Machine learning)에서 추정 안정성 및 정확도가 향상되는 이점이 있다.When the ensemble model is used as described above, there is an advantage in that estimation stability and accuracy are improved in machine learning.
다시, 도 2를 설명한다.Again, FIG. 2 is described.
최종 나이 추정부(15)는 분할 또는 분할/전체 이미지 추정 수치를 통합하여 사용자의 최종 나이를 추정할 수 있다(S23).The final age estimating unit 15 may estimate the final age of the user by integrating division or division/whole image estimation values (S23).
분할 이미지 추정 수치는 분할 이미지를 통해 산출된 개별 나이를 의미할 수 있다. 전체 이미지 추정 수치는 얼굴 전체 이미지를 통해 산출된 전체 나이를 의미할 수 있다.The division image estimation value may refer to an individual age calculated through division images. The total image estimation value may mean the total age calculated through the entire face image.
최종 나이 추정부(15)는 분할 이미지 추정 수치 및/또는 전체 이미지 추정 수치를 통합함으로써, 최종 나이를 산출할 수 있다.The final age estimator 15 may calculate the final age by integrating the divided image estimation values and/or the entire image estimation values.
즉, 최종 나이 추정부(15)는 개별 나이 및/또는 전체 나이를 통합하여 최종 나이를 산출할 수 있다. That is, the final age estimation unit 15 may calculate the final age by integrating individual ages and/or all ages.
제1 실시 예에 따르면, 최종 나이 추정부(15)는 개별 나이들의 평균 또는 개별나이들과 전체 나이의 평균을 최종 나이로 산출할 수 있다.According to the first embodiment, the final age estimation unit 15 may calculate an average of individual ages or an average of individual ages and total ages as the final age.
제2 실시 예에 따르면, 최종 나이 추정부(15)는 개별 나이와 전체 나이 중 최상 수치와 최하 수치를 배제한 후 나머지들의 평균을 최종 나이로 산출할 수 있다. According to the second embodiment, the final age estimator 15 may calculate the average of the remaining values as the final age after excluding the highest value and the lowest value among individual ages and total ages.
제1 및 제2 실시 예의 경우, 산출 방법이 비교적 간단한 이점이 있으나, 부위별로 나이 추정 정확도가 다른데, 이러한 부위별 성능이 반영되지 않는 한계가 있을 수 있다. In the case of the first and second embodiments, there is an advantage in that the calculation method is relatively simple, but age estimation accuracy is different for each part, and there may be a limitation in that such performance for each part is not reflected.
제3 및 제4 실시 예에 따르면, 최종 나이 추정부(15)는 개별 나이 및/또는 전체 나이 각각에 가중치를 부여한 후의 평균을 최종 나이로 산출할 수 있다. 즉, 제3 및 제4 실시 예에 따르면, 최종 나이 추정부(15)는 최종 나이 산출시 가중치를 반영하나, 가중치 산출 방법이 상이할 수 있다. 이하, 가중치 산출 방법을 설명한다.According to the third and fourth embodiments, the final age estimating unit 15 may calculate an average of individual ages and/or total ages as the final age after assigning weights. That is, according to the third and fourth embodiments, the final age estimator 15 reflects the weight when calculating the final age, but the weight calculation method may be different. Hereinafter, a weight calculation method will be described.
제3 실시 예의 경우, 최종 나이 추정부(15)는 선형 회귀식을 학습시키는 방식으로 가중치를 산출할 수 있다. 이 경우, 부위별 성능이 반영되는 이점이 있으나, 모든 부위의 가중치가 필요한 한계가 있다. 즉, 이 경우에는 특정 부위의 가중치가 없으면 가중치 반영 최종 나이의 산출이 어려울 수 있다.In the case of the third embodiment, the final age estimator 15 may calculate weights by learning a linear regression equation. In this case, there is an advantage in that the performance of each part is reflected, but there is a limitation in that weights of all parts are required. That is, in this case, it may be difficult to calculate the weighted final age if there is no weight for a specific part.
제4 실시 예의 경우, 최종 나이 추정부(15)는 1/추정 오차를 각 부위별 개별 모델의 가중치로 부여한 후 부위별 추정 나이의 가중치 평균을 최종 나이로 산출할 수 있다. 구체적으로, 최종 나이 추정부(15)는 아래 수학식 1을 통해 최종 나이를 산출할 수 있다.In the case of the fourth embodiment, the final age estimator 15 may assign 1/estimation error as a weight of individual models for each part and then calculate the weighted average of the estimated age for each part as the final age. Specifically, the final age estimation unit 15 may calculate the final age through Equation 1 below.
Figure PCTKR2022014057-appb-img-000001
Figure PCTKR2022014057-appb-img-000001
위 수학식 1에서 A는 나이, W는 가중치, I는 최종 통합, T는 얼굴 전체, F는 이마, E는 눈, N는 코, C는 볼, L은 입술을 나타낼 수 있다. 즉 수학식 1은 최종 나이인 가중치 평균이 각 부위별로 가중치와 해당 부위의 나이를 곱한 값들을 합을 가중치들의 합으로 나눈 값임을 나타낸다.In Equation 1 above, A is the age, W is the weight, I is the final integration, T is the entire face, F is the forehead, E is the eye, N is the nose, C is the cheek, and L is the lips. That is, Equation 1 indicates that the weight average, which is the final age, is a value obtained by dividing the sum of values obtained by multiplying the weight for each part by the age of the corresponding part by the sum of the weights.
그리고, 가중치 W는 1/MAE에 의해 결정되며, 측정 불가 항목(부위)의 가중치는 0일 수 있다. 측정 불가 항목(부위)는 마스크 등으로 가려져서 인식되지 않는 얼굴 부위를 의미할 수 있다.And, the weight W is determined by 1/MAE, and the weight of the non-measurable item (part) may be 0. The non-measurable item (part) may refer to a face part that is not recognized because it is covered by a mask or the like.
선택적으로, 최종 나이 추정부(15)는 입력된 이미지 혹은 얼굴 부위별 분할된 이미지가 포커스가 맞지 않을 경우, 또는 입력 또는 분할된 이미지의 품질에 따라, 상기 가중치에 패널티를 부여할 수 있다. 구체적으로, 최종 나이 추정부(15)는 입력된 얼굴 전체 이미지 혹은 얼굴 부위별 분할 이미지의 포커스 또는 품질에 따라 가중치에 패널티를 부여할 수 있다. 예를 들어, 최종 나이 추정부(15)는 얼굴 전체 이미지 혹은 분할 이미지의 포커스(초점)이 맞지 않으면 가중치에 패널티를 부여할 수 있다. 또는, 최종 나이 추정부(15)는 얼굴 전체 이미지 혹은 분할 이미지의 품질을 산출하고, 산출된 품질이 기설정된 임계치 보다 낮으면 가중치에 패널티를 부여할 수 있다. 여기서, 품질은 PSNR (Peak Signal-to-Noise Ratio) 또는 SSIM (Structural Similarity Index Map) 등으로 산출될 수 있으나, 이는 예시적인 것에 불과하므로 이에 제한되지 않음이 타당하다.Optionally, the final age estimator 15 may apply a penalty to the weight when the input image or the segmented image for each face part is out of focus or according to the quality of the input or segmented image. Specifically, the final age estimator 15 may impose a penalty on weights according to the focus or quality of the input whole face image or divided images for each face part. For example, the final age estimator 15 may impose a penalty on weights when the entire face image or the divided images are out of focus. Alternatively, the final age estimator 15 may calculate the quality of the whole face image or the segmented image, and if the calculated quality is lower than a predetermined threshold value, a weight penalty may be applied. Here, the quality may be calculated as PSNR (Peak Signal-to-Noise Ratio) or SSIM (Structural Similarity Index Map), but since this is only an example, it is reasonable not to be limited thereto.
그리고, 최종 나이 추정부(15)는 패널티 부여시 가중치를 소정 값 혹은 소정 비율로 감소시킬 수 있다. 그러나 이는 예시적인 것에 불과하므로 이에 제한되지 않음이 타당하다 In addition, the final age estimator 15 may decrease the weight by a predetermined value or a predetermined ratio when a penalty is imposed. However, since this is merely an example, it is reasonable not to be limited thereto.
최종 나이 추정부(15)는 측정 불가 항목(부위)가 존재할 경우 전체 나이에 대한 가중치를 자동으로 0 으로 결정할 수 있다.The final age estimator 15 may automatically determine a weighted value for the total age as 0 when there is an unmeasurable item (part).
즉, 최종 나이 추정부(15)는 각 부위별로 가중치 W를 1/MAE로 결정하고, 전체 이미지 및 분할 이미지에 기초하여 측정 불가 항목의 가중치 W를 0으로 결정할 수 있다. 최종 나이 추정부(15)는 각 부위별로 가중치 W를 MAE의 역수로 결정할 수 있다.That is, the final age estimator 15 may determine the weight W of each part as 1/MAE, and may determine the weight W of the non-measurable item as 0 based on the entire image and the divided images. The final age estimator 15 may determine the weight W for each part as the reciprocal of the MAE.
여기서, MAE는 Mean Absolute Error의 약자로, 절대 값 오차의 평균을 나타낼 수 있다. MAE는 피험자 37,080 명에 대한 2592*3888 크기의 원본 얼굴 전체 이미지와, 512*215 이하 원본 해상도의 분할 이미지, 512*512 사이즈로 압축된 학습용 전체 얼굴 이미지를 통해 총 10개의 모델 학습, 자료 별 6개의 추정 결과를 종합한 결과를 통해 획득할 수 있고, 이는 아래 표 1과 같을 수 있다.Here, MAE is an abbreviation of Mean Absolute Error, and may represent the average of absolute value errors. MAE learned a total of 10 models through original full face images of 2592*3888 size for 37,080 subjects, split images with original resolution of 512*215 or less, and full face images for training compressed to 512*512 size, 6 per data It can be obtained through the result of synthesizing the estimation results of the dogs, which can be shown in Table 1 below.
부위part MAEMAE SDSD CA-3CA-3 CA-5CA-5
전체entire 2.462.46 2.162.16 68.568.5 89.989.9
이마forehead 4.994.99 4.014.01 38.138.1 58.858.8
눈 (평균)snow (average) 3.533.53 2.952.95 52.052.0 75.475.4
nose 3.843.84 3.113.11 47.947.9 71.071.0
볼 (평균)ball (average) 4.464.46 3.683.68 42.242.2 64.464.4
입술Lips 3.703.70 3.083.08 49.949.9 73.173.1
통합 (1/MAE)Integration (1/MAE) 2.442.44 2.152.15 68.868.8 90.090.0
통합(가중치 수동 조정)Integration (manual adjustment of weights) 2.432.43 2.152.15 69.069.0 90.290.2
위 표는 세트(set)로 학습되며, 세트에 포함되지 않는 추정 결과가 생성된 모델이며, 1/2 자료 학습 모델 4개 (모델 A, B, C, D), 자료 별 2개 추정 결과 생성되고, 1/3 자료 학습 모델 6개 (모델 0, 1, 2, 37, 46, 58), 자료 별 2개 추정 결과 생성되었다(37 은 set3과 7 자료 학습 모델, 다른 학습 모델과 자료 교집합의 최대치 최소화).위 표에서 MAE (Mean Absolute Error)는 학습에서 사용하지 않은 데이터에서 추정치와 실측치의 평균 차이이고, SD(Standard deviation)는 표준 편차, CA-3 (Cumulative Accuracy 3)은 오차가 3살 이하인 비율 (%), CA-5 (Cumulative Accuracy 5)는 오차가 5살 이하인 비율 (%)을 나타내고, 눈과 볼은 양쪽의 이미지 기반 나이 추정 평균을 사용하였다. CA-k는 추정치와 실측치의 차이가 k 이하일 경우를 맞춘 것으로 가정한 경우의 정확도로, 나이 예측 정확도를 % 단위로 이야기 하기 위해 만들어진 척도일 수 있다.이와 같이, 제4 실시 예에 따르면, 최종 나이 추정부(15)는 각 부위 별로 별도의 가중치를 부여 가능하고, 부위별로 가중치 부여된 개별 나이 및 종합 나이의 평균을 최종 나이로 산출할 수 있다. 그리고, 최종 나이 추정부(15)는 측정 불가 부위의 가중치를 0으로 결정할 수 있다. The table above is a model that is learned as a set and generated estimation results that are not included in the set. 4 1/2 data learning models (Model A, B, C, D), 2 estimation results for each data 6 1/3 data learning models ( models 0, 1, 2, 37, 46, 58), and 2 estimation results for each data were generated (37 is set3 and 7 data learning models, the intersection of other learning models and data In the table above, MAE (Mean Absolute Error) is the average difference between the estimated value and the actual value in the data not used in learning, SD (Standard deviation) is the standard deviation, CA-3 (Cumulative Accuracy 3) is the error is 3 The ratio (%) under age 5, CA-5 (Cumulative Accuracy 5) indicates the ratio (%) under 5 years of age with an error, and the average of both image-based age estimates was used for the eyes and cheeks. CA-k is the accuracy when it is assumed that the difference between the estimated value and the measured value is equal to or less than k, and may be a scale made to talk about age prediction accuracy in % units. In this way, according to the fourth embodiment, the final The age estimator 15 may assign a separate weight to each part, and calculate an average of the weighted individual age and overall age for each part as the final age. And, the final age estimator 15 may determine the weight of the non-measurable part as 0.
다음으로, 최종 나이 추정부(15)가 위 수학식 1을 이용하여 최종 나이를 산출하는 방법을 설명한다.Next, a method for the final age estimation unit 15 to calculate the final age using Equation 1 above will be described.
예를 들어,
Figure PCTKR2022014057-appb-img-000002
,
Figure PCTKR2022014057-appb-img-000003
,
Figure PCTKR2022014057-appb-img-000004
,
Figure PCTKR2022014057-appb-img-000005
,
Figure PCTKR2022014057-appb-img-000006
,
Figure PCTKR2022014057-appb-img-000007
가 각각 6, 5, 4, 3, 2, 1 이고,
Figure PCTKR2022014057-appb-img-000008
,
Figure PCTKR2022014057-appb-img-000009
,
Figure PCTKR2022014057-appb-img-000010
,
Figure PCTKR2022014057-appb-img-000011
,
Figure PCTKR2022014057-appb-img-000012
,
Figure PCTKR2022014057-appb-img-000013
가 각각 20, 17, 20, 22, 19, 34인 경우, 최종 나이 추정부(15)는
Figure PCTKR2022014057-appb-img-000014
를 (6*20+ 5*17+4*20+3*22+2*19+1*34)/(6+5+4+3+2+1)=20.14로 산출할 수 있다.
for example,
Figure PCTKR2022014057-appb-img-000002
,
Figure PCTKR2022014057-appb-img-000003
,
Figure PCTKR2022014057-appb-img-000004
,
Figure PCTKR2022014057-appb-img-000005
,
Figure PCTKR2022014057-appb-img-000006
,
Figure PCTKR2022014057-appb-img-000007
are 6, 5, 4, 3, 2, 1 respectively,
Figure PCTKR2022014057-appb-img-000008
,
Figure PCTKR2022014057-appb-img-000009
,
Figure PCTKR2022014057-appb-img-000010
,
Figure PCTKR2022014057-appb-img-000011
,
Figure PCTKR2022014057-appb-img-000012
,
Figure PCTKR2022014057-appb-img-000013
are 20, 17, 20, 22, 19, and 34 respectively, the final age estimation unit 15
Figure PCTKR2022014057-appb-img-000014
can be calculated as (6*20+5*17+4*20+3*22+2*19+1*34)/(6+5+4+3+2+1)=20.14.
다른 예로, 사용자가 마스크를 착용하고 있어, 코와 입에 대한 가중치가 0인 경우, 최종 나이 추정부(15)는 눈과 코에 대한 가중치
Figure PCTKR2022014057-appb-img-000015
Figure PCTKR2022014057-appb-img-000016
을 0으로 결정하므로,
Figure PCTKR2022014057-appb-img-000017
를 (6*20+ 5*17+4*20+0+2*19+0)/(6+5+4+0+2+0)=19산출할 수 있다.
As another example, when the weights for the nose and mouth are 0 because the user is wearing a mask, the final age estimator 15 calculates the weights for the eyes and nose.
Figure PCTKR2022014057-appb-img-000015
and
Figure PCTKR2022014057-appb-img-000016
is set to 0, so
Figure PCTKR2022014057-appb-img-000017
(6 * 20 + 5 * 17 + 4 * 20 + 0 + 2 * 19 + 0) / (6 + 5 + 4 + 0 + 2 + 0) = 19 can be calculated.
이와 같이, 제4 실시 예에 따르면, 각 부위별 성능에 따른 가중치를 반영하여 최종 나이를 산출 가능한 이점이 있다. 또한, 일부 부위가 가려지더라도, 이미지에 포함되지 않은 부위의 가중치를 배제함으로써, 최종 나이의 산출이 가능한 이점이 있다.In this way, according to the fourth embodiment, there is an advantage in that the final age can be calculated by reflecting the weight according to the performance of each part. In addition, even if some parts are covered, there is an advantage in that the final age can be calculated by excluding weights of parts not included in the image.
이 밖에도, 최종 나이 추정부(15)는 가중치 조정 및 회귀 혹은 전연령 매칭 테이블 형태를 이용하여 최종 나이를 산출할 수도 있다. 이를 통해, 젊은 사람은 약간 나이들게, 나이든 사람은 약간 젊게 예측하는 경향의 보정이 가능할 수 있다.In addition, the final age estimating unit 15 may calculate the final age using weight adjustment and regression or a form of an all-age matching table. Through this, it may be possible to correct the tendency of predicting that young people are slightly older and older people are slightly younger.
다시, 도 2를 설명한다. Again, FIG. 2 is described.
나이 출력부(16)는 분석 결과를 시각화할 수 있다(S25).The age output unit 16 may visualize the analysis result (S25).
즉, 나이 출력부(16)는 최종 나이를 표시할 수 있다. 또한, 나이 출력부(16)는 최종 나이와 함께, 각 부위별 나이인 개별 나이를 함께 표시할 수도 있다.That is, the age output unit 16 may display the final age. In addition, the age output unit 16 may display the individual age, which is the age for each part, together with the final age.
또는, 나이 출력부(16)는 부위별 개별 나이를 표시하면서, 동일 나이의 사람들의 평균 개별 나이를 함께 표시할 수도 있다.Alternatively, the age output unit 16 may also display the average individual age of people of the same age while displaying the individual age for each part.
도 6 본 개시의 실시 예에 따른 나이 추정 장치가 나이 분석 결과를 시각화하는 방법의 일 예가 도시된 도면이다.6 is a diagram illustrating an example of a method for visualizing an age analysis result by an age estimation device according to an embodiment of the present disclosure.
도 6에 도시된 바와 같이, 나이 출력부(16)는 사용자의 개별 나이와 함께, 동일 나이의 사람들의 개별 나이를 방사형 차트로 표시할 수 있다. 나이 출력부(16)는 사용자의 개별 나이와 함께, 동일 나이의 사람들의 개별 나이를 radar plot 형태로 시각화할 수 있다. 즉, 나이 출력부(16)는 부위별 나이를 사용자의 나이와 다른 비슷한 연령대의 사람들의 평균 나이와 함께 표시할 수 있다.As shown in FIG. 6 , the age output unit 16 may display the individual ages of people of the same age as a radial chart along with the individual ages of the user. The age output unit 16 may visualize the individual age of the user and the individual age of people of the same age in the form of a radar plot. That is, the age output unit 16 may display the age of each part along with the average age of people of a similar age other than the user's age.
도 6과 같은 출력을 해석하면, 사용자의 나이를 나타내는 yours 선이 안쪽으로 들어갈 수록 '젊어 보임', 바깥쪽으로 나갈수록 '늙어 보임' 으로 진단됨을 알 수 있고, 이에 따라 이마, 볼, 코는 상대적으로 '젊어 보임'이고, 눈과 입술은 상대적으로 '늙어 보임'임을 알 수 있다.If the output shown in FIG. 6 is interpreted, it can be seen that the more the yours line representing the user's age goes inward, the more 'younger' and the more outward it is, the more it is diagnosed as 'older'. As a result, it can be seen that 'looks young', and eyes and lips are relatively 'looks old'.
나이 출력부(16)는 나이 분석 결과를 출력하면, 케어/제품 추천 등의 가이드를 더 표시할 수도 있다. 도 6의 예시와 같은 경우, 나이 출력부(16)는 눈과 입술 집중 케어를 권장할 수 있고, 눈 부위 강조 가능할 수 있다.When the age output unit 16 outputs the age analysis result, it may further display a guide such as care/product recommendation. In the case of the example of FIG. 6 , the age output unit 16 may recommend intensive care for the eyes and lips, and may emphasize the eye area.
즉, 나이 출력부(16)는 얼굴 부위 중 노화가 심한 부위를 보여주고, 적합한 시술이나 화장품 추천할 수 있다.That is, the age output unit 16 may show the severely aged parts of the face and recommend suitable procedures or cosmetics.
또한, 최종 나이 추정부(15)는 피부 나이를 예측할 수 있다. 예를 들어, 최종 나이 추정부(15)는 얼굴 부위 중 특정 부위(예를 들어, 이마+눈+볼)의 나이를 통합하여 피부 나이를 산출할 수도 있다.Also, the final age estimation unit 15 may predict skin age. For example, the final age estimator 15 may calculate skin age by integrating ages of specific parts (eg, forehead + eyes + cheeks) among facial parts.
나이 출력부(16)는 노화 정도(예: 심각, 보통, 양호)를 진단할 수도 있다. 그리고, 이에 따라 나이 출력부(16)는 노화 부위 기준 타입 (예: 눈 노화 타입, 이마 노화 타입)을 분류할 수도 있다.The age output unit 16 may diagnose the degree of aging (eg, severe, moderate, or good). And, accordingly, the age output unit 16 may classify the aging part reference type (eg, eye aging type, forehead aging type).
한편, 상술한 나이 추정 장치(1)는 나이를 획득하여 출력하도록 별도로 제작된 장치이거나, 스마트폰 등과 같은 이동 단말기일 수도 있다. 즉, 이동 단말기가 나이를 획득하여 출력하는 나이 추정 장치일 수 있다.Meanwhile, the above-described age estimating device 1 may be a device manufactured separately to acquire and output an age, or may be a mobile terminal such as a smart phone. That is, the mobile terminal may be an age estimation device that obtains and outputs an age.
또한, 본 개시는 복수의 장치 간에 통신을 통해 나이를 추정 및 출력하는 나이 추정 시스템으로 구현될 수도 있다.Also, the present disclosure may be implemented as an age estimation system that estimates and outputs an age through communication between a plurality of devices.
도 7은 본 개시의 실시 예에 따른 나이 추정 시스템의 블록도이다.7 is a block diagram of an age estimation system according to an embodiment of the present disclosure.
나이 추정 시스템은 이동 단말기(110), 서버(120) 및 데이터 제공 서버(130)를 포함할 수 있다. 본 발명에 따른 나이 추정 시스템에서 이동 단말기(110) 또는 서버(120)는 상술한 나이 추정 장치일 수 있으며, 상술한 나이 추정 장치의 일부 혹은 전체의 특징을 포함할 수도 있고, 단말기(110)와 서버(120)가 상술한 나이 추정 장치의 기능을 나누어서 각 기능을 수행할 수 있다. 하기에서, 나이 추정 장치의 기능을 나누어서 시스템상에서 각 기능을 수행하는 것에 대해서 예시적으로 설명한다.The age estimation system may include a mobile terminal 110, a server 120, and a data providing server 130. In the age estimation system according to the present invention, the mobile terminal 110 or the server 120 may be the above-mentioned age estimation device, may include some or all of the features of the above-mentioned age estimation device, and may include the terminal 110 and The server 120 may perform each function by dividing the function of the age estimation device described above. In the following, functions of the age estimating device are divided into exemplary descriptions of performing each function in the system.
이동 단말기(110)는 스마트폰, 태블릿 PC, 노트북 등과 같은 사용자 단말일 수 있다.The mobile terminal 110 may be a user terminal such as a smart phone, a tablet PC, or a laptop computer.
서버(120)는 나이 추정 모델을 획득할 수 있다. 나이 추정 모델은 개별 나이 추정 모델, 전체 나이 추정 모델 및 최종 나이 추정 모델을 포함할 수 있다. 서버(120)는 데이터 제공 서버(130)로부터 수신한 데이터에 기초하여 나이 추정 모델을 획득할 수 있다.The server 120 may obtain an age estimation model. The age estimation model may include an individual age estimation model, an overall age estimation model, and a final age estimation model. The server 120 may obtain an age estimation model based on data received from the data providing server 130 .
서버(120)는 나이 추정 모델에 기초하여 개별 나이, 전체 나이 및 최종 나이를 직접 획득할 수도 있고, 이동 단말기(110)에서 개별 나이, 전체 나이 및 최종 나이를 획득하도록 이동 단말기(110)로 나이 추정 모델을 전송할 수도 있다.The server 120 may directly obtain the individual age, total age, and final age based on the age estimation model, or use the mobile terminal 110 to obtain the individual age, total age, and final age from the mobile terminal 110. An estimation model may be transmitted.
데이터 제공 서버(130)는 나이 추정 모델을 산출하는데 필요한 데이터를 저장 및 업데이트할 수 있다. 데이터 제공 서버(130)는 나이 추정 모델을 산출하는데 필요한 알고리즘, 사용자 정보 등을 저장 및 업데이트할 수 있다. The data providing server 130 may store and update data necessary for calculating an age estimation model. The data providing server 130 may store and update algorithms and user information necessary for calculating an age estimation model.
데이터 제공 서버(130)는 나이 추정 모델을 산출하는데 필요한 데이터를 저장하고 있을 수 있다. 데이터 제공 서버(130)는 나이 추정 모델을 산출하는데 필요한 데이터를 서버(120)로 전송할 수도 있다. The data providing server 130 may store data necessary for calculating an age estimation model. The data providing server 130 may transmit data necessary for calculating the age estimation model to the server 120 .
데이터 제공 서버(130)는 나이 추정 모델을 산출하는데 필요한 데이터에 기초하여 나이 추정 모델을 직접 획득할 수 있다. 또는, 데이터 제공 서버(130)는 나이 추정 모델을 산출하는데 필요한 데이터를 서버(120)로 전송하여, 서버(20)가 나이 추정 모델을 획득할 수 있다.The data providing server 130 may directly obtain an age estimation model based on data necessary to calculate the age estimation model. Alternatively, the data providing server 130 may transmit data necessary for calculating the age estimation model to the server 120 so that the server 20 may acquire the age estimation model.
다음으로, 도 8를 참조하여, 나이 추정 시스템이 나이 추정 모델을 획득, 나이 추정 모델에 기초하여 나이를 추정하고, 분석한 결과를 시각화하는 방법에 대해 상세히 설명한다.Next, referring to FIG. 8 , a method of obtaining an age estimation model by the age estimation system, estimating an age based on the age estimation model, and visualizing the analyzed result will be described in detail.
도 8은 본 개시의 실시 예에 따른 나이 추정 시스템의 동작 방법이 도시된 순서도이다.8 is a flowchart illustrating an operating method of an age estimation system according to an embodiment of the present disclosure.
데이터 제공 서버(130)는 나이 추정 모델의 획득에 필요한 데이터를 저장할 수 있다(S111).The data providing server 130 may store data necessary for obtaining an age estimation model (S111).
즉, 데이터 제공 서버(130)는 나이 추정 모델의 획득에 필요한 데이터를 저장 및 관리할 수 있다. That is, the data providing server 130 may store and manage data necessary for obtaining an age estimation model.
데이터 제공 서버(130)는 나이 추정 모델의 획득에 필요한 데이터를 서버(120)로 전송할 수 있다(S113).The data providing server 130 may transmit data necessary for acquiring the age estimation model to the server 120 (S113).
서버(120)는 데이터 제공 서버(130)로부터 나이 추정 모델의 획득에 필요한 데이터를 수신할 수 있다.The server 120 may receive data necessary for obtaining an age estimation model from the data providing server 130 .
서버(120)는 나이 추정 모델의 획득에 필요한 데이터에 기초하여 나이 추정 모델을 획득할 수 있다(S115).The server 120 may obtain an age estimation model based on data necessary for acquiring the age estimation model (S115).
나이 추정 모델은 개별 나이 추정 모델, 전체 나이 추정 모델 및 최종 나이 추정 모델 중 적어도 하나를 포함할 수 있다.The age estimation model may include at least one of an individual age estimation model, an overall age estimation model, and a final age estimation model.
서버(120)는 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 저장하는 메모리(미도시)를 포함할 수 있다. The server 120 may include a memory (not shown) for storing an individual age estimation model, a total age estimation model, or a final age estimation model.
개별 나이 추정 모델은 얼굴 전체 이미지를 분할하여 획득된 분할 이미지와 실제 나이가 쌍으로 되어 있는 학습 데이터를 이용하여 생성될 수 있다. 전체 나이 학습 모델은 얼굴 전체 이미지와 실제 나이를 쌍으로 되어 있는 학습 데이터를 이용하여 생성될 수 있다. 최종 나이 추정 모델은 개별 나이 추정 모델에 의해 산출된 개별 나이 및 전체 나이 학습 모델에 의해 산출된 전체 나이와, 실제 나이가 쌍으로 되어 있는 학습 데이터를 이용하여 생성될 수 있다.An individual age estimation model may be generated using training data in which a segmented image obtained by segmenting an entire face image and an actual age are paired. The full age learning model may be generated using training data in which a full face image and an actual age are paired. The final age estimation model may be generated using learning data in which the individual age calculated by the individual age estimation model, the total age calculated by the total age learning model, and the actual age are paired.
한편, 이동 단말기(110)는 사용자의 얼굴 전체 이미지를 입력받을 수 있다(S117).Meanwhile, the mobile terminal 110 may receive the user's entire face image (S117).
이동 단말기(110)는 사용자의 얼굴 전체 이미지를 서버(120)로 전송할 수 있다(S119). 서버(120)는 이동 단말기(110)로부터 사용자의 얼굴 전체 이미지를 수신할 수 있다.The mobile terminal 110 may transmit the entire face image of the user to the server 120 (S119). The server 120 may receive the entire face image of the user from the mobile terminal 110 .
또는, 이동 단말기(110)는 사용자의 얼굴 전체 이미지를 분할하여 분할 이미지를 획득하고, 얼굴 전체 이미지 및 분할 이미지 모두를 서버(120)로 전송할 수도 있다. 이동 단말기(110)는 전송 장치(미도시)를 더 포함할 수 있고, 전송 장치(미도시)를 통해 얼굴 전체 이미지 또는 분할 이미지를 전송할 수 있다. 서버(120)는 얼굴 전체 이미지만 수신할 수 있고, 이 경우 얼굴 전체 이미지를 분할하여 분할 이미지를 획득할 수 있다. 서버(120)는 얼굴 전체 이미지 및 분할 이미지를 모두 수신할 수도 있다.Alternatively, the mobile terminal 110 may divide the entire face image of the user to obtain divided images, and transmit both the entire face image and the divided images to the server 120 . The mobile terminal 110 may further include a transmission device (not shown), and may transmit an entire face image or a divided image through the transmission device (not shown). The server 120 may receive only the entire face image, and in this case, it may obtain divided images by dividing the entire face image. The server 120 may receive both the entire face image and the divided images.
서버(120)는 이동 단말기(110)로부터 사용자의 얼굴 전체 이미지를 수신하면, 사용자의 얼굴 전체 이미지를 분석하여 개별 나이, 전체 나이 및 최종 나이를 획득할 수 있다(S121).Upon receiving the user's entire face image from the mobile terminal 110, the server 120 may analyze the user's entire face image to obtain an individual age, total age, and final age (S121).
서버(120)는 얼굴 전체 이미지 및 분할 이미지 중 적어도 하나를 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델에 적용하여 개별 나이, 전체 나이 또는 최종 나이를 산출할 수 있다.The server 120 may calculate an individual age, a total age, or a final age by applying at least one of the full face image and the segmented images to an individual age estimation model, an overall age estimation model, or a final age estimation model.
서버(120)는 개별 나이, 전체 나이 및 최종 나이를 이동 단말기(110)로 전송할 수 있다(S123).The server 120 may transmit individual ages, total ages, and final ages to the mobile terminal 110 (S123).
서버(120)는 전송 장치(미도시)를 더 포함할 수 있고, 전송 장치(미도시)를 통해 개별 나이, 전체 나이 및 최종 나이를 이동 단말기(110)로 전송할 수 있다.The server 120 may further include a transmission device (not shown), and may transmit the individual age, total age, and final age to the mobile terminal 110 through the transmission device (not shown).
이동 단말기(110)는 분석 결과를 시각화할 수 있다(S125).The mobile terminal 110 may visualize the analysis result (S125).
이동 단말기(110)는 분석 결과를 표시하는 디스플레이 장치(미도시)를 포함할 수 있다. 이동 단말기(110)는 디스플레이 장치(미도시)를 통해 개별 나이, 전체 나이 또는 최종 나이를 디스플레이할 수 있다.The mobile terminal 110 may include a display device (not shown) displaying analysis results. The mobile terminal 110 may display individual ages, total ages, or final ages through a display device (not shown).
즉, 이동 단말기(110)는 개별 나이, 전체 나이 및 최종 나이 중 적어도 하나를 출력할 수 있다. 또한, 이동 단말기(110)는 부위별 개별 나이를 표시하면서, 동일 나이의 사람들의 평균 개별 나이를 함께 표시할 수도 있다.That is, the mobile terminal 110 may output at least one of individual ages, total ages, and final ages. In addition, the mobile terminal 110 may also display the average individual age of people of the same age while displaying the individual age for each part.
본 발명의 일 실시예에 따르면, 서버(120)에서 획득하여 저장된 나이 추정 모델은 이동 단말기(110)으로 전송되어, 사용자의 얼굴 전체 이미지를 서버(120)로 전송할 필요 없이, 이동단말기(110) 자체가 상기한 (S121) 단계를 수행하여 직접 개별 나이, 전체 나이 및 최종 나이를 획득할 수도 있다.According to an embodiment of the present invention, the age estimation model acquired and stored in the server 120 is transmitted to the mobile terminal 110, and the mobile terminal 110 does not need to transmit the entire face image of the user to the server 120. The individual age, total age, and final age may be directly obtained by performing the above step (S121).
구체적으로, 이동 단말기(110)는 서버로부터 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델 수신 및 저장할 수 있다. 이동 단말기(110)는 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 저장하는 메모리(미도시)를 포함할 수 있다. 이동 단말기(110)는 얼굴 전체 이미지를 직접 입력받고, 입력 받은 얼굴 전체 이미지를 분할하여 분할 이미지를 획득할 수 있다. 이동 단말기(110)는 얼굴 전체 이미지 및 분할 이미지 중 적어도 하나를 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델에 적용하여 개별 나이, 전체 나이 또는 최종 나이를 산출할 수 있다.Specifically, the mobile terminal 110 may receive and store an individual age estimation model, an overall age estimation model, or a final age estimation model from the server. The mobile terminal 110 may include a memory (not shown) for storing an individual age estimation model, a total age estimation model, or a final age estimation model. The mobile terminal 110 may directly receive an entire face image and obtain divided images by dividing the received entire face image. The mobile terminal 110 may calculate an individual age, total age, or final age by applying at least one of the entire face image and the segmented images to an age estimation model, a total age estimation model, or a final age estimation model.
본 발명의 일 실시예에 따르면, 서버(120) 또는 이동 단말기(110)에 의해 획득된 개별 나이, 전체 나이 및 최종 나이는 다시 데이터 제공 서버(130)로 전송 및 저장되고, 이동 단말기(110)으로부터 제공받아 데이터 제공 서버(130)에 저장된 실제 나이와 함께 추가 학습용 데이터로 데이터 제공 서버(130)에 저장되어, 다시 서버(120)에 의해 나이 추정 모델이 업데이트될 수 있다.According to an embodiment of the present invention, the individual age, total age, and final age obtained by the server 120 or the mobile terminal 110 are transmitted and stored again to the data providing server 130, and the mobile terminal 110 The age estimation model may be updated by the server 120 again by being provided from and stored in the data providing server 130 as additional learning data together with the actual age stored in the data providing server 130.
전술한 본 개시는 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. The present disclosure described above can be implemented as computer readable codes in a medium on which a program is recorded. The computer-readable medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. there is
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely an example of the technical idea of the present invention, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present invention.
따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments.
본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

Claims (15)

  1. 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 생성 및 저장하는 서버; 및a server that creates and stores an individual age estimation model, an overall age estimation model, or a final age estimation model; and
    상기 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델에 기초하여 산출된 개별 나이, 전체 나이 또는 최종 나이를 디스플레이하는 이동 단말기를 포함하고,A mobile terminal displaying an individual age, a total age, or a final age calculated based on the individual age estimation model, the total age estimation model, or the final age estimation model;
    상기 서버는The server
    상기 이동 단말기로부터 사용자의 얼굴 전체 이미지를 수신하고, 수신된 얼굴 전체 이미지 및 상기 얼굴 전체 이미지를 분할한 분할 이미지 중 적어도 하나를 상기 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델에 적용하여 개별 나이, 전체 나이 또는 최종 나이를 산출하고, 산출된 개별 나이, 전체 나이 또는 최종 나이를 상기 이동 단말기로 전송하는A full face image of the user is received from the mobile terminal, and at least one of the received full face image and a split image obtained by dividing the entire face image is applied to the individual age estimation model, the total age estimation model, or the final age estimation model. Calculating an individual age, total age, or final age, and transmitting the calculated individual age, total age, or final age to the mobile terminal
    나이 추정 시스템.age estimation system.
  2. 청구항 1에 있어서,The method of claim 1,
    상기 서버는The server
    상기 이동 단말기로부터 상기 얼굴 전체 이미지만 수신하거나,Receiving only the entire face image from the mobile terminal;
    상기 이동 단말기로부터 상기 얼굴 전체 이미지 및 상기 분할 이미지를 모두 수신하는Receiving both the whole face image and the split image from the mobile terminal
    나이 추정 시스템.age estimation system.
  3. 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 생성하는 서버; 및a server that generates an individual age estimation model, an overall age estimation model, or a final age estimation model; and
    상기 서버로부터 상기 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델 수신 및 저장하고, 저장된 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델에 기초하여 산출된 개별 나이, 전체 나이 또는 최종 나이를 디스플레이하는 이동 단말기를 포함하고,The individual age estimation model, the total age estimation model, or the final age estimation model is received and stored from the server, and the individual age, total age, or final age estimation model calculated based on the stored individual age estimation model, total age estimation model, or final age estimation model is stored. Including a mobile terminal displaying the age,
    상기 이동 단말기는The mobile terminal
    사용자의 얼굴 전체 이미지를 입력받고, 입력받은 얼굴 전체 이미지 및 상기 얼굴 전체 이미지를 분할한 분할 이미지 중 적어도 하나를 상기 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델에 적용하여 개별 나이, 전체 나이 또는 최종 나이를 산출하는The user's entire face image is received as an input, and at least one of the received full face image and the divided image obtained by dividing the entire face image is applied to the individual age estimation model, the total age estimation model, or the final age estimation model, to calculate age or final age
    나이 추정 시스템.age estimation system.
  4. 청구항 1 또는 청구항 3 중 어느 한 항에 있어서,The method according to any one of claims 1 or 3,
    상기 서버 또는 상기 이동 단말기는The server or the mobile terminal
    상기 얼굴 전체 이미지를 얼굴 부위별로 분할함으로써 얼굴 부위별로 상기 분할 이미지를 획득하고,Obtaining the divided image for each face part by dividing the entire face image for each face part;
    상기 개별 나이는 얼굴 부위별 나이인The individual age is the age for each facial part
    나이 추정 시스템.age estimation system.
  5. 청구항 4에 있어서,The method of claim 4,
    상기 서버 또는 상기 이동 단말기는The server or the mobile terminal
    상기 얼굴 부위별로 분할하기 위해 특징점을 추출하고, 추출된 특징점 기준으로 상기 얼굴 전체 이미지를 분할하는Extracting feature points for segmentation by face part, and dividing the entire face image based on the extracted feature points
    나이 추정 시스템.age estimation system.
  6. 청구항 1 또는 청구항 3 중 어느 한 항에 있어서,The method according to any one of claims 1 or 3,
    상기 서버 또는 상기 이동 단말기는The server or the mobile terminal
    상기 개별 나이 및 상기 전체 나이의 평균을 상기 최종 나이로 산출하는Calculating the average of the individual age and the total age as the final age
    나이 추정 시스템.age estimation system.
  7. 청구항 1 또는 청구항 3 중 어느 한 항에 있어서,The method according to any one of claims 1 or 3,
    상기 서버 또는 상기 이동 단말기는The server or the mobile terminal
    얼굴 부위별 가중치를 부여한 후 부위별 추정 나이의 가중치 평균을 상기 최종 나이로 산출하는After weighting each part of the face, calculating the weighted average of the estimated age for each part as the final age
    나이 추정 시스템.age estimation system.
  8. 청구항 7에 있어서,The method of claim 7,
    상기 가중치 평균은The weighted average is
    각 부위별로 가중치와 해당 부위의 나이를 곱한 값들을 합을 가중치들의 합으로 나눈 값인The value obtained by dividing the sum of the values multiplied by the weight for each part by the age of the corresponding part by the sum of the weights
    나이 추정 시스템. age estimation system.
  9. 청구항 7에 있어서,The method of claim 7,
    상기 서버 또는 상기 이동 단말기는The server or the mobile terminal
    측정 불가 부위의 가중치를 0으로 결정하는Determines the weight of the non-measurable part as 0
    나이 추정 시스템.age estimation system.
  10. 청구항 5에 있어서,The method of claim 5,
    상기 서버 또는 상기 이동 단말기는The server or the mobile terminal
    상기 가중치를 절대 값 오차의 평균의 역수로 결정하는Determining the weight as the reciprocal of the average of the absolute value errors
    나이 추정 시스템.age estimation system.
  11. 청구항 1 또는 청구항 3 중 어느 한 항에 있어서,The method according to any one of claims 1 or 3,
    상기 서버 또는 상기 이동 단말기는The server or the mobile terminal
    상기 개별 나이를 추정할 때 앙상블 모델을 이용하는When estimating the individual age, an ensemble model is used.
    나이 추정 시스템.age estimation system.
  12. 청구항 11에 있어서,The method of claim 11,
    나이 추정 모델의 획득에 필요한 데이터를 저장하는 데이터 제공 서버를 더 포함하고,Further comprising a data providing server for storing data necessary for obtaining an age estimation model,
    상기 서버 또는 상기 이동 단말기는The server or the mobile terminal
    상기 데이터 제공 서버로부터 수신한 데이터에 기초하여 상기 앙상블 모델을 적용한 나이 추정 모델을 획득하는Obtaining an age estimation model to which the ensemble model is applied based on the data received from the data providing server
    나이 추정 시스템.age estimation system.
  13. 청구항 1 또는 청구항 3 중 어느 한 항에 있어서,The method according to any one of claims 1 or 3,
    상기 서버 또는 상기 이동 단말기는The server or the mobile terminal
    입력된 상기 얼굴 전체 이미지에 포함된 얼굴의 각도 또는 조명 환경이 기설정된 표준에 상응하도록 보정하는Correcting the angle or lighting environment of the face included in the input whole face image to correspond to a preset standard
    나이 추정 시스템.age estimation system.
  14. 청구항 7에 있어서,The method of claim 7,
    상기 서버 또는 상기 이동 단말기는The server or the mobile terminal
    입력된 상기 얼굴 전체 이미지 혹은 얼굴 부위별 상기 분할 이미지의 포커스 또는 품질에 따라 상기 가중치에 패널티를 부여하는Applying a penalty to the weight according to the focus or quality of the input whole face image or the divided image for each face part
    나이 추정 시스템.age estimation system.
  15. 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 생성하는 서버; 및a server that generates an individual age estimation model, an overall age estimation model, or a final age estimation model; and
    사용자의 얼굴 전체 이미지를 입력받는 이동 단말기를 포함하고,Including a mobile terminal that receives a user's entire face image,
    상기 서버가 상기 개별 나이 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 저장하는 메모리를 포함하는 경우, 상기 이동 단말기는 상기 입력 받은 얼굴 전체 이미지를 서버로 전송하는 전송 장치를 포함하고, 상기 서버는 상기 이동 단말기로부터 전송 받은 얼굴 전체 이미지로부터 상기 메모리에 저장된 상기 개별 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 통해 개별 나이, 전체 나이 또는 최종 나이를 산출하고, 상기 이동 단말기로 상기 산출된 개별 나이, 전체 나이 또는 최종 나이를 전송하는 전송 장치를 포함하며,When the server includes a memory for storing the individual age estimation model, the entire age estimation model, or the final age estimation model, the mobile terminal includes a transmission device for transmitting the received entire face image to the server, and the server calculates an individual age, a total age, or a final age from the entire face image transmitted from the mobile terminal through the individual estimation model, total age estimation model, or final age estimation model stored in the memory, and calculates the calculated age with the mobile terminal. a transmission device for transmitting an individual age, total age or final age;
    상기 서버가 상기 이동 단말기로 상기 개별 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 전송할 수 있는 전송 장치를 포함하는 경우, 상기 이동 단말기는 상기 서버로부터 전송 받은 상기 개별 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 저장하는 메모리를 포함하며, 상기 이동 단말기는 상기 입력 받은 얼굴 전체 이미지로부터 상기 메모리에 저장된 상기 개별 추정 모델, 전체 나이 추정 모델 또는 최종 나이 추정 모델을 통해 개별 나이, 전체 나이 또는 최종 나이를 산출하고,When the server includes a transmission device capable of transmitting the individual estimation model, the total age estimation model, or the final age estimation model to the mobile terminal, the mobile terminal receives the individual estimation model and the total age estimation model transmitted from the server. or a memory for storing a final age estimation model, wherein the mobile terminal determines the individual age, total age or final age estimation model stored in the memory from the received whole face image. Calculate the final age,
    상기 이동 단말기는 산출된 개별 나이, 전체 나이 또는 최종 나이를 디스플레이하는 디스플레이 장치를 포함하며,The mobile terminal includes a display device displaying the calculated individual age, total age, or final age,
    상기 개별 나이 추정 모델은 얼굴 전체 이미지를 분할하여 획득된 분할 이미지와 실제 나이가 쌍으로 되어 있는 학습 데이터를 이용하여 생성되며, The individual age estimation model is generated using training data in which a segmented image obtained by segmenting an entire face image and an actual age are paired,
    상기 전체 나이 학습 모델은 얼굴 전체 이미지와 실제 나이를 쌍으로 되어 있는 학습 데이터를 이용하여 생성되며,The full age learning model is generated using learning data paired with a full face image and an actual age,
    상기 최종 나이 추정 모델은 상기 개별 나이 추정 모델에 의해 산출된 개별 나이 및 상기 전체 나이 학습 모델에 의해 산출된 전체 나이와, 실제 나이가 쌍으로 되어 있는 학습 데이터를 이용하여 생성되는,The final age estimation model is generated using learning data in which the individual age calculated by the individual age estimation model, the total age calculated by the total age learning model, and the actual age are paired.
    나이 추정 시스템.age estimation system.
PCT/KR2022/014057 2021-09-29 2022-09-20 Age estimating device WO2023054967A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0129107 2021-09-29
KR20210129107 2021-09-29

Publications (1)

Publication Number Publication Date
WO2023054967A1 true WO2023054967A1 (en) 2023-04-06

Family

ID=85783092

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/014057 WO2023054967A1 (en) 2021-09-29 2022-09-20 Age estimating device

Country Status (2)

Country Link
KR (1) KR20230046210A (en)
WO (1) WO2023054967A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150089370A (en) * 2014-01-27 2015-08-05 주식회사 에스원 Age Cognition Method that is powerful to change of Face Pose and System thereof
KR101835333B1 (en) * 2017-06-08 2018-03-08 서창영 Method for providing face recognition service in order to find out aging point
KR20190023003A (en) * 2017-08-25 2019-03-07 남정림 Apparatus and method for estimating bone age based on image processing and machine learning
KR20200003402A (en) * 2017-05-31 2020-01-09 더 프록터 앤드 갬블 캄파니 Systems and Methods for Determining Apparent Skin Age
KR20200087348A (en) * 2018-12-31 2020-07-21 네오데우스 주식회사 Age/Emotion/Gender Classification System using depthwise separable convolutional neural network AI

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150089370A (en) * 2014-01-27 2015-08-05 주식회사 에스원 Age Cognition Method that is powerful to change of Face Pose and System thereof
KR20200003402A (en) * 2017-05-31 2020-01-09 더 프록터 앤드 갬블 캄파니 Systems and Methods for Determining Apparent Skin Age
KR101835333B1 (en) * 2017-06-08 2018-03-08 서창영 Method for providing face recognition service in order to find out aging point
KR20190023003A (en) * 2017-08-25 2019-03-07 남정림 Apparatus and method for estimating bone age based on image processing and machine learning
KR20200087348A (en) * 2018-12-31 2020-07-21 네오데우스 주식회사 Age/Emotion/Gender Classification System using depthwise separable convolutional neural network AI

Also Published As

Publication number Publication date
KR20230046210A (en) 2023-04-05

Similar Documents

Publication Publication Date Title
WO2020032354A1 (en) Method, storage medium and apparatus for converting 2d picture set to 3d model
WO2019031714A1 (en) Method and apparatus for recognizing object
WO2015102361A1 (en) Apparatus and method for acquiring image for iris recognition using distance of facial feature
WO2018236058A1 (en) Electronic device for providing property information of external light source for interest object
WO2015115681A1 (en) Method and apparatus for recognising expression using expression-gesture dictionary
WO2013105720A1 (en) Device and method for analyzing quality of three-dimensional stereoscopic image
WO2010119996A1 (en) Method and apparatus for providing moving image advertisements
WO2022114731A1 (en) Deep learning-based abnormal behavior detection system and detection method for detecting and recognizing abnormal behavior
WO2021006482A1 (en) Apparatus and method for generating image
WO2020168606A1 (en) Advertisement video optimising method, apparatus and device and computer readable storage medium
WO2023171981A1 (en) Surveillance camera management device
WO2021025509A1 (en) Apparatus and method for displaying graphic elements according to object
WO2020233055A1 (en) Product promotion method, apparatus, and device based on liveness detection, and storage medium
WO2019190142A1 (en) Method and device for processing image
EP3707678A1 (en) Method and device for processing image
WO2023054967A1 (en) Age estimating device
WO2011068315A4 (en) Apparatus for selecting optimum database using maximal concept-strength recognition technique and method thereof
WO2023018084A1 (en) Method and system for automatically capturing and processing an image of a user
WO2019160262A1 (en) Electronic device and method for processing image by electronic device
WO2022225102A1 (en) Adjustment of shutter value of surveillance camera via ai-based object recognition
WO2022191474A1 (en) Electronic device for improving quality of image and method for improving quality of image by using same
WO2022039575A1 (en) Deep-learning-based real-time process monitoring system, and method therefor
WO2022108001A1 (en) Method for controlling electronic device by recognizing motion at edge of field of view (fov) of camera, and electronic device therefor
WO2014073777A1 (en) Digital device and method for controlling the same
WO2020122513A1 (en) Method for processing two-dimensional image and device for executing method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22876740

Country of ref document: EP

Kind code of ref document: A1