WO2022173055A1 - 骨格推定方法、装置、プログラム、システム、学習済みモデル生成方法、および学習済みモデル - Google Patents

骨格推定方法、装置、プログラム、システム、学習済みモデル生成方法、および学習済みモデル Download PDF

Info

Publication number
WO2022173055A1
WO2022173055A1 PCT/JP2022/005908 JP2022005908W WO2022173055A1 WO 2022173055 A1 WO2022173055 A1 WO 2022173055A1 JP 2022005908 W JP2022005908 W JP 2022005908W WO 2022173055 A1 WO2022173055 A1 WO 2022173055A1
Authority
WO
WIPO (PCT)
Prior art keywords
nose
skeleton
user
features
shape
Prior art date
Application number
PCT/JP2022/005908
Other languages
English (en)
French (fr)
Inventor
典子 長谷川
Original Assignee
株式会社資生堂
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社資生堂 filed Critical 株式会社資生堂
Priority to JP2022580718A priority Critical patent/JPWO2022173055A1/ja
Priority to CN202280010220.5A priority patent/CN116782826A/zh
Priority to US18/261,508 priority patent/US20240070885A1/en
Publication of WO2022173055A1 publication Critical patent/WO2022173055A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to a skeleton estimation method, device, program, system, trained model generation method, and trained model.
  • the three-dimensional features of the face have been utilized in fields such as beauty care (Patent Document 1).
  • the three-dimensional features of the face include the shape of the facial skeleton itself and the shape of the face resulting from the skeleton (hereafter referred to as “shape related to the facial skeleton”).
  • a skeleton is something that a person is born with, and can be said to be an original three-dimensional feature of that person.
  • an object of the present invention is to easily obtain a shape related to the skeleton of the face.
  • a method includes identifying features of a user's nose, and estimating a shape of the user's facial skeleton based on the features of the user's nose.
  • the shape of the facial skeleton can be estimated from the features of the nose.
  • FIG. 4 is a flow chart showing the flow of skeleton estimation processing according to an embodiment of the present invention.
  • FIG. 4 is a diagram for explaining features of a nose according to one embodiment of the present invention.
  • FIG. 4 is a diagram for explaining extraction of a nose region according to one embodiment of the present invention;
  • FIG. 4 is a diagram for explaining extraction of a nose region according to one embodiment of the present invention.
  • 4 is a diagram for explaining calculation of a nose feature amount according to one embodiment of the present invention.
  • 4 is an example of nose features for each face type according to one embodiment of the present invention;
  • 4 is an example of a face estimated from nose features according to an embodiment of the present invention; It is a figure which shows the hardware constitutions of the skeleton estimation apparatus which concerns on one Embodiment of this invention.
  • the “shape related to the skeleton of the face” refers to at least one of the shape of the skeleton of the face itself and the shape of the face resulting from the skeleton.
  • the shape of the facial skeleton is estimated from the features of the nose based on the correlation between the features of the nose and the shape of the facial skeleton.
  • FIG. 1 is a diagram showing the overall configuration according to one embodiment of the present invention.
  • the skeleton estimation device 10 estimates the shape of the facial skeleton of the user 20 from the features of the nose of the user 20 .
  • the skeleton estimation device 10 is a smartphone or the like having a camera function. The skeleton estimation device 10 will be described in detail later with reference to FIG.
  • the skeleton estimation apparatus 10 is one device (for example, a smartphone having a camera function)
  • the camera function may be a function of photographing the skin three-dimensionally or a function of photographing the skin two-dimensionally.
  • a device (such as a server) other than the skeleton estimation device 10 may execute part of the processing executed by the skeleton estimation device 10 described herein.
  • FIG. 2 is a diagram showing functional blocks of the skeleton estimation device 10 according to one embodiment of the present invention.
  • Skeleton estimation device 10 can include image acquisition unit 101 , nose feature identification unit 102 , skeleton estimation unit 103 , and output unit 104 .
  • Skeleton estimation device 10 can also function as image acquisition unit 101, nose feature identification unit 102, skeleton estimation unit 103, and output unit 104 by executing programs. Each of these will be described below.
  • the image acquisition unit 101 acquires an image including the user's 20 nose.
  • the image including the nose may be an image in which the nose and the rest of the nose are photographed (for example, an image in which the entire face is photographed), or an image in which only the nose is photographed (for example, the display device of the skeleton estimation apparatus 10).
  • the image acquisition unit 101 is not required if the features of the nose are identified from other than the image.
  • the nose feature identification unit 102 identifies the features of the user's 20 nose. For example, the nose feature identification unit 102 identifies the features of the nose of the user 20 from the image information (for example, pixel values of the image) of the image including the nose of the user 20 acquired by the image acquisition unit 101 .
  • image information for example, pixel values of the image
  • the skeleton estimation unit 103 estimates the shape of the facial skeleton of the user 20 based on the features of the nose of the user 20 specified by the nose feature specifying unit 102 .
  • the skeleton estimation unit 103 classifies the shape of the facial skeleton of the user 20 based on the features of the nose of the user 20 specified by the nose feature specifying unit 102 .
  • the output unit 104 outputs (for example, displays) shape information related to the facial skeleton of the user 20 estimated by the skeleton estimation unit 103 .
  • the nasal feature is at least one of a nasal root, a nasal bridge, a nasal tip, and an alar.
  • the nasal root is the part at the base of the nose.
  • the features of the nose are at least one of the height of the nasal root, the low nasal root, the width of the nasal root, and the changing position of the nasal root where the nasal root changes to be higher.
  • the bridge of the nose is the part between the eyebrows and the tip of the nose.
  • the nasal feature is at least one of a nasal bridge height, a nasal bridge low, and a nasal bridge width.
  • the nasal tip is the tip of the nose (nose tip).
  • the nasal characteristic is at least one of the roundness or kurtosis of the nasal tip and the orientation of the nasal tip.
  • the wings of the nose are the swollen areas on either side of the head of the nose.
  • the nasal characteristic is at least one of the roundness or kurtosis of the alar and the size of the alar.
  • the shape related to the skeleton of the face will be described.
  • the shapes related to the skeleton of the face include orbits, cheekbones, nasal bones, piriform mouth (mouth that opens toward the face of the nasal cavity), cranial index, maxilla, mandible, lips, corners of the mouth, Eyes, Mongolian folds (folds of the skin where the upper eyelids cover the inner corners of the eyes), facial contours, and the positional relationship between the eyes and eyebrows (for example, the eyes and eyebrows are far apart, close, etc.) At least one of the characteristics of the shape of each bone, the positional relationship of the skeleton, the angle, and the like.
  • the shape of the facial skeleton is estimated based on the correspondence relationship between the features of the nose and the shape of the facial skeleton stored in advance in the skeleton estimation device 10 or the like. Note that the shape of the facial skeleton may be estimated based on not only the features of the nose but also the features of the nose and part of the features of the face.
  • the correspondence may be a pre-determined database or a machine-learned model. Based on the results of experiments conducted on subjects, the database associates features of the nose (which may be part of the features of the nose and facial features) with shapes related to the skeleton of the face. . Also, the trained model is a prediction model that outputs shape information related to the skeleton of the face when nose feature information (which may be part of the nose feature and facial features) is input. Note that the correspondence between the features of the nose and the shape of the facial skeleton may be created for each group classified based on factors that can affect the skeleton (for example, Caucasoid, Mongoloid, Negroid, Australoid, etc.). .
  • a computer such as the skeleton estimation device 10 can generate a trained model.
  • a computer such as skeleton estimation apparatus 10 prepares teacher data whose input data is the nose features (which may be part of the nose features and facial features) and whose output data is the shape of the facial skeleton.
  • Machine learning is performed using the teacher data to generate a trained model that outputs a shape related to the skeleton of the face when nose features (nose features and part of facial features are acceptable) are input. can do.
  • machine learning is performed using training data in which the input data is the features of the nose (which may be the features of the nose and part of the features of the face), and the output data is the shape related to the skeleton of the face.
  • a trained model is generated that outputs a shape related to the skeleton of the face when the features (which may be the features of the nose and part of the facial features) are input.
  • the skeleton estimating unit 103 can estimate the skull index based on the height or depth of the nasal root or the position of change in the height of the nasal root and the height or depth of the bridge of the nose. Specifically, the skeleton estimation unit 103 estimates that the higher the nasal root and/or the nasal bridge, the lower the skull index.
  • the skeleton estimation unit 103 can estimate whether the corners of the mouth are raised or lowered based on the width of the bridge of the nose. Specifically, the skeleton estimation unit 103 estimates that the wider the bridge of the nose, the lower the corners of the mouth.
  • the skeleton estimating unit 103 determines the size and thickness of the lips (1. Large and thick upper and lower lips, 2. Thick lower lip, 3. Thin small) can be estimated.
  • the skeleton estimation unit 103 can estimate the presence or absence of Mongolian folds based on the root of the nose. Specifically, the skeleton estimation unit 103 estimates that there is a Mongolian fold when it is determined that the root of the nose is low.
  • the skeleton estimation unit 103 classifies the shape of the mandible (for example, classifies into three) based on the height or height of the bridge of the nose, the height of the root of the nose, and the roundness and size of the alar. can do.
  • the skeleton estimation unit 103 can estimate the pyriform mouth based on the height of the bridge of the nose.
  • the skeleton estimation unit 103 can estimate the inter-eye distance based on the height of the bridge of the nose. Specifically, the skeleton estimation unit 103 estimates that the lower the bridge of the nose, the wider the distance between the eyes.
  • the skeleton estimation unit 103 can estimate the roundness of the forehead based on the height of the root of the nose and the height of the bridge of the nose.
  • the skeleton estimation unit 103 can estimate the distance between the eyes and the eyebrows and the shape of the eyebrows based on the height and depth of the bridge of the nose, the size of the wings of the nose, and the position of change in the height of the root of the nose.
  • FIG. 3 is a flow chart showing the flow of skeleton estimation processing according to an embodiment of the present invention.
  • step 1 (S1) the nose feature identification unit 102 extracts feature points (for example, feature points of the inner corners of the eyebrows, the inner corners of the eyes, and the tip of the nose) from the image including the nose.
  • feature points for example, feature points of the inner corners of the eyebrows, the inner corners of the eyes, and the tip of the nose
  • step 2 (S2) the nose feature identification unit 102 extracts the nose region based on the feature points extracted in S1.
  • the image including the nose is an image in which only the nose is captured (for example, an image captured so that the nose region of user 20 fits within a predetermined region displayed on the display device of skeleton estimation device 10).
  • the nose-only image is used as is (ie, S1 may be omitted).
  • step 3 the nose feature identification unit 102 reduces the number of gradations of the image of the nose region extracted in S2 (eg, binarizes).
  • the nose feature identifying unit 102 uses at least one of brightness, luminance, RGB Blue, and RGB Green to reduce the number of gradations of the image of the nose region. Note that S3 may be omitted.
  • the nose feature identification unit 102 calculates the feature amount of the nose based on the image information (for example, pixel values of the image) of the image of the nose region. For example, the nose feature identification unit 102 calculates the average value of pixel values in the nose region, the number of pixels equal to or greater than a predetermined value, the cumulative pixel value, the amount of change in pixel values, etc., as the feature amount of the nose.
  • the image information for example, pixel values of the image
  • the nose feature identification unit 102 calculates the average value of pixel values in the nose region, the number of pixels equal to or greater than a predetermined value, the cumulative pixel value, the amount of change in pixel values, etc., as the feature amount of the nose.
  • step 5 the skeleton estimating unit 103 determines the application (that is, what the shape information about the facial skeleton is used for (for example, skeleton diagnosis, usage of beauty equipment, makeup, hairstyle, eyeglasses, etc.). proposal, etc.)). For example, the skeleton estimation unit 103 sets the application according to an instruction from the user 20 . Note that S5 may be omitted.
  • the skeleton estimation unit 103 selects the characteristic axis of the nose based on the application set at S5.
  • the nose feature axis indicates one or more nose features used for the application set in S5 (that is, used to estimate the shape of the facial skeleton).
  • the skeleton estimation unit 103 estimates the shape of the skeleton of the face. Specifically, the skeleton estimation unit 103 identifies one or more nose features indicated by the nose feature axis selected in S6 based on the nose feature amount calculated in S4. Next, the skeleton estimation unit 103 estimates the shape of the facial skeleton based on the specified nose features.
  • FIG. 4 is a diagram for explaining features of the nose according to one embodiment of the present invention.
  • the nasal feature is at least one of the nasal root, nasal bridge, nasal tip, and nasal alar.
  • FIG. 4 shows the positions of the root of the nose, the bridge of the nose, the tip of the nose, and the wings of the nose.
  • FIG. 5 is a diagram for explaining extraction of a nose region according to one embodiment of the present invention.
  • a nose feature identification unit 102 extracts a nose region in an image including the nose.
  • the nose region may be the entire nose as shown in FIG. 5(a), or a portion of the nose (for example, the right half or the left half) as shown in FIG. 5(b).
  • FIG. 6 is a diagram for explaining calculation of a nose feature amount according to one embodiment of the present invention.
  • step 11 (S11) the nose region in the image including the nose is extracted.
  • step 12 the number of gradations of the image of the nose region extracted in S11 is reduced (binarized, for example). Note that S12 may be omitted.
  • the feature amount of the nose is calculated.
  • the pixel cumulative value is expressed with 0 on the high brightness side of the image and 255 on the low brightness side.
  • the nose feature identification unit 102 performs normalization for each of multiple regions (for example, the divided regions in S12).
  • the nose feature identifying unit 102 determines the average pixel value, the number of pixels equal to or greater than a predetermined value, the X direction
  • At least one pixel cumulative value in the and Y directions, the amount of change in the pixel value in at least one of the X and Y directions, and the like are calculated as feature amounts of the nose.
  • the pixel cumulative value in the X direction at each position in the Y direction is calculated.
  • the feature amount of the nasal root is the feature amount of the upper (closer to the eye) area among the divided areas of S12
  • the feature amount of the nose bridge is the upper or central part of the divided area of S12.
  • the feature amounts of the nasal tip and alar are the feature amounts of the lower (closer to the mouth) area among the divided areas of S12.
  • Height of root of nose The height and height are determined from the amount of change in pixel values in the Y direction in the upper region of the nose. The height or lowness may be calculated as a numerical value, or may be classified as high or low. As for the position of change in the height of the nose root, it can be seen that the value of nose 2 immediately changes in the Y direction in S13, and the position of change in the height of the nose root is in the upper part.
  • Width of nose root The area above the nose is divided into a plurality of areas (2 to 4, etc.) in the X direction, and the width is determined from the pattern of the average pixel values of each area.
  • ⁇ Height of nose bridge The height and height are determined from the average value of the accumulated pixel values in the central region of the nose. The height or lowness may be calculated as a numerical value, or may be classified as high or low.
  • Width of nose bridge The area in the center of the nose is divided into a plurality of areas (2 to 4, etc.) in the X direction, and the width is determined from the pattern of the average pixel values of each area.
  • Nose tip roundness or kurtosis Determined from other nasal features (height of the nose bridge, roundness or kurtosis of the alar), the lower the bridge and the rounder the alar, the more rounded.
  • ⁇ Direction of nose tip In the region of the central part of the nose, it is obtained from the width from the lowest point of the nose at a predetermined ratio to the maximum value of the pixel cumulative value in the X direction. .
  • Alar roundness or kurtosis Roundness or kurtosis is determined from the amount of change in Y-direction value in the lower nose region.
  • Alar size Determined from the ratio of the number of pixels below a predetermined value in the central portion of the lower region. The larger the number of pixels, the larger the nostrils.
  • shape related to the skeleton of the face refers to at least one of “the shape of the facial skeleton itself” and “the shape of the face resulting from the skeleton”.
  • shape related to facial skeleton can include face type.
  • the user's face is classified into a plurality of face types (specifically, "the shape of the facial skeleton itself” and “the shape of the face resulting from the skeleton") based on the features of the user's nose. It is possible to estimate which of the face types is classified based on at least one of them.
  • the face type will be described below with reference to FIGS. 7 and 8. FIG.
  • FIG. 7 is an example of nose features for each face type according to one embodiment of the present invention.
  • FIG. 7 shows the features of the nose of each face type (face types A to L).
  • face type may be estimated using all (four) of the nasal bridge, the alar, the nasal root, and the nasal tip, or partly (for example, two of the nasal bridge and the nasal alar, two of the nasal bridge and the nasal tip).
  • face type may be estimated using only the bridge of the nose, only the alar of the nose, etc.).
  • the face type is estimated from the features of the nose.
  • the roundness of the eyes round
  • the inclination of the eyes downward
  • the size of the eyes small
  • the shape of the eyebrows arched
  • the position of the eyebrows and eyes apart
  • the shape of the face Contour Estimated to be ROUND.
  • the roundness of the eyes sharp
  • the inclination of the eyes considerably raised
  • the size of the eyes large
  • the shape of the eyebrows sharp
  • the position of the eyebrows and the eyes fairly close
  • the face CONTOURS Estimated RECTANGLE.
  • FIG. 8 is an example of a face estimated from nose features according to one embodiment of the present invention.
  • based on the features of the user's nose it is possible to infer which face type the user's face is among the various face types shown in FIG. .
  • face types classified based on nose features can be used to guide makeup or present skin characteristics (e.g., what facial features a face type has, what facial features It can present makeup guides and skin characteristics based on what kind of impression you have or your face type).
  • the shape of the facial skeleton (that is, at least one of the shape of the facial skeleton itself and the shape of the face resulting from the skeleton) is not actually measured, but the features of the nose are used. can be easily estimated.
  • skeleton diagnosis based on the shape of the facial skeleton estimated from the features of the nose, skeleton diagnosis, a method of using beauty equipment suitable for the person, makeup, hairstyle, eyeglasses, etc. are proposed. be able to.
  • FIG. 9 is a diagram showing the hardware configuration of the skeleton estimation device 10 according to one embodiment of the present invention.
  • the skeleton estimation apparatus 10 has a CPU (Central Processing Unit) 1001 , a ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 .
  • the CPU 1001, ROM 1002, and RAM 1003 form a so-called computer.
  • the skeleton estimation device 10 can also have an auxiliary storage device 1004 , a display device 1005 , an operation device 1006 , an I/F (Interface) device 1007 and a drive device 1008 .
  • Each piece of hardware of the skeleton estimation device 10 is interconnected via a bus B.
  • the CPU 1001 is an arithmetic device that executes various programs installed in the auxiliary storage device 1004 .
  • the ROM 1002 is a non-volatile memory.
  • the ROM 1002 functions as a main storage device that stores various programs, data, etc. necessary for the CPU 1001 to execute various programs installed in the auxiliary storage device 1004 .
  • the ROM 1002 functions as a main storage device that stores boot programs such as BIOS (Basic Input/Output System) and EFI (Extensible Firmware Interface).
  • BIOS Basic Input/Output System
  • EFI Extensible Firmware Interface
  • the RAM 1003 is a volatile memory such as DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory).
  • the RAM 1003 functions as a main storage device that provides a work area that is developed when various programs installed in the auxiliary storage device 1004 are executed by the CPU 1001 .
  • the auxiliary storage device 1004 is an auxiliary storage device that stores various programs and information used when various programs are executed.
  • the display device 1005 is a display device that displays the internal state of the skeleton estimation device 10 and the like.
  • the operation device 1006 is an input device through which a person who operates the skeleton estimation device 10 inputs various instructions to the skeleton estimation device 10 .
  • the I/F device 1007 is a communication device for connecting to a network and communicating with other devices.
  • a drive device 1008 is a device for setting a storage medium 1009 .
  • the storage medium 1009 here includes media such as CD-ROMs, flexible disks, magneto-optical disks, etc., which record information optically, electrically or magnetically.
  • the storage medium 1009 may also include a semiconductor memory that electrically records information such as an EPROM (Erasable Programmable Read Only Memory), a flash memory, or the like.
  • auxiliary storage device 1004 Various programs to be installed in the auxiliary storage device 1004 are installed by, for example, setting the distributed storage medium 1009 in the drive device 1008 and reading the various programs recorded in the storage medium 1009 by the drive device 1008. be done. Alternatively, various programs installed in the auxiliary storage device 1004 may be installed by being downloaded from the network via the I/F device 1007 .
  • the skeleton estimation device 10 has an imaging device 1010 .
  • a photographing device 1010 photographs the user 20 .
  • skeleton estimation device 20 user 101 image acquisition unit 102 nose feature identification unit 103 skeleton estimation unit 104 output unit 1001 CPU 1002 ROMs 1003 RAM 1004 auxiliary storage device 1005 display device 1006 operation device 1007 I/F device 1008 drive device 1009 storage medium 1010 imaging device

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Dentistry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

顔の骨格に関する形状を容易に得る。本発明の一実施形態に係る方法は、ユーザの鼻の特徴を特定するステップと、前記ユーザの鼻の特徴に基づいて、前記ユーザの顔の骨格に関する形状を推定するステップと、を含む。

Description

骨格推定方法、装置、プログラム、システム、学習済みモデル生成方法、および学習済みモデル
 本発明は、骨格推定方法、装置、プログラム、システム、学習済みモデル生成方法、および学習済みモデルに関する。
 従来、美容等の分野において、顔の立体的な特徴が活用されている(特許文献1)。顔の立体的な特徴として、顔の骨格そのものの形状や該骨格に起因する顔の形状(以下、「顔の骨格に関する形状」という)が挙げられる。骨格は、人が生まれ持ったものであり、その人の本来の立体的な特徴であると言える。
国際公開第2013/005447号
 しかしながら、従来、顔の骨格に関する形状を測定することは容易ではなかった。
 そこで、本発明では、顔の骨格に関する形状を容易に得ることを目的とする。
 本発明の一実施形態に係る方法は、ユーザの鼻の特徴を特定するステップと、前記ユーザの鼻の特徴に基づいて、前記ユーザの顔の骨格に関する形状を推定するステップと、を含む。
 本発明では、鼻の特徴から、顔の骨格に関する形状を推定することができる。
本発明の一実施形態に係る全体の構成を示す図である。 本発明の一実施形態に係る骨格推定装置の機能ブロックを示す図である。 本発明の一実施形態に係る骨格推定の処理の流れを示すフローチャートである。 本発明の一実施形態に係る鼻の特徴について説明するための図である。 本発明の一実施形態に係る鼻領域の抽出について説明するための図である。 本発明の一実施形態に係る鼻特徴量の算出について説明するための図である。 本発明の一実施形態に係る各顔タイプの鼻の特徴の一例である。 本発明の一実施形態に係る鼻の特徴から推定された顔の一例である。 本発明の一実施形態に係る骨格推定装置のハードウェア構成を示す図である。
 以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
<用語の説明>
 「顔の骨格に関する形状」とは、顔の骨格そのものの形状と、該骨格に起因する顔の形状と、のうちの少なくとも一方をいう。本発明では、鼻の特徴と顔の骨格に関する形状との相関に基づいて、鼻の特徴から顔の骨格に関する形状を推定する。
<全体構成>
 図1は、本発明の一実施形態に係る全体の構成を示す図である。骨格推定装置10は、ユーザ20の鼻の特徴から、ユーザ20の顔の骨格に関する形状を推定する。例えば、骨格推定装置10は、カメラ機能を有するスマートフォン等である。後段で、図2を参照しながら、骨格推定装置10について詳細に説明する。
 なお、本明細書では、骨格推定装置10が1つの機器(例えば、カメラ機能を有するスマートフォン等)である場合を説明するが、骨格推定装置10が複数の機器(例えば、カメラ機能を有さない機器とデジタルカメラ)から構成されてもよい。また、カメラ機能は、肌を3次元的に撮影する機能であってもよいし、2次元的に撮影する機能であってもよい。また、骨格推定装置10以外の装置(サーバ等)が、本明細書で説明する骨格推定装置10が実行する処理のうちの一部の処理を実行するようにしてもよい。
<骨格推定装置10の機能ブロック>
 図2は、本発明の一実施形態に係る骨格推定装置10の機能ブロックを示す図である。骨格推定装置10は、画像取得部101と、鼻特徴特定部102と、骨格推定部103と、出力部104と、を備えることができる。また、骨格推定装置10は、プログラムを実行することで、画像取得部101、鼻特徴特定部102、骨格推定部103、出力部104、として機能することができる。以下、それぞれについて説明する。
 画像取得部101は、ユーザ20の鼻を含む画像を取得する。なお、鼻を含む画像は、鼻と鼻以外とが撮影された画像(例えば、顔全体が撮影された画像)でもよいし、鼻のみが撮影された画像(例えば、骨格推定装置10の表示装置に表示された所定の領域内にユーザ20の鼻の領域がおさまるように撮影された画像)でもよい。なお、鼻の特徴が画像以外から特定される場合には、画像取得部101は不要である。
 鼻特徴特定部102は、ユーザ20の鼻の特徴を特定する。例えば、鼻特徴特定部102は、画像取得部101が取得したユーザ20の鼻を含む画像の画像情報(例えば、画像の画素値)から、ユーザ20の鼻の特徴を特定する。
 骨格推定部103は、鼻特徴特定部102が特定したユーザ20の鼻の特徴に基づいて、ユーザ20の顔の骨格に関する形状を推定する。例えば、骨格推定部103は、鼻特徴特定部102が特定したユーザ20の鼻の特徴に基づいて、ユーザ20の顔の骨格に関する形状を分類する。
 出力部104は、骨格推定部103が推定したユーザ20の顔の骨格に関する形状の情報を出力(例えば、表示)する。
<鼻の特徴>
 ここで、鼻の特徴について説明する。例えば、鼻の特徴は、鼻根と、鼻梁と、鼻尖と、鼻翼と、のうちの少なくとも1つである。
<<鼻根>>
 鼻根は、鼻の付け根の部分である。例えば、鼻の特徴は、鼻根の高さと、鼻根の低さと、鼻根の幅と、鼻根が高く変化する、鼻根の変化位置と、のうちの少なくとも1つである。
<<鼻梁>>
 鼻梁は、眉間と鼻先の間の部分である。例えば、鼻の特徴は、鼻梁の高さと、鼻梁の低さと、鼻梁の幅と、のうちの少なくとも1つである。
<<鼻尖>>
 鼻尖は、鼻の先端部(鼻先)である。例えば、鼻の特徴は、鼻尖の丸みまたは尖度と、鼻尖の向きと、のうちの少なくとも1つである。
<<鼻翼>>
 鼻翼は、鼻のあたまの両側のふくれている部分である。例えば、鼻の特徴は、鼻翼の丸みまたは尖度と、鼻翼の大きさと、のうちの少なくとも1つである。
<顔の骨格に関する形状>
 ここで、顔の骨格に関する形状について説明する。例えば、顔の骨格に関する形状は、眼窩と、頬骨と、鼻骨と、梨状口(鼻腔の顔面側に開く口)と、頭蓋骨指数と、上顎骨と、下顎骨と、唇と、口角と、目と、蒙古ひだ(上まぶたが目頭を覆う部分にある皮膚のひだ)と、顔輪郭と、目と眉の位置関係(例えば、目と眉が離れている、近い等)と、のうちの少なくとも1つにおける、各骨の形状の特徴、骨格の位置関係、角度等である。以下、顔の骨格に関する形状の一例を示す。なお、かっこ内は、推定される具体的な内容の一例である。
・眼窩(横長、正方形、丸みを帯びている)
・頬骨、頬(ピーク位置、丸み)
・鼻骨(幅、形状)
・梨状口(形状)
・頭蓋骨指数(頭蓋骨の幅/奥行=70、75、80、85、90)
・上顎骨、上顎(眼窩との位置関係、鼻唇角)
・下顎骨、下顎(奥行長さ、奥行角度、前方角度、輪郭形状(エラ))
・前頭部(額の丸み、額の形状)
・眉(目と眉の距離、眉形状、眉濃さ)
・唇(上下ともに厚い、下唇が厚い、上下ともに薄い、横に大きい、小さい)
・口角(上り、下がり、標準)
・目(面積、角度、眉と目の距離、目間距離)
・蒙古ひだ(有り、無し)
・顔輪郭(Rectangle、Round、Obal、Heart、Square、Average、Natural、Long)
<鼻の特徴と顔の骨格に関する形状との対応関係>
 ここで、鼻の特徴と顔の骨格に関する形状との対応関係について説明する。本発明では、事前に骨格推定装置10等に記憶されている鼻の特徴と顔の骨格に関する形状との対応関係に基づいて、顔の骨格に関する形状が推定される。なお、鼻の特徴だけでなく、鼻の特徴および顔の特徴の一部に基づいて、顔の骨格に関する形状を推定するようにしてもよい。
 対応関係は、事前に決められたデータベースであってもよいし、機械学習された学習済みモデルであってもよい。データベースは、被験者に対して行われた実験の結果等に基づいて、鼻の特徴(鼻の特徴および顔の特徴の一部でもよい)と、顔の骨格に関する形状と、が紐づけられている。また、学習済みモデルは、鼻の特徴(鼻の特徴および顔の特徴の一部でもよい)の情報が入力されると、顔の骨格に関する形状の情報が出力される予測モデルである。なお、鼻の特徴と顔の骨格に関する形状との対応関係は、骨格に影響しうる要因をもとに分類した集団(例えば、コーカソイド、モンゴロイド、ニグロイド、オーストラロイド等)ごとに作成されてもよい。
<<学習済みモデルの生成>>
 本発明の一実施形態では、骨格推定装置10等のコンピュータは、学習済みモデルを生成することができる。具体的には、骨格推定装置10等のコンピュータは、入力データが鼻の特徴(鼻の特徴および顔の特徴の一部でもよい)であり、出力データが顔の骨格に関する形状である教師データを取得し、該教師データを用いて機械学習して、鼻の特徴(鼻の特徴および顔の特徴の一部でもよい)が入力されると顔の骨格に関する形状が出力される学習済みモデルを生成することができる。このように、入力データが鼻の特徴(鼻の特徴および顔の特徴の一部でもよい)であり、出力データが顔の骨格に関する形状である教師データを用いて機械学習することによって、鼻の特徴(鼻の特徴および顔の特徴の一部でもよい)が入力されると顔の骨格に関する形状が出力される学習済みモデルが生成される。
 以下、鼻の特徴と顔の骨格に関する形状との対応関係に基づく推定例を説明する。
<<推定例1>>
 例えば、骨格推定部103は、鼻根の高さまたは低さまたは鼻根の高さの変化位置、および、鼻梁の高さまたは低さに基づいて、頭蓋骨指数を推定することができる。具体的には、骨格推定部103は、鼻根と鼻梁の少なくとも一方が高いほど、頭蓋骨指数が低いと推定する。
<<推定例2>>
 例えば、骨格推定部103は、鼻梁の幅に基づいて、口角の上りまたは下がりを推定することができる。具体的には、骨格推定部103は、鼻梁の幅が広いほど、口角が下がっていると推定する。
<<推定例3>>
 例えば、骨格推定部103は、鼻翼の丸さ、および、鼻尖の尖度に基づいて、唇の大きさおよび厚さ(1.上下ともに大きく厚い、2.下唇が厚い、3.上下ともに薄く小さい)を推定することができる。
<<推定例4>>
 例えば、骨格推定部103は、鼻根に基づいて、蒙古ひだの有無を推定することができる。具体的には、骨格推定部103は、鼻根が低いと判定された場合に、蒙古ひだが有ると推定する。
<<推定例5>>
 例えば、骨格推定部103は、鼻梁の低さまたは高さ、および、鼻根の高さ、および、鼻翼の丸さおよび大きさに基づいて、下顎の形状を分類(例えば、3つに分類)することができる。
<<推定例6>>
 例えば、骨格推定部103は、鼻梁の高さに基づいて、梨状口を推定することができる。
<<推定例7>>
 例えば、骨格推定部103は、鼻梁の低さに基づいて、目間距離を推定することができる。具体的には、骨格推定部103は、鼻梁が低いほど、目間距離が広いと推定する。
<<推定例8>>
 例えば、骨格推定部103は、鼻根の高さおよび鼻梁の高さに基づいて、前頭部の丸みを推定することができる。
<<推定例9>>
 例えば、骨格推定部103は、鼻梁の高さ、低さ、鼻翼の大きさ、鼻根の高さの変化位置に基づいて、目と眉の距離、眉形状を推定することができる。
 <処理方法>
 図3は、本発明の一実施形態に係る骨格推定の処理の流れを示すフローチャートである。
 ステップ1(S1)において、鼻特徴特定部102は、鼻を含む画像から特徴点(例えば、眉頭、目頭、鼻先の特徴点)を抽出する。
 ステップ2(S2)において、鼻特徴特定部102は、S1で抽出された特徴点をもとに、鼻の領域を抽出する。
 なお、鼻を含む画像が、鼻のみが撮影された画像(例えば、骨格推定装置10の表示装置に表示された所定の領域内にユーザ20の鼻の領域がおさまるように撮影された画像)である場合には、鼻のみが撮影された画像がそのまま用いられる(つまり、S1は、省略されうる)。
 ステップ3(S3)において、鼻特徴特定部102は、S2で抽出された鼻の領域の画像の階調数を下げる(例えば、2値化する)。例えば、鼻特徴特定部102は、明度と、輝度と、RGBのBlueと、RGBのGreenと、のうちの少なくとも1つを用いて、鼻の領域の画像の階調数を下げる。なお、S3は、省略されうる。
 ステップ4(S4)において、鼻特徴特定部102は、鼻の領域の画像の画像情報(例えば、画像の画素値)をもとに、鼻の特徴量を算出する。例えば、鼻特徴特定部102は、鼻の領域の画素値の平均値、所定の値以下または以上の画素数、画素累積値、画素値の変化量等を、鼻の特徴量として算出する。
 ステップ5(S5)において、骨格推定部103は用途(つまり、顔の骨格に関する形状の情報が何に活用されるか(例えば、骨格診断、美容機器の使用方法、メイクアップ、ヘアスタイル、眼鏡の提案等))を設定する。例えば、骨格推定部103は、ユーザ20からの指示に応じて、用途を設定する。なお、S5は、省略されうる。
 ステップ6(S6)において、骨格推定部103は、S5で設定された用途をもとに、鼻の特徴軸を選定する。鼻の特徴軸は、S5で設定された用途のために用いられる(つまり、顔の骨格に関する形状を推定するために用いられる)1つまたは複数の鼻の特徴を示す。
 ステップ7(S7)において、骨格推定部103は、顔の骨格に関する形状を推定する。具体的には、骨格推定部103は、S4で算出された鼻の特徴量をもとに、S6で選定された鼻の特徴軸で示される1つまたは複数の鼻の特徴を特定する。次に、骨格推定部103は、特定した鼻の特徴に基づいて、顔の骨格に関する形状を推定する。
 図4は、本発明の一実施形態に係る鼻の特徴について説明するための図である。上述したように、鼻の特徴は、鼻根と、鼻梁と、鼻尖と、鼻翼と、のうちの少なくとも1つである。図4では、鼻根と、鼻梁と、鼻尖と、鼻翼と、の位置を示す。
<鼻領域の抽出>
 図5は、本発明の一実施形態に係る鼻領域の抽出について説明するための図である。鼻特徴特定部102は、鼻を含む画像における鼻の領域を抽出する。例えば、鼻の領域は、図5の(a)のように、鼻全体でもよいし、図5の(b)のように、鼻の一部(例えば、右半分または左半分)でもよい。
<鼻特徴量の算出>
 図6は、本発明の一実施形態に係る鼻特徴量の算出について説明するための図である。
 ステップ11(S11)において、鼻を含む画像における鼻の領域が抽出される。
 ステップ12(S12)において、S11で抽出された鼻の領域の画像の階調数が下げられる(例えば、2値化される)。なお、S12は、省略されうる。
 ステップ13(S13)において、鼻の特徴量が算出される。なお、図6では、画像の高明度側を0、低明度側を255、として画素累積値を表している。例えば、鼻特徴特定部102は、複数の領域(例えば、S12の分割された領域)ごとに正規化を行う。次に、鼻特徴特定部102は、領域ごとに、(例えば、画像の低明度側または高明度側のデータを用いて)画素値の平均値、所定の値以下または以上の画素数、X方向とY方向の少なくとも一方の画素累積値、X方向とY方向の少なくとも一方の画素値の変化量等を、鼻の特徴量として算出する。図6のS13では、Y方向の各位置におけるX方向の画素累積値が計算されている。
 以下、各特徴量の算出方法について説明する。
 例えば、鼻根の特徴量は、S12の分割された領域のうちの上部(眼寄り)の領域の特徴量であり、鼻梁の特徴量は、S12の分割された領域のうちの上部または中央部の領域の特徴量であり、鼻尖および鼻翼の特徴量は、S12の分割された領域のうちの下部(口寄り)の領域の特徴量である。これら鼻の特徴量は目間距離で正規化を行う。
・鼻根の高さ:鼻の上部の領域におけるY方向の画素値の変化量から高さ、低さが判断される。なお、高さまたは低さが数値として算出されてもよいし、高いまたは低いに分類されてもよい。鼻根の高さの変化位置は、S13では鼻2はY方向で値がすぐに変化し、鼻根の高さの変化位置が上部にあることが分かる。
・鼻根の幅:鼻の上部の領域をX方向で複数(2~4等)に分割し、各領域の画素値の平均値のパターンから幅が判断される。
・鼻梁の高さ:鼻の中央部の領域の画素累積値の平均値から高さ、低さが判断される。なお、高さまたは低さが数値として算出されてもよいし、高いまたは低いに分類されてもよい。
・鼻梁の幅:鼻の中央部の領域をX方向で複数(2~4等)に分割し、各領域の画素値の平均値のパターンから幅が判断される。
・鼻尖の丸みまたは尖度:他の鼻の特徴(鼻梁の高さ、鼻翼の丸みまたは尖度)から求められ、鼻梁が低く鼻翼が丸いほど丸みを帯びている。
・鼻尖の向き:鼻の中央部の領域において、X方向の画素累積値の最大値に対して所定の割合の位置の鼻の最下点からの幅から求められ、幅が広いほど上向きである。
・鼻翼の丸みまたは尖度:鼻の下部の領域におけるY方向の値の変化量から丸みまたは尖度が判断される。
・鼻翼の大きさ:下部の領域の中央部分において所定の値以下となる画素数の割合から判断される。画素数が多いほど鼻翼が大きい。
<<顔タイプ>>
 上述したように、「顔の骨格に関する形状」とは、"顔の骨格そのものの形状"と、"骨格に起因する顔の形状"と、のうちの少なくとも一方をいう。「顔の骨格に関する形状」は、顔タイプを含むことができる。
 本発明の一実施形態では、ユーザの鼻の特徴に基づき、ユーザの顔が複数の顔タイプ(具体的には、"顔の骨格そのものの形状"と"骨格に起因する顔の形状"とのうちの少なくとも一方に基づき分類される顔タイプ)のうちのいずれの顔タイプであるかを推定することができる。以下、図7~図8を参照しながら顔タイプについて説明する。
 図7は、本発明の一実施形態に係る各顔タイプの鼻の特徴の一例である。図7は、各顔タイプ(顔タイプA~Lの各タイプ)の鼻の特徴を示す。なお、鼻梁と鼻翼と鼻根と鼻尖との全て(4つ)を用いて顔タイプが推定されてもよいし、一部(例えば、鼻梁と鼻翼との2つ、鼻梁と鼻根との2つ、鼻梁のみ、鼻翼のみ等)を用いて顔タイプが推定されてもよい。
 このように、鼻の特徴から、顔タイプを推定する。例えば、顔タイプAの鼻の特徴からは、目の丸み:丸い、目の傾き:下がり、目の大きさ:小さい、眉の形状:アーチ状、眉と目の位置:離れている、顔の輪郭:ROUNDと推定される。また、例えば、顔タイプLの鼻の特徴からは、目の丸み:シャープ、目の傾き:かなり上がり、目の大きさ:大きい、眉の形状:シャープ、眉と目の位置:かなり近い、顔の輪郭:RECTANGLEと推定される。
 図8は、本発明の一実施形態に係る鼻の特徴から推定された顔の一例である。本発明の一実施形態では、ユーザの鼻の特徴に基づいて、ユーザの顔が図8に示されるような種々の顔タイプの顔のうちのいずれの顔タイプであるかを推定することができる。
 このように、生活習慣や撮影時の状況に影響を受けにくい鼻の特徴量から顔タイプを分類することができる。例えば、鼻の特徴に基づいて分類された顔タイプを、メイクのガイドや肌の特性を提示するときに利用することができる(例えば、どのような顔の特徴を有する顔タイプであるか、どのような印象を与えるか顔タイプであるかに基づき、メイクのガイドや肌の特性を提示することができる)。
<効果>
 このように、本発明では、顔の骨格に関する形状(つまり、顔の骨格そのものの形状と該骨格に起因する顔の形状とのうちの少なくとも一方)を実際に測定することなく、鼻の特徴から容易に推定することができる。本発明の一実施形態では、鼻の特徴から推定された顔の骨格に関する形状をもとに、骨格診断、その人に適した美容機器の使用方法、メイクアップ、ヘアスタイル、眼鏡等を提案することができる。
<ハードウェア構成>
 図9は、本発明の一実施形態に係る骨格推定装置10のハードウェア構成を示す図である。骨格推定装置10は、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003を有する。CPU1001、ROM1002、RAM1003は、いわゆるコンピュータを形成する。
 また、骨格推定装置10は、補助記憶装置1004、表示装置1005、操作装置1006、I/F(Interface)装置1007、ドライブ装置1008を有することができる。
 なお、骨格推定装置10の各ハードウェアは、バスBを介して相互に接続されている。
 CPU1001は、補助記憶装置1004にインストールされている各種プログラムを実行する演算デバイスである。
 ROM1002は、不揮発性メモリである。ROM1002は、補助記憶装置1004にインストールされている各種プログラムをCPU1001が実行するために必要な各種プログラム、データ等を格納する主記憶デバイスとして機能する。具体的には、ROM1002は、BIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する、主記憶デバイスとして機能する。
 RAM1003は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリである。RAM1003は、補助記憶装置1004にインストールされている各種プログラムがCPU1001によって実行される際に展開される作業領域を提供する、主記憶デバイスとして機能する。
 補助記憶装置1004は、各種プログラムや、各種プログラムが実行される際に用いられる情報を格納する補助記憶デバイスである。
 表示装置1005は、骨格推定装置10の内部状態等を表示する表示デバイスである。
 操作装置1006は、骨格推定装置10を操作する者が骨格推定装置10に対して各種指示を入力する入力デバイスである。
 I/F装置1007は、ネットワークに接続し、他の装置と通信を行うための通信デバイスである。
 ドライブ装置1008は記憶媒体1009をセットするためのデバイスである。ここでいう記憶媒体1009には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記憶媒体1009には、EPROM (Erasable Programmable Read Only Memory)、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
 なお、補助記憶装置1004にインストールされる各種プログラムは、例えば、配布された記憶媒体1009がドライブ装置1008にセットされ、該記憶媒体1009に記録された各種プログラムがドライブ装置1008により読み出されることでインストールされる。あるいは、補助記憶装置1004にインストールされる各種プログラムは、I/F装置1007を介して、ネットワークよりダウンロードされることでインストールされてもよい。
 骨格推定装置10は、撮影装置1010を有する。撮影装置1010は、ユーザ20を撮影する。
 以上、本発明の実施例について詳述したが、本発明は上述した特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
 本国際出願は2021年2月15日に出願された日本国特許出願2021-021915号に基づく優先権を主張するものであり、2021-021915号の全内容をここに本国際出願に援用する。
10 骨格推定装置
20 ユーザ
101 画像取得部
102 鼻特徴特定部
103 骨格推定部
104 出力部
1001 CPU
1002 ROM
1003 RAM
1004 補助記憶装置
1005 表示装置
1006 操作装置
1007 I/F装置
1008 ドライブ装置
1009 記憶媒体
1010 撮影装置

Claims (12)

  1.  ユーザの鼻の特徴を特定するステップと、
     前記ユーザの鼻の特徴に基づいて、前記ユーザの顔の骨格に関する形状を推定するステップと
     を含む方法。
  2.  前記ユーザの鼻を含む画像を取得するステップをさらに含み、
     前記ユーザの鼻の特徴は、前記画像の画像情報から特定される、請求項1に記載の方法。
  3.  前記推定は、前記ユーザの顔の骨格に関する形状を分類することである、請求項1または2に記載の方法。
  4.  前記推定は、前記ユーザの顔が顔の骨格に関する形状に基づき分類される顔タイプのうちのいずれの顔タイプであるかを推定することである、請求項1から3のいずれか一項に記載の方法。
  5.  前記ユーザの顔の骨格に関する形状は、前記ユーザの顔の骨格の形状と、前記ユーザの顔の骨格に起因する前記ユーザの顔の形状と、のうちの少なくとも一方である、請求項1から4のいずれか一項に記載の方法。
  6.  前記鼻の特徴は、鼻根と、鼻梁と、鼻尖と、鼻翼とのうちの少なくとも1つである、請求項1から5のいずれか一項に記載の方法。
  7.  前記ユーザの顔の骨格に関する形状は、前記鼻の特徴が入力されると前記顔の骨格に関する形状が出力される学習済みモデルを用いて推定される、請求項1から6のいずれか一項に記載の方法。
  8.  ユーザの鼻の特徴を特定する鼻特徴特定部と、
     前記ユーザの鼻の特徴に基づいて、前記ユーザの顔の骨格に関する形状を推定する骨格推定部と
     を備えた骨格推定装置。
  9.  コンピュータを
     ユーザの鼻の特徴を特定する鼻特徴特定部、
     前記ユーザの鼻の特徴に基づいて、前記ユーザの顔の骨格に関する形状を推定する骨格推定部
     として機能させるためのプログラム。
  10.  骨格推定装置とサーバとを含むシステムであって、
     ユーザの鼻の特徴を特定する鼻特徴特定部と、
     前記ユーザの鼻の特徴に基づいて、前記ユーザの顔の骨格に関する形状を推定する骨格推定部と
     を備えたシステム。
  11.  入力データが鼻の特徴であり、出力データが顔の骨格に関する形状である教師データを取得するステップと、
     前記教師データを用いて機械学習して、前記鼻の特徴が入力されると前記顔の骨格に関する形状が出力される学習済みモデルを生成するステップと
     を含む方法。
  12.  入力データが鼻の特徴であり、出力データが顔の骨格に関する形状である教師データを用いて機械学習することによって生成された、前記鼻の特徴が入力されると前記顔の骨格に関する形状が出力される学習済みモデル。
PCT/JP2022/005908 2021-02-15 2022-02-15 骨格推定方法、装置、プログラム、システム、学習済みモデル生成方法、および学習済みモデル WO2022173055A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022580718A JPWO2022173055A1 (ja) 2021-02-15 2022-02-15
CN202280010220.5A CN116782826A (zh) 2021-02-15 2022-02-15 骨骼推定方法、装置、程序、系统、已学习模型生成方法及已学习模型
US18/261,508 US20240070885A1 (en) 2021-02-15 2022-02-15 Skeleton estimating method, device, non-transitory computer-readable recording medium storing program, system, trained model generating method, and trained model

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-021915 2021-02-15
JP2021021915 2021-02-15

Publications (1)

Publication Number Publication Date
WO2022173055A1 true WO2022173055A1 (ja) 2022-08-18

Family

ID=82838385

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/005908 WO2022173055A1 (ja) 2021-02-15 2022-02-15 骨格推定方法、装置、プログラム、システム、学習済みモデル生成方法、および学習済みモデル

Country Status (4)

Country Link
US (1) US20240070885A1 (ja)
JP (1) JPWO2022173055A1 (ja)
CN (1) CN116782826A (ja)
WO (1) WO2022173055A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001224430A (ja) * 2001-01-26 2001-08-21 Shiseido Co Ltd 顔だち分類法及び顔だちマップ
JP2006119040A (ja) * 2004-10-22 2006-05-11 Kao Corp 顔形状分類方法および顔形状評価方法および顔形状評価装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001224430A (ja) * 2001-01-26 2001-08-21 Shiseido Co Ltd 顔だち分類法及び顔だちマップ
JP2006119040A (ja) * 2004-10-22 2006-05-11 Kao Corp 顔形状分類方法および顔形状評価方法および顔形状評価装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIAOGUANG TU; JIAN ZHAO; ZIHANG JIANG; YAO LUO; MEI XIE; YANG ZHAO; LINXIAO HE; ZHENG MA; JIASHI FENG: "Joint 3D Face Reconstruction and Dense Face Alignment from A Single Image with 2D-Assisted Self-Supervised Learning", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 22 March 2019 (2019-03-22), 201 Olin Library Cornell University Ithaca, NY 14853 , XP081156683 *

Also Published As

Publication number Publication date
CN116782826A (zh) 2023-09-19
JPWO2022173055A1 (ja) 2022-08-18
US20240070885A1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
US11735306B2 (en) Method, system and computer readable storage media for creating three-dimensional dental restorations from two dimensional sketches
US9400923B2 (en) Patient interface identification system
CN114641832A (zh) 照片和视频的临床相关匿名化
JP3639476B2 (ja) 画像処理装置および画像処理方法ならびに画像処理プログラムを記録した記録媒体
US10740921B2 (en) Method and device for estimating obsolute size dimensions of test object
US8711178B2 (en) System and method for generating profile morphing using cephalometric tracing data
JP5261586B2 (ja) メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP2015533519A5 (ja)
US9330300B1 (en) Systems and methods of analyzing images
CN109145866B (zh) 确定侧脸倾斜角度的方法及装置
US20220378548A1 (en) Method for generating a dental image
WO2022173055A1 (ja) 骨格推定方法、装置、プログラム、システム、学習済みモデル生成方法、および学習済みモデル
TWI471807B (zh) Face classification method, face classification device, classification chart, face classification program and recorded the program of the recording media
Hayes A geometric morphometric evaluation of the Belanglo ‘Angel’facial approximation
US20220222814A1 (en) System and method for facial and dental photography, landmark detection and mouth design generation
CN112155554B (zh) 一种基于儿童青少年颅部表面形态学发育特征确定个体发育年龄的方法、装置及设备
WO2022173056A1 (ja) 肌状態推定方法、装置、プログラム、システム、学習済みモデル生成方法、および学習済みモデル
WO2023210341A1 (ja) 顔分類方法、装置、およびプログラム
US20240032856A1 (en) Method and device for providing alopecia information
JP7226745B2 (ja) 三次元顔形態の判別装置、方法、プログラム、およびシステム
WO2023026891A1 (ja) 眉メイクガイド方法、装置、プログラム、およびシステム
JP6287170B2 (ja) 眉生成装置、眉生成方法及びプログラム
WO2023203385A1 (en) Systems, methods, and devices for facial and oral static and dynamic analysis
Danino et al. Algorithm for facial weight-change [image weight-change simulator]
Rai et al. Craniofacial identification

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22752877

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022580718

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18261508

Country of ref document: US

Ref document number: 202280010220.5

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22752877

Country of ref document: EP

Kind code of ref document: A1