WO2021131072A1 - マッサージ評価方法、マッサージ評価装置、およびマッサージ評価プログラム - Google Patents

マッサージ評価方法、マッサージ評価装置、およびマッサージ評価プログラム Download PDF

Info

Publication number
WO2021131072A1
WO2021131072A1 PCT/JP2019/051618 JP2019051618W WO2021131072A1 WO 2021131072 A1 WO2021131072 A1 WO 2021131072A1 JP 2019051618 W JP2019051618 W JP 2019051618W WO 2021131072 A1 WO2021131072 A1 WO 2021131072A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
face
unit
massage
fascia
Prior art date
Application number
PCT/JP2019/051618
Other languages
English (en)
French (fr)
Other versions
WO2021131072A8 (ja
Inventor
佐藤 達也
えな 鳴海
祐二 黒田
Original Assignee
B-by-C株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by B-by-C株式会社 filed Critical B-by-C株式会社
Priority to CN201980103590.1A priority Critical patent/CN115697276A/zh
Priority to JP2021566768A priority patent/JP7340880B2/ja
Priority to PCT/JP2019/051618 priority patent/WO2021131072A1/ja
Publication of WO2021131072A1 publication Critical patent/WO2021131072A1/ja
Publication of WO2021131072A8 publication Critical patent/WO2021131072A8/ja
Priority to JP2023103764A priority patent/JP2023118795A/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H23/00Percussion or vibration massage, e.g. using supersonic vibration; Suction-vibration massage; Massage with moving diaphragms
    • A61H23/02Percussion or vibration massage, e.g. using supersonic vibration; Suction-vibration massage; Massage with moving diaphragms with electric or magnetic drive
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H39/00Devices for locating or stimulating specific reflex points of the body for physical therapy, e.g. acupuncture

Definitions

  • the present invention relates to a massage evaluation method, a massage evaluation device, and a massage evaluation program.
  • Patent Document 1 the strain distribution of the skin of the face is obtained by using images taken before and after the cosmetic treatment on the face such as facial massage, and the effect of the cosmetic treatment is quantitatively used as an evaluation index.
  • the method of analysis is disclosed in.
  • an object of the present invention is to provide a massage evaluation method capable of confirming partial changes in the face after performing an effective massage.
  • the massage evaluation method is a functional agent having at least one of the functions of promoting blood circulation, promoting fat melting, or promoting fascia relaxation on the surface of the user's face.
  • a lymph node stimulation step in which a lymph node massage that physically stimulates the part of the user's face where the lymph nodes are located is performed, and a functional agent application step.
  • An image including a face shape evaluation unit that evaluates a change in the proportion of the user's face based on the position of, and a display processing unit that outputs information indicating a change in the proportion of the user's face evaluated by the face shape evaluation unit.
  • a beauty device provided with a pin-shaped pressing portion urged by the urging member is used, and the pressing portion presses the portion of the user's face where the lymph node is located. May be good.
  • a cosmetologist having a pin-shaped pressing portion urged by the urging member is used to press the portion of the user's face where the fascia is located by the pressing portion. May be good.
  • the functional agent may have components of glaucine, okra seed extract, and niacinamide.
  • the functional agent may further have a component of Disperidine.
  • the massage evaluation device of the present invention applies a functional agent having at least one of the functions of promoting blood circulation, promoting fat melting, and promoting fascia relaxation to the surface of the user's face.
  • the fascia is located on the user's face after the lymph node stimulation step that physically stimulates the part of the user's face where the lymph nodes are located, and after the functional agent application step.
  • the face shape evaluation unit is provided, and a display processing unit that outputs information indicating a change in the proportion of the user's face evaluated by the face shape evaluation unit is provided.
  • the massage evaluation program of the present invention applies a functional agent having at least one of the functions of promoting blood circulation, promoting fat melting, or promoting fascia relaxation to the surface of the user's face.
  • the lymph node stimulation step that physically stimulates the part of the user's face where the lymph nodes are located
  • the fascia is located in the user's face.
  • a computer is provided with a face shape evaluation function to be performed and a display processing function to output information indicating a change in the proportion of the user's face evaluated by the face shape evaluation unit.
  • the components contained in the functional agent are applied to the user's face, which among the blood circulation promoting effect, the fat melting effect, and the fascia relaxing effect. Can produce at least one of the effects of. Thereby, the effect of the massage can be promoted.
  • the lymph node stimulation step and the fascia stimulation step the lymph nodes and the fascia are stimulated, so that the lymph nodes are stimulated to promote the flow of lymph fluid, and the waste intervening between the muscle and the fascia. It can promote the metabolism of things and effectively eliminate the adhesion between fascia and muscle.
  • FIG. 8 It is a schematic diagram which shows the structural example of the image processing system which concerns on one Embodiment of this invention. It is a figure which shows the state which a user is using the mirror device shown in FIG. It is a block diagram which shows the structural example of the image processing system shown in FIG. It is a figure explaining the processing flow of the whole image processing system. It is a figure explaining the evaluation item which can be evaluated by the skin condition evaluation part. It is a block diagram which shows the structural example of the skin condition evaluation part. It is a figure which shows an example of the evaluation table which becomes the evaluation standard when the skin condition evaluation part detects a stain. (A) is a diagram showing an example of processing results in an image processing system, and (b) is a partially enlarged view of FIG. 8 (a).
  • FIG. It is a block diagram which shows the structural example of the mobile terminal shown in FIG. It is a figure which shows the processing flow in the skin condition evaluation part. It is a figure which shows another example of the processing result in an image processing system. It is a figure which shows an example of the evaluation table which becomes the evaluation standard when the pore is detected by the skin condition evaluation part. It is a figure which shows an example of the evaluation table which becomes the evaluation standard at the time of detecting a bear, redness, and a stain by a skin condition evaluation part. It is a figure which shows an example of the evaluation table which becomes the evaluation standard at the time of detecting texture, fine wrinkles, pores, and wrinkles by a skin condition evaluation part.
  • FIG. 13 It is a block diagram which shows the structural example of the face shape evaluation part shown in FIG. It is a figure which shows an example of each vertex recognized by the vertex recognition part shown in FIG. 13, and is (a) front view and (b) side view of the image pickup data. It is a figure which shows the processing flow in the face shape evaluation part. It is a schematic diagram in the process of recognizing the apex on the cheek by the apex recognition part. It is a figure which shows an example of the display content by a display processing unit. It is a figure which shows another example of the display content by a display processing unit. (A) is an external view of a beauty device used in a massage step, and (b) is a cross-sectional view.
  • FIG. 1 is a schematic view showing a configuration example of an image processing system 100 according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a state in which the user 5 is using the mirror device 2 shown in FIG.
  • the image processing system 100 performs image processing on the image data obtained by capturing the face of the user 5, and displays the result to the user 5. By doing so, it is a system that gives advice on beauty promotion.
  • the user 5 actually uses the user 5, as shown in FIG. 2, the user 5 sits in front of the mirror device 2, and the face of the user 5 is captured by the imaging unit 21 using image data, which will be described later. Is analyzed.
  • the image processing system 100 includes a mirror device 2 and an image analysis device 1 connected to each other via a network 3.
  • a plurality of mirror devices 2 are provided.
  • the mirror device 2 includes a store terminal 2A and a personal terminal 2B.
  • the store terminal 2A is a terminal used in a store that teaches the user 5 to promote beauty, and can be used when the user 5 visits the store.
  • the personal terminal 2B is a terminal that is supposed to be used mainly by the user 5 at home, and can be used by the user in daily life, for example, when grooming his / her appearance or before going to bed.
  • the mobile terminal 4 of the user 5 is connected to the network 3.
  • the mobile terminal 4 is connected to the network 3 by wireless communication.
  • the image processing system 100 of the present invention uses a store terminal 2A installed in a store that provides beauty-related services such as an esthetic salon to image the face of the user 5 and display the evaluation result.
  • the image processing system 100 may be used, for example, for the user 5 to propose measures to be taken in the future in order to improve the skin condition of his / her face.
  • the image processing system 100 can also show the result of daily imaging and evaluation of the face of the user 5 by using the personal terminal 2B provided at the home of the user 5. That is, when using the image processing system 100, it may be performed under the operation of the operator 6 of the store, or it may be performed by the operation of the user 5.
  • FIG. 3 is a block diagram showing a configuration example of the image processing system 100.
  • the mirror device 2 includes a display unit 20, an imaging unit 21, and a communication unit 22.
  • the display unit 20 is a display provided on the surface of the mirror device 2 so as to have a mirror surface and to display data. That is, the display unit 20 displays various analysis results described later by the image analysis device 1.
  • the display unit 20 can adjust the area for displaying data and the area for becoming a mirror surface. That is, for example, the entire surface of the display unit 20 may be a mirror surface, or the data may be displayed on the entire surface of the display unit 20. Further, the data may be displayed on the mirror surface of the display unit 20, or the data may be displayed in the other half area with the half area of the display unit 20 as the mirror surface.
  • the imaging unit 21 images the front of the display unit 20.
  • the image pickup unit 21 is not particularly limited as long as it is a device capable of capturing the face of the user 5 and acquiring image data when the user 5 is positioned in front of the user 5.
  • the image pickup unit 21 includes, for example, an image pickup element such as CMOS or CCD.
  • the communication unit 22 transmits the image data captured by the image pickup unit 21 to the communication unit 23 of the image analysis device 1.
  • the display unit 20 displays the outline of the image data of the face of the user 5 captured in the past. That is, it is preferable that the position of the face of the user 5 does not change significantly with respect to the imaging unit 21 when imaging is performed habitually. Therefore, in order for the user 5 located in front of the imaging unit 21 to align his / her face position with respect to the imaging unit 21, the display unit 20 has captured the outline of the image data of the user 5's face in the past. Is displayed. At this time, the image of the face of the user 5 captured by the imaging unit 21 is displayed on the display surface, and the imaging unit 21 acquires the image data after the user 5 aligns the face.
  • the image data acquired by the mirror device 2 may be 2D data or 3D data.
  • the mirror device 2 may be, for example, a 3D camera in which a plurality of image pickup units 21 are arranged at intervals, or may be configured to include one image pickup unit 21 and a distance sensor.
  • the communication unit 22 of the mirror device 2 communicates with the communication unit 23 of the image analysis device 1 via the network 3 shown in FIG.
  • the network 3 is a network for connecting the mirror device 2, the image analysis device 1, and the mobile terminal 4 to each other, and is, for example, a wireless network or a wired network.
  • the network 3 includes a wireless LAN (wireless LAN: WLAN), a wide area network (wide area network: WAN), ISDNs (integrated service digital networks), wireless LANs, LTE (long term evolution), and LTE.
  • 4G 4th generation
  • 5G 5th generation
  • CDMA code division network access
  • WCDMA registered trademark
  • Ethernet registered trademark
  • the network 3 is not limited to these examples, and the network 3 is not limited to these examples, for example, the public switched telephone network (Public Switched Telephone Network: PSTN), Bluetooth (registered trademark), Bluetooth Low Energy, optical line, ADSL. (Asymmetric Digital Subscriber Line) A line, a satellite communication network, or the like may be used, and any network may be used.
  • PSTN Public Switched Telephone Network
  • Bluetooth registered trademark
  • Bluetooth Low Energy optical line
  • ADSL. Asymmetric Digital Subscriber Line
  • a line, a satellite communication network, or the like may be used, and any network may be used.
  • the network 3 may be, for example, NB-IoT (Narrow Band IoT) or eMTC (enhanced Machine Type Communication).
  • NB-IoT and eMTC are wireless communication systems for IoT, and are networks capable of long-distance communication at low cost and low power consumption.
  • the network 3 may be a combination of these. Further, the network 3 may include a plurality of different networks in which these examples are combined. For example, the network 3 may include a wireless network by LTE and a wired network such as an intranet which is a closed network.
  • the image analysis device 1 includes a skin condition evaluation unit 30, a face shape evaluation unit 50, a communication unit 23, a future prediction unit 60, an evaluation result providing unit 61, and a confirmation content reporting unit 62. And a storage unit 63 and a user identification unit 64.
  • the image analysis device 1 analyzes the image data of the face of the user 5 captured by the image pickup unit 21.
  • the skin condition evaluation unit 30 is a functional unit that evaluates the skin condition of the user 5. The details of the configuration of the skin condition evaluation unit 30 will be described later with reference to FIG.
  • the face shape evaluation unit 50 is a functional unit that evaluates changes in the promotion of the face of the user 5. The details of the configuration of the face shape evaluation unit 50 will be described later with reference to FIG.
  • the future prediction unit 60 uses at least one of the skin health condition of the user 5 stored in the skin condition evaluation unit 30 and the face shape evaluation of the user 5 stored in the face shape evaluation unit 50. Predict the future of 5 faces.
  • the future prediction unit 60 generates synthetic data of the face of the user 5 such as what kind of effect can be expected when the measures to be continuously proposed in the future are taken while referring to the past history, and the mirror device. It is displayed on the display unit 20 of 2.
  • the evaluation result providing unit 61 analyzes the degree of beauty promotion of the user 5 from the image data, and provides the analysis result to the personal terminal 2B.
  • the analysis result referred to here refers to each analysis result performed by the skin condition evaluation unit 30 and the face shape evaluation unit 50, which will be described later.
  • the degree of beauty promotion refers to the progress in the process of aiming for improvement from the current state to the future with respect to beauty items such as skin condition and face promotion.
  • the confirmation content reporting unit 62 reports the confirmation history information regarding the confirmation history confirmed by the user 5 using the personal terminal 2B among the analysis results provided to the user 5 to the store terminal 2A.
  • the confirmation history information can be confirmed by obtaining a data log which is a history of the usage status of the personal terminal 2B.
  • the confirmation content reporting unit 62 aggregates the number of times the user 5 confirms each analysis result performed by the skin condition evaluation unit 30 and the face shape evaluation unit 50 within a predetermined period, and reports it to the store terminal 2A. .. The same content may be reported to the personal terminal 2B. Further, the confirmation content reporting unit 62 reports at least one of the maintenance method and the maintenance product displayed by the display unit 20 to the store terminal 2A. Details of the maintenance method and maintenance products will be described later.
  • the storage unit 63 stores the contents confirmed by the user 5 using the store terminal 2A when visiting the store together with the confirmation history information. That is, as for the content confirmed by the user 5, the content confirmed using the personal terminal 2B at home and the content confirmed using the store terminal 2A at the store are aggregated and stored in the storage unit 63. There is.
  • the storage unit 63 also stores the face data of each user 5 and the ID of the user 5.
  • the user identification unit 64 identifies the user 5 to be used.
  • the user identification unit 64 may accept the input of the ID of the user 5 from the keyboard of the touch panel displayed on the display unit 20, for example, and refers to the image data of the captured face of the user 5 to the storage unit 63, for example. By doing so, the user 5 may be specified.
  • FIG. 4 is a diagram showing the entire processing flow of the image processing system 100.
  • the user first authenticates the user (S10: user authentication step).
  • the user 5 may input the user ID using the keyboard of the touch panel displayed on the display unit 20, or the user identification unit 64 stores the image data of the face imaged by the imaging unit 21. This may be done by referring to the information of the user 5 stored in 63.
  • the skin condition evaluation unit 30 evaluates the skin condition of the user 5 (S11: skin condition evaluation step). This content will be described later.
  • the face shape evaluation unit 50 evaluates the change in the face promotion of the user 5 (S12: face shape evaluation step). This content will be described later.
  • the evaluation result providing unit 61 provides the evaluation result to the user 5 by transmitting each analysis result to the personal terminal 2B (S13: evaluation result providing step). The contents of each analysis result will be described later.
  • the confirmation content reporting unit 62 reports the content confirmed by the user 5 to the store by transmitting it to the store terminal 2A (S14: confirmation content reporting step). As a result, the store staff can confirm what kind of items the user 5 is interested in regarding beauty.
  • the skin condition evaluation unit 30 evaluates the skin health condition of the user 5 based on the skin color of the user 5 from the image data. Based on the skin color of the user 5, the skin condition evaluation unit 30 detects a portion of the skin of the user 5 in which an abnormality has occurred as an abnormal portion, and displays the quantity of the abnormal portion together with a past history.
  • the number of abnormal parts can be grasped by counting the number of parts exceeding a preset threshold value with respect to the hue as a skin color, for example.
  • FIG. 5 is a diagram for explaining evaluation items that can be evaluated by the skin condition evaluation unit 30.
  • FIG. 5 shows a facial region in which the skin condition evaluation unit 30 detects each abnormal item in the image captured by the imaging unit 21.
  • the skin condition evaluation unit 30 has a function of detecting an abnormality in the skin condition. Skin abnormalities that can be detected by the skin condition evaluation unit 30 include fine wrinkles, wrinkles, stains, enlarged pores, rough skin (texture), redness, and bears.
  • the skin condition evaluation unit 30 sets each region shown in FIG. 5, and performs detection processing with each region as a detection region corresponding to each abnormal item to be detected.
  • FIG. 6 is a block diagram of the skin condition evaluation unit 30.
  • the skin condition evaluation unit 30 includes a device-side communication unit 31, a data storage unit 32, a data processing unit 33, and a device-side display unit 34.
  • the skin condition evaluation unit 30 is an information processing device that analyzes the skin condition of the user 5's face from the image data obtained by capturing the image of the user 5's face.
  • the device-side communication unit 31 is a communication interface for transmitting and receiving various data via the network 3.
  • Various types of data include image data, processing data, and improvement data. That is, the device-side communication unit 31 functions as a receiving unit that receives the image data transmitted from the communication unit 22 of the mirror device 2.
  • the image data refers to data obtained by capturing the face of the user 5 by the mirror device 2.
  • the processed data refers to data in which the position of a stain is specified and marked on the image data by the evaluation result display unit 33C described later.
  • the improvement data is data that the improvement data generation unit 33F, which will be described later, assumes a state in which pigmentation in the pigmentation abnormality portion is improved with respect to the image data, changes the hue of the pigment abnormality portion, and displays it to the user 5. Point to.
  • the data storage unit 32 has a function of storing various control programs required for the data processing unit 33 to operate and various data received from the outside by the device-side communication unit 31.
  • the data storage unit 32 has an evaluation table that serves as a reference when the skin color evaluation unit 33A, which will be described later, uses it when evaluating the skin color of the user 5.
  • the data storage unit 32 is realized by various storage media such as HDD, SSD, and flash memory, for example.
  • the data processing unit 33 By executing the control program stored in the data storage unit 32, the data processing unit 33 realizes each function to be realized as the image processing system 100.
  • Each function referred to here includes a skin color evaluation function, a pigmentation identification function, an evaluation result display function, a depth estimation function, a measure proposal function, and an improvement data generation function.
  • the device-side display unit 34 is a monitor device that displays the operation content and the processing result of the image analysis device 1.
  • the data processing unit 33 is a computer that controls each unit of the image analysis device 1, and may be, for example, a central processing unit (CPU), a microprocessor, an ASIC, an FPGA, or the like.
  • the data processing unit 33 is not limited to these examples, and may be any computer as long as it controls each unit of the image analysis device 1.
  • the data processing unit 33 includes a skin color evaluation unit 33A, a skin abnormality identification unit 33B, an evaluation result display unit 33C, a depth estimation unit 33D, a measure proposal unit 33E, and an improvement data generation unit 33F.
  • the skin color evaluation unit 33A divides an arbitrary part of the skin of the user 5 into a plurality of stages by using the image data obtained by capturing the skin of the user 5.
  • the plurality of stages are preset divisions for classifying the skin condition of the user 5, and are represented by, for example, stages 1 to 4, and the larger the numerical value of the stage, the more the pigment abnormality occurs.
  • the location is deep in the skin, which means that the symptoms of dyschromia are severe.
  • the stage groups may be individually prepared according to the races having different skin colors.
  • the skin color evaluation unit 33A divides the skin color of the user 5 into a plurality of stages according to the skin hue value (RGB value as an example). This content will be described in detail with reference to FIG. FIG. 7 is an example of an evaluation table that serves as an evaluation standard for the skin color evaluation unit 33A when detecting a stain.
  • the hue value is not limited to the RGB value, but may be a CMYK value or another index value.
  • Hue can be expressed by, for example, RGB values. That is, in this figure, the hue is represented by the color, but the corresponding RGB value data may be provided.
  • an abnormal pigmented portion is likely to occur on the cheekbone, and when it is brown to brown, it is judged to be stage 1. Further, when the pigment abnormal portion is light brown to light brown, it is judged to be stage 2. Further, when the pigment abnormal portion is light brown to light brown, it is judged to be stage 3.
  • stage 1 in the case of post-inflammatory hyperpigmentation, it tends to occur on the entire face, and when the pigmented abnormal part is brown to brown, it is judged to be stage 1. Further, when the pigment abnormal portion is light brown to light brown, it is judged to be stage 2. Further, when the color is light brown to light brown, it is judged to be stage 3. If the color is from blue to gray, it is determined to be stage 4.
  • the operator 6 selects the type of pigmented spot from the position and appearance of the abnormal pigmented portion.
  • this evaluation table is just an example, and another evaluation table may be adopted as the evaluation table for evaluating stains.
  • the skin color evaluation unit 33A changes the evaluation table to be referred to depending on the type of skin abnormality (fine wrinkles, wrinkles, stains, enlarged pores, rough skin, redness, or bear) (see FIGS. 13 and 14). .. This point will be described later.
  • the skin abnormality identification unit 33B identifies a portion where a pigmentation abnormality portion including a stain due to pigmentation is generated at an arbitrary portion of the skin of the user 5 based on the stage classified by the skin color evaluation unit 33A.
  • pigmentation refers to skin pigmentation abnormalities caused by the accumulation of black melanin in the epidermis.
  • melanocytes which are the internal tissues of the skin, produce black melanin. Generate. This black melanin has a role of protecting the skin, but in the case of healthy skin, it is excreted from the body over time.
  • the evaluation result display unit 33C displays the position of each stage of the image data divided by the skin color evaluation unit 33A. Further, the evaluation result display unit 33C marks the pigment abnormality portion specified by the skin abnormality identification portion 33B. As a result, processing data in which the position of the stain is displayed and marked on the image data is generated. The marking is performed by attaching a color mark set for each stage to a portion whose hue corresponds to any one of stages 1 to 4. Further, the evaluation result display unit 33C can display and mark the positions of a plurality of image data captured by the same user 5 at different times for each stage and display them side by side.
  • FIG. 8A is a diagram showing an example of processing results in the image processing system 100
  • FIG. 8B is a partially enlarged view of FIG. 8A.
  • the positions of a plurality of stains are specified with respect to arbitrary positions on the skin of the face of the user 5.
  • the pigment abnormal portion is marked and expressed. Some of these markings cannot be visually identified.
  • the lightest mark M1 indicates stage 1
  • the darkest mark M3 indicates stage 3.
  • the mark M2 of the middle darkness indicates the stage 2. In this figure, the stage 4 mark is not confirmed.
  • the depth estimation unit 33D estimates the depth of the pigment abnormal portion in the skin of the user 5 from the skin surface based on the hue value of the pigment abnormal portion specified by the skin abnormality identification portion 33B.
  • the depth from the skin surface at the position where the pigment abnormal portion is generated differs depending on the hue of the stain or the pigment spot.
  • the abnormal pigmented portion corresponding to stage 1 is generated in the upper layer of the epidermis, and the abnormal pigmented portion corresponding to stage 2 is generated in the middle layer of the epidermis. It is judged that there is. Further, it is determined that the dyschromia portion corresponding to stage 3 is generated in the lower layer of the epidermis, and the dyschromia portion corresponding to stage 4 is generated from the lower layer of the epidermis to the dermis layer.
  • the upper side refers to the side of the inside of the skin facing the surface
  • the lower side refers to the side of the inside of the skin facing the body. The criteria for determining such color and depth can be set arbitrarily.
  • the measure proposal unit 33E proposes a measure for promoting improvement of pigmentation based on the depth of the pigment abnormal part estimated by the depth estimation unit 33D.
  • the contents of the measures include the use of a beauty essence 70, the use of an introductory beauty essence, the use of a carbonated pack, UV care, and the like. Which of these is appropriate is determined by the depth of the dyschromia.
  • the improvement data generation unit 33F assumes a state in which the pigmentation in the pigment abnormality portion is improved with respect to the image data, changes the hue of the pigment abnormality portion, and displays it to the user 5. That is, it has a function of visually expressing what kind of effect can be obtained when the proposed measure is implemented for a certain period of time.
  • the improvement data generation unit 33F estimates, for example, using past history data, a value of how the pigment abnormal part changes when the measure is taken for a certain period from the same state. Based on this guess, the improvement data generation unit 33F generates improvement data from the image data.
  • FIG. 9 is a block diagram showing a configuration example of the mobile terminal 4.
  • the mobile terminal 4 includes a terminal-side communication unit 41, a terminal storage unit 42, a terminal processing unit 43, a camera 44, and a terminal-side display unit 45.
  • the terminal-side communication unit 41 is a communication interface for transmitting and receiving various data via the network 3.
  • Various types of data include image data and data showing comparison results. That is, the terminal-side communication unit 41 receives various types of information from the image analysis device 1.
  • the terminal storage unit 42 has a function of storing various control programs and various data required for the terminal processing unit 43 to operate.
  • the terminal storage unit 42 is realized by various storage media such as HDD, SSD, and flash memory.
  • the terminal processing unit 43 may realize at least a part of each function to be realized as the image processing system 100.
  • the terminal processing unit 43 is a computer that controls each unit of the mobile terminal 4, and may be, for example, a central processing unit (CPU), a microprocessor, an ASIC, an FPGA, or the like.
  • the terminal processing unit 43 is not limited to these examples, and may be any computer as long as it controls each unit of the mobile terminal 4.
  • the terminal processing unit 43 includes a reception unit 43A.
  • the reception unit 43A receives the image data and the comparison result transmitted from the image analysis device 1 and displays them on the terminal side display unit 45.
  • the camera 44 can perform imaging by the operation of the user 5. Instead of the mirror device 2 according to the present embodiment, the image data may be acquired by the camera 44 of the mobile terminal 4 and transmitted to the image analysis device 1.
  • the terminal-side display unit 45 is a monitor device that displays information indicating the comparison result processed by the image analysis device 1.
  • the terminal-side display unit 45 can display image data together with the comparison result.
  • FIG. 10 is a diagram showing a processing flow in the image analysis device 1.
  • image acquisition step: S501 the image data of the face of the user 5 captured by the mirror device 2 is acquired.
  • the skin color evaluation unit 33A divides the skin of the user 5 into a plurality of stages while referring to the evaluation table (skin color evaluation step: S502).
  • the skin abnormality identification portion 33B identifies the portion of the skin of the user 5 in which the pigmentation abnormality portion occurs (pigmentation identification step: S503). Then, the evaluation result display unit 33C identifies stains and pigment spots by marking the pigment abnormal portion (evaluation result display step: S504).
  • the depth estimation unit 33D estimates the depth of the pigment-abnormal portion from the skin surface (depth estimation step: S505). At this time, the depth estimation unit 33D refers to the corresponding data of the color of the pigment abnormal portion stored in advance and the depth from the skin surface.
  • the measure proposal unit 33E proposes a measure for improving pigmentation to the user 5 (measure proposal step: S506).
  • the improvement data generation unit 33F generates and displays the improvement data (improvement data generation step: S507).
  • the improvement data generation unit 33F assumes a state in which the pigmentation in the pigment abnormality portion is improved with respect to the image data, changes the hue of the pigment abnormality portion, and displays it to the user 5. As a result, the user 5 can visually grasp what kind of effect is obtained when the measure is taken, and can obtain the motivation to continue the measure.
  • FIG. 11 is a diagram showing another example of the processing result in the image processing system 100.
  • the pigment abnormal portion is marked in a state of being divided into a plurality of stages. Then, the number of confirmed spots can be evaluated for each corresponding stage. Further, by totaling the number of stains and comparing them with the ideal value and the average value, the current state of the user 5 can be objectively displayed.
  • FIG. 12 is a diagram showing an example of an evaluation table that serves as an evaluation standard when the skin condition evaluation unit 30 evaluates pores.
  • this evaluation table the mechanism of occurrence, skin characteristics, skin quality (skin quality around the pores), palpation (feeling of touch), frequent sites (well-made sites), causes, and countermeasures are classified according to the shape of the pores. ing.
  • the skin abnormality specifying unit 33B identifies the position of the pores from the information on the skin color detected by the skin color evaluation unit 33A.
  • the skin abnormality identifying portion 33B evaluates the shape of the pores and classifies them into a plurality of types. For example, as shown in FIG. 12, it can be classified into four types: dry pores, sagging pores, clogged pores, and shape memory type pores. Then, maintenance information on what kind of treatment should be taken to make the pores classified in this way inconspicuous is described in the countermeasure column located at the right end of FIG.
  • the measure proposal unit 33E can provide the user 5 for beauty by presenting the content of the measure together with the evaluation result.
  • FIG. 13 is a diagram showing an example of an evaluation table that serves as an evaluation standard when detecting bears, redness, and stains.
  • the skin abnormality identification unit 33B detects the position of the bear from the information on the skin color detected by the skin color evaluation unit 33A. At this time, information indicating the color range of the bear is stored in advance in the evaluation table, and the bear is detected by referring to this value.
  • redness among the colors of the entire skin detected by the skin color evaluation unit 33A, the part where the hue of red is remarkably confirmed is detected as redness by the skin abnormality identification unit 33B. Then, check the area with redness, and if there is redness around the cheeks, it is judged that it is telangiectasia, if there is redness on the entire face, it is judged that it is due to dryness, and if there is strong redness locally. Is determined to be due to acne. And measures to be taken are prepared for each redness.
  • the stain When detecting a stain, as described above, the stain is classified into stages according to the color of the stain detected by the skin color evaluation unit 33A. It is known that the depth of stains from the skin surface to the located part differs depending on the color, so the measures to be taken for each stain differ. Even in the case of bears, redness and stains, the measure proposal unit 33E presents the maintenance information and the measure information stored in the evaluation table as a solution to the user 5 together with the evaluation result.
  • the evaluation table shows maintenance products recommended for maintenance together with maintenance information. This information is stored in the data storage unit 32. Then, the measure proposal unit 33E may present the maintenance product together with the maintenance information, or may present only the maintenance product. That is, the display unit 20 of the mirror device 2 can display at least one of the maintenance method and the maintenance product together with the evaluation result.
  • FIG. 14 is a diagram showing an example of an evaluation table that serves as an evaluation standard when detecting texture, fine wrinkles, pores, and wrinkles.
  • the skin color evaluation unit 33A When evaluating the texture (rough skin), the skin color evaluation unit 33A subdivides the skin on the cheeks into minute area elements according to the difference in color, evaluates the degree of density, and gives a score. If this score is 50 points or more, it is judged to be hyperkeratosis, and if it is 30 points or more and 49 points or less, it is judged to be dry skin. If the score is 29 or less, it is judged that there is no abnormality.
  • the skin color evaluation unit 33A detects a line formed around the eyes and having a hue different from that of the surroundings. That is, the wrinkles formed around the eye are called wrinkles in this explanation. If one or more lines extend horizontally below the eyes, this line is judged to be slack. If the lines are on the left and right outside of the eyes and there are three or more lines in the area below the eyes, this line is judged to be fine wrinkles.
  • the main cause of sagging wrinkles is muscle weakness, and the main cause of fine wrinkles is thinning of the epidermis and dermis.
  • the evaluation of pores is as described above, and the description thereof will be omitted.
  • the skin color evaluation unit 33A When evaluating wrinkles, the skin color evaluation unit 33A is formed around the forehead and cheeks, and detects a line having a hue different from that of the surroundings. That is, the wrinkles formed around the forehead and cheeks are called fine wrinkles in this explanation. If there is a line on the forehead, it is judged as a facial expression wrinkle, and if there is a line on the cheek, it is judged as a rough wrinkle. Facial expression wrinkles are mainly caused by the habit of daily facial expressions and the weakening of the muscles of the scalp and eyes. The main cause of wrinkles is a decrease in muscle strength in the cheeks and mouth.
  • the skin condition evaluation unit 30A detects a portion of the skin that has an abnormality for each type of skin abnormality (fine wrinkles, wrinkles, stains, enlarged pores, rough skin, redness, or bear). can do.
  • FIG. 15 is a block diagram showing the configuration of the face shape evaluation unit 50.
  • the face shape evaluation unit 50 evaluates the change in the facial proportion of the user 5 based on the positions of the skeleton, muscles, and fat of the user 5 from the image data.
  • the face shape evaluation unit 50 calculates the area of a predetermined area defined on the face of the user 5 based on the positions of the skeleton, muscles, and fat of the user 5, and displays the area of the predetermined area together with the past history.
  • the face shape evaluation unit 50 includes a device-side communication unit 51, a data storage unit 52, a device processing unit 53, and a device-side display unit 54.
  • the face shape evaluation unit 50 is an information processing device that analyzes the state of the face of the user 5 from the imaged data obtained by capturing the face of the user 5.
  • the device-side communication unit 51 is a communication interface for transmitting and receiving various data via the network 3.
  • Various data include imaging data and data showing comparison results. That is, the device-side communication unit 51 functions as a receiving unit that receives the imaging data.
  • the data storage unit 52 has a function of storing various control programs required for the device processing unit 53 to operate and various data received from the outside by the device-side communication unit 51. Further, the data storage unit 52 stores at least one reference area data.
  • the data storage unit 52 is realized by various storage media such as HDD, SSD, and flash memory, for example.
  • the device processing unit 53 By executing the control program stored in the data storage unit 52, the device processing unit 53 realizes each function to be realized as the image processing system 100.
  • Each function referred to here includes a vertex recognition function, an area demarcation function, an area calculation function, an area comparison function, and a result display function.
  • the device-side display unit 54 is a monitor device that displays the operation content and the processing result of the face shape evaluation unit 50.
  • the device processing unit 53 is a computer that controls each unit of the face shape evaluation unit 50, and may be, for example, a central processing unit (CPU), a microprocessor, an ASIC, an FPGA, or the like.
  • the device processing unit 53 is not limited to these examples, and may be any computer as long as it controls each unit of the face shape evaluation unit 50.
  • the device processing unit 53 includes a vertex recognition unit 53A, an area demarcation unit 53B, an area calculation unit 53C, an area comparison unit 53D, and a display processing unit 53E.
  • the vertex recognition unit 53A recognizes the positions of the two fixed points Pf and the one movable point Pm from the imaged data obtained by capturing the face of the user 5.
  • the fixed point Pf is a vertex specified depending on the skeleton of the face. Since the fixed point Pf is specified depending on the skeleton of the face, the change in position with the passage of time is slight.
  • the meaning of fixing does not mean that the position does not change at all, but means that the amount of change is extremely small as compared with the movable point Pm described later.
  • the movable point Pm is an apex that is specified depending on the muscles and fat of the face. For example, the muscles of the face weaken with aging or fat is attached to the face, so that the face is directed downward. The position changes. Further, the movable point Pm changes its position toward the upper side by stimulating the facial muscles to strengthen the facial muscles and reduce the amount of fat in the face. The proportion of the face changes due to such a change in the position of the movable point Pm, which greatly affects the impression that the face gives to the other party.
  • FIG. 16 is a diagram showing each vertex recognized by the vertex recognition unit 53A, and is a front view (a) and a side view (b) of the imaged data. Note that this content is merely an example, and each vertex recognized by the vertex recognition unit 53A can be arbitrarily changed. That is, the apex of the face that is easy to recognize can be used for the evaluation in consideration of the structure of the skeleton of the user 5, the way the muscles are attached, and the like.
  • the vertex recognition unit 53A recognizes two fixed points Pf and one movable point Pm for one defined region.
  • Each apex specified by the deep nose point P1 and the apex P2 of the temple is recognized as two fixed points Pf, and the apex P3 on the cheek is recognized as one movable point Pm.
  • the deep nose point P1 is shared by a pair of left and right defined regions. The specific method for identifying each vertex will be described later.
  • the positions of the deep nose point P1 and the apex P2 of the temple in the vertical direction are the same as each other.
  • the apex P3 on the cheek is located below the apex P1 of the deep nose and the apex P2 of the temple.
  • the apex recognition unit 53A recognizes each apex specified by the nose point P4 and the ear point P5 as two fixed points Pf, and recognizes the apex P6 under the cheek as one movable point Pm. ..
  • the subnasal point P4 is shared by a pair of left and right demarcated regions. The specific method for discriminating each vertex will be described later.
  • the positions of the nose point P4 and the ear point P5 in the vertical direction are the same as each other.
  • the apex P6 below the cheek is located below the nose point P4 and the ear point P5.
  • the recognition means of each vertex in the vertex recognition unit 53A may be a method of specifying the absolute coordinates with respect to the spatial coordinates provided for the imaged data, or any of the three vertices that define the defined region. It may be a method of specifying the relative coordinates based on the above. In the present embodiment, since the imaging data is 3D data, the coordinate values are also expressed three-dimensionally.
  • the area demarcation unit 53B defines a demarcation region having a triangular shape by a straight line connecting the vertices whose positions are recognized by the apex recognition unit 53A. Further, the area demarcation section 53B defines a pair of left and right demarcation areas with reference to the median plane O1 of the face.
  • the demarcation area defined by the area demarcation unit 53B may be a two-dimensional area or a three-dimensional area. In the present embodiment, the defined region is a three-dimensional region.
  • the area demarcation section 53B defines two types of demarcation areas at intervals in the vertical direction of the face.
  • the demarcation area located on the upper side is referred to as the upper demarcation area A1
  • the demarcation area located on the lower side is referred to as the lower demarcation area A2. That is, the area demarcation section 53B defines the upper demarcation area A1 and the lower demarcation area A2 in pairs on the left and right.
  • the fact that the upper demarcation area A1 and the lower demarcation area A2 are spaced in the vertical direction means that the entire face is evaluated over the entire area in the vertical direction, so that the evaluation by the upper demarcation area A1 and the lower demarcation area A2 is performed on the face.
  • the intention is to cover the whole. Therefore, there is no problem even if a part of the upper demarcation region A1 and the lower demarcation region A2 overlap each other.
  • the area calculation unit 53C calculates the area of the defined area. In calculating the area of the demarcation area, the area in the demarcation area is calculated using the coordinate data of each vertex specified by the area demarcation unit 53B.
  • the area comparison unit 53D compares the area of the demarcated area calculated by the area calculation unit 53C with the reference area known as the area of the area corresponding to the demarcation area.
  • the area comparison unit 53D can use the area of the defined area defined from the imaged data of the user 5 imaged a certain period before, that is, in the past, from the time of capturing the imaged data. Further, the area comparison unit 53D can use the area of the defined region in the ideal model as the face desired by the user 5 as the reference area. As described above, the reference area can be arbitrarily set as long as it can be compared with the area of the defined area at the present time.
  • the ideal model is created using past imaging data. For the past imaged data, prepare about 100 original data in which the ideal defined area is visually specified. An ideal model can be created by performing deep learning (deep learning) processing using this original data.
  • the guideline for comparing each area will be described by taking as an example the case where the area at the time of the previous measurement is used as the reference area.
  • the apex P3 on the cheek which is the movable point Pm
  • the apex P6 under the cheek which is the movable point Pm
  • the area of the defined region is smaller than the reference area which is the area at the time of the previous measurement. If it is, it means that the movable point Pm has moved upward. That is, it means that the proportion of the face is improved by strengthening the muscles of the face or reducing the fat of the face.
  • the movable point Pm has moved downward. That is, it means that the proportion of the face has deteriorated due to the weakening of the facial muscles or the increase in the fat of the face. In this way, the user 5 can quantitatively grasp whether the proportion of the face is improving or deteriorating by confirming the amount of change in the defined region.
  • the position of the movable point Pm is arranged below the position of the fixed point Pf for each of the upper demarcated area A1 and the lower demarcated area A2. It is not limited to the mode.
  • the position of the movable point Pm may be located above the position of the fixed point Pf.
  • the comparison result between the area of the defined area and the reference area is the opposite of the above explanation. That is, when the area of the demarcated area becomes larger than the reference area, the proportion of the face is improving, and when the area of the demarcated area becomes smaller than the reference area, the proportion of the face deteriorates. You are heading.
  • the display processing unit 53E displays the comparison result of comparing the area of the defined area and the reference area by the area comparison unit 53D on the device side display unit 54 and the terminal side display unit 45 described later of the mobile terminal 4. A specific example of the display content displayed by the display processing unit 53E will be described later.
  • FIG. 17 is a diagram showing a processing flow in the image processing system 100
  • FIG. 18 is a schematic diagram in a process in which the apex recognition unit 53A recognizes the apex P3 on the cheek.
  • the image data of the face of the user 5 acquired by the image pickup unit 21 of the mirror device 2 is received (S601: image reception step).
  • image reception step in order to suppress the change due to the facial expression of the user 5, it is desirable to always have the same facial expression by, for example, lightly engaging the back teeth.
  • the vertex recognition unit 53A recognizes each vertex using the image pickup data transmitted from the image pickup unit 21 (S602: vertex recognition step).
  • the vertex recognition step the positions of two fixed points Pf and one movable point Pm are recognized as the three vertices constituting one defined region.
  • one aspect of a specific discrimination method for each vertex will be described. Note that this explanation is just an example, and each vertex may be discriminated by another method.
  • the vertex recognition unit 53A evaluates the imaging data three-dimensionally and recognizes each vertex.
  • the deep nose point P1 forming one of the fixed points Pf is recognized as the deep nose point P1 by identifying the most recessed part of the nose base of the face. To do.
  • the apex P2 of the temple that forms the other fixed point Pf the most recessed portion of the temple portion of the face is recognized as the apex P2 of the temple.
  • the apex P2 of the temple may be a portion of the outer end of the face in the left-right direction in front view through which a straight line connecting the deep nose point P1 and the center of the pupil or the inner corner of the eye passes.
  • the most raised part of the upper part of the cheek of the face near the vertical line outside the pupil is recognized as the apex P3 on the cheek. ..
  • the most raised portion may be recognized as the apex P3 on the cheek.
  • the most recessed portion of the lower nose of the face is used. Recognized as the subnasal point P4.
  • the most recessed portion of the face located under the ear is recognized as the sub-ear point P5.
  • the most raised portion of the lower part of the cheek of the face in the lateral bulge of the corner of the mouth near the vertical line outside the pupil is used. Recognized as the apex P6 under the cheek.
  • the most raised portion may be recognized as the apex P6 under the cheek by projecting contour lines on the imaging data. By performing this process on both the left and right sides, each vertex constituting the pair of left and right lower demarcation regions A2 is recognized.
  • each defined region is used.
  • Image processing may be performed to identify each vertex constituting the above.
  • the position of each vertex may be specified by superimposing the latest imaging data on the past imaging data.
  • the operator 6 may specify the position of each vertex by selecting an appropriate portion as each vertex on the imaging data.
  • the region demarcation unit 53B defines the demarcation region using each vertex data identified by the vertex recognition step (S603: region demarcation step).
  • region demarcation step a demarcation region forming a triangular shape is defined by a straight line connecting the vertices.
  • the area calculation unit 53C calculates the area of the demarcation area defined by the area demarcation step (S604: area calculation step).
  • the area of the defined region is calculated using the coordinate data of each vertex.
  • the area comparison unit 53D compares the area of the defined region calculated by the area calculation step with the reference area (S605: area comparison step).
  • the area comparison step the area of the defined area is compared with the reference area known as the area of the area corresponding to the defined area.
  • the area of the defined area obtained from the past measurement results is set as the reference area.
  • the display processing unit 53E outputs information indicating the comparison result (S606: display processing step).
  • the comparison result of the area of the defined area compared by the area comparison unit 53D and the reference area is displayed on the device side display unit 54 and the terminal side display unit 45.
  • the comparison result may include knowledge about the current result and information for proposing measures (face massage, etc.) that the user 5 will work on in the future. It is not necessary to display the comparison result on the terminal side display unit 45. Then, by making such a comparison, it is possible to quantitatively evaluate the change in the proportion of the face due to the aged deterioration and the improvement measures, and to contribute to the promotion of beauty, as in the first embodiment described above.
  • FIG. 19 is a diagram showing an example of the display contents by the display processing unit 53E, which is (a) imaging data two months ago and (b) imaging data at the time of evaluation.
  • FIG. 20 is a diagram showing another example of the display content by the display processing unit 53E, which is (a) imaging data two months ago and (b) imaging data at the time of evaluation. Further, in FIGS. 19 and 20, the same image data is arranged above and below.
  • the area of the upper demarcated area A1 decreased by about 23% and the area of the lower demarcated area A2 decreased by about 53% as compared with two months ago.
  • a youthful and plump feeling is produced, and it is recognized that the impression of appearance is improved.
  • the area of the upper demarcated area A1 decreased by about 21.5% and the area of the lower demarcated area A2 decreased by about 25% as compared with two months ago.
  • a youthful and plump feeling is produced and the impression of appearance is improved.
  • the expression is well-balanced and graceful, and the impression of appearance is improved.
  • the massage evaluation method is performed by executing a massage step and an image processing step.
  • the massage step is performed by performing a functional agent application step, a lymph node stimulation step, and a fascia stimulation step.
  • a functional agent application step e.g., a lymph node stimulation step
  • a fascia stimulation step e.g., a functional agent application step
  • the massage step may be performed on a part other than the face.
  • the functional agent is applied to the surface of the face of the user 5.
  • the functional agent is a drug having at least one of the functions of promoting blood circulation, promoting fat melting, and promoting fascia relaxation.
  • glausin blood circulation promoter
  • okra seed extract fat melting promoter, fascial relaxation promoter
  • niacinamide blood circulation promoter
  • hesperidin blood circulation promoter
  • the component is not limited to these components, and any component having the above-mentioned effects can be used.
  • a lymph node stimulation step is performed.
  • the portion of the user 5's face where the lymph nodes are located is physically stimulated after the functional agent application step.
  • the lymph nodes on the face are located below the ears.
  • FIG. 21A is an external view of the beauty device 70 used in the massage step.
  • FIG. 21B is a cross-sectional view of the beauty device 70.
  • the beauty device 70 includes pin-shaped pressing portions 72 and 74 urged by the urging members 73 and 75.
  • the lymph nodes are stimulated by pressing the pressing portions 72 and 74 against the skin of the portion of the user 5's face where the lymph nodes are located.
  • the structure of the beauty device 70 will be described in detail.
  • the beauty device 70 includes a beauty device main body 71, a first pressing portion 72, a first urging member 73, a second pressing portion 74, and a second urging member 75.
  • the beauty device main body 71 has a tubular shape formed in a multi-stage tubular shape whose diameter is gradually increased from one side in the axial direction to the other side.
  • the cosmetology device main body 71 has a small-diameter tubular portion 71A located on one side in the axial direction, an intermediate tubular portion 71B connected to the small-diameter tubular portion 71A in the axial direction, and a large-diameter tubular portion 71C located on the other side in the axial direction. And have. On the inner peripheral surface of the large-diameter tubular portion 71C, a portion that is axially connected to the intermediate tubular portion 71B is formed with an overhanging portion 71D that projects inward in the radial direction.
  • the first pressing portion 72 is provided at one end of the beauty device main body 71 and presses the face and body of the user, and is composed of one first pin.
  • the first urging member 73 is housed inside one end portion of the beauty device main body 71, and the first pressing portion 72 is urged toward the outside of the beauty device main body 71.
  • the first urging member 73 is a coil spring.
  • the second pressing portion 74 is provided at the other end of the beauty device main body 71 and presses the face and body of the user, and integrally holds the three second pins and the three second pins. It is composed of a holding part.
  • the second urging member 75 is housed inside the other end of the beauty device main body 71, and by abutting against the end of the holding portion, the second pressing portion 74 is urged toward the outside of the beauty device main body 71. doing.
  • the second urging member 75 is a coil spring.
  • the first urging member 73 is arranged inside the intermediate cylinder portion 71B, and is in contact with the first pin in a state of being in contact with the overhanging portion 71D.
  • the second urging member 75 is arranged inside the large-diameter tubular portion 71C, and is in contact with the end portion of the holding portion in a state of being in contact with the overhanging portion 71D.
  • the beauty device 70 when using the beauty device 70, one of the pressing portions 72 and 74 is pressed against the face of the user 5 to stimulate the face of the user 5.
  • the urging forces of the first urging member 73 and the second urging member 75 are different from each other, and the user 5 can select which pressing portion 72 or 74 is used.
  • the first pressing portion 72 is pressed against the face of the user 5
  • the first pressing portion 72 is displaced against the urging force from the first urging member 73.
  • the length of the first urging member 73 which is a coil spring, becomes shorter and the amount of deformation increases, so that the urging force received by the first pressing portion 72 from the first urging member 73 gradually increases. ..
  • the force with which the first pressing portion 72 presses the face of the user 5 gradually increases. Then, the first pressing portion 72 may be pressed against the face until the limit of the displacement range of the first urging member 73 is reached, or the first pressing portion 72 may be pressed against the face of the user 5 just before the pain is felt. You may stop. By repeating this operation a plurality of times, the face of the user 5 can be stimulated.
  • the lymph node stimulation step stimulates not only the lymph nodes on the face, but also the lymph nodes near the clavicle. This eliminates the retention of lymph in the lymph nodes.
  • a fascia stimulation step of applying a fascia massage is performed.
  • the fascia stimulation step is performed using the beauty device 70 used in the lymph node stimulation step.
  • the crown, cheeks, neck, and the like are repeatedly pressed by the pressing portions 72 and 74 of the beauty device 70. This makes it possible to remove the fascia from adhering to the muscle.
  • the lymph node stimulation step and the fascia stimulation step may be repeated, or the fascia stimulation step may be performed first, and then the lymph node stimulation step may be performed.
  • an image processing step is performed.
  • the face shape evaluation step by the face shape evaluation unit 50 described above and the display processing step of outputting information indicating the change in the face proportion of the user 5 evaluated by the face shape evaluation unit 50 are executed.
  • the display processing step the display processing unit 53E displays the evaluation result on the display unit 20. This confirms the effects of lymph node massage and fascial massage.
  • Adhesions between muscle and fascia may result from waste products that intervene between them. To remove this waste product, it is effective to improve the flow of lymph fluid between the muscle and the fascia. Then, by stimulating the lymph nodes that store the lymph fluid, the flow of the lymph fluid can be improved.
  • the usefulness of stimulating the lymph nodes and fascia using the beauty device 70 provided with the pressing portions 72 and 74 will be described.
  • stimulation is given by rolling the roller member on the skin surface of the portion where the fascia is located.
  • the pin-shaped pressing portions 72 and 74 stimulate the outside of the portion where the fascia is located, the pressing pressure from the tips of the pin-shaped pressing portions 72 and 74 is with the tips of the pressing portions 72 and 74. Focus on the contact area. Therefore, it is possible to easily reach the pressing force to the deep part of the body where the fascia and lymph nodes are located.
  • the pressing force can be adjusted by adjusting the degree of displacement of the pressing portions 72 and 74 by increasing the pressing force with the displacement of the pressing portions 72 and 74 by the urging members 73 and 75. .. Further, since the pressing portions 72 and 74 are urged by the urging members 73 and 75 with a substantially constant force, there is an advantage that the pressing force can be easily made substantially constant by the pressing portions 72 and 74.
  • the beauty device 70 is used to stimulate the venous angle near the clavicle.
  • the pressing portions 72 and 74 of the beauty device 70 are pressed so as to be pushed into the vein angle. It is preferable to keep this state for about 5 seconds.
  • the pressing portions 72 and 74 of the beauty device 70 are applied to the central portion of the clavicle where the lymph nodes under the clavicle are located, and the pressing portions 72 and 74 are pushed in for about 20 seconds. repeat.
  • the operation of pushing the pressing portions 72 and 74 is preferably performed at a speed of about 5 times per second.
  • the pressing portions 72 and 74 of the beauty device 70 are applied under the mastoid process, and the operation of pushing the pressing portions 72 and 74 is repeated for about 10 seconds.
  • the operation of pushing the pressing portions 72 and 74 is preferably performed at a speed of about 3 to 5 times per second.
  • the pressing portions 72 and 74 of the beauty device 70 are applied to the back of the head, and the operation of pushing the pressing portions 72 and 74 is repeated for about 10 seconds.
  • the operation of pushing the pressing portions 72 and 74 is preferably performed at a speed of about 3 to 5 times per second. It is preferable to press the portion of the back of the head located above the neck muscle at the same height as the central part of the ear.
  • the functional agent is applied to the entire nape of one side.
  • the functional agent is applied while extending a few cc. Thereby, unevenness of the functional agent can be eliminated.
  • the front of the ear is extended up and down. This operation is performed about 5 times.
  • the functional agent is applied around the temple on one side.
  • the functional agent is applied while extending a few cc.
  • the scalp is stretched by putting four fingers on the temples and pulling the fingers diagonally upward (temporal). At this time, it is preferable to keep the finger raised for about 5 seconds.
  • the temporal region is stimulated.
  • a portion of the temporal region located above the ear at the same height as the temple is specified.
  • the pressing portions 72 and 74 of the beauty device 70 are applied to the temples, and the operation of pushing the pressing portions 72 and 74 is repeated for about 10 seconds.
  • the operation of pushing the pressing portions 72 and 74 is preferably performed at a speed of about 3 to 5 times per second.
  • the operation of pushing the pressing portions 72 and 74 into the periphery of the temple is repeated in the same manner. At this time, it is preferable to carry out for about 10 seconds at a speed of about 3 to 5 times per second.
  • stimulation is applied to six points on the temporal region. This operation is performed about 30 times per location.
  • FIG. 25 (b) four fingers are placed on the temporal region and loosened in an arc. This operation is performed about 5 times.
  • stimulation is applied to five points from the center of the hairline of the frontal region to the temples. This operation is preferably performed about 30 times for one location.
  • four fingers are placed on the forehead and loosened in an arc. This operation is performed about 5 times.
  • FIG. 26 (a) while applying pressure from the crown with the thumb, slide it to the back of the ear. This operation is performed three times along the three lines.
  • FIG. 26 (b) the back side of the ear is pulled in the direction of the arrow. This operation is performed for 5 seconds in each direction.
  • the beauty device 70 is used to stimulate the eight locations of the instep and the second part. This operation is performed 30 times at each location.
  • FIG. 26 (d) put four fingers on the hairline and insert the handgrip three times toward the back of the head.
  • FIG. 27 (a) first attach the wrist under the ear as shown in FIG. 27 (a).
  • FIG. 27 (b) the wrist is moved to the temporal region above the ear, and the other hand is placed along the head.
  • FIG. 27 (c) pull up with both hands. This completes the entire series of massages.
  • This massage is mainly for the fascia of the head. It has been confirmed that the silhouette of the face is affected by removing the adhesions of the fascia of the head.
  • the scalp on the ear is grasped with four fingers of both hands.
  • the head is stimulated by the pressing portions 72 and 74 of the beauty device 70 toward the acupuncture points of Hyakukai located on the crown.
  • the hairline scalp is grasped with both hands and four fingers.
  • the hairline is stimulated from the center to the temples by the pressing portions 72 and 74 of the beauty device 70.
  • the center of the hairline to the temple apply pressure with your thumb and move it alternately to pull it up.
  • FIG. 29 (a) slide from the hairline toward the crown while applying pressure with the thumb to the back of the ear. At this time, draw each of the three lines three times.
  • FIG. 29 (b) place four fingers on the hairline and insert the handgrip toward the back of the head three times.
  • FIG. 29 (c) the back side of the ear is pulled 5 times in each direction of the arrow.
  • the lower part of the mastoid process is stimulated 10 times on each side by the pressing portions 72 and 74 of the beauty device 70.
  • the ear is sandwiched between the index finger and the middle finger, and the ear is rubbed strongly 5 times while applying pressure up and down.
  • the entire back of the head is stimulated by the pressing portions 72 and 74 of the beauty device 70. At this time, stimulation is performed 5 times each along the 3 lines.
  • the sternocleidomastoid muscle is sandwiched between the thumb and index finger on one side from the base of the neck, slid to the depression of the back of the head, and lightly pressed for about 5 seconds.
  • FIG. 30 (d) as a stretch of the neck, one wrist is placed on the ear and the other wrist is placed around the acupuncture point called the wind pond on the back of the head. Then, while applying pressure to the inside, pull it up for about 5 seconds. As a result, a series of massage operations according to the second example is completed.
  • This massage is mainly for the abdomen of the body.
  • the abdominal massage aims to improve the poor posture caused by the stoop and front shoulders.
  • This massage can remove induration and adhesions of muscles and fascia around the abdomen. And it can be expected to have effects such as elimination of stiff shoulders, elimination of stoops, and tightening of the stomach.
  • the three locations under the clavicle from the central portion of the clavicle to the coracoid process are pressed by the first pressing portion 72 of the beauty device 70.
  • a functional agent is applied, and the second pressing portion 74 is used to press the functional agent about 5 times.
  • the illustrated point called the coracoid process is pressed by the first pressing portion 72 of the beauty device 70 for about 30 seconds.
  • the intercostal cartilage located at the lower part of the sternoclavicular joint is pressed to the upper chest by using the second pressing portion 74 about 4 or 5 times.
  • the induration portion of the upper arm portion is pressed by the first pressing portion 72 of the beauty device 70. Then place your hands on both shoulders and apply pressure to open the shoulders.
  • the inside of the armpit is pressed with the first pressing portion 72 of the beauty device 70 for about 1 minute.
  • the portion located outside the groove by three fingers is pressed by the first pressing portion 72 of the beauty device 70 for about one minute at each location.
  • the flanks from the side of the epigastrium to the side of the navel are pressed by the first pressing portion 72 of the beauty device 70 for about 1 minute at each location.
  • the first pressing portion 72 of the beauty device 70 presses from the epigastrium along the ribs at five locations on the left and right for about 1 minute each.
  • a functional agent is applied and pressed by the second pressing portion 74.
  • This massage is mainly for the chest of the body.
  • the chest massage is aimed at improving the poor posture caused by the stoop and front shoulders.
  • This massage improves blood flow and lymphatic flow around the clavicle, making it easier to nourish the bust.
  • the central portion below the clavicle is pressed by the first pressing portion 72 of the beauty device 70 for about 1 minute.
  • the recess behind the earlobe is pressed by the first pressing portion 72 of the cosmetological device 70 for about 1 minute.
  • the lower portion of the mastoid process is pressed by the first pressing portion 72 of the beauty device 70 for about 1 minute.
  • a functional agent is applied to the portion where the sternocleidomastoid muscle is located.
  • the skin condition evaluation unit 30 uses the image data obtained by the image pickup unit 21 of the mirror device 2 to capture the face of the user 5, and the skin condition evaluation unit 30 uses the image data of the user 5.
  • the skin health condition of the user 5 is evaluated based on the skin color. This makes it possible to quantitatively evaluate skin abnormalities.
  • the face shape evaluation unit 50 evaluates the change in the face proportion of the user 5 based on the positions of the skeleton, muscles, and fat of the user 5 from the image data.
  • the quality before and after the change is compared with the mode in which the change in the entire face is evaluated. Can be easily determined. Therefore, the change in the morphology of the face can be uniquely determined.
  • the display unit 20 of the mirror device 2 displays the evaluation results of the skin condition evaluation unit 30 and the face shape evaluation unit 50, the user 5 uses the mirror device 2 to adjust the appearance of the facial skin. The state and the change in the proportion can be confirmed, and the convenience of the user 5 can be ensured.
  • the future prediction unit 60 uses at least one of the skin health condition of the user 5 stored in the skin condition evaluation unit 30 and the face shape evaluation of the user 5 stored in the face shape evaluation unit 50. , Predict the future of the face of user 5. For this reason. It is possible to give the user 5 a motivation for promoting beauty.
  • the skin color evaluation unit 33A of the skin condition evaluation unit 30 uses image data obtained by capturing the skin of the user 5 to perform a plurality of stages preset for any part of the skin of the user 5 according to the value of the hue. Divide into. Then, the skin abnormality identification unit 33B identifies the position of the pigment abnormality portion on the skin of the user 5 based on the stages classified by the skin color evaluation unit 33A. Thereby, the degree of pigmentation such as stains and pigment spots can be quantitatively evaluated and used for cosmetology.
  • the evaluation result display unit 33C displays the position of each stage of the image data divided by the skin color evaluation unit 33A, and marks the pigment abnormality portion specified by the skin abnormality identification unit 33B. .. As a result, the user 5 can visually grasp the evaluation result, and the convenience of the user 5 can be ensured.
  • the evaluation result display unit 33C performs position display and marking for each stage on a plurality of image data captured at different times for the same user 5, and displays them side by side. This makes it possible to visually grasp the change over time in the skin condition of the user 5.
  • the depth estimation unit 33D estimates the depth of the pigment abnormal portion on the skin of the user 5 from the skin surface based on the hue value of the pigment abnormal portion, measures for improving the pigment abnormal portion are examined. It is possible to provide the above judgment material.
  • the measure proposal unit 33E proposes a measure for promoting improvement of pigmentation based on the depth of the pigment abnormal part, it is possible to propose an appropriate measure according to the state of the pigment abnormal part.
  • the improvement data generation unit 33F assumes a state in which the pigmentation in the pigment abnormality portion is improved with respect to the image data, changes the hue of the pigment abnormality portion and displays it to the user 5, and thus proposes to the user 5. By visually communicating the effects that can be expected from the measures to be taken, it is possible to motivate the user 5 to continue taking the measures.
  • the apex recognition unit 53A has two fixed points Pf and a face specified depending on the skeleton of the face from the image data obtained by capturing the face of the user 5. Recognize the position of each of the single moving points Pm identified depending on the muscle and fat of the body.
  • the area demarcation unit 53B defines a triangular demarcation area by a straight line connecting the specified vertices, and the area calculation unit 53C calculates the area of the demarcation area. Then, the area comparison unit 53D compares the area of the defined region with the reference area. This makes it possible to quantitatively evaluate changes in facial proportions due to aging deterioration and improvement measures, and contribute to the promotion of beauty.
  • the demarcation area is defined by two fixed points Pf and one movable point Pm
  • the recognition can be recognized as compared with the configuration in which the demarcation area is defined by, for example, two or three movable points Pm. It is possible to suppress a specific variation in the position of the difficult movable point Pm and perform an accurate evaluation.
  • the numerical value to be handled can be increased and the amount of change can be increased as compared with the case where the position of the movable point Pm is evaluated by the distance from the fixed point Pf.
  • the user 5 can determine the degree of the change in the face. It becomes easier to recognize and can provide motivation for promoting beauty.
  • the image processing system 100 includes a display processing unit 53E that outputs information indicating a comparison result comparing the area of the defined region and the reference area, the result of quantitative evaluation can be, for example, carried by the user 5. By displaying it on the terminal 4, the evaluation result can be easily confirmed.
  • the area demarcation section 53B defines a pair of left and right demarcation areas with reference to the median line O1 of the face, it is possible to promote beauty toward the realization of facial proportions that are well-proportioned to the left and right.
  • the region demarcation portion 53B defines the demarcation region by two fixed points Pf specified by the deep nose point P1 and the apex P2 of the temple, and one movable point Pm specified by the apex P3 on the cheek. ..
  • the proportions around the upper part of the cheeks of the face are quantitatively evaluated, and for example, the slack in the upper part of the cheeks that tends to be noticeable with aging (for example, the Golgo line formed between the nasolabial fold and the cheekbone). You can see the change in.
  • the apex recognition unit 53A three-dimensionally evaluates the imaging data to recognize the deep nose point P1, the apex P2 of the temple, and the apex P3 on the cheek. Therefore, each vertex can be easily recognized regardless of the modeling of the face of the user 5.
  • the area demarcation section 53B defines two types of demarcation areas at intervals in the vertical direction of the face, the proportions of the entire face can be quantitatively evaluated by evaluating the upper side and the lower side of the face, respectively. It can be evaluated, and beauty promotion can be performed even more effectively.
  • the region demarcation portion 53B defines the demarcation region by two fixed points Pf specified by the inferior nose point P4 and the inferior ear point P5, and one movable point Pm specified by the apex P6 under the cheek. Therefore, the proportion around the lower part of the cheeks of the face can be quantitatively evaluated, and for example, changes in the sagging of the lower part of the cheeks, which are likely to be noticeable with aging, can be confirmed.
  • the apex recognition unit 53A three-dimensionally evaluates the imaging data and recognizes the nose point P4, the ear point P5, and the apex P6 under the cheek, regardless of the modeling of the user 5's face Each vertex can be easily recognized.
  • the area comparison unit 53D uses the area of the defined area in the user 5 as the reference area at a time before a certain period from the time of imaging the imaging data, the appearance of the face proportion changing with the passage of time. Can be evaluated quantitatively. As a result, the beauty effect can be accurately grasped.
  • the area comparison unit 53D uses the area of the defined area in the ideal model as the face desired by the user 5 as the reference area, it is possible to quantitatively confirm how close the target is to the target. .. As a result, the motivation of the user 5 for cosmetology can be maintained, and effective cosmetology promotion can be performed.
  • the image processing system 100 includes the face shape evaluation unit 50, it is possible to easily acquire the image capture data of the face of the user 5 and evaluate the image capture data by the face shape evaluation unit 50.
  • the device-side display unit 54 has a function of displaying the imaged data obtained by imaging the face of the user 5 facing the display surface on the display surface. Therefore, the image data of the user 5's face imaged by the image capturing unit 21 of the mirror device 2 and the evaluation result of the change in proportion performed by the device processing unit 53 using the imaged data are displayed by the user 5 as if looking in a mirror. Can be confirmed.
  • the components contained in the functional agent are applied to the face of the user 5, so that the blood circulation promoting effect, the fat melting effect, and the fascia are applied. At least one of the relaxing effects can be exerted. Thereby, the effect of the massage can be promoted.
  • the lymph nodes and the fascia are stimulated, so that the lymph nodes are stimulated to promote the flow of lymph fluid, and the waste intervening between the muscle and the fascia. It can promote the metabolism of things and effectively eliminate the adhesion between fascia and muscle.
  • an image processing step is performed using the image processing system 100, and the massage is performed by evaluating the change in the proportion of the face of the user 5 from the image data obtained by capturing the face of the user 5. The effect of is surely evaluated.
  • the lymph nodes are stimulated by using the beauty device 70 provided with the pin-shaped pressing portions 72 and 74 urged by the urging members 73 and 75, so that the lymph nodes are stimulated. Even when located deep in the body, it can reliably stimulate lymph nodes and promote lymph flow. As a result, the metabolism of waste products intervening between the muscle and the fascia can be promoted, and the adhesion between the fascia and the muscle can be effectively eliminated.
  • the functional agent when the functional agent contains a component of glaucine, it can exert a blood circulation promoting effect.
  • the functional agent contains a component of okra seed extract, it can exert a blood circulation promoting effect.
  • the functional agent when the functional agent contains a component of niacinamide, it can exert an effect of promoting fat melting. In addition, when the functional agent contains a component of Anon hesperidine, it can exert a fascia relaxing effect.
  • the beauty device 70 provided with the pin-shaped pressing portions 72, 74 urged by the urging members 73, 75 is used, and the user 5 is performed by the pressing portions 72, 74. Press the part of the face where the myocardium is located. Therefore, for example, the fascia located in the deep part of the skin can be reliably stimulated as compared with the configuration in which the roller member is rolled to stimulate the surface of the skin.
  • the force when the pressing portions 72 and 74 are displaced can always be constant, and the pressing portion can be kept constant.
  • the pressing force due to 72 and 74 can be made constant.
  • the evaluation result providing unit 61 provides the analysis result to the personal terminal 2B
  • the confirmation content reporting unit 62 reports the confirmation history information of the analysis result provided to the user 5 to the store terminal 2A.
  • the storage unit 63 the contents confirmed by the user 5 using the store terminal 2A when visiting the store are stored together with the confirmation history information. For this reason, the store staff can confirm what kind of analysis the user 5 has performed on his / her own image, and gives advice on the content that the user 5 is interested in. By doing so, beauty promotion can be performed efficiently.
  • the image analysis device 1 includes a skin condition evaluation unit 30, a face shape evaluation unit 50, and a user identification unit 64, changes in the skin condition and face promotion for each user 5 used. Can be evaluated, and a plurality of users 5 can use one mirror device 2.
  • the storage unit 63 stores the face data of each user 5 and the ID of the user 5, and the user identification unit 64 refers to the image data of the captured user's face to the storage unit 63. , Identify user 5.
  • the user 5 can authenticate the user simply by imaging his / her face, and for example, the user 5 can omit the operation of inputting his / her own ID. , The convenience of the user 5 can be ensured.
  • the confirmation content reporting unit 62 totals the number of times the user 5 confirms each analysis result performed by the skin condition evaluation unit 30 and the face shape evaluation unit 50 within a predetermined period, and displays the result on the store terminal 2A. Report. Therefore, the confirmation history information of the plurality of users 5 makes it possible to statistically grasp what kind of beauty item the entire user 5 is interested in. This can be useful for guidance on beauty promotion on the store side.
  • the confirmation content reporting unit 62 reports at least one of the maintenance method and the maintenance product displayed by the display unit 20 to the store terminal 2A. Therefore, the store staff can grasp the maintenance method and the maintenance product that the user 5 is interested in, which can contribute to the sales activities developed by the store.
  • the control program of the above embodiment may be provided in a state of being stored in a storage medium readable by a computer.
  • the storage medium can store the control program in a "non-temporary tangible medium".
  • the storage medium can include any suitable storage medium such as HDD or SDD, or a suitable combination of two or more thereof.
  • the storage medium may be volatile, non-volatile, or a combination of volatile and non-volatile.
  • the storage medium is not limited to these examples, and may be any device or medium as long as the control program can be stored.
  • the image processing system 100 can realize each function shown in the embodiment by reading the control program stored in the storage medium and executing the read control program, for example. Further, the control program may be provided to the image processing system 100 via an arbitrary transmission medium (communication network, broadcast wave, etc.). The image processing system 100 realizes the functions of the plurality of functional units shown in each embodiment by executing, for example, a control program downloaded via the Internet or the like.
  • control program is implemented using, for example, a script language such as ActionScript or JavaScript (registered trademark), an object-oriented programming language such as Objective-C or Java (registered trademark), a markup language such as HTML5, or the like. May be good.
  • a script language such as ActionScript or JavaScript (registered trademark)
  • an object-oriented programming language such as Objective-C or Java (registered trademark)
  • a markup language such as HTML5, or the like. May be good.
  • At least a part of the processing in the image processing system 100 may be realized by cloud computing composed of one or more computers. Further, each functional unit of the image processing system 100 may be realized by one or a plurality of circuits that realize the functions shown in the above embodiment, and the functions of the plurality of functional units are realized by one circuit. May be good.
  • the present invention is not limited to such a mode.
  • the mobile terminal 4 may have some or all the functions of the image analysis device 1.
  • Image analysis device 2 Mirror device 30 Skin condition evaluation unit 50 Face shape evaluation unit 70 Beauty device 100 Image processing system

Landscapes

  • Health & Medical Sciences (AREA)
  • Rehabilitation Therapy (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Pain & Pain Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

本発明に係るマッサージ評価方法は、ユーザの顔の表面に、血行促進、脂肪融解の促進、又は筋膜弛緩の促進のうちの少なくともいずれかの機能を有する機能剤を塗布する機能剤塗布ステップと、機能剤塗布ステップの後に、ユーザの顔のうち、リンパ節が位置する部分を物理的に刺激するリンパ節マッサージを施すリンパ節刺激ステップと、機能剤塗布ステップの後に、ユーザの顔のうち、筋膜が位置する部分を物理的に刺激する筋膜マッサージを施す筋膜刺激ステップと、当該ユーザの顔を撮像した画像データから、ユーザの顔のプロポーションの変化を評価する顔形状評価部と、顔形状評価部により評価したユーザの顔のプロポーションの変化を示す情報を出力する表示処理部と、を備える画像処理システムを用いて、リンパ節マッサージおよび筋膜マッサージの効果を確認する画像処理ステップと、を実行する。

Description

マッサージ評価方法、マッサージ評価装置、およびマッサージ評価プログラム
 本発明は、マッサージ評価方法、マッサージ評価装置、およびマッサージ評価プログラムに関する。
 従来、ユーザに対してマッサージを行った後に、その効果を確認するマッサージ評価方法が知られている。
 例えば、特許文献1には、フェイシャルマッサージ等の顔面に対する美容施術の前後に撮影された画像を用いて、顔面の皮膚のひずみ分布を求め、このひずみ分布を評価指標として美容施術の効果を定量的に解析する方法が開示されている。
特開2017-9598号公報
 しかしながら従来のマッサージは、効果が得られにくいものが多かった。また、従来のマッサージ評価方法では、顔全体の形態の変化を評価するため、部分的な変化を確認するのが難しかった。
 そこで本発明は、効果的なマッサージを施したのちに、顔の部分的な変化も確認することができるマッサージ評価方法を提供することを目的とする。
 上記課題を解決するために、本発明に係るマッサージ評価方法は、ユーザの顔の表面に、血行促進、脂肪融解の促進、又は筋膜弛緩の促進のうちの少なくともいずれかの機能を有する機能剤を塗布する機能剤塗布ステップと、機能剤塗布ステップの後に、ユーザの顔のうち、リンパ節が位置する部分を物理的に刺激するリンパ節マッサージを施すリンパ節刺激ステップと、機能剤塗布ステップの後に、ユーザの顔のうち、筋膜が位置する部分を物理的に刺激する筋膜マッサージを施す筋膜刺激ステップと、当該ユーザの顔を撮像した画像データから、ユーザの骨格、筋肉、および脂肪の位置に基づいて、ユーザの顔のプロポーションの変化を評価する顔形状評価部と、顔形状評価部により評価したユーザの顔のプロポーションの変化を示す情報を出力する表示処理部と、を備える画像処理システムを用いて、リンパ節マッサージおよび筋膜マッサージの効果を確認する画像処理ステップと、を実行する。
 また、リンパ節刺激ステップでは、付勢部材により付勢されたピン状の押圧部を備えた美容器を用いて、押圧部により、ユーザの顔のうち、リンパ節が位置する部分を押圧してもよい。
 また、筋膜刺激ステップでは、付勢部材により付勢されたピン状の押圧部を備えた美容器を用いて、押圧部により、ユーザの顔のうち、筋膜が位置する部分を押圧してもよい。
 また、機能剤は、グラウシン、オクラ種子エキス、およびナイアシンアミドの成分を有してもよい。
 また。機能剤は、グレコンへスぺリジンの成分を更に有してもよい。
 また、本発明のマッサージ評価装置は、ユーザの顔の表面に、血行促進、脂肪融解の促進、又は筋膜弛緩の促進のうちの少なくともいずれかの機能を有する機能剤を塗布する機能剤塗布ステップと、機能剤塗布ステップの後に、ユーザの顔のうち、リンパ節が位置する部分を物理的に刺激するリンパ節刺激ステップと、機能剤塗布ステップの後に、ユーザの顔のうち、筋膜が位置する部分を物理的に刺激する筋膜刺激ステップと、を施したユーザの顔を撮像した画像データから、ユーザの骨格、筋肉、および脂肪の位置に基づいて、ユーザの顔のプロポーションの変化を評価する顔形状評価部と、顔形状評価部により評価したユーザの顔のプロポーションの変化を示す情報を出力する表示処理部と、を備える。
 また、本発明のマッサージ評価プログラムは、ユーザの顔の表面に、血行促進、脂肪融解の促進、又は筋膜弛緩の促進のうちの少なくともいずれかの機能を有する機能剤を塗布する機能剤塗布ステップと、機能剤塗布ステップの後に、ユーザの顔のうち、リンパ節が位置する部分を物理的に刺激するリンパ節刺激ステップと、機能剤塗布ステップの後に、ユーザの顔のうち、筋膜が位置する部分を物理的に刺激する筋膜刺激ステップと、を施したユーザの顔を撮像した画像データから、ユーザの骨格、筋肉、および脂肪の位置に基づいて、ユーザの顔のプロポーションの変化を評価する顔形状評価機能と、顔形状評価部により評価したユーザの顔のプロポーションの変化を示す情報を出力する表示処理機能と、をコンピュータに実現させる。
 本発明のマッサージ評価方法では、機能剤塗布ステップを実行することにより、機能剤に含まれる成分がユーザの顔に塗布されることで、血行促進効果、脂肪融解効果、および筋膜弛緩効果のうちの少なくともいずれかの効果を奏することができる。これにより、マッサージの効果を促進することができる。
 また、リンパ節刺激ステップおよび筋膜刺激ステップにおいて、リンパ節と筋膜とを刺激するので、リンパ節に刺激を与えて、リンパ液の流れを促進し、筋肉と筋膜との間に介在する老廃物の代謝を促し、筋膜と筋肉との付着を効果的に解消することができる。
 そして、このようにマッサージを行った後に、画像処理システムを用いて画像処理ステップを行い、ユーザの顔を撮像した画像データから、ユーザの顔のプロポーションの変化を評価する。これにより、効果的なマッサージを施したのちに、顔の部分的な変化も確認することができる。
本発明の一実施形態に係る画像処理システムの構成例を示す模式図である。 図1に示すミラー装置を、ユーザが使用している状態を示す図である。 図1に示す画像処理システムの構成例を示すブロック図である。 画像処理システム全体の処理フローを説明する図である。 肌状態評価部により評価することができる評価項目を説明する図である。 肌状態評価部の構成例を示すブロック図である。 肌状態評価部によりシミを検出する際の評価基準となる評価テーブルの一例を示す図である。 (a)画像処理システムにおける処理結果の一例を示す図、(b)図8(a)の一部拡大図である。 図1に示す携帯端末の構成例を示すブロック図である。 肌状態評価部における処理フローを示す図である。 画像処理システムにおける処理結果の他の例を示す図である。 肌状態評価部により毛穴を検出する際の評価基準となる評価テーブルの一例を示す図である。 肌状態評価部によりクマ、赤み、およびシミを検出する際の評価基準となる評価テーブルの一例を示す図である。 肌状態評価部によりキメ、小じわ、毛穴、およびしわを検出する際の評価基準となる評価テーブルの一例を示す図である。 図1に示す顔形状評価部の構成例を示すブロック図である。 図13に示す頂点認識部によって認識する各頂点の一例を示す図であって、撮像データの(a)正面図、(b)側面図である。 顔形状評価部における処理フローを示す図である。 頂点認識部が、頬上の頂点を認識する処理における模式図である。 表示処理部による表示内容の一例を示す図である。 表示処理部による表示内容の他の例を示す図である。 (a)マッサージステップで使用される美容器の外観図、(b)断面図である。 マッサージ方法の第1例における第1ステップの各工程(a)~(d)を示す図である。 マッサージ方法の第1例における第2ステップの各工程(a)~(d)を示す図である。 マッサージ方法の第1例における第3ステップの各工程(a)~(c)を示す図である。 マッサージ方法の第1例における第4ステップの各工程(a)~(d)を示す図である。 マッサージ方法の第1例における第5ステップの各工程(a)~(d)を示す図である。 マッサージ方法の第1例における第6ステップの各工程(a)~(c)を示す図である。 マッサージ方法の第2例における第1ステップの各工程(a)~(d)を示す図である。 マッサージ方法の第2例における第2ステップの各工程(a)~(d)を示す図である。 マッサージ方法の第2例における第3ステップの各工程(a)~(d)を示す図である。 マッサージ方法の第3例における第1ステップの各工程(a)~(b)を示す図である。 マッサージ方法の第3例における第2ステップの各工程(a)~(b)を示す図である。 マッサージ方法の第3例における第3ステップの各工程(a)~(b)を示す図である。 マッサージ方法の第3例における第4ステップの各工程(a)~(b)を示す図である。 マッサージ方法の第4例における第1ステップの各工程(a)~(b)を示す図である。
(全体構成)
 本発明の一実施形態に係る画像処理システム100について、図面を参照しながら説明する。
 図1は、本発明の一実施形態に係る画像処理システム100の構成例を示す模式図である。図2は、図1に示すミラー装置2をユーザ5が使用している状態を示す図である。
 図1に示すように、画像処理システム100は、ユーザ5の美容促進に資するために、ユーザ5の顔を撮像した画像データに対して画像処理を行い、その結果をユーザ5に対して表示することにより、美容促進に関する助言を行うシステムである。
 実際にユーザ5が使用する際には、図2に示すようにミラー装置2の前にユーザ5が着座し、ユーザ5の顔を、撮像部21により撮像した画像データを用いて、後述する各種の解析が実施される。
 図1に示すように、画像処理システム100は、ネットワーク3を介して互いに接続されたミラー装置2、および画像解析装置1を備えている。図示の例では、複数のミラー装置2が設けられている。ミラー装置2には、店舗用端末2Aと、個人用端末2Bと、がある。
 店舗用端末2Aは、ユーザ5に美容促進を指導する店舗で使用される端末であり、ユーザ5が当該店舗を訪れた際に、利用することができる。
 個人用端末2Bは、主にユーザ5が自宅で使用することを想定された端末であり、ユーザが日々の生活において、例えば、身だしなみを整える際や就寝前等に利用することができる。
 また、図示の例では、ネットワーク3に、ユーザ5の携帯端末4が接続されている。携帯端末4は、ネットワーク3に無線通信により接続されている。
 例えば、本発明の画像処理システム100は、エステサロン等の美容関連サービスを提供する店舗に設置された店舗用端末2Aを用いて、ユーザ5の顔を撮像して評価した結果を表示する。
 画像処理システム100は、例えばユーザ5が自身の顔の肌の状態を改善するために、今後取り組むべき施策を提案するために用いてもよい。
 また、画像処理システム100は、ユーザ5の自宅に設けられた個人用端末2Bを用いて、ユーザ5の顔を日常的に撮像して評価した結果を示すこともできる。
 すなわち、画像処理システム100の使用に際しては、店舗のオペレータ6の操作のもとで行われてもよいし、ユーザ5自身の操作により行われてもよい。
 図3は、画像処理システム100の構成例を示すブロック図である。
 図3に示すように、ミラー装置2は、表示部20、撮像部21、および通信部22を備えている。表示部20は、ミラー装置2の表面に設けられ、鏡面になるとともに、データを表示することができるディスプレイである。すなわち表示部20は、画像解析装置1による後述する各種の解析結果を表示する。
 表示部20は、データを表示する領域と、鏡面になる領域と、を調整可能である。すなわち、例えば表示部20の全面を鏡面にしてもよいし、表示部20の全面にデータを表示してもよい。
 また、表示部20の鏡面上にデータを表示することもできるし、表示部20の半分の領域を鏡面にして、残りの半分の領域にデータを表示してもよい。
 撮像部21は、表示部20の前方を撮像する。撮像部21は、前方にユーザ5が位置するときに、ユーザ5の顔を撮像して画像データを取得できる装置であれば、特に限定されない。撮像部21としては、例えばCMOSやCCD等の撮像素子を有している。
 通信部22は、撮像部21が撮像した画像データを、画像解析装置1の通信部23に送信する。
 表示部20は撮像部21がユーザ5の顔を撮像する際に、過去に撮像した当該ユーザ5の顔の画像データの輪郭を表示する。
 すなわち、習慣的に撮像を行う場合において、撮像部21に対して、ユーザ5の顔の位置が大きく変化しないことが好ましい。このため、撮像部21の前方に位置するユーザ5が、自身の顔の位置を撮像部21に対して合わせるために、表示部20が、過去に撮像した当該ユーザ5の顔の画像データの輪郭を表示する。この際、表示面に撮像部21に撮像されたユーザ5の顔の画像を表示し、ユーザ5が顔の位置を合わせた後に撮像部21が画像データを取得する。
 ミラー装置2が取得する画像データは、2Dデータであっても3Dデータであってもよい。本実施形態では撮像部21が2Dデータとしての画像データを取得する構成について説明する。
 なお、ミラー装置2は、例えば撮像部21が間隔をあけて複数配置された3Dカメラであってもよいし、1つの撮像部21と距離センサとを備えている構成であってもよい。
 ミラー装置2の通信部22は、図1に示すネットワーク3を介して、画像解析装置1の通信部23と通信を行う。
 ネットワーク3は、ミラー装置2、画像解析装置1、および携帯端末4の間を相互に接続させるためのネットワークであり、例えば、無線ネットワークや有線ネットワークである。
 具体的には、ネットワーク3は、ワイヤレスLAN(wireless LAN:WLAN)や広域ネットワーク(wide area network:WAN)、ISDNs(integrated service digital networks)、無線LANs、LTE(long term evolution)、LTE-Advanced、第4世代(4G)、第5世代(5G)、CDMA(code division multiple access)、WCDMA(登録商標)、イーサネット(登録商標)などである。
 また、ネットワーク3は、これらの例に限られず、例えば、公衆交換電話網(Public Switched Telephone Network:PSTN)やブルートゥース(Bluetooth(登録商標))、ブルートゥースローエナジー(Bluetooth Low Energy)、光回線、ADSL(Asymmetric Digital Subscriber Line)回線、衛星通信網などであってもよく、どのようなネットワークであってもよい。
 また、ネットワーク3は、例えば、NB-IoT(Narrow Band IoT)や、eMTC(enhanced Machine Type Communication)であってもよい。なお、NB-IoTやeMTCは、IoT向けの無線通信方式であり、低コスト、低消費電力で長距離通信が可能なネットワークである。
 また、ネットワーク3は、これらの組み合わせであってもよい。また、ネットワーク3は、これらの例を組み合わせた複数の異なるネットワークを含むものであってもよい。
 例えば、ネットワーク3は、LTEによる無線ネットワークと、閉域網であるイントラネットなどの有線ネットワークと、を含むものであってもよい。
(画像解析装置)
 図3に示すように、画像解析装置1は、肌状態評価部30と、顔形状評価部50と、通信部23と、将来予測部60と、評価結果提供部61と、確認内容報告部62と、記憶部63と、ユーザ識別部64と、を備えている。
 画像解析装置1は、撮像部21が撮像したユーザ5の顔の画像データを解析する。
 肌状態評価部30はユーザ5の肌の状態を評価する機能部である。肌状態評価部30の構成の詳細については、図6を用いて後述する。
 顔形状評価部50は、ユーザ5の顔のプロモーションの変化を評価する機能部である。顔形状評価部50の構成の詳細については、図15を用いて後述する。
 将来予測部60は、肌状態評価部30に記憶されたユーザ5の肌の健康状態、および顔形状評価部50に記憶されたユーザ5の顔の形状評価のうちの少なくとも一方を用いて、ユーザ5の顔の将来予測を行う。将来予測部60は、過去の履歴を参考にしながら、今後、継続して提案する施策を行った場合に、どのような効果が期待できるかといったユーザ5の顔の合成データを生成し、ミラー装置2の表示部20に表示する。
 評価結果提供部61は、画像データから、ユーザ5の美容促進の程度を解析して、解析結果を個人用端末2Bに提供する。ここでいう解析結果とは、後述する肌状態評価部30および顔形状評価部50が行う各解析結果のことを指している。
 ここで、美容促進の程度とは、肌の状態や顔のプロモーションのような美容項目について、現在の状態から、将来に向けて改善を目指す過程における進捗具合を指している。
 確認内容報告部62は、ユーザ5に提供した解析結果のうち、ユーザ5が個人用端末2Bを用いて確認した確認履歴に関する確認履歴情報を店舗用端末2Aに報告する。確認履歴情報は、個人用端末2Bの利用状態の履歴であるデータログを入手することで、確認することができる。
 確認内容報告部62は、肌状態評価部30および顔形状評価部50が行った各解析結果について、ユーザ5が所定期間内に確認している回数を集計して、店舗用端末2Aに報告する。なお、同じ内容について個人用端末2Bに報告してもよい。
 また、確認内容報告部62は、表示部20が表示したメンテナンス方法およびメンテナンス商品のうちの少なくとも一方を、店舗用端末2Aに報告する。メンテナンス方法およびメンテナンス商品の詳細については後述する。
 記憶部63は、ユーザ5が、店舗を訪れた際に店舗用端末2Aを用いて確認した内容を、確認履歴情報と合わせて記憶する。すなわち、ユーザ5が確認した内容は、自宅で個人用端末2Bを用いて確認した内容と、店舗で店舗用端末2Aを用いて確認した内容と、がそれぞれ集計されて記憶部63に記憶されている。
 記憶部63はまた、ユーザ5それぞれの顔のデータと、ユーザ5のIDと、を記憶している。
 ユーザ識別部64は、使用するユーザ5を識別する。ユーザ識別部64は、例えば表示部20に表示されたタッチパネルのキーボードから、ユーザ5のIDの入力を受け付けてもよいし、例えば、撮像したユーザ5の顔の画像データを記憶部63に参照することにより、ユーザ5を特定してもよい。
 ここで、画像処理システム100の全体の処理フローについて、図4を用いて説明する。図4は、画像処理システム100の全体の処理フローを示す図である。
 図4に示すように、ユーザがまず、ユーザ認証を行う(S10:ユーザ認証ステップ)。ユーザ認証は、ユーザ5が表示部20に表示されるタッチパネルのキーボードを用いて、ユーザIDを入力してもよいし、撮像部21が撮像した顔の画像データから、ユーザ識別部64が記憶部63に記憶されたユーザ5の情報を参照することで行ってもよい。
 次に、肌状態評価部30が、ユーザ5の肌の状態を評価する(S11:肌状態評価ステップ)。この内容については後述する。
 次に、顔形状評価部50が、ユーザ5の顔のプロモーションの変化を評価する(S12:顔形状評価ステップ)。この内容については後述する。
 次に、評価結果提供部61が、個人用端末2Bに各解析結果を送信することにより、ユーザ5に評価結果を提供する(S13:評価結果提供ステップ)。各解析結果の内容については後述する。
 次に、確認内容報告部62が、ユーザ5が確認した内容を、店舗用端末2Aに送信することにより、店舗に報告する(S14:確認内容報告ステップ)。これにより、ユーザ5が、美容に関するどのような項目に興味があるかを店舗スタッフが確認することができる。
(肌状態評価部)
 次に、肌状態評価部30の構成について詳述する。肌状態評価部30は、画像データから、ユーザ5の肌の色に基づいて、ユーザ5の肌の健康状態を評価する。
 肌状態評価部30は、ユーザ5の肌の色に基づいて、ユーザ5の肌において異常が生じている部分を異常部として検出し、異常部の数量を、過去の履歴とともに表示する。異常部の数は、例えば肌の色としての色相に対して、予め設定した閾値を超える部分の数量をカウントすることで把握することができる。
 図5は、肌状態評価部30により評価することができる評価項目を説明する図である。図5では、肌状態評価部30により、各異常項目に対して、撮像部21により撮像された画像内で検出を行う顔の領域を示している。
 図5に示すように、肌状態評価部30は、肌の状態の異常を検出する機能を有している。肌状態評価部30が検出できる肌の異常とは、小じわ、シワ、シミ、毛穴の拡大、肌荒れ(キメ)、赤み、クマがある。図5に示す各領域を肌状態評価部30が設定し、この各領域を、検出したい各異常項目に応じた検出領域として、検出処理を行う。
 次に、図6を用いて肌状態評価部30の構成について詳述する。図6は肌状態評価部30のブロック図である。なお、この説明では、肌状態評価部30が有する複数の評価機能のうち、シミの評価について例に挙げて説明する。
 図6に示すように、肌状態評価部30は、装置側通信部31、データ記憶部32、データ処理部33、および装置側表示部34を備えている。肌状態評価部30は、ユーザ5の顔を撮像した画像データから、ユーザ5の顔の肌の状態を解析する情報処理装置である。
 装置側通信部31は、ネットワーク3を介して、各種のデータを送受信する通信インターフェースである。各種のデータとして、画像データ、処理データ、改善データが含まれる。すなわち装置側通信部31は、ミラー装置2の通信部22から送信された画像データを受信する受信部として機能する。
 ここで、画像データとは、ミラー装置2により、ユーザ5の顔を撮像したデータを指す。処理データとは、後述する評価結果表示部33Cにより、画像データに対して、シミの位置を特定しマーキングを行ったデータを指す。
 改善データとは、後述する改善データ生成部33Fが、画像データに対して、色素異常部における色素沈着が改善された状態を想定し、色素異常部の色相を変化させてユーザ5に表示するデータを指す。
 データ記憶部32は、データ処理部33が動作するうえで必要とする各種の制御プログラムや、装置側通信部31が外部から受信した各種のデータを記憶する機能を有する。また、データ記憶部32は、後述する肌色評価部33Aが、ユーザ5の肌の色を評価する際に用いる際の基準となる評価テーブルを有している。
 データ記憶部32は、例えば、HDD、SSD、フラッシュメモリなど各種の記憶媒体により実現される。
 データ記憶部32に記憶された制御プログラムを実行することで、データ処理部33が、画像処理システム100として実現すべき各機能を実現する。ここでいう各機能とは、肌色評価機能、色素沈着特定機能、評価結果表示機能、深さ推定機能、施策提案機能、改善データ生成機能を含んでいる。
 装置側表示部34は、画像解析装置1の操作の内容や処理の結果を表示するモニタ装置である。
 データ処理部33は、画像解析装置1の各部を制御するコンピュータであり、例えば、中央処理装置(CPU)やマイクロプロセッサ、ASIC、FPGAなどであってもよい。
 なお、データ処理部33は、これらの例に限られず、画像解析装置1の各部を制御するコンピュータであれば、どのようなものであってもよい。
 そしてデータ処理部33は、肌色評価部33A、肌異常特定部33B、評価結果表示部33C、深さ推定部33D、施策提案部33E、および改善データ生成部33Fを備えている。
 肌色評価部33Aは、シミの検出の際には、ユーザ5の肌を撮像した画像データを用いて、ユーザ5の肌の任意の箇所を、複数のステージに区分けする。
 複数のステージとは、ユーザ5の肌の状態を分類するために予め設定された区分であって、例えばステージ1からステージ4で表され、ステージの数値が大きいほど、色素異常が発生している場所が皮膚の深い位置であり、色素異常の症状が重いことを意味する。なお、肌の色が異なる人種により、ステージ群を個別に準備してもよい。
 肌色評価部33Aは、肌の色相の値(一例としてRGB値)により、ユーザ5の肌の色を、複数のステージに区分けする。この内容について図7を用いて詳述する。
 図7は、シミを検出する際における肌色評価部33Aの評価基準となる評価テーブルの一例である。なお、色相の値としては、RGB値に限られず、CMYK値やその他の指標値であってもよい。
 図7に示す評価テーブルの一例では、色素異常部のうち、色素斑の種類に対して、色相とステージとの分類が記載されている。色相は例えばRGB値により表現することができる。すなわち、この図では、色相が色によって表現されているが、対応するRGB値のデータを備えていてもよい。
 例えば、図7に示すように、老人性色素斑の場合には、色素異常部が頬骨の上に生じやすく、茶褐色から茶色の場合に、ステージ1と判断される。また、色素異常部が薄い茶褐色から薄い茶色の場合に、ステージ2と判断される。また、色素異常部が、淡い茶褐色から淡い茶色の場合に、ステージ3と判断される。
 次に、炎症後色素沈着の場合には、顔全体に生じやすく、色素異常部が、茶褐色から茶色の場合に、ステージ1と判断される。また、色素異常部が、薄い茶褐色から薄い茶色の場合に、ステージ2と判断される。
 また、淡い茶褐色から淡い茶色の場合に、ステージ3と判断される。また、青色からグレーの場合には、ステージ4と判断される。ここで、色素斑の種類の判断については、色素異常部の位置や外観から、オペレータ6が選択する。
 なお、この評価テーブルはあくまで一例であり、シミを評価するための評価テーブルとして、別の評価テーブルを採用することもできる。
 また、肌色評価部33Aは、肌の異常の種類(小じわ、シワ、シミ、毛穴の拡大、肌荒れ、赤み、クマのいずれか)により、参照する評価テーブルを変更する(図13、図14参照)。この点については後述する。
 肌異常特定部33Bは、肌色評価部33Aにより区分けされたステージに基づいて、ユーザ5の肌の任意の箇所に、色素沈着によるシミを含む色素異常部が生じている部分を特定する。ここで、色素沈着とは、黒色メラニンの表皮への蓄積により生じる肌の色素異常を指す。
 ここで、肌にシミ(色素斑)のような色素異常部が生じるメカニズムについて説明すると、紫外線等の刺激を肌が受けることで、肌の内部組織であるメラノサイト(メラニン形成細胞)が黒色メラニンを生成する。この黒色メラニンは肌を守る役割を持っているが、健康な肌の場合には、時間の経過とともに体外に排出される。
 一方、肌の新陳代謝のサイクルが乱れている場合や、黒色メラニンの生成量が多い場合には、黒色メラニンの一部が、体外に排出されずに、表皮に残留して蓄積される。このような色素の異常のうち、炎症や紫外線に起因するものを色素沈着もしくは色素斑(シミ)とよぶ。
 評価結果表示部33Cは、画像データに対して、肌色評価部33Aが区分けしたステージ毎に、その箇所の位置を表示する。また、評価結果表示部33Cは、肌異常特定部33Bが特定した色素異常部にマーキングを行う。これにより、画像データに対してシミの位置の表示とマーキングが付された処理データが生成される。マーキングは、色相がステージ1から4のうちのいずれかに該当する部分に、ステージ毎に設定された色のマークを付すことで行われる。
 さらに、評価結果表示部33Cは、同一のユーザ5に対して異なる時期に撮像した複数の画像データに対して、ステージ毎の位置表示およびマーキングを行い、並べて表示することもできる。
 ここで、処理データの一例について図8を用いて説明する。図8(a)は、画像処理システム100における処理結果の一例を示す図、図8(b)は、図8(a)の一部拡大図である。図8(a)および図8(b)に示すように、ユーザ5の顔の肌の任意の位置に対して、複数のシミの位置が特定されている。そして、それぞれの位置において、色素異常部がマーキングされて表現されている。このマーキングのなかには、視認して判別できないものも含まれている。
 図8(a)および図8(b)において、最も薄いマークM1がステージ1を示し、最も濃いマークM3がステージ3を示している。そして、中間の濃さのマークM2が、ステージ2を示している。この図では、ステージ4のマークは確認されていない。
 深さ推定部33Dは、肌異常特定部33Bにより特定された色素異常部の色相の値により、ユーザ5の肌における色素異常部の肌表面からの深さを推定する。ここで、一般に、シミや色素斑の色相により、色素異常部が生じている位置の肌表面からの深さが異なることが知られている。
 例えば、図7に示すシミ(色素斑)の評価テーブルでは、ステージ1に該当する色素異常部は表皮の上層に発生しており、ステージ2に該当する色素異常部は表皮の中層に発生していると判断される。また、ステージ3に該当する色素異常部は表皮の下層に発生しており、ステージ4に該当する色素異常部は表皮の下層から真皮層に発生していると判断される。
 ここで、上側とは肌の内部のうち、表面を向く側を指し、下側とは肌の内部のうち、体内に向かう側を指す。このような色と深さとの判断基準は、任意に設定することができる。
 施策提案部33Eは、深さ推定部33Dが推定した色素異常部の深さに基づいて、色素沈着の改善を促す施策を提案する。施策の内容としては、美容器70の使用、導入美容液の使用、炭酸パックの使用、UVケア等がある。これらは、色素異常部の深さによりどれが適切か判断される。また、深層に形成された色素異常部については、医療機関の診察を受けることを提案してもよい。
 改善データ生成部33Fは、画像データに対して、色素異常部における色素沈着が改善された状態を想定し、色素異常部の色相を変化させてユーザ5に表示する。すなわち、提案する施策を一定期間行った際に、どのような効果が得られるかを視覚的に表現する機能を有している。
 改善データ生成部33Fは、例えば過去の履歴データを用いて、同様の状態から一定期間、当該施策を行った場合に、色素異常部がどのように変化するかという値を推測する。この推測に基づいて、改善データ生成部33Fは、画像データから改善データを生成する。
 次に、図9を用いて、携帯端末4の構成について説明する。図9は、携帯端末4の構成例を示すブロック図である。
 携帯端末4は、端末側通信部41、端末記憶部42、端末処理部43、カメラ44、および端末側表示部45を備えている。
 端末側通信部41は、ネットワーク3を介して、各種のデータを送受信する通信インターフェースである。各種のデータとして、画像データ、比較結果を示すデータが含まれる。すなわち、端末側通信部41は、各種の情報を画像解析装置1から受信する。
 端末記憶部42は、端末処理部43が動作するうえで必要とする各種の制御プログラムや各種データを記憶する機能を有する。端末記憶部42は、例えば、HDD、SSD、フラッシュメモリなど各種の記憶媒体により実現される。
 端末記憶部42に記憶された制御プログラムを実行することで、端末処理部43が、画像処理システム100として実現すべき各機能のうちの少なくとも一部を実現してもよい。
 端末処理部43は、携帯端末4の各部を制御するコンピュータであり、例えば、中央処理装置(CPU)やマイクロプロセッサ、ASIC、FPGAなどであってもよい。なお、端末処理部43は、これらの例に限られず、携帯端末4の各部を制御するコンピュータであれば、どのようなものであってもよい。
 端末処理部43は、受付部43Aを備えている。受付部43Aは、画像解析装置1から送信されてきた画像データや比較結果を受付けて、端末側表示部45に表示する。
 カメラ44は、ユーザ5の操作により、撮像を行うことができる。本実施形態に係るミラー装置2に代えて、携帯端末4のカメラ44により、画像データを取得して、画像解析装置1に送信してもよい。
 端末側表示部45は、画像解析装置1により処理された比較結果を示す情報を表示するモニタ装置である。端末側表示部45は、比較結果とともに、画像データを表示することができる。
 次に、図10を用いて、肌状態評価部30による処理の内容について説明する。図10は、画像解析装置1における処理フローを示す図である。
 図10に示すように、まず、ミラー装置2により撮像したユーザ5の顔の画像データを取得する(画像取得ステップ:S501)。
 次に、肌色評価部33Aが、評価テーブルを参照しながら、ユーザ5の肌を複数のステージに区分けする(肌色評価ステップ:S502)。
 次に、肌異常特定部33Bが、ユーザ5の肌において、色素異常部が生じている部分を特定する(色素沈着特定ステップ:S503)。そして、評価結果表示部33Cは、色素異常部にマーキングを行うことで、シミや色素斑を特定する(評価結果表示ステップ:S504)。
 次に、深さ推定部33Dが、色素異常部の肌表面からの深さを推定する(深さ推定ステップ:S505)。この際、深さ推定部33Dは、予め記憶された色素異常部の色と、肌表面からの深さと、の対応データを参照する。
 次に、施策提案部33Eが、ユーザ5に色素沈着を改善する施策を提案する(施策提案ステップ:S506)。
 最後に、改善データ生成部33Fが、改善データを生成して表示する(改善データ生成ステップ:S507)。改善データ生成部33Fは、画像データに対して、色素異常部における色素沈着が改善された状態を想定し、色素異常部の色相を変化させてユーザ5に表示する。これにより、ユーザ5は、施策を行った際にどのような効果が得られるかを視覚的に把握することができ、施策を継続して行うことの動機付けを得ることができる。
 次に、処理結果の他の例について、図11を用いて説明する。図11は、画像処理システム100における処理結果の他の例を示す図である。図11に示すように、前述した図8よりもシミの数が多い場合であっても、複数のステージに区分けした状態で、色素異常部にマーキングが施されている。そして、確認された複数のシミについて、該当するステージ毎に、個数を評価することができる。また、シミの個数を集計し、理想値や平均値と比較することで、ユーザ5の現状を客観的に表示することができる。
 ここで、図12から図14を用いて、シミ以外の肌異常を検出する際の手法について説明する。図12は、肌状態評価部30により毛穴を評価する際の評価基準となる評価テーブルの一例を示す図である。この評価テーブルには、発生メカニズム、肌の特徴、肌質(毛穴周囲の肌の質)、触診(触った感じ)、好発部位(よくできる部位)、原因、対策が毛穴の形により分類されている。
 毛穴を検出する際には、肌色評価部33Aが検出した肌の色に関する情報から、肌異常特定部33Bが毛穴の位置を特定する。
 この際、毛穴の色の範囲を示す情報が、評価テーブルに予め記憶されており、この値を参照することで毛穴が検出される。また毛穴を検出する際には、肌異常特定部33Bは、毛穴の形状を評価して、複数のタイプに分類する。
 例えば、図12に示すように乾燥毛穴、たるみ毛穴、詰まり毛穴、および形状記憶型毛穴の4つに分類することができる。そして、このように分類された毛穴に対して、どのような処置を行えば目立たなくすることができるかというメンテナンス情報が、図12の右端に位置する対策欄に記載されている。施策提案部33Eは、評価結果と合わせて、この対策内容を提示することで、ユーザ5が美容に供することができる。
 図13は、クマ、赤み、およびシミを検出する際の評価基準となる評価テーブルの一例を示す図である。
 クマを検出する際には、肌色評価部33Aが検出した肌の色に関する情報から、肌異常特定部33Bが、クマの位置を検出する。この際、クマの色の範囲を示す情報が、評価テーブルに予め記憶されており、この値を参照することでクマが検出される。
 赤みを検出する際には、肌色評価部33Aが検出した肌全体の色のうち、赤色の色相が顕著に確認される部分を、肌異常特定部33Bが赤みとして検出する。そして、赤みがある領域を確認し、頬周辺に赤みがある場合は、毛細血管拡張と判断し、顔全体に赤みがある場合は、乾燥によるものと判断し、局所的に強い赤みがある場合は、ニキビによるものと判断する。そして、それぞれの赤みに対して、取るべき対策が準備されている。
 シミを検出する際には、前述したように、肌色評価部33Aが検出したシミの色により、シミをステージに分類する。シミは、その色により肌表面から位置する部分までの深さが異なることが知られているので、それぞれのシミに対して取るべき対策が異なってくる。
 クマ、赤みおよびシミの場合にも、解決策として評価テーブルに記憶されているメンテナンス情報や施策情報を、施策提案部33Eが、評価結果と合わせてユーザ5に提示する。
 また、図13および図14に示すように、評価テーブルには、メンテナンス情報とともに、メンテナンスに推奨されるメンテナンス商品が示されている。この情報はデータ記憶部32に記憶されている。そして、施策提案部33Eは、メンテナンス情報とともに、メンテナンス商品を提示してもよいし、メンテナンス商品のみを提示してもよい。
 すなわち、ミラー装置2の表示部20は、評価結果とともに、メンテナンス方法およびメンテナンス商品のうちの少なくとも一方を表示することができる。
 図14は、キメ、小じわ、毛穴、しわを検出する際の評価基準となる評価テーブルの一例を示す図である。
 キメ(肌荒れ)を評価する際には、肌色評価部33Aが、頬の肌を色の違いで微小な面積要素に細分化し、密集度を評価してスコアを付ける。このスコアが50点以上である場合には、角質肥厚と判断し、30点以上49点以下である場合には、乾燥肌と判断する。29点以下の場合には、異常なしと判断する。
 小じわを評価する際には、肌色評価部33Aが、目の周囲に形成され、周囲と色相が異なるラインを検出する。すなわち、眼の周囲に形成されるしわのことを、この説明ではしわと呼んでいる。ラインが、1本以上、目の下側に水平方向に延びている場合には、このラインをたるみじわと判断する。また、ラインが、目の左右外側であって、目じりから下側のエリアに3本以上の場合には、このラインを小じわと判断する。
 たるみじわは筋肉の低下が主な原因であり、小じわは表皮、真皮が薄くなっていることが主な原因と考えられる。毛穴の評価については、前述の通りであり、説明を省略する。
 しわを評価する際には、肌色評価部33Aが、額と頬の周囲に形成され、周囲と色相が異なるラインを検出する。すなわち、額と頬の周囲に形成されるしわのことを、この説明では小じわと呼んでいる。そして額にラインがある場合は、表情しわと判断し、頬にラインがある場合には、大じわと判断する。表情しわは、日常の表情のくせや、頭皮と目元の筋力の低下が主な原因である。大じわは、頬、口元の筋力の低下が主な原因である。
 このようにして、肌状態評価部30Aは、肌の異常の種類(小じわ、シワ、シミ、毛穴の拡大、肌荒れ、赤み、クマのいずれか)それぞれについて、肌に異常が生じている部分を検出することができる。
(顔形状評価部)
 次に、図3に示す顔形状評価部50の構成について図15を用いて説明する。図15は、顔形状評価部50の構成を示すブロック図である。
 顔形状評価部50は、画像データから、ユーザ5の骨格、筋肉、および脂肪の位置に基づいて、ユーザ5の顔のプロポーションの変化を評価する。顔形状評価部50は、ユーザ5の骨格、筋肉、および脂肪の位置に基づいて、ユーザ5の顔に画定した所定領域の面積を算出し、所定領域の面積を、過去の履歴とともに表示する。
 顔形状評価部50は、装置側通信部51、データ記憶部52、装置処理部53、および装置側表示部54を備えている。顔形状評価部50は、ユーザ5の顔を撮像した撮像データからユーザ5の顔の状態を解析する情報処理装置である。
 装置側通信部51は、ネットワーク3を介して、各種のデータを送受信する通信インターフェースである。各種のデータとして、撮像データ、比較結果を示すデータが含まれる。すなわち装置側通信部51は、撮像データを受信する受信部として機能する。
 データ記憶部52は、装置処理部53が動作するうえで必要とする各種の制御プログラムや、装置側通信部51が外部から受信した各種のデータを記憶する機能を有する。また、データ記憶部52は、少なくとも一つ以上の基準面積データを記憶している。
 データ記憶部52は、例えば、HDD、SSD、フラッシュメモリなど各種の記憶媒体により実現される。
 データ記憶部52に記憶された制御プログラムを実行することで、装置処理部53が、画像処理システム100として実現すべき各機能を実現する。ここでいう各機能とは、頂点認識機能、領域画定機能、面積算出機能、面積比較機能、および結果表示機能を含んでいる。
 装置側表示部54は、顔形状評価部50の操作の内容や処理の結果を表示するモニタ装置である。
 装置処理部53は、顔形状評価部50の各部を制御するコンピュータであり、例えば、中央処理装置(CPU)やマイクロプロセッサ、ASIC、FPGAなどであってもよい。
 なお、装置処理部53は、これらの例に限られず、顔形状評価部50の各部を制御するコンピュータであれば、どのようなものであってもよい。
 そして装置処理部53は、頂点認識部53A、領域画定部53B、面積算出部53C、面積比較部53D、および表示処理部53Eを備えている。
 頂点認識部53Aは、ユーザ5の顔を撮像した撮像データから、2つの固定点Pfおよび1つの可動点Pmそれぞれの位置を認識する。
 ここで固定点Pfとは、顔の骨格に依存して特定される頂点である。固定点Pfは、顔の骨格に依存して特定されるため、時間の経過による位置の変化はわずかである。
 なお、ここでいう固定という意味は、位置がまったく変化しないという意味ではなく、後述する可動点Pmと比較して、変化の量が極めて少ないという意味である。
 一方、可動点Pmとは、顔の筋肉および脂肪に依存して特定される頂点であり、例えば加齢とともに顔の筋肉が弱くなったり、顔に脂肪がついたりすることで、下側に向けて位置が変化する。
 また可動点Pmは、顔の筋肉に刺激を与えることで、顔の筋肉が強くなったり、顔の脂肪量が少なくなったりすることで、上側に向けて位置が変化する。このような可動点Pmの位置の変化により顔のプロポーションが変化して、顔が相手に与える印象に大きく左右する。
 ここで、本実施形態における頂点認識部53Aが認識する各頂点について、図16を参照して説明する。
 図16は、頂点認識部53Aによって認識する各頂点を示す図であって、撮像データの(a)正面図、(b)側面図である。なお、この内容はあくまで一例であり、頂点認識部53Aが認識する各頂点は、任意に変更することができる。すなわち、ユーザ5の骨格の構造や、筋肉の付き方等を考慮して、認識しやすい顔の頂点を、評価に用いることができる。
 図16に示すように、頂点認識部53Aは、1つの画定領域に対して、2つの固定点Pfと1つの可動点Pmを認識する。2つの固定点Pfとして、深鼻点P1とこめかみの頂点P2とにより特定される各頂点を認識し、1つの可動点Pmとして、頬上の頂点P3を認識する。なお、深鼻点P1は左右一対の画定領域で共有している。各頂点の具体的な特定手法については後述する。
 本実施形態では、深鼻点P1およびこめかみの頂点P2それぞれの上下方向の位置は、互いに同等となっている。頬上の頂点P3は、深鼻点P1およびこめかみの頂点P2よりも下側に位置している。
 また、頂点認識部53Aは、2つの固定点Pfとして、鼻下点P4と耳下点P5とにより特定される各頂点を認識し、1つの可動点Pmとして、頬下の頂点P6を認識する。なお、鼻下点P4は左右一対の画定領域で共有している。各頂点の具体的な判別手法については後述する。
 本実施形態では、鼻下点P4および耳下点P5それぞれの上下方向の位置は、互いに同等となっている。頬下の頂点P6は、鼻下点P4および耳下点P5のよりも下側に位置している。
 頂点認識部53Aにおける各頂点の認識手段としては、撮像データに対して設けられた空間座標に対する絶対座標を特定する方法であってもよいし、画定領域を画定する3つの各頂点のうちのいずれかを基準とした相対座標を特定する方法であってもよい。
 本実施形態では、撮像データが3Dデータであるため、座標値も3次元的に表現されることとなる。
 領域画定部53Bは、頂点認識部53Aが位置を認識した各頂点同士を結んだ直線により、三角形状をなす画定領域を画定する。また、領域画定部53Bは、顔の正中線O1を基準にして、左右一対の画定領域を画定する。
 なお、領域画定部53Bが画定する画定領域は、2次元的な領域でもよいし、3次元的な領域であってもよい。本実施形態では画定領域は、3次元的な領域となっている。
 本実施形態では、領域画定部53Bは、顔の上下方向に間隔をあけて、2種類の画定領域を画定する。ここで、上側に位置する画定領域を上側画定領域A1とし、下側に位置する画定領域を下側画定領域A2とする。
 すなわち、領域画定部53Bは、上側画定領域A1および下側画定領域A2それぞれを、左右一対画定することとなる。
 なお、上側画定領域A1および下側画定領域A2が上下方向に間隔をあけるとは、顔全体を、上下方向の全域にわたって評価することにより、上側画定領域A1および下側画定領域A2による評価を顔全体に及ばせるという意図である。このため、上側画定領域A1および下側画定領域A2の一部同士が、互いに重なっていても問題はない。
 面積算出部53Cは、画定領域の面積を算出する。画定領域の面積の算出にあたっては、領域画定部53Bが特定した各頂点の座標データを用いて、画定領域内の面積を算出する。
 面積比較部53Dは、面積算出部53Cが算出した画定領域の面積と、画定領域と対応する領域の面積として既知の基準面積と、を比較する。
 面積比較部53Dは、例えば基準面積として、撮像データの撮像時から一定期間前、すなわち過去に撮像したユーザ5の撮像データから画定した画定領域の面積を用いることができる。
 また、面積比較部53Dは、基準面積として、ユーザ5が望む顔としての理想モデルにおける画定領域の面積を用いることができる。このように基準面積としては、現時点での画定領域の面積と比較できるものであれば、任意に設定することができる。
 ここで、ユーザ5が望む顔としての理想モデルの作成方法の一例について説明する。
理想モデルは、過去の撮像データを用いて作成する。過去の撮像データに対して、理想となる画定領域を目視で指定した元データを100個ほど準備する。この元データを用い、ディープラーニング(深層学習)処理を行うことで、理想モデルを作成することができる。
 次に、各面積を比較する際の指針について、前回測定した際の面積を基準面積とした場合を例に挙げて説明する。本実施形態の上側画定領域A1では、可動点Pmである頬上の頂点P3が、固定点Pfである深鼻点P1およびこめかみの頂点P2よりも下側に位置している。
 また、下側画定領域A2においても、可動点Pmである頬下の頂点P6が、鼻下点P4および耳下点P5よりも下側に位置している。
 このため、可動点Pmである頬上の頂点P3、および頬下の頂点P6が下側に移動すると、上側画定領域A1および下側画定領域A2はそれぞれ、面積が大きくなることとなる。
 一方、可動点Pmである頬上の頂点P3、および頬下の頂点P6が上側に移動すると、上側画定領域A1および下側画定領域A2はそれぞれ、面積が小さくなることとなる。
 すなわち本実施形態のように、可動点Pmの位置を固定点Pfの位置よりも下側に配置している構成では、画定領域の面積が、前回測定した際の面積である基準面積よりも小さくなっている場合には、可動点Pmが上側に移動したこととなる。
 すなわち、顔の筋肉が強くなったか、又は顔の脂肪が少なくなったことで、顔のプロポーションが改善したことを意味する。
 一方、画定領域の面積が、前回測定した際の面積である基準面積よりも大きくなっている場合には、可動点Pmが下側に移動したこととなる。
 すなわち、顔の筋肉が弱くなったか、又は顔の脂肪が多くなったことで、顔のプロポーションが悪化したことを意味する。
 このようにユーザ5は、画定領域の変化量を確認することで、定量的に顔のプロポーションが改善に向かっているのか悪化しているのかを把握することができる。
 なお、本実施形態では、上側画定領域A1および下側画定領域A2のそれぞれについて、可動点Pmの位置を固定点Pfの位置よりも下側に配置している構成について説明したが、このような態様に限られない。可動点Pmの位置は、固定点Pfの位置よりも上側に位置してもよい。
 この場合には、画定領域の面積と基準面積との比較結果が、前述した説明と反対となる。すなわち、画定領域の面積が基準面積よりも大きくなった場合に、顔のプロポーションが改善に向かっていることとなり、画定領域の面積が基準面積よりも小さくなった場合に、顔のプロポーションが悪化に向かっていることとなる。
 また、ユーザ5が望む顔としての理想モデルにおける画定領域の面積を、基準面積とする場合には、基準面積にどの程度近づいたかを確認することで、顔のプロポーションが改善しているかどうかを把握することができる。
 表示処理部53Eは、面積比較部53Dにより、画定領域の面積と、基準面積と、を比較した比較結果を装置側表示部54、および携帯端末4の後述する端末側表示部45に表示する。表示処理部53Eが表示する表示内容の具体例については後述する。
 次に、図17から図18を用いて、画像処理システム100の制御フロー、および画像処理システム100における処理の内容について説明する。
 図17は、画像処理システム100における処理フローを示す図であり、図18は、頂点認識部53Aが、頬上の頂点P3を認識する処理における模式図である。
 図17に示すように、本実施形態に係る美容促進方法では、まずミラー装置2の撮像部21が取得したユーザ5の顔の画像データを受け付ける(S601:画像受付ステップ)。
 画像受付ステップでは、ユーザ5の顔の表情による変化を抑えるために、例えば奥歯を軽く噛合わせる等をして、常に同じ表情とすることが望ましい。
 次に、頂点認識部53Aが、撮像部21から送信された撮像データを用いて各頂点を認識する(S602:頂点認識ステップ)。
 頂点認識ステップでは、1つの画定領域を構成する3つの頂点として、2つの固定点Pfおよび1つの可動点Pmそれぞれの位置を認識する。ここで、各頂点の具体的な判別手法の一態様について説明する。なお、あくまでこの説明は一例であり、他の手法により各頂点を判別してもよい。
 図18に示すように、頂点認識部53Aは、撮像データを3次元的に評価して、各頂点を認識する。まず、上側画定領域A1を構成する3つの頂点のうち、一方の固定点Pfをなす深鼻点P1については、顔の鼻根部のうち、最も窪んだ部分を特定し、深鼻点P1として認識する。
 次に、他方の固定点Pfをなすこめかみの頂点P2については、顔のこめかみ部分のうち、最も窪んだ部分をこめかみの頂点P2として認識する。なお、こめかみの頂点P2は、正面視における顔の左右方向の外端部のうち、深鼻点P1と瞳の中心、または目頭とを結ぶ直線が通過する部分としてもよい。
 さらに、3つの頂点のうち、可動点Pmをなす頬上の頂点P3については、顔の頬の上部のうち、瞳の外側の垂直線上付近において最も隆起した部分を頬上の頂点P3として認識する。この際、図18に示すように、撮像データに等高線を投影することで、最も隆起した部分を頬上の頂点P3として認識する場合もある。
 この処理を左右両側で行うことで、左右一対の上側画定領域A1を構成する各頂点が認識される。
 次に、図16に示すように、下側画定領域A2を構成する3つの頂点のうち、一方の固定点Pfをなす深鼻点P1については、顔の鼻下部のうち、最も窪んだ部分を鼻下点P4として認識する。
 次に、他方の固定点Pfをなす耳下点P5については、顔のうち、耳の下に位置する部分のうち、最も窪んだ部分を耳下点P5として認識する。
 さらに、3つの頂点のうち、可動点Pmをなす頬下の頂点P6については、顔の頬の下部のうち、瞳の外側の垂直線上付近における、口角の横の膨らみにおいて、最も隆起した部分を頬下の頂点P6として認識する。頬下の頂点P6を認識する際にも、撮像データに等高線を投影することで、最も隆起した部分を頬下の頂点P6として認識する場合もある。
 この処理を左右両側で行うことで、左右一対の下側画定領域A2を構成する各頂点が認識される。
 なお、前述した各頂点の認識方法を採用せずに、例えば予め登録された複数の人の顔のデータにおける各頂点の位置と、撮像した撮像データと、を比較することで、それぞれの画定領域を構成する各頂点を識別するような画像処理を行ってもよい。
 また、最新の撮像データを、過去の撮像データと重ね合わせることで、各頂点の位置を特定してもよい。また、オペレータ6が、各頂点として適切な箇所を撮像データ上で選択することで、各頂点の位置を特定してもよい。
 次に、領域画定部53Bが、頂点認識ステップにより特定された各頂点データを用いて、画定領域を画定する(S603:領域画定ステップ)。
 領域画定ステップでは、各頂点同士を結んだ直線により、三角形状をなす画定領域を画定する。
 次に、面積算出部53Cが、領域画定ステップにより画定された画定領域の面積を算出する(S604:面積算出ステップ)。
 面積算出ステップでは、画定領域の面積を、各頂点の座標データを用いて算出する。
 次に、面積比較部53Dが、面積算出ステップが算出した画定領域の面積を基準面積と比較する(S605:面積比較ステップ)。
 面積比較ステップでは、画定領域の面積と、この画定領域と対応する領域の面積として既知の基準面積と、を比較する。この説明では、過去の測定結果で得られた画定領域の面積を、基準面積として設定している。
 最後に、表示処理部53Eが、比較結果を示す情報を出力する(S606:表示処理ステップ)。
 表示処理ステップでは、面積比較部53Dにより比較された画定領域の面積と、基準面積と、の比較結果を、装置側表示部54および端末側表示部45に表示する。また、比較結果には、今回の結果に対する知見や、今後ユーザ5が取り組む施策(顔のマッサージ等)を提案する情報が含まれていてもよい。なお、端末側表示部45には比較結果を表示しなくてもよい。
 そして、このような比較を行うことにより、前述した第1実施形態と同様に、経年劣化および改善対策による顔のプロポーションの変化を定量的に評価して、美容促進に資することができる。
 次に、図19および図20を用いて、顔形状評価部50による評価の結果と、その効果について説明する。
 図19は、表示処理部53Eによる表示内容の一例を示す図であり、(a)2か月前の撮像データ、(b)評価時の撮像データである。また、図20は、表示処理部53Eによる表示内容の他の例を示す図であり、(a)2か月前の撮像データ、(b)評価時の撮像データである。また、図19および図20においては、上下に同じ画像データを配置している。
 図19に示す比較結果の一例では、2か月前と比較して、上側画定領域A1の面積が約23%、下側画定領域A2の面積が約53%減少した。これにより、若々しいふっくら感がでており、見た目の印象が向上していることが認められる。
 図20に示す比較結果の他の例では、2か月前と比較して、上側画定領域A1の面積が約21.5%、下側画定領域A2の面積が約25%減少した。これにより、若々しいふっくら感がでて見た目の印象が向上していることが認められる。これにより、バランスが良く、たおやかな表情となっており、見た目の印象が向上していることが認められる。
 次に、このような画像処理システム100を用いて行われるマッサージ評価方法について説明する。このマッサージ評価方法では、ユーザ5の顔に所定のマッサージを施したうえで、画像処理システム100を用いてマッサージの効果を評価する。これにより、マッサージがユーザ5に対して与える効果の有効性を確認する。
 マッサージ評価方法は、マッサージステップと、画像処理ステップと、を実行することにより行われる。
 マッサージステップでは、機能剤塗布ステップと、リンパ節刺激ステップと、筋膜刺激ステップと、を実行することにより行われる。この説明では、マッサージステップを顔に対して施す内容を説明するが、顔以外の部分にマッサージステップを実行してもよい。
 機能剤塗布ステップでは、ユーザ5の顔の表面に機能剤を塗布する。機能剤とは、血行促進、脂肪融解の促進、又は筋膜弛緩の促進のうちの少なくともいずれかの機能を有する薬剤である。具体的には、グラウシン(血行促進剤)、オクラ種子エキス(脂肪融解の促進剤、筋膜弛緩の促進剤)、ナイアシンアミド(血行促進剤)、およびグレコンへスぺリジン(血行促進剤)のうちのいずれかの成分が機能剤に含まれていることが好ましい。なお。これらの成分に限定されず、前述した効果を奏する成分であれば、任意に採用することができる。
 機能剤塗布工程では、顔のうち、特にユーザ5が引き締めたい部分、例えば頬、目の周り等に塗布する。そして、その後にリンパ節刺激ステップを実行する。
 リンパ節マッサージを施すリンパ節刺激ステップでは、機能剤塗布ステップの後に、ユーザ5の顔のうち、リンパ節が位置する部分を物理的に刺激する。顔のリンパ節は、耳下に位置している。
 リンパ節刺激ステップでは、図21に示す美容器70を用いてリンパ節への刺激が行われる。図21(a)は、マッサージステップで使用される美容器70の外観図である。図21(b)は、美容器70の断面図である。
 図21に示すように、美容器70は、付勢部材73,75により付勢されたピン状の押圧部72、74を備えている。この押圧部72、74をユーザ5の顔のうち、リンパ節が位置する部分の肌に押し付けて押圧することで、リンパ節が刺激される。ここで、美容器70の構造について詳述する。
 美容器70は、美容器本体71と、第1押圧部72と、第1付勢部材73と、第2押圧部74と、第2付勢部材75と、を備えている。
 美容器本体71は、軸方向の一方側から他方側に向けて、段階的に拡径する多段筒状に形成された筒状をなしている。
 美容器本体71は、軸方向の一方側に位置する小径筒部71Aと、小径筒部71Aと軸方向に連結された中間筒部71Bと、軸方向の他方側に位置する大径筒部71Cと、を備えている。
 大径筒部71Cの内周面のうち、中間筒部71Bと軸方向に連なる部分には、径方向の内側に向けて張り出した張り出し部71Dが形成されている。
 第1押圧部72は、美容器本体71の一端部に設けられ、使用者の顔や身体を押圧するものであって、1つの第1ピンから構成されている。
 第1付勢部材73は、美容器本体71における一端部の内部に収容され、第1押圧部72を美容器本体71の外側に向けて付勢している。第1付勢部材73はコイルばねである。
 第2押圧部74は、美容器本体71の他端部に設けられ、使用者の顔や身体を押圧するものであって、3つの第2ピン、および3つの第2ピンを一体に保持する保持部から構成されている。
 第2付勢部材75は、美容器本体71における他端部の内部に収容され、保持部の端部に当接することで、第2押圧部74を美容器本体71の外側に向けて付勢している。第2付勢部材75は、コイルばねである。
 第1付勢部材73は、中間筒部71Bの内側に配置され、張り出し部71Dに当接した状態で、第1ピンに当接している。
 第2付勢部材75は、大径筒部71Cの内側に配置され、張り出し部71Dに当接した状態で、保持部の端部に当接している。
 そして、美容器70を使用する際には、押圧部72,74のうちのいずれか一方を、ユーザ5の顔に押圧されることにより、ユーザ5の顔に刺激を与える。第1付勢部材73および第2付勢部材75それぞれの付勢力は互いに異なっており、どちらの押圧部72,74を用いるかは、ユーザ5が選択することができる。
 そして、例えば第1押圧部72を、ユーザ5の顔に押圧すると、第1付勢部材73からの付勢力に抗して、第1押圧部72が変位する。この際、コイルばねである第1付勢部材73の長さが短くなり、変形量が大きくなることで、徐々に第1押圧部72が、第1付勢部材73から受ける付勢力が大きくなる。
 これにより、第1押圧部72が、ユーザ5の顔を押圧する力も徐々に強くなる。そして、第1付勢部材73の変位域の限度に達するまで、顔に第1押圧部72を押し付けてもよいし、痛みを感じる直前で第1押圧部72をユーザ5の顔に押し付けるのをやめてもよい。この動作を繰り返して複数回行うことにより、ユーザ5の顔に刺激を与えることができる。
 リンパ節刺激ステップでは、顔にあるリンパ節だけではなく、鎖骨付近になるリンパ節も刺激する。これにより、リンパ節でのリンパ液の滞留が解消される。
 次に、筋膜マッサージを施す筋膜刺激ステップを行う。筋膜刺激ステップは、リンパ節刺激ステップで使用した美容器70を用いて行う。筋膜刺激ステップでは、頭頂部や頬、首などを繰り返し美容器70の押圧部72,74により押圧する。これにより、筋膜が筋肉に癒着しているのを剥がすことができる。
 なお、リンパ節刺激ステップおよび筋膜刺激ステップは繰り返して行ってもよいし、先に筋膜刺激ステップを行った後に、リンパ節刺激ステップを行ってもよい。
 次に、画像処理ステップを行う。画像処理ステップでは、前述した顔形状評価部50による顔形状評価ステップと、顔形状評価部50により評価したユーザ5の顔のプロポーションの変化を示す情報を出力する表示処理ステップと、を実行する。
 表示処理ステップは、表示処理部53Eが表示部20に評価結果を表示する。これにより、リンパ節マッサージおよび筋膜マッサージの効果を確認する。
 ここで、マッサージステップにおいて、リンパ節を刺激することの有用性について説明する。
 筋肉と筋膜との癒着は、これらの間に介在する老廃物に起因して生じていることがある。この老廃物を除去するには、筋肉と筋膜との間を流れるリンパ液の流れを良くすることが有効である。そして、リンパ液を貯留するリンパ節を刺激することで、リンパ液の流れを良くすることができる。
 このようにリンパ液の流れを良くしながら、筋膜を刺激することで、効果的に筋肉と筋膜との間に介在する老廃物を、リンパ液の流れにのせて除去することができる。これにより、筋膜の筋肉への癒着を効果的にはがすことができる。
 次に、マッサージステップにおいて、押圧部72,74を備えた美容器70を用いてリンパ節や筋膜を刺激することの有用性について説明する。例えば、従来のマッサージでは、ローラ部材を筋膜が位置する部分の肌表面で転がすことにより刺激を与えることが行われていた。
 しかしながら、ローラ部材により肌表面を刺激する場合には、ローラの回転とともに押圧力が分散し、対象となる筋膜やリンパ節が位置する体の深部にまで刺激が届きにくいという傾向があった。このため、筋膜と筋肉との間に介在する老廃物を除去することが効果的に行えないという課題があった。
 一方、ピン状の押圧部72,74により筋膜が位置する部分の外側を刺激する場合には、ピン状の押圧部72,74の先端からの押圧力が、押圧部72、74の先端と接触する部分に集中する。このため、筋膜やリンパ節が位置する体の深部まで、押圧力を届きやすくすることができる。
 また、付勢部材73,75により、押圧部72,74の変位とともに押圧力が強くなることにより、押圧部72,74の変位の程度を調整することで、押圧力の調整をすることができる。更に、付勢部材73,75により概ね一定の力で押圧部72,74を付勢しているため、押圧部72,74により押圧力を概ね一定にしやすいという利点がある。
 次に、マッサージ方法の具体的な手順の第1例について図22から図27を参照して説明する。
 まず、図22(a)に示すように、美容器70を用いて、鎖骨付近の静脈角に刺激を与える。この際、美容器70の押圧部72,74を静脈角に押し込むように押圧する。この状態を5秒程度キープするのが好ましい。
 次に、図22(b)に示すように、美容器70の押圧部72,74を、鎖骨下のリンパ節が位置する鎖骨中央部に当て、20秒程、押圧部72,74を押し込む動作を繰り返す。(リンパ節刺激ステップ)押圧部72,74を押し込む動作は、1秒間に5回程度の速度で行うのが好ましい。
 次に、図22(c)に示すように、美容器70の押圧部72,74を、乳様突起下に当て、10秒程、押圧部72,74を押し込む動作を繰り返す。押圧部72,74を押し込む動作は、1秒間に3~5回程度の速度で行うのが好ましい。
 次に、図22(d)に示すように、美容器70の押圧部72,74を、後頭部に当て、10秒程、押圧部72,74を押し込む動作を繰り返す。押圧部72,74を押し込む動作は、1秒間に3~5回程度の速度で行うことが好ましい。なお、後頭部のうち、耳中央部と同じ高さで首筋の上に位置する部分を押圧するのが好ましい。
 次に、図23(a)に示すように、機能剤を片側の首筋全体に塗布する。機能剤は数ccを延ばしながら塗布する。これにより、機能剤のムラを無くすことができる。
 次に、図23(b)に示すように、耳の手前を上下に伸ばす。この動作は5回ほど行う。
 次に、図23(c)に示すように、機能剤を片側のこめかみ周囲に塗布する。機能剤は数ccを延ばしながら塗布する。
 次に、図23(d)に示すように、こめかみに4指を当て、斜め上方向(側頭部)に指を引き上げることで、頭皮のストレッチを行う。この際、指を引き上げた状態で5秒程度キープするのが好ましい。
 次に、側頭部の刺激を行う。図24(a)に示すように、側頭部のうち、こめかみと同じ高さで、耳の上に位置する部分を特定する。そして、図24(b)に示すように、美容器70の押圧部72,74を、こめかみに当て、10秒程、押圧部72,74を押し込む動作を繰り返す。押圧部72,74を押し込む動作は、1秒間に3~5回程度の速度で行うことが好ましい。
 次に、図24(c)に示すように、こめかみの周辺に対して、同様に押圧部72,74を押し込む動作を繰り返す。この際、1秒間に3~5回程度の速度で10秒ほど行うことが好ましい。
 次に、図25(a)に示すように、側頭部の6箇所に刺激を与える。この動作は1箇所につき30回程度行う。
 次に、図25(b)に示すように、側頭部に4指を当て、円弧を描くようにほぐす。この動作は5回程度行う。
 次に、図25(c)に示すように、前頭部の生え際中央からこめかみまで、5箇所に対して刺激を与える。この動作は1箇所に対して30回程度行うのが好ましい。
 次に、図25(d)に示すように、前頭部に4指をあて、円弧を描くようにほぐす。この動作は5回程度行う。
 次に、図26(a)に示すように、頭頂部から親指で圧を与えながら、耳の裏まで滑らせる。この動作を3つのラインに沿って3回ずつ行う。
 次に、図26(b)に示すように、耳の裏側を矢印の方向に引っ張る。この動作は、各方向について5秒ずつ行う。
 次に、図26(c)に示すように、甲乙部の8箇所に対して美容器70を用いて刺激を与える。この動作を1箇所につき30回ずつ行う。
 次に、図26(d)に示すように、生え際に4指をあて、後頭部に向かって、手ぐしを3回ずつ入れる
 次に、仕上げ作業として、図27(a)に示すように、まず、耳の下に手首を添える。次に、図27(b)に示すように、手首を耳上の側頭部に移し、もう片側の手を頭に沿える。最後に、図27(c)に示すように、両手を使って上に引きあげる。これにより、一連のマッサージが全て終了する。
 次に、マッサージ方法の具体的な手順の第2例について説明する。このマッサージは、主に頭の筋膜に対するマッサージである。頭の筋膜の癒着をはがすことにより、顔のシルエットに影響がでることが確認されている。
 まず、図28(a)に示すように、両手4指で耳上の頭皮をつかむ。次に、両手4指で耳上の側頭筋を動かすように、円を描く。この際、3つの円をそれぞれ3回ずつ描くようにする。
 次に、図28(b)に示すように、頭頂部に位置する百会のツボに向けて、美容器70の押圧部72,74で頭部を刺激する。
 次に、図28(c)に示すように、両手4指で生え際の頭皮をつかむ。次に、両手4指で前頭筋を動かすように、円を描く。この際、3つの円をそれぞれ3回ずつ描くようにする。
 次に、図28(d)に示すように、生え際を中央からこめかみまで美容器70の押圧部72,74で刺激する。次に、生え際中央からこめかみまで、親指で圧を加えて交互に動かして引き上げる。
 次に、図29(a)に示すように、生え際から頭頂部に向けて、親指で圧を加えながら、耳の裏まで滑らせる。この際、3つのラインをそれぞれ3回描くようにする。
 次に、図29(b)に示すように、生え際に4指を置き、後頭部に向けて手ぐしを3回入れる。
 次に、図29(c)に示すように、耳の裏側を矢印の各方向に、それぞれ5回ずつ引っ張る。
 次に、図29(d)に示すように乳様突起下部を、美容器70の押圧部72,74により、左右10回ずつ刺激する。
 次に、図30(a)に示すように、耳を人差し指と中指で挟み、上下に圧をかけながら、5回ずつ強くこする。
 次に、図30(b)に示すように、後頭部全体を美容器70の押圧部72,74により、刺激する。この際、3つのラインに沿って、それぞれ5回ずつ刺激する。
 次に、図30(c)に示すように、首の付け根から胸鎖乳突筋を片側の親指と人差し指で挟み、後頭部の窪みまで滑らせて5秒間程度軽く圧をかける。
 次に、図30(d)に示すように、首のストレッチとして、片側の手首を耳の上に、もう片側の手首を後頭部の風池とよばれるツボの周辺に置く。
 そして、内側に圧をかけながら、上に5秒間程度引き上げる。これにより、第2例に係るマッサージの一連の作業が終了する。
 次に、マッサージ方法の具体的な手順の第3例について、図31から図34を用いて説明する。このマッサージは、主に体の腹部に対するマッサージである。腹部に対するマッサージは、猫背や前肩による姿勢の悪さの改善を目的としている。
 このマッサージにより、腹部周りの筋肉、筋膜の硬結、癒着を取り除くことができる。そして、肩こりの解消、猫背の解消、およびお腹を引き締めるといった効果が期待できる。
 まず、図31(a)に示すように、鎖骨中央部から烏口突起までの鎖骨下の3箇所を、美容器70の第1押圧部72を用いて押圧する。そして、機能剤を塗布し、その上から第2押圧部74を用いて5回程度押圧する。
 次に、図31(b)に示すように、烏口突起上と呼ばれる図示のポイントを、美容器70の第1押圧部72で30秒程度、押圧する。
 次に、図32(a)に示すように、胸鎖関節の下部に位置する肋間軟骨上を、上胸部まで、第2押圧部74を用いて4、5回程度押圧する。
 次に、図32(b)に示すように、上腕部の硬結部に美容器70の第1押圧部72を用いて押圧する。その後、両方の肩に手を置き、肩を開くように圧をかける。
 次に、図33(a)に示すように、腕を上げた状態で、脇の内側を美容器70の第1押圧部72を用いて1分程度押圧する。
 次に、図33(b)に示すように、みぞおちから指3本分外側に位置する部分を、美容器70の第1押圧部72で、1箇所につき1分程度ずつ、押圧する。
 次に、図34(a)に示すように、みぞおち横からへそ横までの脇腹を美容器70の第1押圧部72で、1か所につき1分程度ずつ押圧する。
 次に、図34(b)に示すように、みぞおちから肋骨にそって美容器70の第1押圧部72で左右5か所ずつ、それぞれ1分程度、押圧する。その後に機能剤を塗布し、第2押圧部74で押圧する。
 次に、マッサージ方法の具体的な手順の第4例について、図35を用いて説明する。このマッサージは、主に体の胸部に対するマッサージである。
 胸部に対するマッサージは、猫背や前肩による姿勢の悪さの改善を目的としている。このマッサージにより、鎖骨周りの血流、リンパの流れを良くし、バストへの栄養を行き届きやすくする。
 まず、鎖骨下中央部を美容器70の第1押圧部72で1分程度、押圧する。その後、図35(a)に示すように、耳たぶの後ろのくぼみを、美容器70の第1押圧部72で、1分程度押圧する。
 次に、図35(b)に示すように、乳様突起下部を、美容器70の第1押圧部72で、1分程度押圧する。その後、胸鎖乳突筋の位置する部分に機能剤を塗布する。
 そしてこの後に、前述した図30から図32までのマッサージを前述の通り行う。
 以上説明したように、本実施形態に係る画像処理システム100によれば、ミラー装置2の撮像部21がユーザ5の顔を撮像した画像データを用いて、肌状態評価部30が、ユーザ5の肌の色に基づいて、ユーザ5の肌の健康状態を評価する。これにより、肌の異常を定量的に評価することができる。
 そして、顔形状評価部50が、当該画像データから、ユーザ5の骨格、筋肉、および脂肪の位置に基づいて、ユーザ5の顔のプロポーションの変化を評価する。ここで、ユーザ5の骨格、筋肉、および脂肪の位置関係を基準に顔のプロポーションの変化を評価するため、顔の全体の変化を評価するような態様と比較して、変化の前後における良し悪しを容易に判断することができる。このため、顔の形態の変化を一意的に判断することができる。
 また、ミラー装置2の表示部20が、肌状態評価部30および顔形状評価部50の評価結果を表示するので、ユーザ5が、ミラー装置2を用いて身だしなみを整えるタイミングで、顔の肌の状態や、プロポーションの変化を確認することができ、ユーザ5の利便性を確保することができる。
 また、将来予測部60が、肌状態評価部30に記憶されたユーザ5の肌の健康状態、および顔形状評価部50に記憶されたユーザ5の顔の形状評価のうちの少なくとも一方を用いて、ユーザ5の顔の将来予測を行う。このため。ユーザ5に対して美容促進に対する動機づけを与えることができる。
 また、肌状態評価部30における肌色評価部33Aが、ユーザ5の肌を撮像した画像データを用いて、ユーザ5の肌の任意の箇所を、その色相の値により、予め設定された複数のステージに区分けする。そして、肌異常特定部33Bが、肌色評価部33Aにより区分けされたステージに基づいて、ユーザ5の肌における色素異常部の位置を特定する。これにより、シミや色素斑のような色素沈着の程度を定量的に評価し、美容に供することができる。
 また、評価結果表示部33Cが、画像データに対して、肌色評価部33Aが区分けしたステージ毎に、その箇所の位置を表示するとともに、肌異常特定部33Bが特定した色素異常部にマーキングを行う。これにより、ユーザ5が、評価結果を視覚的に把握することが可能になり、ユーザ5の利便性を確保することができる。
 また、評価結果表示部33Cが、同一のユーザ5に対して異なる時期に撮像した複数の画像データに対して、ステージ毎の位置表示およびマーキングを行い、並べて表示する。これにより、ユーザ5の肌の状態における経時的変化を、視覚的に把握させることができる。
 また、深さ推定部33Dが、色素異常部の色相の値により、ユーザ5の肌における色素異常部の肌表面からの深さを推定するので、色素異常部の改善に向けた施策を検討するうえでの判断材料を提供することができる。
 また、施策提案部33Eが、色素異常部の深さに基づいて、色素沈着の改善を促す施策を提案するので、色素異常部の状態に応じて、適切な施策を提案することができる。
 また、改善データ生成部33Fが、画像データに対して、色素異常部における色素沈着が改善された状態を想定し、色素異常部の色相を変化させてユーザ5に表示するので、ユーザ5に提案する施策により期待できる効果を視覚的に伝えることで、ユーザ5に対して、施策を継続して行うための動機づけを行うことができる。
 また、本実施形態に係る画像処理システム100によれば、頂点認識部53Aが、ユーザ5の顔を撮像した撮像データから、顔の骨格に依存して特定される2つの固定点Pf、および顔の筋肉および脂肪に依存して特定される1つの可動点Pmそれぞれの位置を認識する。
 次に、領域画定部53Bが、特定された各頂点を結んだ直線により、三角形状をなす画定領域を画定し、面積算出部53Cが画定領域の面積を算出する。そして、面積比較部53Dが、画定領域の面積と基準面積とを比較する。これにより、経年劣化および改善対策による顔のプロポーションの変化を定量的に評価して、美容促進に資することができる。
 またこの際、2つの固定点Pfと、1つの可動点Pmにより画定領域が画定されるので、例えば、2つ又は3つの可動点Pmにより画定領域が画定される構成と比較して、認識が難しい可動点Pmの位置の特定のばらつきを抑制し、正確な評価を行うことができる。
 そして、画定領域の面積を評価することで、例えば可動点Pmの位置を固定点Pfからの距離で評価する場合よりも、扱う数値を大きくして、変化量を大きくすることができる。
 これにより、仮に顔のプロポーションの変化が、一定期間の経過前後において、撮像データで確認してもわかりにくいような違いしか無いような場合であっても、ユーザ5が、顔の変化の程度を認識しやすくなり、美容促進に対する動機づけを得ることができる。
 また、既存の顔のプロポーション分析では、骨格に依存したものがほとんど(いわゆる顔の黄金比率など)で、先天的な要因でどうにもできず、整形外科以外の美容への意欲を高めることは難しかった。一方、画像処理システム100では、骨格のみに依存せず、セルフケアによって改善の見込みがある、経年劣化による筋肉や脂肪の変化を評価するものであるため、ユーザ5の美容への意欲を高めることができる。
 また、画像処理システム100は、画定領域の面積と基準面積とを比較した比較結果を示す情報を出力する表示処理部53Eを備えているので、定量的に評価した結果を、例えばユーザ5の携帯端末4に表示することで、評価結果を容易に確認することができる。
 また、領域画定部53Bが、顔の正中線O1を基準にして、左右一対の画定領域を画定するので、左右に均整のとれた顔のプロポーションの実現に向けた美容促進を行うことができる。
 また、領域画定部53Bが、深鼻点P1とこめかみの頂点P2とにより特定される2つの固定点Pf、および頬上の頂点P3により特定される1つの可動点Pmにより、画定領域を画定する。
 このため、顔の頬の上部周辺のプロポーションを定量的に評価して、例えば加齢とともに気になりやすい頬上部のたるみ(例えば、ほうれい線と頬骨との間に形成されるゴルゴライン等)の変化を確認することができる。
 また、頂点認識部53Aが撮像データを3次元的に評価して、深鼻点P1、こめかみの頂点P2、および頬上の頂点P3を認識する。このため、ユーザ5の顔の造形によらず、各頂点を容易に認識することができる。
 また、領域画定部53Bが、顔の上下方向に間隔をあけて、2種類の画定領域を画定するので、顔の上側と下側とをそれぞれ評価することで、顔全体のプロポーションを定量的に評価することができ、より一層効果的に、美容促進を行うことができる。
 また、領域画定部53Bが、鼻下点P4と耳下点P5とにより特定される2つの固定点Pf、および頬下の頂点P6により特定される1つの可動点Pmにより、画定領域を画定するので、顔の頬の下部周辺のプロポーションを定量的に評価して、例えば加齢とともに気になりやすい頬の下部のたるみの変化を確認することができる。
 また、頂点認識部53Aが、撮像データを3次元的に評価して、鼻下点P4、耳下点P5、および頬下の頂点P6を認識するので、ユーザ5の顔の造形によらず、各頂点を容易に認識することができる。
 また、面積比較部53Dが、基準面積として、前記撮像データの撮像時から一定期間前の時点でのユーザ5における画定領域の面積を用いる場合には、顔のプロポーションの時間の経過とともに変化する様子を定量的に評価することができる。これにより、美容効果を正確に把握することができる。
 また、面積比較部53Dが、基準面積として、ユーザ5が望む顔としての理想モデルにおける画定領域の面積を用いる場合には、目標に対してどの程度近づいたのかを定量的に確認することができる。これにより、ユーザ5の美容に対するモチベーションを維持して、効果的な美容促進を行うことができる。
 また、画像処理システム100は、顔形状評価部50を備えているので、容易にユーザ5の顔の撮像データを取得して、顔形状評価部50により撮像データを評価することができる。
 そして、装置側表示部54が、表示面に向かい合うユーザ5の顔を撮像した撮像データを、表示面に表示可能する機能を有する。このため、ミラー装置2の撮像部21が撮像したユーザ5の顔の撮像データや、撮像データを用いて装置処理部53が行ったプロポーションの変化の評価結果を、鏡を見るようにしてユーザ5が確認することができる。
 また、本発明に係るマッサージ評価方法では、機能剤塗布ステップを実行することにより、機能剤に含まれる成分がユーザ5の顔に塗布されることで、血行促進効果、脂肪融解効果、および筋膜弛緩効果のうちの少なくともいずれかの効果を奏することができる。これにより、マッサージの効果を促進することができる。
 また、リンパ節刺激ステップおよび筋膜刺激ステップにおいて、リンパ節と筋膜とを刺激するので、リンパ節に刺激を与えて、リンパ液の流れを促進し、筋肉と筋膜との間に介在する老廃物の代謝を促し、筋膜と筋肉との付着を効果的に解消することができる。
 そして、このようにマッサージを行った後に、画像処理システム100を用いて画像処理ステップを行い、ユーザ5の顔を撮像した画像データから、ユーザ5の顔のプロポーションの変化を評価することにより、マッサージの効果を確実に評価することができる。
 また、マッサージ評価方法におけるリンパ節刺激ステップでは、付勢部材73,75により付勢されたピン状の押圧部72,74を備えた美容器70を用いてリンパ節を刺激するので、リンパ節が体の深部に位置する場合であっても、確実にリンパ節に刺激を与えて、リンパ液の流れを促進することができる。
 これにより、筋肉と筋膜との間に介在する老廃物の代謝を促し、筋膜と筋肉との付着を効果的に解消することができる。
 また、機能剤にグラウシンの成分が含まれる場合には、血行促進効果を奏することができる。機能剤にオクラ種子エキスの成分が含まれる場合には、血行促進効果を奏することができる。
 また、機能剤にナイアシンアミドの成分が含まれる場合には、脂肪融解の促進効果を奏することができる。
 また、機能剤にグレコンへスぺリジンの成分が含まれる場合には、筋膜弛緩効果を奏することができる。
 また、マッサージ評価方法における筋膜刺激ステップでは、付勢部材73,75により付勢されたピン状の押圧部72,74を備えた美容器70を用いて、押圧部72,74により、ユーザ5の顔のうち、筋膜が位置する部分を押圧する。このため、例えばローラ部材を転がして、肌の表面を刺激するような構成と比較して、肌の深部に位置する筋膜に確実に刺激を与えることができる。
 また、ピン状の押圧部72,74が付勢部材としてのコイルばねにより付勢されている場合には、押圧部72,74が変位する際の力を常に一定にすることができ、押圧部72,74による押圧力を一定にすることができる。
 また、評価結果提供部61が、解析結果を個人用端末2Bに提供し、確認内容報告部62が、ユーザ5に提供した解析結果の確認履歴情報を店舗用端末2Aに報告する。また、記憶部63には、ユーザ5が、店舗を訪れた際に店舗用端末2Aを用いて確認した内容が、確認履歴情報と合わせて記憶されている。
 このため、ユーザ5が自身の画像に対して行った解析のうち、どのような内容に興味があるのかを、店舗スタッフが確認することが可能になり、ユーザ5が興味のある内容に関するアドバイスをすることにより、美容促進を効率的に行うことができる。
 また、画像解析装置1が、肌状態評価部30と、顔形状評価部50と、ユーザ識別部64と、を備えているので、使用するユーザ5毎に、肌の状態と顔のプロモーションの変化を評価することが可能になり、複数のユーザ5が、1台のミラー装置2を使用することができる。
 また、記憶部63が、ユーザ5それぞれの顔のデータと、ユーザ5のIDと、を記憶し、ユーザ識別部64が、撮像した利用者の顔の画像データを記憶部63に参照することにより、ユーザ5を特定する。
 これにより、ユーザ5が、自身の顔を撮像させるだけで、ユーザ認証を行うことが可能になり、例えば、ユーザ5自身が、自らのIDを入力するような操作を省略することが可能になり、ユーザ5の利便性を確保することができる。
 また、確認内容報告部62が、肌状態評価部30および顔形状評価部50が行った各解析結果について、ユーザ5が所定期間内に確認している回数を集計して、店舗用端末2Aに報告する。
 このため、複数のユーザ5の確認履歴情報により、ユーザ5全体が、どのような美容項目に興味があるかを統計的に把握することが可能になる。これにより、店舗側の美容促進に関する指導に役立てることができる。
 また、確認内容報告部62が、表示部20が表示したメンテナンス方法およびメンテナンス商品のうちの少なくとも一方を、店舗用端末2Aに報告する。
 このため、ユーザ5が興味のあるメンテナンス方法やメンテナンス商品を店舗スタッフが把握することが可能になり、店舗が展開する営業活動に資することができる。
 なお、画像処理システム100は、上記実施形態に限定されるものではなく、他の手法により実現されてもよいことは言うまでもない。以下、各種変形例について説明する。
 例えば、上記実施形態の制御プログラムは、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよい。記憶媒体は、「一時的でない有形の媒体」に、制御プログラムを記憶可能である。記憶媒体は、HDDやSDDなどの任意の適切な記憶媒体、またはこれらの2つ以上の適切な組合せを含むことができる。記憶媒体は、揮発性、不揮発性、または揮発性と不揮発性の組合せでよい。なお、記憶媒体はこれらの例に限られず、制御プログラムを記憶可能であれば、どのようなデバイスまたは媒体であってもよい。
 また、画像処理システム100は、例えば、記憶媒体に記憶された制御プログラムを読み出し、読み出した制御プログラムを実行することによって、実施形態に示す各機能を実現することができる。
 また、当該制御プログラムは、任意の伝送媒体(通信ネットワークや放送波等)を介して、画像処理システム100に提供されてもよい。画像処理システム100は、例えば、インターネット等を介してダウンロードした制御プログラムを実行することにより、各実施形態に示す複数の機能部の機能を実現する。
 また、当該制御プログラムは、例えば、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective―C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装してもよい。
 画像処理システム100における処理の少なくとも一部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。また、画像処理システム100の各機能部は、上記実施形態に示した機能を実現する1または複数の回路によって実現されてもよく、1の回路により複数の機能部の機能が実現されることとしてもよい。
 また、上記実施形態では、画像解析装置1と携帯端末4とを別の装置とした例について説明したが、このような態様に限られない。画像解析装置1の一部又は全ての機能を、携帯端末4が備えていてもよい。
 また、本開示の実施形態を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本開示の範囲に含まれることに留意されたい。例えば、各手段、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。また、各実施形態に示す構成を適宜組み合わせることとしてもよい。
1 画像解析装置
2 ミラー装置
30 肌状態評価部
50 顔形状評価部
70 美容器
100 画像処理システム

Claims (7)

  1.  ユーザの顔の表面に、血行促進、脂肪融解の促進、又は筋膜弛緩の促進のうちの少なくともいずれかの機能を有する機能剤を塗布する機能剤塗布ステップと、
     前記機能剤塗布ステップの後に、ユーザの顔のうち、リンパ節が位置する部分を物理的に刺激するリンパ節マッサージを施すリンパ節刺激ステップと、
     前記機能剤塗布ステップの後に、ユーザの顔のうち、筋膜が位置する部分を物理的に刺激する筋膜マッサージを施す筋膜刺激ステップと、
     当該ユーザの顔を撮像した画像データから、ユーザの骨格、筋肉、および脂肪の位置に基づいて、ユーザの顔のプロポーションの変化を評価する顔形状評価部と、前記顔形状評価部により評価したユーザの顔のプロポーションの変化を示す情報を出力する表示処理部と、を備える画像処理システムを用いて、前記リンパ節マッサージおよび前記筋膜マッサージの効果を確認する画像処理ステップと、を実行するマッサージ評価方法。
  2.  前記リンパ節刺激ステップでは、付勢部材により付勢されたピン状の押圧部を備えた美容器を用いて、前記押圧部により、ユーザの顔のうち、リンパ節が位置する部分を押圧することを特徴とする請求項1に記載のマッサージ評価方法。
  3.  前記筋膜刺激ステップでは、付勢部材により付勢されたピン状の押圧部を備えた美容器を用いて、前記押圧部により、ユーザの顔のうち、筋膜が位置する部分を押圧することを特徴とする請求項1又は2に記載のマッサージ評価方法。
  4.  前記機能剤は、グラウシン、オクラ種子エキス、およびナイアシンアミドの成分を有していることを特徴とする請求項1から3のいずれか1項に記載のマッサージ評価方法。
  5.  前記機能剤は、グレコンへスぺリジンの成分を更に有していることを特徴とする請求項4に記載のマッサージ評価方法。
  6.  ユーザの顔の表面に、血行促進、脂肪融解の促進、又は筋膜弛緩の促進のうちの少なくともいずれかの機能を有する機能剤を塗布する機能剤塗布ステップと、
     前記機能剤塗布ステップの後に、ユーザの顔のうち、リンパ節が位置する部分を物理的に刺激するリンパ節刺激ステップと、
     前記機能剤塗布ステップの後に、ユーザの顔のうち、筋膜が位置する部分を物理的に刺激する筋膜刺激ステップと、を施したユーザの顔を撮像した画像データから、ユーザの骨格、筋肉、および脂肪の位置に基づいて、ユーザの顔のプロポーションの変化を評価する顔形状評価部と、
     前記顔形状評価部により評価したユーザの顔のプロポーションの変化を示す情報を出力する表示処理部と、を備えるマッサージ評価装置。
  7.  ユーザの顔の表面に、血行促進、脂肪融解の促進、又は筋膜弛緩の促進のうちの少なくともいずれかの機能を有する機能剤を塗布する機能剤塗布ステップと、
     前記機能剤塗布ステップの後に、ユーザの顔のうち、リンパ節が位置する部分を物理的に刺激するリンパ節刺激ステップと、
     前記機能剤塗布ステップの後に、ユーザの顔のうち、筋膜が位置する部分を物理的に刺激する筋膜刺激ステップと、を施したユーザの顔を撮像した画像データから、ユーザの骨格、筋肉、および脂肪の位置に基づいて、ユーザの顔のプロポーションの変化を評価する顔形状評価機能と、
     前記顔形状評価部により評価したユーザの顔のプロポーションの変化を示す情報を出力する表示処理機能と、をコンピュータに実現させるマッサージ評価プログラム。
PCT/JP2019/051618 2019-12-27 2019-12-27 マッサージ評価方法、マッサージ評価装置、およびマッサージ評価プログラム WO2021131072A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201980103590.1A CN115697276A (zh) 2019-12-27 2019-12-27 按摩评估方法、按摩评估装置以及按摩评估程序
JP2021566768A JP7340880B2 (ja) 2019-12-27 2019-12-27 マッサージ評価方法、マッサージ評価装置、およびマッサージ評価プログラム
PCT/JP2019/051618 WO2021131072A1 (ja) 2019-12-27 2019-12-27 マッサージ評価方法、マッサージ評価装置、およびマッサージ評価プログラム
JP2023103764A JP2023118795A (ja) 2019-12-27 2023-06-23 マッサージ評価方法、マッサージ評価装置、およびマッサージ評価プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/051618 WO2021131072A1 (ja) 2019-12-27 2019-12-27 マッサージ評価方法、マッサージ評価装置、およびマッサージ評価プログラム

Publications (2)

Publication Number Publication Date
WO2021131072A1 true WO2021131072A1 (ja) 2021-07-01
WO2021131072A8 WO2021131072A8 (ja) 2022-10-20

Family

ID=76574106

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/051618 WO2021131072A1 (ja) 2019-12-27 2019-12-27 マッサージ評価方法、マッサージ評価装置、およびマッサージ評価プログラム

Country Status (3)

Country Link
JP (2) JP7340880B2 (ja)
CN (1) CN115697276A (ja)
WO (1) WO2021131072A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113707269A (zh) * 2021-08-31 2021-11-26 平安科技(深圳)有限公司 经络按摩方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000119157A (ja) * 1998-10-14 2000-04-25 Shiseido Co Ltd 顔のむくみを解消する美容方法
JP2005314329A (ja) * 2004-04-30 2005-11-10 Kanebo Cosmetics Inc 美容施術方法およびそれに用いる美容施術ツール
JP2009249340A (ja) * 2008-04-07 2009-10-29 Satoshi Shinkawa 痩身用化粧品組成物
WO2012096081A1 (ja) * 2011-01-15 2012-07-19 株式会社資生堂 マッサージの評価方法及び装置、並びにプログラム及びコンピュータ読み取り可能な記憶媒体
JP2013503850A (ja) * 2009-09-04 2013-02-04 マラン、ド、ビリエ 美容用スキンケアの方法および組成物
JP2017192517A (ja) * 2016-04-19 2017-10-26 敏晃 藤原 美顔器

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004341992A (ja) * 2003-05-19 2004-12-02 Matsushita Electric Ind Co Ltd 画像撮影装置及び画像照合装置
JP4056443B2 (ja) * 2003-08-21 2008-03-05 Necフィールディング株式会社 健康診断システムおよびプログラム
JP2008243119A (ja) * 2007-03-29 2008-10-09 Noritsu Koki Co Ltd 顔撮影装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000119157A (ja) * 1998-10-14 2000-04-25 Shiseido Co Ltd 顔のむくみを解消する美容方法
JP2005314329A (ja) * 2004-04-30 2005-11-10 Kanebo Cosmetics Inc 美容施術方法およびそれに用いる美容施術ツール
JP2009249340A (ja) * 2008-04-07 2009-10-29 Satoshi Shinkawa 痩身用化粧品組成物
JP2013503850A (ja) * 2009-09-04 2013-02-04 マラン、ド、ビリエ 美容用スキンケアの方法および組成物
WO2012096081A1 (ja) * 2011-01-15 2012-07-19 株式会社資生堂 マッサージの評価方法及び装置、並びにプログラム及びコンピュータ読み取り可能な記憶媒体
JP2017192517A (ja) * 2016-04-19 2017-10-26 敏晃 藤原 美顔器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Launch of IoT Mirror "HiMirror-Professional" (BtoB version) that measures face proportion, blemish density, redness, etc. and makes next generation counseling possible", 11 November 2019 (2019-11-11), pages 1 - 3, XP009533933, Retrieved from the Internet <URL:URL:https://prtimes.jp/main/html/rd/p/00 0000004.000049876.html> [retrieved on 20220301] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113707269A (zh) * 2021-08-31 2021-11-26 平安科技(深圳)有限公司 经络按摩方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JP7340880B2 (ja) 2023-09-08
CN115697276A (zh) 2023-02-03
JPWO2021131072A1 (ja) 2021-07-01
JP2023118795A (ja) 2023-08-25
WO2021131072A8 (ja) 2022-10-20

Similar Documents

Publication Publication Date Title
JP6985403B2 (ja) 年齢容姿シミュレーションのための方法
US11348366B2 (en) Apparatus and method for determining cosmetic skin attributes
US11416988B2 (en) Apparatus and method for visualizing visually imperceivable cosmetic skin attributes
JP2016101365A (ja) 皺ケア支援装置および皺ケア支援方法
Zhang et al. Simultaneous detection of blink and heart rate using multi-channel ICA from smart phone videos
JP2023118795A (ja) マッサージ評価方法、マッサージ評価装置、およびマッサージ評価プログラム
WO2017065313A1 (ja) 有用情報提示装置
JP7477678B2 (ja) 皮膚の歪み測定方法
KR101949152B1 (ko) 피부상태 진단 방법 및 장치와 이를 이용한 피부상태 적합 화장정보 제공 방법
JP7442171B2 (ja) 画像処理システム、画像処理方法、および画像処理プログラム
JP7442172B2 (ja) 画像処理システム、画像処理方法、および画像処理プログラム
JP7442173B2 (ja) 画像処理システム、画像処理方法、および画像処理プログラム
JP2017113140A (ja) 肌状態評価方法
WO2012096081A1 (ja) マッサージの評価方法及び装置、並びにプログラム及びコンピュータ読み取り可能な記憶媒体
CN114632274B (zh) 一种超声波美容、减脂、纤体装置及方法
JP6515459B2 (ja) トータル美容アドバイス方法
JP6201520B2 (ja) 生理指標を用いる視線分析システムおよび方法
EP4376672A1 (en) Haircare monitoring and feedback
EP4377820A1 (en) Personal care monitoring and feedback
Feng et al. Quantifying the makeup effect in female faces and its applications for age estimation
CN111798977A (zh) 一种适合家用的皮肤治疗、护理方法及商业模式
JPWO2020115922A1 (ja) 美容促進装置、美容促進システム、美容促進方法、および美容促進プログラム
JP7023529B2 (ja) 美容促進装置、美容促進方法、および美容促進プログラム
JP2021129977A (ja) いきいきとした顔の度合い推定方法、いきいきとした顔の度合い推定装置、及びいきいきとした顔の度合い推定プログラム
Tobar et al. Skinly: A novel handheld IoT device for validating biophysical skin characteristics

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19957467

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021566768

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19957467

Country of ref document: EP

Kind code of ref document: A1