WO2022118801A1 - 毛髪評価方法、プログラム、コンピュータ、および毛髪評価システム - Google Patents

毛髪評価方法、プログラム、コンピュータ、および毛髪評価システム Download PDF

Info

Publication number
WO2022118801A1
WO2022118801A1 PCT/JP2021/043712 JP2021043712W WO2022118801A1 WO 2022118801 A1 WO2022118801 A1 WO 2022118801A1 JP 2021043712 W JP2021043712 W JP 2021043712W WO 2022118801 A1 WO2022118801 A1 WO 2022118801A1
Authority
WO
WIPO (PCT)
Prior art keywords
hair
image
region
division
evaluation
Prior art date
Application number
PCT/JP2021/043712
Other languages
English (en)
French (fr)
Inventor
雅哉 ▲高▼木
崇紀 杉元
紗織 丹野
真未 三好
学 大山
Original Assignee
株式会社資生堂
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社資生堂 filed Critical 株式会社資生堂
Priority to JP2022566909A priority Critical patent/JPWO2022118801A1/ja
Priority to CN202180074132.7A priority patent/CN116648721A/zh
Publication of WO2022118801A1 publication Critical patent/WO2022118801A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to a hair evaluation method, a program, a computer, and a hair evaluation system.
  • the area for evaluating the hair in the photographed image is visually determined by a person. Therefore, there may be a discrepancy between the area that should be originally evaluated and the area that was actually evaluated. As a result, the hair cannot be evaluated accurately.
  • a method is to scan a predetermined range of images taken by the user's head in a certain direction to measure a hair portion, and to scan the hair portion in the fixed direction in the image. This includes detecting a region occupied by the hair portion having the minimum proportion, and determining a region occupied by the hair portion having the minimum proportion as a hair division.
  • the accuracy of hair evaluation can be improved.
  • the hair division indicates a part where the hair is divided or a part where the hair is divided, and usually means a region where the hair is divided in opposite directions. .. That is, the hair is divided in opposite directions with the hair division as a boundary.
  • “divided in opposite directions” includes the case where the hair flow (direction from the root of the hair to the tip of the hair) intersects perpendicularly to the parting of the hair, and the hair flow is the hair. It also includes the case where the direction intersects diagonally with respect to the division. In the latter part, an example of hair division will be described with reference to FIG. 9.
  • the hair division may be a division made for hair evaluation or a naturally occurring division.
  • the "hair coverage ratio” means the ratio of the area occupied by the hair portion in the image. For example, if the diameter of the hair is the same, it is estimated that the larger the number of hairs, the larger the hair coverage. Further, for example, if the number of hairs is the same, it is estimated that the larger the diameter of the hair, the larger the hair coverage.
  • FIG. 1 is an overall configuration diagram (Example 1) according to an embodiment of the present invention.
  • the hair evaluation terminal 10 can acquire an image taken by the image pickup device 20. Each will be described below.
  • the hair evaluation terminal 10 is a computer for evaluating hair.
  • the hair evaluation terminal 10 determines the hair division in the image taken by the image pickup apparatus 20. Further, the hair evaluation terminal 10 can evaluate the hair by using the hair division.
  • the hair evaluation terminal 10 is a personal computer, a tablet terminal, a smartphone, or the like.
  • the image pickup device 20 is a device for photographing hair. Specifically, the image pickup apparatus 20 photographs the user's head.
  • the image pickup device 20 is a digital camera or the like.
  • FIG. 2 is an overall configuration diagram (Example 2) according to an embodiment of the present invention.
  • the hair evaluation system 1 includes a hair evaluation terminal 10, an image pickup device 20, and a hair evaluation server 30.
  • the hair evaluation terminal 10 can acquire an image taken by the image pickup device 20.
  • the hair evaluation terminal 10 and the hair evaluation server 30 can send and receive data to and from each other via an arbitrary network. Each will be described below.
  • the hair evaluation terminal 10 transmits the image taken by the image pickup device 20 to the hair evaluation server 30. Further, the hair evaluation terminal 10 receives information on the hair division from the hair evaluation server 30. Further, the hair evaluation terminal 10 can receive hair evaluation information (for example, hair coverage) from the hair evaluation server 30.
  • the hair evaluation terminal 10 is a personal computer, a tablet terminal, a smartphone, or the like.
  • the image pickup device 20 is a device for photographing hair. Specifically, the image pickup apparatus 20 photographs the user's head.
  • the image pickup device 20 is a digital camera or the like.
  • the hair evaluation server 30 is a computer for evaluating hair.
  • the hair evaluation server 30 receives the image taken by the image pickup apparatus 20 from the hair evaluation terminal 10. Further, the hair evaluation server 30 determines the hair division in the image taken by the image pickup apparatus 20. Further, the hair evaluation server 30 transmits information on the hair division to the hair evaluation terminal 10. Further, the hair evaluation server 30 can evaluate the hair by using the hair division. In addition, the hair evaluation server 30 can transmit hair evaluation information (for example, hair coverage) to the hair evaluation terminal 10.
  • the hair evaluation server 30 is a server including one or a plurality of computers.
  • the hair evaluation terminal 10 and the image pickup device 20 have been described as separate devices in FIGS. 1 and 2, the hair evaluation terminal 10 and the image pickup device 20 are combined into one device (for example, a tablet terminal with a camera). It may be implemented with.
  • FIG. 3 is a functional block diagram of a hair evaluation terminal 10 (in the case of Example 1 of FIG. 1) and a hair evaluation server 30 (in the case of Example 2 of FIG. 2) according to an embodiment of the present invention.
  • the hair evaluation terminal 10 and the hair evaluation server 30 include an image acquisition unit 101, an angle correction unit 102, a hair identification unit 103, a measurement unit 104, a detection unit 105, and a part determination unit.
  • 106, a range setting unit 107, and a hair evaluation unit 108 can be provided.
  • the hair evaluation terminal 10 and the hair evaluation server 30 execute the program to execute the image acquisition unit 101, the angle correction unit 102, the hair identification unit 103, the measurement unit 104, the detection unit 105, the division determination unit 106, and the range setting. It can function as a unit 107 and a hair evaluation unit 108.
  • the image acquisition unit 101 acquires an image taken by the image pickup device 20.
  • the image is an image of the head of the user whose hair is evaluated.
  • the photographer photographs a predetermined area of the user's head.
  • the predetermined range is a range visually determined by the photographer based on the mark on the user's scalp.
  • the angle correction unit 102 includes the angle of a predetermined shape and a region of a predetermined size (hereinafter, also referred to as “frame”) in the image acquired by the image acquisition unit 101, and the angle of the image acquired by the image acquisition unit 101. , Is corrected. Specifically, the angle correction unit 102 specifies the angle (direction) of the hair division in the image taken by the image pickup apparatus 20. The angle correction unit 102 specifies the angle of the hair division according to an instruction (instruction based on the position of pores or the like) from the operator of the hair evaluation terminal 10 or the hair evaluation server 30, or analyzes the image. You can specify the angle of the hair part. Further, the angle correction unit 102 rotates the frame or the image so that the angle of the frame and the angle of the hair division match.
  • frame a region of a predetermined size
  • the hair specifying unit 103 specifies the hair portion of the image acquired by the image acquisition unit 101.
  • the hair specifying unit 103 can specify the hair portion by binarizing the image acquired by the image acquisition unit 101.
  • the measuring unit 104 scans the image acquired by the image acquiring unit 101 in a certain direction to measure the hair portion. Specifically, the measuring unit 104 measures the hair coverage in a predetermined shape and a predetermined size region (frame) in the image.
  • the detection unit 105 detects a region (that is, a frame having the minimum hair coverage) in the image in which the hair portion occupies the minimum ratio by scanning the measuring unit 104 in a certain direction.
  • the part division determination unit 106 determines a region detected by the detection unit 105 in which the ratio occupied by the hair portion is the smallest as a hair division.
  • the range setting unit 107 sets the area including the hair division as the area for evaluating the hair.
  • the range setting unit 107 can set a region obtained by adding an arbitrary region to the region determined as the hair division as a region for evaluating the hair.
  • the hair evaluation unit 108 evaluates the hair.
  • the hair evaluation unit 108 can display the evaluation result on the display device of the hair evaluation terminal 10.
  • the hair evaluation unit 108 can evaluate the user's hair based on the hair portion in the region including the hair division. For example, the hair evaluation unit 108 can calculate the user's hair coverage.
  • the hair evaluation unit 108 can evaluate the change in the user's hair based on the time-series data of the hair portion in the region including the hair division. For example, the hair evaluation unit 108 can evaluate that the user's hair coverage has increased, the user's hair coverage has decreased, the user's hair coverage has not changed, and the like.
  • FIG. 4 is a flowchart of the hair evaluation process according to the embodiment of the present invention.
  • step 1 (S1) the image acquisition unit 101 acquires an image taken by the image pickup apparatus 20.
  • step 2 the angle correction unit 102 corrects the angle of the region (frame) having a predetermined shape and a predetermined size in the image acquired in S1 and the angle of the image acquired in S1. do. Note that S2 may be omitted.
  • step 3 (S3) the hair specifying unit 103 identifies the hair portion of the image acquired in S1.
  • S2 and S3 may be reversed.
  • step 4 (S4) the measuring unit 104 measures the hair portion by scanning the image whose angle has been corrected in S2 in a certain direction.
  • step 5 (S5) the detection unit 105 detects the region in which the hair portion occupies the smallest proportion in the image by scanning in the fixed direction of S4.
  • step 6 (S6) the division determination unit 106 determines the region in which the proportion of the hair portion detected in S5 is the smallest as the hair division.
  • step 7 (S7) the range setting unit 107 sets the region including the hair division determined in S6 as the region for evaluating the hair.
  • step 8 (S8) the hair evaluation unit 108 evaluates the user's hair based on the hair portion in the region set in S7.
  • FIG. 5 is a flowchart of an angle correction process (S2 in FIG. 4) according to an embodiment of the present invention.
  • step 11 (S11) the angle correction unit 102 specifies the angle of the hair division in the image taken by the image pickup device 20.
  • the angle correction unit 102 specifies the angle of the hair division according to an instruction (instruction based on the position of pores or the like) from the operator of the hair evaluation terminal 10 or the hair evaluation server 30, or analyzes the image. You can specify the angle of the hair part.
  • step 12 (S12) the angle correction unit 102 sets the frame or so that the angle of the region (frame) having a predetermined shape and a predetermined size in the image matches the angle of the hair division specified in S11. Rotate the image.
  • FIG. 6 is a transition diagram of an image according to an embodiment of the present invention.
  • the image acquisition unit 101 acquires an image taken by the image pickup apparatus 20.
  • the [photographed] image on the upper left of FIG. 6 is an image acquired by the image acquisition unit 101.
  • the image acquisition unit 101 converts the acquired image into a 32-bit black-and-white image.
  • the image of [Convert to 32-bit black-and-white] in the upper right of FIG. 6 is an image obtained by converting the image of [Shooting] into a 32-bit black-and-white image by the image acquisition unit 101.
  • the angle correction unit 102 corrects the angle by designating the angle of the hair division.
  • the image of [Specifying the angle of the parting] at the lower left of FIG. 6 is an image in which the angle correction unit 102 specifies the angle of the parting of the hair.
  • the angle correction unit 102 specifies the angle of the hair division according to an instruction (instruction based on the position of pores or the like) from the operator of the hair evaluation terminal 10 or the hair evaluation server 30, or analyzes the image. You can specify the angle of the hair part.
  • the hair specifying portion 103 identifies the hair portion by binarization.
  • the [binarized] image at the lower right of FIG. 6 is an image obtained by binarizing the hair specifying portion 103.
  • FIG. 7 is a diagram for explaining scanning according to an embodiment of the present invention.
  • the measuring unit 104 can move the rectangular frame having long sides along the hair division in the direction in which the hair is divided.
  • the range setting unit 107 extends the region determined as the hair division in the direction perpendicular to the hair division (in the example of FIG. 7, the region on both long sides is added) to the hair. It can be set as an area to be evaluated.
  • the angle correction unit 102 designates the angle of the hair division in the image taken by the image pickup apparatus 20 ([designation of the division angle] in FIG. 6). Then, the angle correction unit 102 rotates the frame or the image so that the angle of the frame and the angle of the hair division match (in the example of FIG. 7, the long side of the frame and the hair division are parallel). Let me.
  • FIG. 8 is a diagram for explaining the designation of the angle of the division according to the embodiment of the present invention.
  • the angle correction unit 102 can analyze the image and specify the angle of the hair division. Specifically, the angle correction unit 102 scans each of the plurality of ranges in a fixed direction (in the example of FIG. 8, scans each of the three vertically long rectangular ranges in the vertical direction), analyzes the image, and analyzes the hair. A region assumed to be a division (for example, a region determined based on a 32-bit black-and-white image; in the example of FIG. 8, three regions indicated by arrows) is detected. The angle correction unit 102 uses a line connecting the detected regions (in the example of FIG. 8, a solid line connecting the three regions) as a line indicating the angle of the hair division.
  • a line connecting the detected regions in the example of FIG. 8, a solid line connecting the three regions
  • FIG. 9 is a diagram for explaining a hair division according to an embodiment of the present invention.
  • the hair division may be a boundary when the hair flow (direction from the root of the hair to the tip of the hair) intersects the hair division perpendicularly (in the case of (A) in FIG. 9). , When the hair flow intersects the hair part diagonally (greater than 0 degrees and less than 90 degrees) (when the hair flow is symmetrical about the part as shown in FIG. 9B), and , When the hair flow is asymmetric about the division as shown in FIG. 9 (C)).
  • FIG. 10 is a diagram for explaining a hair covering ratio according to an embodiment of the present invention. As shown in FIG. 10, the region having the smallest hair coverage is determined as the hair division. The hair coverage increases as the distance from the region determined as the hair division (moving toward the "upper image” direction in FIG. 10 or toward the "lower image” direction in FIG. 10).
  • FIG. 11 is a diagram for explaining the deviation in the vertical direction with respect to the hair division.
  • the three images in which the head of FIG. 11 is taken are the same image.
  • the frame In the [reference position] on the right side of FIG. 11, the frame is arranged at the reference position.
  • the frame was moved by 75pixel (0.5 mm) in the vertical direction (Y-axis direction in FIG. 11) on the scalp with respect to the hair division from the reference position. It is placed in a position.
  • [-150pixel] on the left side of FIG. 11 the frame is moved by 150pixel (1 mm) in the vertical direction (Y-axis direction in FIG. 11) on the scalp with respect to the hair division from the reference position. Have been placed.
  • the hair coverage in the frame was 10.872%.
  • the hair coverage in the frame was 11.057%, and the ratio to the hair coverage at the [reference position] was 1.017.
  • the hair coverage in the frame was 11.655%, and the ratio to the hair coverage at the [reference position] was 1.072.
  • the hair coverage increased as the frame moved away from the hair division.
  • FIG. 12 is a diagram for explaining an oblique deviation with respect to the hair division.
  • the frame In the [reference angle] of FIG. 12, the frame is arranged at a reference angle.
  • the frame In [-10 °] of FIG. 12, the frame is arranged so as to be rotated 10 ° diagonally (in the Y-axis direction of FIG. 12) on the scalp with respect to the hair division with respect to the reference angle.
  • the hair coverage in the frame was 10.821%.
  • the hair coverage in the frame was 11.543%, and the ratio to the hair coverage at [reference angle] was 1.067. As described above, even in the same image, when the frame was slanted with respect to the hair division, the hair coverage increased.
  • FIG. 13 is a diagram for explaining binarization according to an embodiment of the present invention.
  • the image is binarized in a plurality of regions (for example, the binarized regions 1 and 2 in FIG. 13). It is possible to divide the binarization area 2, the binarization area 3, etc., hereinafter referred to as the binarization area) and binarize each binarization area using the threshold value set for each binarization area. can. Hereinafter, it will be described in detail.
  • pixels whose pixel value is equal to or higher than the threshold value are converted to white, and pixels whose pixel value is less than the threshold value (the part assumed to be hair) are converted to black. Convert to.
  • the threshold value is set low (on the black side) due to the influence of the darkened portion, so that the light-colored hair in the bright portion cannot be detected). Therefore, if the entire image is binarized at one time (that is, with one threshold value), there are areas where erroneous detection occurs. Therefore, it is desirable to binarize each area using a threshold value suitable for each area.
  • the process of specifying the hair portion by binarization can be performed for each binarized region in the image (note that the scanning frame (frame in FIG. 7). ) Is set as the binarized region, and the process of measuring the hair coverage (step 4 in FIG. 4) may also be performed for each binarized region).
  • Each binarization region and each threshold value may be those specified and set by the operator of the hair evaluation terminal 10 or the hair evaluation server 30, or those set by the hair evaluation terminal 10 or the hair evaluation server 30. But it may be.
  • the detection unit 105 and the parting determination unit 106 are binarized with the minimum hair coverage from the results of measurement of the hair coverage in each binarization region.
  • the area is determined as a hair part.
  • the range setting unit 107 and the hair evaluation unit 108 use a region obtained by adding an arbitrary region to the binarization region determined as the hair division as a region for evaluating hair. Evaluate the hair after setting (calculate the hair coverage in the area where the hair is evaluated).
  • the binarized area is set to 2/3 of the number of pixels on the vertical axis of the image (2.0 cm) and the number of pixels on the vertical axis.
  • the size was halved (1.5 cm) and the size was 1/4 of the number of pixels on the vertical axis (0.75 cm)
  • the binarized area has a size of 1/6 (0.5 cm) of the number of pixels on the vertical axis of the image and a size of 1/20 (0.15 cm) of the number of pixels on the vertical axis, false detection in the binarized area is performed.
  • the region occupied by the hair portion is determined as the hair division, and the hair is evaluated based on the hair portion of the region including the hair division. Therefore, the hair can be evaluated correctly without any deviation caused by the visual determination of the region for evaluating the hair by a person. Moreover, since the hair in the same region can always be evaluated, when the hair is evaluated over time, the change in the hair can be evaluated correctly.
  • the region where the hair portion occupies the minimum ratio at each position is detected, and the region where the hair portion occupies the minimum ratio among those regions is the hair. It may be decided as a division of.
  • FIG. 14 is a block diagram showing an example of the hardware configuration of the hair evaluation terminal 10 and the hair evaluation server 30 according to the embodiment of the present invention.
  • the hair evaluation terminal 10 and the hair evaluation server 30 have a CPU (Central Processing Unit) 1001, a ROM (Read Only Memory) 1002, and a RAM (Random Access Memory) 1003.
  • the CPU 1001, ROM 1002, and RAM 1003 form a so-called computer.
  • the hair evaluation terminal 10 and the hair evaluation server 30 can have an auxiliary storage device 1004, a display device 1005, an operation device 1006, an I / F (Interface) device 1007, and a drive device 1008.
  • the hardware of the hair evaluation terminal 10 and the hair evaluation server 30 are connected to each other via the bus B.
  • the CPU 1001 is an arithmetic device that executes various programs installed in the auxiliary storage device 1004.
  • ROM 1002 is a non-volatile memory.
  • the ROM 1002 functions as a main storage device for storing various programs, data, and the like necessary for the CPU 1001 to execute various programs installed in the auxiliary storage device 1004.
  • the ROM 1002 functions as a main storage device for storing boot programs such as BIOS (Basic Input / Output System) and EFI (Extensible Firmware Interface).
  • RAM1003 is a volatile memory such as DRAM (Dynamic RandomAccessMemory) or SRAM (StaticRandomAccessMemory).
  • the RAM 1003 functions as a main storage device that provides a work area to be expanded when various programs installed in the auxiliary storage device 1004 are executed by the CPU 1001.
  • the auxiliary storage device 1004 is an auxiliary storage device that stores various programs and information used when various programs are executed.
  • the display device 1005 is a display device that displays the internal state of the hair evaluation terminal 10 and the hair evaluation server 30.
  • the operation device 1006 is an input device in which the administrator of the hair evaluation terminal 10 and the hair evaluation server 30 inputs various instructions to the hair evaluation terminal 10 and the hair evaluation server 30.
  • the I / F device 1007 is a communication device for connecting to a network and communicating with the hair evaluation terminal 10 and the hair evaluation server 30.
  • the drive device 1008 is a device for setting the storage medium 1009.
  • the storage medium 1009 referred to here includes a medium such as a CD-ROM, a flexible disk, a magneto-optical disk, or the like, which records information optically, electrically, or magnetically. Further, the storage medium 1009 may include a semiconductor memory for electrically recording information such as an EPROM (ErasableProgrammableReadOnlyMemory) and a flash memory.
  • EPROM ErasableProgrammableReadOnlyMemory
  • the various programs installed in the auxiliary storage device 1004 are installed, for example, by setting the distributed storage medium 1009 in the drive device 1008 and reading the various programs recorded in the storage medium 1009 by the drive device 1008. Will be done.
  • various programs installed in the auxiliary storage device 1004 may be installed by being downloaded from the network via the I / F device 1007.
  • Hair evaluation system 10 Hair evaluation terminal 20 Imaging device 30 Hair evaluation server 101 Image acquisition unit 102 Angle correction unit 103 Hair identification unit 104 Measurement unit 105 Detection unit 106 Parting determination unit 107 Range setting unit 108 Hair evaluation unit 1001 CPU 1002 ROM 1003 RAM 1004 Auxiliary storage device 1005 Display device 1006 Operation device 1007 I / F device 1008 Drive device 1009 Storage medium

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Biochemistry (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Immunology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

毛髪の評価の精度を向上させる。本発明の一実施形態である方法は、ユーザの頭部が撮影された所定の範囲の画像を一定方向に走査して毛髪部分を測定することと、前記一定方向の走査によって、前記画像内で前記毛髪部分が占める割合が最小である領域を検出することと、前記毛髪部分が占める割合が最小である領域を前記毛髪の分け目として決定することと、を含む。

Description

毛髪評価方法、プログラム、コンピュータ、および毛髪評価システム
 本発明は、毛髪評価方法、プログラム、コンピュータ、および毛髪評価システムに関する。
 従来、育毛剤や発毛剤の効果の確認等において、毛髪の本数や毛髪の直径等により毛髪を評価することが知られている。毛髪を評価する際に、頭部が撮影された画像が用いられることがある(特許文献1参照)。
特許第5812719号公報
 しかしながら、従来の手法では、人が目視により、撮影した画像において毛髪を評価する領域を決定していた。そのため、本来評価されるべき領域と、実際に評価された領域と、にズレが生じることがある。その結果、毛髪を正確に評価することができなくなってしまう。
 そこで、本発明では、毛髪の評価の精度を向上させることを目的とする。
 本発明の一実施形態である方法は、ユーザの頭部が撮影された所定の範囲の画像を一定方向に走査して毛髪部分を測定することと、前記一定方向の走査によって、前記画像内で前記毛髪部分が占める割合が最小である領域を検出することと、前記毛髪部分が占める割合が最小である領域を前記毛髪の分け目として決定することと、を含む。
 本発明によれば、毛髪の評価の精度を向上させることができる。
本発明の一実施形態に係る全体の構成図(実施例1)である。 本発明の一実施形態に係る全体の構成図(実施例2)である。 本発明の一実施形態に係る毛髪評価端末および毛髪評価サーバの機能ブロック図である。 本発明の一実施形態に係る毛髪評価処理のフローチャートである。 本発明の一実施形態に係る角度補正処理のフローチャートである。 本発明の一実施形態に係る画像の遷移図である。 本発明の一実施形態に係る走査について説明するための図である。 本発明の一実施形態に係る分け目の角度の指定について説明するための図である。 本発明の一実施形態に係る毛髪の分け目について説明するための図である。 本発明の一実施形態に係る毛髪被覆率について説明するための図である。 毛髪の分け目に対して垂直方向のズレについて説明するための図である。 毛髪の分け目に対して斜めのズレについて説明するための図である。 本発明の一実施形態に係る二値化について説明するための図である。 本発明の一実施形態に係る毛髪評価端末および毛髪評価サーバのハードウェア構成の一例を示すブロック図である。
 以下、図面に基づいて本発明の実施の形態を説明する。
<用語の説明>
・本明細書において、「毛髪の分け目」とは、毛髪を分けた箇所または毛髪が分かれている箇所を示し、通常、毛髪が互いに反対方向に分かれているときに境となる領域のことをいう。つまり、毛髪は、毛髪の分け目を境に互いに反対方向に分かれている。なお、"互いに反対方向に分かれている"とは、毛流(毛の根本から毛先への方向)が毛髪の分け目に対して垂直に交わる方向である場合も含むし、毛流が毛髪の分け目に対して斜めに交わる方向である場合も含む。後段で、図9を参照しながら、毛髪の分け目の例を説明する。なお、毛髪の分け目は、毛髪の評価のために作られた分け目であってもよいし、自然に生じた分け目であってもよい。
・本明細書において、「毛髪被覆率」とは、画像内で毛髪部分が占める面積の割合のことをいう。例えば、毛髪の直径が同じであれば、毛髪の本数が多いユーザほど、毛髪被覆率が大きいと推定される。また、例えば、毛髪の本数が同じであれば、毛髪の直径が大きいユーザほど、毛髪被覆率が大きいと推定される。
<全体の構成>
 全体の構成を実施例1と実施例2とに分けて説明する。
<<実施例1>>
 図1は、本発明の一実施形態に係る全体の構成図(実施例1)である。毛髪評価端末10は、撮像装置20が撮影した画像を取得することができる。以下、それぞれについて説明する。
 毛髪評価端末10は、毛髪を評価するためのコンピュータである。毛髪評価端末10は、撮像装置20が撮影した画像において、毛髪の分け目を決定する。さらに、毛髪評価端末10は、毛髪の分け目を用いて、毛髪を評価することができる。例えば、毛髪評価端末10は、パーソナルコンピュータ、タブレット端末、スマートフォン等である。
 撮像装置20は、毛髪を撮影するための装置である。具体的には、撮像装置20は、ユーザの頭部を撮影する。例えば、撮像装置20は、デジタルカメラ等である。
<<実施例2>>
 図2は、本発明の一実施形態に係る全体の構成図(実施例2)である。毛髪評価システム1は、毛髪評価端末10と、撮像装置20と、毛髪評価サーバ30と、を含む。毛髪評価端末10は、撮像装置20が撮影した画像を取得することができる。毛髪評価端末10と毛髪評価サーバ30とは、任意のネットワークを介して、互いにデータを送受信することができる。以下、それぞれについて説明する。
 毛髪評価端末10は、撮像装置20が撮影した画像を、毛髪評価サーバ30へ送信する。また、毛髪評価端末10は、毛髪の分け目の情報を、毛髪評価サーバ30から受信する。さらに、毛髪評価端末10は、毛髪の評価の情報(例えば、毛髪被覆率)を、毛髪評価サーバ30から受信することができる。例えば、毛髪評価端末10は、パーソナルコンピュータ、タブレット端末、スマートフォン等である。
 撮像装置20は、毛髪を撮影するための装置である。具体的には、撮像装置20は、ユーザの頭部を撮影する。例えば、撮像装置20は、デジタルカメラ等である。
 毛髪評価サーバ30は、毛髪を評価するためのコンピュータである。毛髪評価サーバ30は、撮像装置20が撮影した画像を、毛髪評価端末10から受信する。また、毛髪評価サーバ30は、撮像装置20が撮影した画像において、毛髪の分け目を決定する。また、毛髪評価サーバ30は、毛髪の分け目の情報を、毛髪評価端末10へ送信する。さらに、毛髪評価サーバ30は、毛髪の分け目を用いて、毛髪を評価することができる。また、毛髪評価サーバ30は、毛髪の評価の情報(例えば、毛髪被覆率)を、毛髪評価端末10へ送信することができる。例えば、毛髪評価サーバ30は、1つまたは複数のコンピュータからなるサーバである。
 なお、図1および図2では、毛髪評価端末10と撮像装置20とを別々の機器として説明したが、毛髪評価端末10と撮像装置20とを1つの機器(例えば、カメラ付きのタブレット端末等)で実装してもよい。
<機能ブロック>
 図3は、本発明の一実施形態に係る毛髪評価端末10(図1の実施例1の場合)および毛髪評価サーバ30(図2の実施例2の場合)の機能ブロック図である。図3に示されるように、毛髪評価端末10および毛髪評価サーバ30は、画像取得部101と、角度補正部102と、毛髪特定部103と、測定部104と、検出部105と、分け目決定部106と、範囲設定部107と、毛髪評価部108と、を備えることができる。また、毛髪評価端末10および毛髪評価サーバ30は、プログラムを実行することで、画像取得部101、角度補正部102、毛髪特定部103、測定部104、検出部105、分け目決定部106、範囲設定部107、毛髪評価部108として機能することができる。
 画像取得部101は、撮像装置20が撮影した画像を取得する。画像は、毛髪を評価されるユーザの頭部が撮影された画像である。撮影者は、ユーザの頭部の所定の範囲を撮影する。例えば、所定の範囲は、ユーザの頭皮上の印をもとに撮影者が目視により決定した範囲である。
 角度補正部102は、画像取得部101が取得した画像内の所定の形および所定の大きさの領域(以下、「枠」とも呼ぶ)の角度と、画像取得部101が取得した画像の角度と、を補正する。具体的には、角度補正部102は、撮像装置20が撮影した画像において、毛髪の分け目の角度(方向)を指定する。なお、角度補正部102は、毛髪評価端末10または毛髪評価サーバ30の操作者からの指示(毛穴の位置等に基づいた指示)に応じて毛髪の分け目の角度を指定する、あるいは、画像を解析して毛髪の分け目の角度を指定することができる。また、角度補正部102は、枠の角度と毛髪の分け目の角度とが一致するよう、枠あるいは画像を回転させる。
 毛髪特定部103は、画像取得部101が取得した画像の毛髪部分を特定する。毛髪特定部103は、画像取得部101が取得した画像を二値化することによって、毛髪部分を特定することができる。
 測定部104は、画像取得部101が取得した画像を一定方向に走査して毛髪部分を測定する。具体的には、測定部104は、画像内の所定の形および所定の大きさの領域(枠)内の毛髪被覆率を測定する。
 検出部105は、測定部104の一定方向の走査によって、画像内で毛髪部分が占める割合が最小である領域(つまり、毛髪被覆率が最小である枠)を検出する。
 分け目決定部106は、検出部105が検出した、毛髪部分が占める割合が最小である領域を、毛髪の分け目として決定する。
 範囲設定部107は、毛髪の分け目を含む領域を、毛髪を評価する領域として設定する。範囲設定部107は、毛髪の分け目として決定された領域に任意の領域を加えた領域を、毛髪を評価する領域として設定することができる。
 毛髪評価部108は、毛髪を評価する。例えば、毛髪評価部108は、評価の結果を毛髪評価端末10の表示装置に表示することができる。
 具体的には、毛髪評価部108は、毛髪の分け目を含む領域の毛髪部分に基づいて、ユーザの毛髪を評価することができる。例えば、毛髪評価部108は、ユーザの毛髪被覆率を算出することができる。
 具体的には、毛髪評価部108は、毛髪の分け目を含む領域の毛髪部分の時系列データに基づいて、ユーザの毛髪の変化を評価することができる。例えば、毛髪評価部108は、ユーザの毛髪被覆率が増加した、ユーザの毛髪被覆率が減少した、ユーザの毛髪被覆率が変化しなかった等を評価することができる。
<方法>
 以下、図4を参照しながら毛髪評価処理について説明し、図5を参照しながら角度補正処理について説明する。
<<毛髪評価処理>>
 図4は、本発明の一実施形態に係る毛髪評価処理のフローチャートである。
 ステップ1(S1)において、画像取得部101は、撮像装置20が撮影した画像を取得する。
 ステップ2(S2)において、角度補正部102は、S1で取得された画像内の所定の形および所定の大きさの領域(枠)の角度と、S1で取得された画像の角度と、を補正する。なお、S2は省略されうる。
 ステップ3(S3)において、毛髪特定部103は、S1で取得された画像の毛髪部分を特定する。
 なお、S2とS3は、順序が逆であってもよい。
 ステップ4(S4)において、測定部104は、S2で角度を補正された画像を一定方向に走査して毛髪部分を測定する。
 ステップ5(S5)において、検出部105は、S4の一定方向の走査によって、画像内で毛髪部分が占める割合が最小である領域を検出する。
 ステップ6(S6)において、分け目決定部106は、S5で検出された毛髪部分が占める割合が最小である領域を、毛髪の分け目として決定する。
 ステップ7(S7)において、範囲設定部107は、S6で決定された毛髪の分け目を含む領域を、毛髪を評価する領域として設定する。
 ステップ8(S8)において、毛髪評価部108は、S7で設定された領域の毛髪部分に基づいて、ユーザの毛髪を評価する。
<<角度補正処理>>
 図5は、本発明の一実施形態に係る角度補正処理(図4のS2)のフローチャートである。
 ステップ11(S11)において、角度補正部102は、撮像装置20が撮影した画像において、毛髪の分け目の角度を指定する。なお、角度補正部102は、毛髪評価端末10または毛髪評価サーバ30の操作者からの指示(毛穴の位置等に基づいた指示)に応じて毛髪の分け目の角度を指定する、あるいは、画像を解析して毛髪の分け目の角度を指定することができる。
 ステップ12(S12)において、角度補正部102は、画像内の所定の形および所定の大きさの領域(枠)の角度とS11で指定された毛髪の分け目の角度とが一致するよう、枠あるいは画像を回転させる。
 図6は、本発明の一実施形態に係る画像の遷移図である。
 まず、画像取得部101は、撮像装置20が撮影した画像を取得する。図6の左上の[撮影]の画像は、画像取得部101が取得した画像である。
 次に、画像取得部101は、取得した画像を32bitの白黒画像に変換する。図6の右上の[32bit白黒に変換]の画像は、画像取得部101が[撮影]の画像を32bitの白黒画像に変換した画像である。
 次に、角度補正部102は、毛髪の分け目の角度を指定して、角度を補正する。図6の左下の[分け目の角度の指定]の画像は、角度補正部102が毛髪の分け目の角度を指定した画像である。なお、角度補正部102は、毛髪評価端末10または毛髪評価サーバ30の操作者からの指示(毛穴の位置等に基づいた指示)に応じて毛髪の分け目の角度を指定する、あるいは、画像を解析して毛髪の分け目の角度を指定することができる。
 なお、[32bit白黒に変換]と[分け目の角度の指定]は、順序が逆であってもよい。
 次に、毛髪特定部103は、毛髪部分を二値化によって特定する。図6の右下の[二値化]の画像は、毛髪特定部103が二値化した画像である。
 図7は、本発明の一実施形態に係る走査について説明するための図である。図7に示されるように、測定部104は、毛髪の分け目に沿った長辺を有する長方形の枠を、毛髪が分かれている方向に移動させることができる。
 ここで、毛髪を評価する領域について詳細に説明する。範囲設定部107は、毛髪の分け目として決定された領域を毛髪の分け目に対して垂直方向に拡張した領域(図7の例では、両長辺側の領域が追加された領域)を、毛髪を評価する領域として設定することができる。
 ここで、角度の補正について詳細に説明する。角度補正部102は、撮像装置20が撮影した画像において、毛髪の分け目の角度を指定する(図6の[分け目の角度の指定])。そして、角度補正部102は、枠の角度と毛髪の分け目の角度とが一致するよう(図7の例では、枠の長辺と毛髪の分け目とが平行になるよう)、枠あるいは画像を回転させる。
 図8は、本発明の一実施形態に係る分け目の角度の指定について説明するための図である。角度補正部102は、画像を解析して毛髪の分け目の角度を指定することができる。具体的には、角度補正部102は、複数の範囲の各々を一定方向に走査(図8の例では、3つの縦長の長方形の範囲の各々を縦方向に走査)して画像解析し、毛髪の分け目と想定される領域(例えば、32bitの白黒画像をもとに判定された領域。図8の例では、矢印で示される3つの領域)を検出する。角度補正部102は、検出した領域を結んだ線(図8の例では、3つの領域が結ばれた実線)を、毛髪の分け目の角度を示す線とする。
 図9は、本発明の一実施形態に係る毛髪の分け目について説明するための図である。毛髪の分け目は、毛流(毛の根本から毛先への方向)が毛髪の分け目に対して垂直に交わる方向である場合(図9の(A)の場合)の境であってもよいし、毛流が毛髪の分け目に対して斜め(0度より大きく90度より小さい)に交わる方向である場合(図9の(B)のように毛流が分け目を中心に対称である場合、および、図9の(C)のように毛流が分け目を中心に非対称である場合)の境であってもよい。
 図10は、本発明の一実施形態に係る毛髪被覆率について説明するための図である。図10に示されるように、最も毛髪被覆率が小さい領域が毛髪の分け目として決定される。毛髪の分け目として決定された領域から離れるほど(図10の"画像上方"の方向に進むほど、あるいは、図10の"画像下方"の方向に進むほど)、毛髪被覆率は増加する。
 図11は、毛髪の分け目に対して垂直方向のズレについて説明するための図である。図11の頭部が撮影された3つの画像は、同一の画像である。図11の右側の[基準位置]では、枠が、基準となる位置に配置されている。図11の中央の[-75pixel]では、枠が、基準となる位置よりも、毛髪の分け目に対して頭皮上で垂直方向(図11のY軸方向)に75pixel(0.5mm)移動された位置に配置されている。図11の左側の[-150pixel]では、枠が、基準となる位置よりも、毛髪の分け目に対して頭皮上で垂直方向(図11のY軸方向)に150pixel(1mm)移動された位置に配置されている。
 [基準位置]では、枠内の毛髪被覆率が10.872パーセントであった。[-75pixel]では、枠内の毛髪被覆率が11.057パーセントであり、[基準位置]での毛髪被覆率に対する比率は1.017であった。[-150pixel]では、枠内の毛髪被覆率が11.655パーセントであり、[基準位置]での毛髪被覆率に対する比率は1.072であった。このように、同一の画像であっても、枠が毛髪の分け目から離れると、毛髪被覆率が増加した。
 図12は、毛髪の分け目に対して斜めのズレについて説明するための図である。図12の[基準角度]では、枠が、基準となる角度で配置されている。図12の[-10゜]では、枠が、基準となる角度よりも、毛髪の分け目に対して頭皮上で斜め(図12のY軸方向)に10゜回転されて配置されている。
 [基準角度]では、枠内の毛髪被覆率が10.821パーセントであった。[-10゜]では、枠内の毛髪被覆率が11.543パーセントであり、[基準角度]での毛髪被覆率に対する比率は1.067であった。このように、同一の画像であっても、枠が毛髪の分け目に対して斜めにずれると、毛髪被覆率が増加した。
<<二値化>>
 図13は、本発明の一実施形態に係る二値化について説明するための図である。本発明の一実施形態では、毛髪特定部103は、ユーザの頭部が撮影された画像を二値化するときに、該画像を複数の領域(例えば、図13の二値化領域1、二値化領域2、二値化領域3等。以下、二値化領域という)に分けて、二値化領域ごとに設定される閾値を用いて、二値化領域ごとに二値化することができる。以下、詳細に説明する。
 二値化処理では、画素値が閾値以上であるピクセル(頭皮であると想定される箇所)を白に変換し、画素値が閾値未満であるピクセル(毛髪であると想定される箇所)を黒に変換する。しかしながら、ユーザの頭部が撮影された画像において、毛髪量によっては、毛髪の重なりにより生じた影が頭皮部分の明るさを変えてしまい、誤検出(つまり、頭皮部分が毛髪部分であると誤検出される。また、暗くなる部分に影響を受けて閾値が低く(黒色側に)設定されてしまうことにより、明るい部分の色の薄い毛髪が検出されなくなる)が起こりうる。そのため、画像全体を一度に(つまり、一つの閾値で)二値化すると、誤検出が起こる領域があるため、各領域に適した閾値を用いて各領域を二値化することが望ましい。
 本発明の一実施形態では、二値化によって毛髪部分を特定する処理(図4のステップ3)を画像内の二値化領域ごとに行うことができる(なお、走査の枠(図7の枠)を二値化領域とすることにより、毛髪被覆率を測定する処理(図4のステップ4)も二値化領域ごとに行うようにしてもよい)。各二値化領域および各閾値は、毛髪評価端末10または毛髪評価サーバ30の操作者が指定して設定されたものでもよいし、あるいは、毛髪評価端末10または毛髪評価サーバ30により設定されたものでもよい。
 この実施形態では、図4のステップ5およびステップ6において、検出部105および分け目決定部106は、各二値化領域の毛髪被覆率の測定の結果から、毛髪被覆率が最小である二値化領域を毛髪の分け目として決定する。また、図4のステップ7およびステップ8において、範囲設定部107および毛髪評価部108は、毛髪の分け目として決定された二値化領域に任意の領域を加えた領域を、毛髪を評価する領域として設定のうえ毛髪を評価する(毛髪を評価する領域の毛髪被覆率を算出する)。
 なお、図13の画像(画像サイズ(6000pixel×4000pixel=4.5cm×3.0cm))において、二値化領域を画像の縦軸画素数の2/3のサイズ(2.0cm)、縦軸画素数の1/2のサイズ(1.5cm)、縦軸画素数の1/4サイズ(0.75cm)にした場合、二値化領域内に誤検出の部分が多く存在することが見出された。一方、二値化領域を画像の縦軸画素数の1/6(0.5cm)のサイズ、縦軸画素数の1/20(0.15cm)のサイズにした場合、二値化領域内の誤検出の部分は減少することが見出された。このように、二値化領域を小さくすると精度は高まっていくが、極端に小さく(例えば、10pixel=0.0075cmなど)すると、二値化を実施する回数を多くする必要が生じ、操作性が悪くなると想定される。
<効果>
 このように、本発明の一実施形態では、毛髪部分が占める割合が最小である領域を毛髪の分け目として決定し、毛髪の分け目を含む領域の毛髪部分に基づいて毛髪を評価する。そのため、毛髪を評価する領域を人が目視により決定することにより生じるズレが起こらず、毛髪を正しく評価することができる。また、常に同一の領域の毛髪を評価することができるので、経時的に毛髪を評価する場合、毛髪の変化を正しく評価することができる。
 なお、毛髪が互いに反対方向に分かれる位置を少しずつ変えながら各位置について毛髪部分が占める割合が最小である領域を検出し、それらの領域のなかで毛髪部分が占める割合が最小である領域を毛髪の分け目として決定してもよい。複数の位置の各位置についての最小の毛髪被覆率のうち最も小さい毛髪被覆率を用いることで、毛髪が互いに反対方向に分かれる位置のズレによる毛髪被覆率の誤差を抑えることができる。
 本発明の一実施形態では、外来治療で実施可能(毛髪カットや特別な設備不要)な治療効果評価方法を提供することにより、毛髪再生医療の普及に貢献することができる。
<ハードウェア構成>
 図14は、本発明の一実施形態に係る毛髪評価端末10および毛髪評価サーバ30のハードウェア構成の一例を示すブロック図である。
 毛髪評価端末10および毛髪評価サーバ30は、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003を有する。CPU1001、ROM1002、RAM1003は、いわゆるコンピュータを形成する。
 また、毛髪評価端末10および毛髪評価サーバ30は、補助記憶装置1004、表示装置1005、操作装置1006、I/F(Interface)装置1007、ドライブ装置1008を有することができる。なお、毛髪評価端末10および毛髪評価サーバ30の各ハードウェアは、バスBを介して相互に接続されている。
 CPU1001は、補助記憶装置1004にインストールされている各種プログラムを実行する演算デバイスである。
 ROM1002は、不揮発性メモリである。ROM1002は、補助記憶装置1004にインストールされている各種プログラムをCPU1001が実行するために必要な各種プログラム、データ等を格納する主記憶デバイスとして機能する。具体的には、ROM1002はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する、主記憶デバイスとして機能する。
 RAM1003は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリである。RAM1003は、補助記憶装置1004にインストールされている各種プログラムがCPU1001によって実行される際に展開される作業領域を提供する、主記憶デバイスとして機能する。
 補助記憶装置1004は、各種プログラムや、各種プログラムが実行される際に用いられる情報を格納する補助記憶デバイスである。
 表示装置1005は、毛髪評価端末10および毛髪評価サーバ30の内部状態等を表示する表示デバイスである。
 操作装置1006は、毛髪評価端末10および毛髪評価サーバ30の管理者が毛髪評価端末10および毛髪評価サーバ30に対して各種指示を入力する入力デバイスである。
 I/F装置1007は、ネットワークに接続し、毛髪評価端末10および毛髪評価サーバ30と通信を行うための通信デバイスである。
 ドライブ装置1008は記憶媒体1009をセットするためのデバイスである。ここでいう記憶媒体1009には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記憶媒体1009には、EPROM (Erasable Programmable Read Only Memory)、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
 なお、補助記憶装置1004にインストールされる各種プログラムは、例えば、配布された記憶媒体1009がドライブ装置1008にセットされ、該記憶媒体1009に記録された各種プログラムがドライブ装置1008により読み出されることでインストールされる。あるいは、補助記憶装置1004にインストールされる各種プログラムは、I/F装置1007を介して、ネットワークよりダウンロードされることでインストールされてもよい。
 以上、本発明の実施例について詳述したが、本発明は上述した特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
 本国際出願は2020年12月3日に出願された日本国特許出願2020-201190号に基づく優先権を主張するものであり、2020-201190号の全内容をここに本国際出願に援用する。
1 毛髪評価システム
10 毛髪評価端末
20 撮像装置
30 毛髪評価サーバ
101 画像取得部
102 角度補正部
103 毛髪特定部
104 測定部
105 検出部
106 分け目決定部
107 範囲設定部
108 毛髪評価部
1001 CPU
1002 ROM
1003 RAM
1004 補助記憶装置
1005 表示装置
1006 操作装置
1007 I/F装置
1008 ドライブ装置
1009 記憶媒体

Claims (11)

  1.  ユーザの頭部が撮影された所定の範囲の画像を一定方向に走査して毛髪部分を測定することと、
     前記一定方向の走査によって、前記画像内で前記毛髪部分が占める割合が最小である領域を検出することと、
     前記毛髪部分が占める割合が最小である領域を前記毛髪の分け目として決定することと
     を含む方法。
  2.  前記毛髪は、前記毛髪の分け目を境に互いに反対方向に分かれている、請求項1に記載の方法。
  3.  前記毛髪の分け目を含む領域の毛髪部分に基づいて、前記ユーザの毛髪を評価することをさらに含む、請求項1または2に記載の方法。
  4.  前記毛髪の分け目を含む領域の毛髪部分の時系列データに基づいて、前記ユーザの毛髪の変化を評価することをさらに含む、請求項3に記載の方法。
  5.  前記測定は、前記画像内の所定の形および大きさの領域内の毛髪部分を測定することによって行われ、
     前記検出は、前記画像内の所定の形および大きさの領域のうち前記毛髪部分が占める割合が最小である領域を検出することによって行われる、請求項1から4のいずれか一項に記載の方法。
  6.  前記所定の形および大きさの領域の角度と、前記画像の角度と、を補正することをさらに含む請求項5に記載の方法。
  7.  前記ユーザの頭部が撮影された所定の範囲の画像の毛髪部分を二値化によって特定することをさらに含む、請求項1から6のいずれか一項に記載の方法。
  8.  前記二値化は、前記ユーザの頭部が撮影された所定の範囲の画像を複数の二値化領域に分けて、前記二値化領域ごとに設定される閾値を用いて前記二値化領域ごとに行う、請求項7に記載の方法。
  9.  コンピュータを
     ユーザの頭部が撮影された所定の範囲の画像を一定方向に走査して毛髪部分を測定する測定部、
     前記一定方向の走査によって、前記画像内で前記毛髪部分が占める割合が最小である領域を検出する検出部、
     前記毛髪部分が占める割合が最小である領域を前記毛髪の分け目として決定する決定部
     として機能させるためのプログラム。
  10.  ユーザの頭部が撮影された所定の範囲の画像を一定方向に走査して毛髪部分を測定する測定部と、
     前記一定方向の走査によって、前記画像内で前記毛髪部分が占める割合が最小である領域を検出する検出部と、
     前記毛髪部分が占める割合が最小である領域を前記毛髪の分け目として決定する決定部と
     を備えたコンピュータ。
  11.  毛髪評価サーバと毛髪評価端末とを含む毛髪評価システムであって、
     前記毛髪評価サーバは、
     ユーザの頭部が撮影された所定の範囲の画像を一定方向に走査して毛髪部分を測定する測定部と、
     前記一定方向の走査によって、前記画像内で前記毛髪部分が占める割合が最小である領域を検出する検出部と、
     前記毛髪部分が占める割合が最小である領域を前記毛髪の分け目として決定する決定部と、を備え、
     前記毛髪評価端末は、
     前記ユーザの頭部が撮影された所定の範囲の画像を前記毛髪評価サーバへ送信し、
     前記毛髪の分け目の情報を前記毛髪評価サーバから受信する、毛髪評価システム。
PCT/JP2021/043712 2020-12-03 2021-11-29 毛髪評価方法、プログラム、コンピュータ、および毛髪評価システム WO2022118801A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022566909A JPWO2022118801A1 (ja) 2020-12-03 2021-11-29
CN202180074132.7A CN116648721A (zh) 2020-12-03 2021-11-29 毛发评价方法、程序、计算机及毛发评价系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-201190 2020-12-03
JP2020201190 2020-12-03

Publications (1)

Publication Number Publication Date
WO2022118801A1 true WO2022118801A1 (ja) 2022-06-09

Family

ID=81853929

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/043712 WO2022118801A1 (ja) 2020-12-03 2021-11-29 毛髪評価方法、プログラム、コンピュータ、および毛髪評価システム

Country Status (3)

Country Link
JP (1) JPWO2022118801A1 (ja)
CN (1) CN116648721A (ja)
WO (1) WO2022118801A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228759A1 (ja) * 2022-05-25 2023-11-30 株式会社資生堂 毛髪解析システム、方法、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0491017A (ja) * 1990-08-07 1992-03-24 Kanebo Ltd 脱毛度の測定方法
JP2002360545A (ja) * 2001-06-12 2002-12-17 Shiseido Co Ltd 薄毛部面積評価方法およびそのシステムならびに薄毛部位置決め板および薄毛部面積評価用見本写真
JP2013009700A (ja) * 2011-06-27 2013-01-17 Kentaro Masaki 頭髪撮影画像のデータ処理方法およびデータ比較方法
JP2019084024A (ja) * 2017-11-07 2019-06-06 株式会社Aventino 頭部画像評価装置及び頭部画像評価方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0491017A (ja) * 1990-08-07 1992-03-24 Kanebo Ltd 脱毛度の測定方法
JP2002360545A (ja) * 2001-06-12 2002-12-17 Shiseido Co Ltd 薄毛部面積評価方法およびそのシステムならびに薄毛部位置決め板および薄毛部面積評価用見本写真
JP2013009700A (ja) * 2011-06-27 2013-01-17 Kentaro Masaki 頭髪撮影画像のデータ処理方法およびデータ比較方法
JP2019084024A (ja) * 2017-11-07 2019-06-06 株式会社Aventino 頭部画像評価装置及び頭部画像評価方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228759A1 (ja) * 2022-05-25 2023-11-30 株式会社資生堂 毛髪解析システム、方法、およびプログラム

Also Published As

Publication number Publication date
CN116648721A (zh) 2023-08-25
JPWO2022118801A1 (ja) 2022-06-09

Similar Documents

Publication Publication Date Title
US6591005B1 (en) Method of estimating image format and orientation based upon vanishing point location
US20130033624A1 (en) Red-Eye Filter Method and Apparatus
US11386640B2 (en) Reading system, reading method, and storage medium
WO2022143283A1 (zh) 摄像头标定方法、装置、计算机设备和存储介质
US20190378294A1 (en) Stereo camera and height acquisition method thereof and height acquisition system
KR20060129332A (ko) 화상중의 인물 후보 영역 추출 방법 및 인물 후보 영역 추출 시스템, 인물 후보 영역 추출 프로그램이 기록된 기록 매체, 및 인물 이미지의 상하 판정 방법 및 상하 판정 시스템, 상하 판정 프로그램이 기록된 기록 매체
WO2018112790A1 (zh) 图象处理方法及装置
US20150243027A1 (en) Image processing device, image processing method, and program
WO2022118801A1 (ja) 毛髪評価方法、プログラム、コンピュータ、および毛髪評価システム
JP7231877B1 (ja) 角度計測装置、角度計測方法、角度計測プログラム
JP2008228238A (ja) 瞳色補正装置およびプログラム
US9239230B2 (en) Computing device and method for measuring widths of measured parts
WO2019123554A1 (ja) 画像処理装置、画像処理方法、及び、記録媒体
JP6752360B2 (ja) 画像処理装置、撮像装置、端末装置、画像補正方法および画像処理プログラム
KR100930594B1 (ko) 안면 영상 촬영장치 및 그의 안면 특징점 검출 방법
CN115423804B (zh) 影像标定方法及装置、影像处理方法
US9122935B2 (en) Object detection method, storage medium, integrated circuit, and object detection apparatus
JP2005316958A (ja) 赤目検出装置および方法並びにプログラム
CN107742316B (zh) 图像拼接点获取方法及获取装置
CN112907593B (zh) 一种手机镜片胶体断层位置的识别方法、装置及相关设备
JP3986326B2 (ja) 解像度測定装置及び測定方法
US20120243663A1 (en) X-ray imaging system, method of controlling x-ray imaging system, information processing apparatus, and x-ray imaging apparatus
JP6255819B2 (ja) 計測用コンピュータプログラム、計測装置及び計測方法
JP2013029996A (ja) 画像処理装置
JP2003009190A (ja) 解像度測定装置および解像度測定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21900554

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202180074132.7

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2022566909

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21900554

Country of ref document: EP

Kind code of ref document: A1