JP2006051210A - Hair density predicting device, hair density predicting method, and program - Google Patents

Hair density predicting device, hair density predicting method, and program Download PDF

Info

Publication number
JP2006051210A
JP2006051210A JP2004235500A JP2004235500A JP2006051210A JP 2006051210 A JP2006051210 A JP 2006051210A JP 2004235500 A JP2004235500 A JP 2004235500A JP 2004235500 A JP2004235500 A JP 2004235500A JP 2006051210 A JP2006051210 A JP 2006051210A
Authority
JP
Japan
Prior art keywords
hair
region
hair density
head
density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004235500A
Other languages
Japanese (ja)
Inventor
Rikiya Oguro
力也 小黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Original Assignee
Japan Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd filed Critical Japan Research Institute Ltd
Priority to JP2004235500A priority Critical patent/JP2006051210A/en
Publication of JP2006051210A publication Critical patent/JP2006051210A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a hair density predicting device for presenting the future change in hair density for every region. <P>SOLUTION: A hair simulation device 100 is provided with a head coordinate specifying part 10, a hair density acquiring part 20, a personal information input part 30, a personal database 40, and a hair density predicting part 50. The head coordinate specifying part 10 specifies a coordinate system of the head from an image other than a hair region out of the head. The hair density acquiring part 20 acquires hair density for every region of the hair region on coordinates specified by the head coordinate specifying part 10. The personal information input part 30 inputs a personal code for specifying an individual whose hair density is predicted. The personal database 40 stores the hair density for every region acquired by the hair density acquiring part 20, in association with the personal code in time series. The hair density predicting part 50 predicts future hair density for every region based on the change in hair density for every region photographed at different times, and displays the predicted result. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、将来の毛髪密度を予測する毛髪密度予測装置、毛髪密度予測方法、及びプロラムに関する。   The present invention relates to a hair density prediction apparatus, a hair density prediction method, and a prolam that predict future hair density.

従来、抜け毛等の髪の悩みに対して、かつらや増毛・育毛などのヘアサポートサービスが提供されている(例えば、非特許文献1参照。)。
アデランスホームページ、インターネット、2004年7月20日検索、<URL:http://www.aderans.co.jp/index.html>
Conventionally, hair support services such as wigs, hair thickening, and hair growth have been provided for hair problems such as hair loss (see Non-Patent Document 1, for example).
Aderans homepage, Internet, July 20, 2004 search, <URL: http: // www. aderans. co. jp / index. html>

ヘアケア業界において、顧客の毛髪が将来どのように変化するかを予測して顧客に提示する技術が無いという課題があった。特に、領域毎の毛髪密度がどのように変化するかを提示することができないという課題があった。   In the hair care industry, there has been a problem that there is no technique for predicting how the customer's hair will change in the future and presenting it to the customer. In particular, there is a problem that it is impossible to present how the hair density for each region changes.

上記課題を解決するために、本発明の第1の形態において、将来の毛髪密度を予測する毛髪密度予測装置は、頭部のうちの毛髪領域以外の画像から頭部の座標系を特定する頭部座標特定部と、当該座標系上の毛髪領域における領域毎の毛髪密度を測定する毛髪密度取得部と、異なる時期に測定された領域毎の毛髪密度の変化に基づいて、領域毎の将来の毛髪密度を予測し、予測結果を表示する毛髪密度予測部とを備える。   In order to solve the above-mentioned problem, in the first embodiment of the present invention, the hair density prediction apparatus for predicting the future hair density is a head that specifies the coordinate system of the head from an image of the head other than the hair region. Based on the change of the hair density for each region measured at different times, the hair density acquisition unit for measuring the hair density for each region in the hair region on the coordinate system, A hair density prediction unit that predicts the hair density and displays the prediction result.

毛髪密度予測部は、予測した領域毎の将来の毛髪密度に応じて、将来の毛髪領域の画像を領域毎に生成し、現在の頭部画像のうちの毛髪領域の画像を将来の毛髪領域の画像に置き換えることによって将来の頭部画像を生成し、当該将来の頭部画像を表示してもよい。   The hair density prediction unit generates an image of the future hair region for each region according to the predicted future hair density for each region, and the image of the hair region in the current head image is generated for the future hair region. A future head image may be generated by replacing it with an image, and the future head image may be displayed.

本発明の第2の形態によれば、画像処理装置で将来の毛髪密度を予測する方法は、頭部のうちの毛髪領域以外の画像から頭部の座標系を特定し、当該座標系上の毛髪領域における領域毎の毛髪密度を測定し、異なる時期に測定された領域毎の毛髪密度の変化に基づいて、領域毎の将来の毛髪密度を予測し、予測結果を表示する。   According to the second aspect of the present invention, a method for predicting a future hair density with an image processing apparatus specifies a coordinate system of a head from an image other than a hair region in the head, and The hair density for each region in the hair region is measured, the future hair density for each region is predicted based on the change in the hair density for each region measured at different times, and the prediction result is displayed.

本発明の第3の形態によれば、将来の毛髪密度を予測する画像処理装置用のプログラムは、画像処理装置を、頭部のうちの毛髪領域以外の画像から頭部の座標系を特定する頭部座標特定部、当該座標系上の毛髪領域における領域毎の毛髪密度を測定する毛髪密度取得部、異なる時期に測定された領域毎の毛髪密度の変化に基づいて、領域毎の将来の毛髪密度を予測し、予測結果を表示する毛髪密度予測部として機能させる。   According to the third aspect of the present invention, a program for an image processing device that predicts a future hair density identifies an image processing device from a head region coordinate system from an image other than a hair region in the head. Head coordinate identification unit, hair density acquisition unit for measuring hair density for each region in the hair region on the coordinate system, future hair for each region based on changes in hair density for each region measured at different times It is made to function as a hair density prediction part which estimates a density and displays a prediction result.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the invention according to the scope of claims, and all combinations of features described in the embodiments are included. It is not necessarily essential for the solution of the invention.

図1は、毛髪シミュレーション装置100の機能構成を示す。毛髪シミュレーション装置100は、本発明の毛髪密度予測装置の一例であり、領域毎の毛髪密度の変化に基づいて将来の毛髪密度を領域毎に予測して表示することを目的とする。   FIG. 1 shows a functional configuration of the hair simulation apparatus 100. The hair simulation apparatus 100 is an example of the hair density prediction apparatus of the present invention, and an object thereof is to predict and display a future hair density for each region based on a change in hair density for each region.

毛髪シミュレーション装置100は、頭部座標特定部10、毛髪密度取得部20、個人情報入力部30、個人データベース40、及び毛髪密度予測部50を備える。頭部座標特定部10は、頭部のうちの毛髪領域以外の画像から頭部の座標系を特定する。毛髪密度取得部20は、当該座標系上の毛髪領域における領域毎の毛髪密度を取得する。個人情報入力部30は、毛髪密度を予測する個人を特定する個人コードを入力する。個人データベース40は、毛髪密度取得部20が取得した領域毎の毛髪密度を個人コードに対応付けて時系列で格納する。毛髪密度予測部50は、異なる時期に撮影された領域毎の毛髪密度を個人データベース40から取得し、取得した毛髪密度の過去の変化に基づいて、領域毎の将来の毛髪密度を予測し、予測結果を表示する。   The hair simulation apparatus 100 includes a head coordinate specifying unit 10, a hair density acquisition unit 20, a personal information input unit 30, a personal database 40, and a hair density prediction unit 50. The head coordinate specifying unit 10 specifies the coordinate system of the head from an image of the head other than the hair region. The hair density acquisition unit 20 acquires the hair density for each region in the hair region on the coordinate system. The personal information input unit 30 inputs a personal code that identifies an individual who predicts the hair density. The personal database 40 stores the hair density for each region acquired by the hair density acquisition unit 20 in time series in association with the personal code. The hair density prediction unit 50 acquires the hair density for each region photographed at different times from the personal database 40, and predicts the future hair density for each region based on the past change in the acquired hair density. Display the results.

記録媒体60は、上述の頭部座標特定部10、毛髪密度取得部20、個人情報入力部30、個人データベース40、及び毛髪密度予測部50の動作を毛髪シミュレーション装置100に実現させるプログラムを格納している。これらのプログラムは、フレキシブルディスク、CD−ROM、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出されて毛髪シミュレーション装置100にインストールされて実行される。   The recording medium 60 stores a program that causes the hair simulation apparatus 100 to realize the operations of the head coordinate specifying unit 10, the hair density acquisition unit 20, the personal information input unit 30, the personal database 40, and the hair density prediction unit 50 described above. ing. These programs are stored in a recording medium such as a flexible disk, a CD-ROM, or an IC card and provided by the user. The program is read from the recording medium, installed in the hair simulation apparatus 100, and executed.

図2、図3、及び図4は、頭部座標特定部10が頭部画像の座標系を特定する手順を示す図である。頭部座標特定部10は、被測定人の頭部を複数の角度から撮影する。そして頭部のうちの毛髪領域以外の画像、例えば目、鼻、口、耳、及びあご等の部位を画像認識し、これらの位置を特定する特徴点を抽出する。図中+印は目、鼻、口、耳、及びあごの特徴点を示す。特徴点は、部位毎の輪郭の端部及び頂点等、頭部表面における位置の変化が比較的小さい部位を指定する。頭部のうちの毛髪領域以外の部位は同一人であれば年月が経っても変化が小さい。従って、このような部位から抽出した複数の特徴点同士の相対位置から頭部の座標系を特定することができる。   2, 3, and 4 are diagrams illustrating a procedure in which the head coordinate specifying unit 10 specifies the coordinate system of the head image. The head coordinate specifying unit 10 images the head of the person to be measured from a plurality of angles. Then, images other than the hair region in the head, for example, parts such as eyes, nose, mouth, ears, and chin are image-recognized, and feature points that specify these positions are extracted. In the figure, + marks indicate feature points of eyes, nose, mouth, ears, and chin. The feature point designates a part with a relatively small change in position on the head surface, such as the edge and vertex of the contour for each part. If the part other than the hair region in the head is the same person, the change is small even with the passage of time. Therefore, the coordinate system of the head can be specified from the relative positions of a plurality of feature points extracted from such parts.

頭部座標特定部10は、例えば以下の手順で頭部の座標系を特定する。まず、図4に示すように、両目の目頭の中間点と両耳の頂点からなる3点で基準平面を定義する。そして両耳の頂点の中間点を頭部の座標の原点とする。そして、当該原点と、両目の目頭の中間点を通る軸をY軸、基準平面上においてY軸と直交する軸をX軸とする。これにより、頭部のあらゆる位置を球面座標、すなわち原点を中心とした基準平面上の方向(角度θ)、仰角(θ)、及び距離rで表すことができる。頭部座標特定部10は経年変化による変化が小さい特徴点で頭部の座標系を特定するので、異なる時期に撮影された複数の頭部画像の間で座標が精度よく一致する。従って頭部座標特定部10が特定した座標に基づいて領域毎の毛髪密度を測定すれば、同一領域の毛髪密度の経時変化を精度よく測定することができる。 The head coordinate specifying unit 10 specifies the coordinate system of the head in the following procedure, for example. First, as shown in FIG. 4, a reference plane is defined by three points including an intermediate point between the eyes of both eyes and a vertex of both ears. The midpoint between the apexes of both ears is taken as the origin of the head coordinates. An axis passing through the origin and an intermediate point between the eyes of both eyes is a Y axis, and an axis orthogonal to the Y axis on the reference plane is an X axis. Thereby, every position of the head can be represented by spherical coordinates, that is, a direction (angle θ 1 ), an elevation angle (θ 2 ), and a distance r on the reference plane with the origin as the center. Since the head coordinate specifying unit 10 specifies the coordinate system of the head with feature points that are small in change due to secular change, coordinates coincide with each other between a plurality of head images taken at different times. Therefore, if the hair density for each region is measured based on the coordinates specified by the head coordinate specifying unit 10, it is possible to accurately measure the temporal change of the hair density in the same region.

図5は、毛髪領域を複数の領域に分割した状態を示す図である。頭部座標特定部10は、上述の方法で座標系を特定した後、毛髪領域を複数の領域に、例えばメッシュ状の複数領域に分割する。当該メッシュのそれぞれは上記座標で一意に特定される。メッシュのそれぞれには、A1、A2、・・等の連番を付してもよい。頭部座標特定部10は、毛髪密度予測の精度が高く要求される領域ほど、メッシュを細かく分割することが望ましい。例えば、毛髪領域のなかで毛髪密度の変化が相対的に大きいこめかみ部や頭頂部は、毛髪密度予測の精度が高く要求される。従ってこれらの部位は、メッシュのサイズを小さくすることが望ましい。これにより、位置の変化によって毛髪密度が変化しやすい部位の毛髪密度を詳細に測定することができる。   FIG. 5 is a diagram showing a state in which the hair region is divided into a plurality of regions. The head coordinate specifying unit 10 specifies the coordinate system by the above-described method, and then divides the hair region into a plurality of regions, for example, a plurality of mesh-like regions. Each of the meshes is uniquely specified by the above coordinates. A sequential number such as A1, A2,... May be attached to each mesh. It is desirable for the head coordinate specifying unit 10 to finely divide the mesh in regions where higher accuracy of hair density prediction is required. For example, a temple portion or a crown portion with a relatively large change in hair density in the hair region is required to have high accuracy in predicting the hair density. Therefore, it is desirable to reduce the mesh size of these parts. Thereby, the hair density of the part where the hair density is likely to change due to the change in position can be measured in detail.

図6は、毛髪密度取得部20が頭皮の状態を示すデータを領域毎に取得する例を示す。毛髪密度取得部20は、特定された座標系上の毛髪領域において、領域毎、すなわち上述のメッシュ毎の頭皮画像を撮像する。そしてメッシュ毎の頭皮画像から当該メッシュに含まれる毛髪の本数を計測する。メッシュあたりの毛髪の本数は本発明の毛髪密度の一例である。   FIG. 6 shows an example in which the hair density acquisition unit 20 acquires data indicating the state of the scalp for each region. The hair density acquisition unit 20 captures a scalp image for each region, that is, for each mesh described above, in the hair region on the specified coordinate system. And the number of the hair contained in the said mesh is measured from the scalp image for every mesh. The number of hairs per mesh is an example of the hair density of the present invention.

毛髪密度取得部20はさらに、毛髪の生育環境の善し悪しを示す毛髪環境ファクターを当該メッシュ毎の頭皮画像から取得する。たとえば、毛髪密度取得部20は、メッシュ毎の頭皮画像に含まれる毛髪の画像から当該メッシュにおける毛髪の平均直径を算出する。また、メッシュ毎の頭皮画像の地肌の光沢度合いから当該メッシュにおける皮脂の多さを判断する。また、メッシュ毎の赤外線画像を撮像してメッシュ毎の頭皮の温度を測定する。また、頭皮画像から毛穴毎の毛髪の本数を測定し、同一メッシュ内における毛穴毎の平均毛髪本数を算出する。毛髪密度取得部20は、各毛髪環境ファクターの測定結果を、毛髪の成長を促進させる条件から毛髪の成長に悪影響を及ぼす条件まで、例えばプラス3からマイナス3までの7段階にランク分けして個人データベース40に格納する。   The hair density acquisition unit 20 further acquires a hair environment factor indicating whether the hair growth environment is good or bad from the scalp image for each mesh. For example, the hair density acquisition unit 20 calculates the average diameter of the hair in the mesh from the hair image included in the scalp image for each mesh. Further, the amount of sebum in the mesh is determined from the gloss level of the background of the scalp image for each mesh. Moreover, the infrared image for every mesh is imaged and the temperature of the scalp for every mesh is measured. In addition, the number of hairs per pore is measured from the scalp image, and the average number of hairs per pore in the same mesh is calculated. The hair density acquisition unit 20 ranks the measurement results of each hair environment factor into seven stages from a condition that promotes hair growth to a condition that adversely affects hair growth, for example, from plus 3 to minus 3. Store in database 40.

図7は、領域毎の毛髪本数の変化を示すデータの一例を示す。個人データベース40は、毛髪密度取得部20が取得した領域毎の毛髪本数を個人コードに対応付けて時系列で格納する。毛髪密度予測部50は、領域毎の毛髪密度の変化から将来の毛髪密度を予測する。例えば、毛髪密度予測部50は、過去3年間の毛髪密度の変化率を平均化して今後1年間の変化率を算出する。そして、直近の毛髪密度と算出した変化率から来年の毛髪密度の予測値を求める。例えば、図7の例では、領域A1における過去3年間の毛髪密度の変化率は、2001年から2002年までの変化率がマイナス1本、2002年から2003年までの変化率がマイナス3本である。従って、領域A1における過去3年間の毛髪密度の平均値はマイナス2本である。毛髪密度予測部50は、領域A1の直近の毛髪密度である10本に、算出した変化率であるマイナス2本を加えた結果である8本を、領域A1における2004年の毛髪密度の予測値とする。   FIG. 7 shows an example of data indicating changes in the number of hairs for each region. The personal database 40 stores the number of hairs for each region acquired by the hair density acquisition unit 20 in time series in association with the personal code. The hair density prediction unit 50 predicts the future hair density from the change in hair density for each region. For example, the hair density prediction unit 50 averages the rate of change in hair density over the past three years and calculates the rate of change over the next year. And the predicted value of the hair density of the next year is calculated | required from the latest hair density and the calculated change rate. For example, in the example of FIG. 7, the change rate of the hair density in the area A1 over the past three years is minus 1 from 2001 to 2002, and minus 3 from 2002 to 2003. is there. Accordingly, the average value of the hair density in the region A1 for the past three years is minus two. The hair density predicting unit 50 predicts the hair density of 2004 in the area A1 by adding 8 minus 10 which is the calculated change rate to 10 which is the latest hair density in the area A1. And

図8は、領域毎の毛髪環境ファクターの一例を示す。個人データベース40は、毛髪密度取得部20が測定してランク分けした領域毎の毛髪環境ファクターから、図7で説明した予測値を補正する補正値を計算する。この場合、毛髪密度予測部50は、毛髪の成長に与える影響が大きい毛髪環境ファクター程、大きい重み付けを付与して補正値を計算する。本実施例では、例えば毛髪の太さに最も大きい重み付けを付与しており、A1領域における各種毛髪環境ファクターから計算した補正値は+3本である。   FIG. 8 shows an example of the hair environment factor for each region. The personal database 40 calculates a correction value for correcting the predicted value described in FIG. 7 from the hair environment factor for each region measured and ranked by the hair density acquisition unit 20. In this case, the hair density prediction unit 50 calculates a correction value by assigning a higher weight to a hair environment factor that has a greater influence on hair growth. In the present embodiment, for example, the largest weight is given to the thickness of the hair, and the correction value calculated from various hair environment factors in the A1 region is +3.

図9は、毛髪環境ファクターの経時変化を示すグラフである。本実施例の個人データベース40は、領域毎の毛髪環境ファクターを時系列で記録している。本実施例の毛髪環境ファクターは例えば皮脂量であり、毛髪の成長を促進させるプラス3から毛髪の成長に悪影響を及ぼすマイナス3までの7段階にランク分けされている。毛髪密度予測部50は、ランク分けされた皮脂量の積分値から、将来の毛髪密度を補正する補正値を計算する。そして、図8で説明した例に代えて、当該補正値で図7で説明した予測値を補正してもよい。   FIG. 9 is a graph showing changes in the hair environment factor over time. The personal database 40 of this embodiment records hair environment factors for each region in time series. The hair environment factor of the present embodiment is, for example, the amount of sebum, and is ranked in seven stages from plus 3 that promotes hair growth to minus 3 that adversely affects hair growth. The hair density prediction unit 50 calculates a correction value for correcting the future hair density from the integrated value of the sebum amount ranked. Then, instead of the example described with reference to FIG. 8, the predicted value described with reference to FIG. 7 may be corrected with the correction value.

図10は、毛髪シミュレーション装置100の動作手順を示すフローチャートである。本フローチャートに従って動作することにより、毛髪シミュレーション装置100は、将来の毛髪密度を予測し、予測した毛髪密度に基づいて将来の頭部画像を表示する。なお、以下の動作においては、頭部を所定の器具であらかじめ固定することが望ましい。例えば、毛髪領域のうちの前頭部及び頭頂部を避けて、後頭部及び額等をあらかじめ器具で固定することが望ましい。
図11は、図10のフローチャートに従って生成した、将来の頭部画像の一例を示す。
FIG. 10 is a flowchart showing an operation procedure of the hair simulation apparatus 100. By operating according to this flowchart, the hair simulation apparatus 100 predicts a future hair density and displays a future head image based on the predicted hair density. In the following operations, it is desirable to fix the head in advance with a predetermined instrument. For example, it is desirable to fix the occipital region, the forehead, and the like with an instrument in advance, avoiding the frontal region and the top of the hair region.
FIG. 11 shows an example of a future head image generated according to the flowchart of FIG.

まず、頭部座標特定部10は、個人の頭部画像を複数の角度から撮影する(S10)。次に、頭部のうちの毛髪領域以外の画像から頭部の座標系を特定する。例えば、両目の目頭及び、両耳の頂上部分を特徴点として抽出し、抽出した特徴点で頭部の座標系を特定する。これにより、頭部のあらゆる位置を当該座標系で表すことができる(S12)。   First, the head coordinate specifying unit 10 captures an individual head image from a plurality of angles (S10). Next, the coordinate system of the head is specified from the image of the head other than the hair region. For example, the eyes of both eyes and the top of both ears are extracted as feature points, and the coordinate system of the head is specified by the extracted feature points. Thereby, every position of the head can be expressed in the coordinate system (S12).

次に、毛髪密度取得部20は、上記座標系上の毛髪領域を図5のようにメッシュ状に分割し、当該メッシュ毎の毛髪本数を測定する(S14)。この場合、毛髪密度取得部20は、ステップ12で特定された座標を取り込み、座標上のどの位置を撮影しているかを常に認識する。そして、図5のようにメッシュ状の領域に分割された頭皮の画像を、図6に示したように拡大して撮影する。そしてメッシュ毎の頭皮画像から当該メッシュに含まれる毛髪の本数を計測する。個人データベース40は、毛髪密度取得部20が取得した領域毎の毛髪本数を個人コードに対応付けて時系列で格納する。   Next, the hair density acquisition unit 20 divides the hair region on the coordinate system into a mesh shape as shown in FIG. 5, and measures the number of hairs for each mesh (S14). In this case, the hair density acquisition unit 20 takes in the coordinates specified in step 12 and always recognizes which position on the coordinates is photographed. Then, an image of the scalp divided into mesh-like regions as shown in FIG. 5 is enlarged and photographed as shown in FIG. And the number of the hair contained in the said mesh is measured from the scalp image for every mesh. The personal database 40 stores the number of hairs for each region acquired by the hair density acquisition unit 20 in time series in association with the personal code.

毛髪密度取得部20はさらに、毛髪の生育環境の善し悪しを示す毛髪環境ファクターを当該メッシュ毎の頭皮画像から測定する(S16)。毛髪環境ファクターは、たとえばメッシュ毎の毛髪の平均直径、皮脂の多さ、頭皮の温度、及び同一メッシュ内における毛穴毎の平均毛髪本数等である。各毛髪環境ファクターの測定方法は図6で説明した方法と同様である。毛髪密度取得部20は、各毛髪環境ファクターの測定結果を、毛髪の成長を促進させる条件から毛髪の成長に悪影響を及ぼす条件まで、例えばプラス3からマイナス3までの7段階にランク分けして個人データベース40に格納する。   The hair density acquisition unit 20 further measures a hair environment factor indicating whether the hair growth environment is good or bad from the scalp image for each mesh (S16). The hair environment factors are, for example, the average diameter of hair per mesh, the amount of sebum, the temperature of the scalp, and the average number of hairs per pore in the same mesh. The method for measuring each hair environment factor is the same as the method described in FIG. The hair density acquisition unit 20 ranks the measurement results of each hair environment factor into seven stages from a condition that promotes hair growth to a condition that adversely affects hair growth, for example, from plus 3 to minus 3. Store in database 40.

次に、毛髪密度予測部50は、領域毎の毛髪本数の経年変化から、将来の毛髪本数を予測する(S18)。例えば、毛髪密度予測部50は、それぞれの領域に関する毛髪本数の測定結果を過去3年分個人データベース40から取得する。そして、過去3年間の毛髪密度の変化率を平均化して今後1年間の変化率を算出する。そして、直近の毛髪密度と算出した変化率から来年の毛髪密度の予測値を求める。   Next, the hair density prediction unit 50 predicts the future number of hairs from the secular change of the number of hairs for each region (S18). For example, the hair density prediction unit 50 acquires the measurement result of the number of hairs for each region from the personal database 40 for the past three years. Then, the rate of change in hair density over the past three years is averaged to calculate the rate of change over the next year. And the predicted value of the hair density of the next year is calculated | required from the latest hair density and the calculated change rate.

次に、毛髪密度予測部50は、領域毎の毛髪環境ファクターから、ステップ18で求めた予測値を補正する補正値を計算する(S20)。この場合、毛髪密度予測部50は、毛髪の成長に与える影響が大きい各毛髪環境ファクター程、大きい重み付けを付与して補正値を計算する。毛髪密度予測部50は、ステップ18で求めた予測値を当該補正値で補正する。例えば、毛髪環境ファクターの数値が小さいほど、すなわち毛髪の生育環境が悪いほど、ステップ18で求められた予測値が少なくなるように、すなわち毛髪密度が低くなるように補正される。   Next, the hair density prediction unit 50 calculates a correction value for correcting the predicted value obtained in step 18 from the hair environment factor for each region (S20). In this case, the hair density prediction unit 50 calculates a correction value by assigning a higher weight to each hair environment factor that has a greater influence on hair growth. The hair density prediction unit 50 corrects the predicted value obtained in step 18 with the correction value. For example, the smaller the value of the hair environment factor, that is, the worse the hair growth environment, the smaller the predicted value obtained in step 18, that is, the lower the hair density.

毛髪密度予測部50は、ステップ20で補正された領域毎の将来の毛髪密度に応じて、将来の毛髪領域の画像を領域毎に生成する(S22)。そして、頭部座標特定部10が撮影した現在の頭部画像のうちの毛髪領域の画像をステップ22で生成した画像に置き換えることによって、将来の頭部画像を生成し、生成した頭部画像を表示する(S24)。この場合、毛髪密度予測部50は、毛髪領域のうちで毛髪密度が所定のしきい値を下回る領域を強調して表示、例えば赤で表示する。また、ステップ18で求めた予測値をマイナスに補正する要因となった毛髪環境ファクターを表示し、当該毛髪環境ファクターの値を改善させる処置を出力する。以上で本フローは終了する。本フローによれば、毛髪シミュレーション装置100は、異なる時期に測定した領域毎の毛髪密度と毛髪の生育環境とに基づいて、領域毎の将来の毛髪密度を予測することができる。   The hair density prediction unit 50 generates an image of the future hair region for each region according to the future hair density for each region corrected in step 20 (S22). Then, by replacing the image of the hair region in the current head image captured by the head coordinate specifying unit 10 with the image generated in step 22, a future head image is generated, and the generated head image is Displayed (S24). In this case, the hair density prediction unit 50 highlights and displays, for example, red, a region of the hair region where the hair density is below a predetermined threshold value. Further, the hair environment factor that causes the predicted value obtained in step 18 to be negatively displayed is displayed, and a treatment for improving the value of the hair environment factor is output. This flow is completed. According to this flow, the hair simulation apparatus 100 can predict the future hair density for each region based on the hair density for each region measured at different times and the hair growth environment.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

図1は、毛髪シミュレーション装置100の機能構成を示すブロック図である。FIG. 1 is a block diagram showing a functional configuration of the hair simulation apparatus 100. 頭部座標特定部10が頭部画像の座標系を特定する手順を示す第1の図である。It is a 1st figure which shows the procedure in which the head coordinate specific | specification part 10 specifies the coordinate system of a head image. 頭部座標特定部10が頭部画像の座標系を特定する手順を示す第2の図である。It is a 2nd figure which shows the procedure in which the head coordinate specific | specification part 10 specifies the coordinate system of a head image. 頭部座標特定部10が頭部画像の座標系を特定する手順を示す第3の図である。It is a 3rd figure which shows the procedure in which the head coordinate specific | specification part 10 specifies the coordinate system of a head image. 毛髪領域を複数の領域に分割した状態を示す図である。It is a figure which shows the state which divided | segmented the hair area | region into the several area | region. 頭皮の状態を示すデータを領域毎に取得する例を示す図である。It is a figure which shows the example which acquires the data which show the state of a scalp for every area | region. 領域毎の毛髪本数の変化を示すデータの一例を示す。An example of the data which shows the change of the hair number for every area | region is shown. 領域毎の将来の毛髪本数を補正する毛髪環境ファクターの一例を示す。An example of the hair environment factor which correct | amends the future hair number for every area | region is shown. 毛髪環境ファクターの変化を示すグラフである。It is a graph which shows the change of a hair environment factor. 毛髪シミュレーション装置100の動作手順を示すフローチャートである。3 is a flowchart showing an operation procedure of the hair simulation apparatus 100. 毛髪シミュレーション装置100が生成する将来の頭部画像の一例である。It is an example of the future head image which hair simulation device 100 generates.

符号の説明Explanation of symbols

10 頭部座標特定部
20 毛髪密度取得部
30 個人情報入力部
40 個人データベース
50 毛髪密度予測部
60 記録媒体
100 毛髪シミュレーション装置
DESCRIPTION OF SYMBOLS 10 Head coordinate specific | specification part 20 Hair density acquisition part 30 Personal information input part 40 Personal database 50 Hair density prediction part 60 Recording medium 100 Hair simulation apparatus

Claims (4)

将来の毛髪密度を予測する毛髪密度予測装置であって、
頭部のうちの毛髪領域以外の画像から前記頭部の座標系を特定する頭部座標特定部と、
前記座標系上の前記毛髪領域における領域毎の毛髪密度を測定する毛髪密度取得部と、
異なる時期に測定された領域毎の毛髪密度の変化に基づいて、領域毎の将来の毛髪密度を予測し、予測結果を表示する毛髪密度予測部と
を備える毛髪密度予測装置。
A hair density prediction device for predicting future hair density,
A head coordinate specifying unit that specifies the coordinate system of the head from an image other than the hair region of the head; and
A hair density acquisition unit that measures the hair density for each region in the hair region on the coordinate system;
A hair density prediction apparatus comprising a hair density prediction unit that predicts a future hair density for each region based on changes in hair density for each region measured at different times and displays a prediction result.
前記毛髪密度予測部は、予測した領域毎の将来の毛髪密度に応じて、将来の前記毛髪領域の画像を領域毎に生成し、現在の頭部画像のうちの毛髪領域の画像を前記将来の毛髪領域の画像に置き換えることによって将来の頭部画像を生成し、当該将来の頭部画像を表示する、請求項1に記載の毛髪密度予測装置。   The hair density prediction unit generates an image of the future hair region for each region according to the predicted future hair density for each region, and the image of the hair region in the current head image is the future image. The hair density prediction apparatus according to claim 1, wherein a future head image is generated by replacing with an image of a hair region, and the future head image is displayed. 画像処理装置で将来の毛髪密度を予測する方法であって、
頭部のうちの毛髪領域以外の画像から前記頭部の座標系を特定し、
前記座標系上の前記毛髪領域における領域毎の毛髪密度を測定し、
異なる時期に測定された領域毎の毛髪密度の変化に基づいて、領域毎の将来の毛髪密度を予測し、予測結果を表示する
毛髪密度予測方法。
A method for predicting future hair density with an image processing device,
Identify the coordinate system of the head from an image of the head other than the hair region,
Measuring the hair density for each region in the hair region on the coordinate system;
A hair density prediction method for predicting a future hair density for each region based on a change in hair density for each region measured at different times and displaying a prediction result.
将来の毛髪密度を予測する画像処理装置用のプログラムであって、
前記画像処理装置を
頭部のうちの毛髪領域以外の画像から前記頭部の座標系を特定する頭部座標特定部、
前記座標系上の前記毛髪領域における領域毎の毛髪密度を測定する毛髪密度取得部、
異なる時期に測定された領域毎の毛髪密度の変化に基づいて、領域毎の将来の毛髪密度を予測し、予測結果を表示する毛髪密度予測部
として機能させるプログラム。
A program for an image processing apparatus that predicts future hair density,
A head coordinate specifying unit that specifies the coordinate system of the head from an image of the head other than the hair region;
A hair density acquisition unit for measuring the hair density for each region in the hair region on the coordinate system;
A program that functions as a hair density prediction unit that predicts future hair density for each region based on changes in hair density for each region measured at different times and displays the prediction results.
JP2004235500A 2004-08-12 2004-08-12 Hair density predicting device, hair density predicting method, and program Pending JP2006051210A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004235500A JP2006051210A (en) 2004-08-12 2004-08-12 Hair density predicting device, hair density predicting method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004235500A JP2006051210A (en) 2004-08-12 2004-08-12 Hair density predicting device, hair density predicting method, and program

Publications (1)

Publication Number Publication Date
JP2006051210A true JP2006051210A (en) 2006-02-23

Family

ID=36029049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004235500A Pending JP2006051210A (en) 2004-08-12 2004-08-12 Hair density predicting device, hair density predicting method, and program

Country Status (1)

Country Link
JP (1) JP2006051210A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010501288A (en) * 2006-08-25 2010-01-21 レストレーション ロボティクス,インク. System and method for counting hair follicle units
CN111489823A (en) * 2020-04-08 2020-08-04 Oppo广东移动通信有限公司 Hair health condition evaluation method and device, mobile terminal and storage medium
JP2021518244A (en) * 2018-03-12 2021-08-02 ティー−バイオマックス スンディリアン ブルハドT−Biomax Sdn Bhd Diagnosis and treatment of hair and scalp
WO2023227198A1 (en) * 2022-05-23 2023-11-30 Siemens Healthcare Gmbh Methods and systems for rendering a model of a user using hair density estimation

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010501288A (en) * 2006-08-25 2010-01-21 レストレーション ロボティクス,インク. System and method for counting hair follicle units
JP2021518244A (en) * 2018-03-12 2021-08-02 ティー−バイオマックス スンディリアン ブルハドT−Biomax Sdn Bhd Diagnosis and treatment of hair and scalp
JP7289464B2 (en) 2018-03-12 2023-06-12 ティー-バイオマックス スンディリアン ブルハド Diagnosis and treatment of hair and scalp
CN111489823A (en) * 2020-04-08 2020-08-04 Oppo广东移动通信有限公司 Hair health condition evaluation method and device, mobile terminal and storage medium
WO2023227198A1 (en) * 2022-05-23 2023-11-30 Siemens Healthcare Gmbh Methods and systems for rendering a model of a user using hair density estimation

Similar Documents

Publication Publication Date Title
RU2648836C2 (en) Systems, methods and computer-readable media for identifying when a subject is likely to be affected by medical condition
JP5189057B2 (en) Gaze tracking method and gaze tracking system
JP5024067B2 (en) Face authentication system, method and program
EP3339943A1 (en) Method and system for obtaining optometric parameters for fitting eyeglasses
CN110782974A (en) Method of predicting anatomical landmarks and apparatus for predicting anatomical landmarks using the method
KR101571241B1 (en) APPARATUS AND METHOD FOR DETERMINATION of FACIAL EXPRESSION TYPE
US11232585B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP2007241579A (en) Feature point detector and its method
US20190236336A1 (en) Facial recognition method, facial recognition system, and non-transitory recording medium
CN109766007B (en) Method and device for compensating fixation point of display equipment and display equipment
CN111950401B (en) Method, image processing system, device and medium for determining position of key point area
US11662814B2 (en) Sight positioning method, head-mounted display device, computer device and computer-readable storage medium
CN113780201B (en) Hand image processing method and device, equipment and medium
CN112232128A (en) Eye tracking based method for identifying care needs of old disabled people
JP2006051210A (en) Hair density predicting device, hair density predicting method, and program
JP5719216B2 (en) Gaze measurement apparatus and gaze measurement program
Yang et al. Wearable eye-tracking system for synchronized multimodal data acquisition
JP2017096656A (en) Pose measurement device, method and program
US20240061278A1 (en) Frame adjustment system
Smith et al. Growing old: Do women and men age differently?
JP2003079577A (en) Visual axis measuring apparatus and method, visual axis measuring program, and recording medium recording the same
CN106667496B (en) Face data measuring method and device
US20220051428A1 (en) Systems and methods for assessment of nasal deviation and asymmetry
EP4185184A1 (en) Method for determining a coronal position of an eye relative to the head
JP2010039968A (en) Object detecting apparatus and detecting method