JP2017192767A - Image analysis method, image analysis device, and image analysis program - Google Patents

Image analysis method, image analysis device, and image analysis program Download PDF

Info

Publication number
JP2017192767A
JP2017192767A JP2017121352A JP2017121352A JP2017192767A JP 2017192767 A JP2017192767 A JP 2017192767A JP 2017121352 A JP2017121352 A JP 2017121352A JP 2017121352 A JP2017121352 A JP 2017121352A JP 2017192767 A JP2017192767 A JP 2017192767A
Authority
JP
Japan
Prior art keywords
image
mesh
image analysis
skin
meshes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017121352A
Other languages
Japanese (ja)
Inventor
基裕 矢内
Motohiro Yanai
基裕 矢内
麻里子 大江
Mariko Oe
麻里子 大江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Priority to JP2017121352A priority Critical patent/JP2017192767A/en
Publication of JP2017192767A publication Critical patent/JP2017192767A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform accurately, analysis of a skin or the like using a photographic image of a subject.SOLUTION: There is provided an image analysis method for using an image of a subject photographed in a prescribed wavelength region for performing analysis of a skin of the subject, comprising: a mesh arrangement step for setting a shape of meshes, based on a reference point obtained from the image, then arranging plural meshes, based on the set shape of meshes; a statistic amount calculation step for calculating a statistic amount for every mesh obtained in the mesh arrangement step; an image analysis step for analyzing a skin for every mesh, based on the statistic amount obtained in the statistic amount calculation step; and an image generation step for generating an image of the analysis result obtained in the image analysis step.SELECTED DRAWING: Figure 3

Description

本発明は、画像解析方法、画像解析装置、及び画像解析プログラムに係り、特に被験者の撮影画像を用いて肌等の解析を高精度に行うための画像解析方法、画像解析装置、及び画像解析プログラムに関する。   The present invention relates to an image analysis method, an image analysis apparatus, and an image analysis program, and in particular, an image analysis method, an image analysis apparatus, and an image analysis program for analyzing skin and the like with high accuracy using a photographed image of a subject. About.

従来では、被験者を撮影した画像を用いて、被験者の肌(皮膚)の状態を解析する手法が存在する。例えば、従来では、顔の水分変化を可視化するために近赤外カメラを用いて2枚の近赤外分光画像を撮影し、撮影した画像から顔表面に塗布した保湿液の可視化を行う技術が開示されている(例えば、非特許文献1)。また、近年では、近赤外を用いて皮膚水分量を鑑別する技術が開示されている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there is a technique for analyzing a subject's skin (skin) state using an image of the subject. For example, in the past, there has been a technology that takes two near-infrared spectral images using a near-infrared camera to visualize changes in the moisture on the face, and visualizes the moisturizing liquid applied to the face surface from the taken images. It is disclosed (for example, Non-Patent Document 1). In recent years, a technique for discriminating the amount of skin moisture using near infrared has been disclosed (see, for example, Patent Document 1).

更に、近年では、被験者に皮膚外用剤を塗布する前後における顔画像を取得し、取得した前後の画像の差分量を複数の異なる近赤外領域毎に取得し、取得した差分量に基づいて被験者の皮膚を解析する手法が存在する(例えば、特許文献2参照)。   Furthermore, in recent years, a face image before and after applying a skin external preparation to a subject is acquired, a difference amount between the acquired images before and after is acquired for each of a plurality of different near infrared regions, and the subject is based on the acquired difference amount. There is a technique for analyzing the skin of the above (for example, see Patent Document 2).

特開2010−25622号公報JP 2010-25622 A 特許第4832590号公報Japanese Patent No. 483590

岩崎宏明他、「2枚の近赤外分光画像を用いた顔の水分変化の可視化」、日本光学会(応用物理学会)、Optics Japan 2005 Tokyo、2005年11月23〜25日Hiroaki Iwasaki et al., “Visualization of moisture change in face using two near-infrared spectral images”, The Optical Society of Japan (Applied Physics Society), Optics Japan 2005 Tokyo, November 23-25, 2005

上述したような従来手法によれば、被験者毎の肌の状態を解析することができる。しかしながら、被験者は、顔の形や大きさが異なるため、例えば複数の被験者を対象にした肌の同一領域に対する統計的な解析や評価等を行うことができなかった。したがって、被験者の撮影画像を用いて肌等の解析を高精度に行うことができなかった。   According to the conventional method as described above, the skin state of each subject can be analyzed. However, since subjects have different face shapes and sizes, for example, statistical analysis and evaluation on the same area of the skin targeting a plurality of subjects cannot be performed. Therefore, it has been impossible to analyze skin and the like with high accuracy using a photographed image of the subject.

本発明は、上述した課題に鑑みてなされたものであって、被験者の撮影画像を用いて肌等の解析を高精度に行うための画像解析方法、画像解析装置、及び画像解析プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides an image analysis method, an image analysis apparatus, and an image analysis program for performing analysis of skin and the like with high accuracy using a photographed image of a subject. For the purpose.

上述した課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above-described problems, the present invention employs means for solving the problems having the following characteristics.

請求項1に記載された発明は、 所定の波長領域で撮影された被験者の顔画像を用いて、前記被験者の顔の肌の解析を行う画像解析方法において、
前記顔画像から得られる、少なくとも目尻を含む3点以上の基準点に基づいて、複数のメッシュを配置するメッシュ領域の縦横の長さを設定する領域設定ステップと、
前記メッシュ領域の縦幅をメッシュの縦の個数で除算することで、メッシュの縦の長さを算出し、前記メッシュ領域の横幅をメッシュの横の個数で除算することで、メッシュの横の長さを算出して、算出した大きさの同一種類の多角形状の複数のメッシュを配置するメッシュ配置ステップと、
前記メッシュ配置ステップにより得られるメッシュ毎に統計量を算出する統計量算出ステップと、
前記統計量算出ステップにより得られる統計量に基づいて前記メッシュ毎の肌の解析する画像解析ステップと、
前記画像解析ステップにより得られる解析結果の画像を生成する画像生成ステップとを有する。
The invention described in claim 1 is an image analysis method for analyzing a skin of a face of a subject using a face image of the subject photographed in a predetermined wavelength region.
An area setting step for setting the vertical and horizontal lengths of a mesh area in which a plurality of meshes are arranged based on at least three reference points including at least the corners of the eye obtained from the face image;
The vertical length of the mesh area is calculated by dividing the vertical width of the mesh area by the vertical number of meshes, and the horizontal width of the mesh area is calculated by dividing the horizontal width of the mesh area by the horizontal number of meshes. A mesh placement step of calculating a thickness and placing a plurality of polygonal meshes of the same type of the calculated size;
A statistic calculation step for calculating a statistic for each mesh obtained by the mesh placement step;
An image analysis step for analyzing the skin for each mesh based on the statistic obtained by the statistic calculation step;
An image generation step of generating an image of the analysis result obtained by the image analysis step.

本発明によれば、被験者の撮影画像を用いて肌等の解析を高精度に行うことができる。   According to the present invention, analysis of skin or the like can be performed with high accuracy using a photographed image of a subject.

第1実施形態における画像解析装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the image analysis apparatus in 1st Embodiment. 第1実施形態における画像解析処理が実現可能なハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which can implement | achieve the image analysis process in 1st Embodiment. 第1実施形態における画像解析処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the image-analysis processing procedure in 1st Embodiment. メッシュ形状の違いを説明するための図である。It is a figure for demonstrating the difference in a mesh shape. 第1実施形態におけるマップ図への統計量の入力例を説明するための図(その1である。FIG. 3 is a diagram for explaining an example of inputting statistics to a map diagram according to the first embodiment (No. 1); 第1実施形態におけるマップ図への統計量の入力例を説明するための図(その2である。FIG. 6 is a diagram (part 2) for explaining an example of inputting statistics to a map diagram in the first embodiment. 統計量に対応する解析内容の一例を示す図である。It is a figure which shows an example of the analysis content corresponding to a statistic. 水分マップの一例を示す図である。It is a figure which shows an example of a moisture map. ばらつきマップの一例を示す図である。It is a figure which shows an example of a dispersion | distribution map. 肌状態に対応するレベル分布の一例を示す図である。It is a figure which shows an example of the level distribution corresponding to a skin state. 第2実施形態における画像解析装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the image analysis apparatus in 2nd Embodiment. 第2実施形態における画像解析処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the image-analysis processing procedure in 2nd Embodiment. 強調画像の取得方法の一例を説明するための図である。It is a figure for demonstrating an example of the acquisition method of an emphasized image. 第2実施形態における解析結果の一例を示す図であるIt is a figure which shows an example of the analysis result in 2nd Embodiment.

<本発明について>
本発明は、画像に含まれる被験者の肌(皮膚)領域をメッシュに分割する際、被験者毎の顔の形状や画像中における顔の大きさ、解像度等に基づいて、メッシュの大きさを可変にできるようにする。つまり、本発明では、例えば被験者毎に分割されるメッシュの数を同じにし、相対的な位置関係に基づいてメッシュの大きさを変化させる。また、本発明は、メッシュ毎の統計量を算出して、これを解析(評価)の指標の1つとする。
<About the present invention>
In the present invention, when the skin area of the subject included in the image is divided into meshes, the size of the mesh can be changed based on the face shape of each subject, the size of the face in the image, the resolution, and the like. It can be so. That is, in the present invention, for example, the number of meshes divided for each subject is made the same, and the size of the mesh is changed based on the relative positional relationship. Further, according to the present invention, a statistic for each mesh is calculated and used as one of analysis (evaluation) indices.

したがって、本発明では、予め顔全体で比較する領域を細分化し、被験者毎に細分化された領域の相対位置に基づいて各領域の統計量を比較することで、より高精度な肌解析を実現することができる。   Therefore, in the present invention, the area to be compared in the whole face is subdivided in advance, and the skin statistics with higher accuracy are realized by comparing the statistics of each area based on the relative position of the subdivided area for each subject. can do.

以下に、本発明における画像解析方法、画像解析装置、及び画像解析プログラムを好適に実施した形態について、図面を用いて説明する。   Hereinafter, embodiments in which an image analysis method, an image analysis apparatus, and an image analysis program according to the present invention are suitably implemented will be described with reference to the drawings.

<第1実施形態:画像解析装置:概略構成例>
まず、第1実施形態における画像解析装置の機能構成例について、図を用いて説明する。図1は、第1実施形態における画像解析装置の機能構成の一例を示す図である。図1に示す画像解析装置10は、入力手段11と、出力手段12と、記憶手段13と、画像取得手段14と、補正手段15と、メッシュ配置手段16と、統計量算出手段17と、画像解析手段18と、画像生成手段19と、送受信手段20と、制御手段21とを有する。
<First embodiment: image analysis apparatus: schematic configuration example>
First, a functional configuration example of the image analysis apparatus according to the first embodiment will be described with reference to the drawings. FIG. 1 is a diagram illustrating an example of a functional configuration of the image analysis apparatus according to the first embodiment. An image analysis apparatus 10 shown in FIG. 1 includes an input unit 11, an output unit 12, a storage unit 13, an image acquisition unit 14, a correction unit 15, a mesh arrangement unit 16, a statistic calculation unit 17, and an image. The analysis unit 18, the image generation unit 19, the transmission / reception unit 20, and the control unit 21 are included.

入力手段11は、使用者等からの画像取得指示や補正指示、メッシュ配置指示、統計量算出指示、画像生成指示、送受信指示等の各種指示の入力を受け付ける。なお、入力手段11は、例えばキーボードや、マウス等のポインティングデバイス等からなる。また、入力手段11は、デジタルカメラや近赤外カメラ等の予め設定された撮像手段等により撮影された被験者の肌画像を入力する機能も有する。   The input unit 11 receives input of various instructions such as an image acquisition instruction, a correction instruction, a mesh arrangement instruction, a statistic calculation instruction, an image generation instruction, and a transmission / reception instruction from a user or the like. Note that the input unit 11 includes, for example, a keyboard and a pointing device such as a mouse. The input unit 11 also has a function of inputting a skin image of a subject photographed by a preset imaging unit such as a digital camera or a near infrared camera.

出力手段12は、入力手段11により入力された内容や、入力内容に基づいて実行された内容等の表示・出力を行う。なお、出力手段12は、ディスプレイやスピーカ等からなる。更に、出力手段12としてプリンタ等の機能を有していてもよく、その場合には、画像解析結果等を紙等の印刷媒体に印刷して、使用者や被験者等に提供することもできる。   The output unit 12 displays / outputs the content input by the input unit 11 and the content executed based on the input content. The output unit 12 includes a display, a speaker, and the like. Further, the output unit 12 may have a function of a printer or the like. In that case, the image analysis result or the like can be printed on a print medium such as paper and provided to the user or the subject.

なお、入力手段11と出力手段12とは、例えばタッチパネル等のように一体型の入出力手段であってもよく、この場合には使用者の指やペン型の入力装置等を用いて所定の位置をタッチして入力を行うことができる。   Note that the input unit 11 and the output unit 12 may be integrated input / output units such as a touch panel. In this case, the input unit 11 and the output unit 12 may be predetermined using a user's finger or a pen-type input device. Input can be made by touching the position.

また、記憶手段13は、撮影画像取得手段14により得られる撮影画像、補正手段により得られる補正画像、メッシュ配置情報、統計量、画像解析結果、画像生成情報、設定情報等の各種データを蓄積する。また、記憶手段13は、必要に応じて蓄積されている各種データを読み出すことができる。   The storage unit 13 stores various data such as a captured image obtained by the captured image acquisition unit 14, a corrected image obtained by the correcting unit, mesh arrangement information, statistics, image analysis results, image generation information, and setting information. . Further, the storage means 13 can read out various data stored as necessary.

また、撮影画像取得手段14は、カメラ等の撮像手段により撮影された被験者の顔画像を取得する。なお、撮影画像取得手段14は、例えば予め設定された波長領域に基づく可視画像、近赤外画像、赤外画像、紫外画像等を取得することができるが、これに限定されるものではない。また、取得される画像は、白黒の場合には、グレースケール輝度画像等であってもよく、カラーの場合には、RGB輝度画像等であってもよい。   The captured image acquisition unit 14 acquires a face image of the subject captured by an imaging unit such as a camera. The captured image acquisition unit 14 can acquire, for example, a visible image, a near infrared image, an infrared image, an ultraviolet image, or the like based on a preset wavelength region, but is not limited thereto. Further, the acquired image may be a gray scale luminance image or the like in the case of black and white, and may be an RGB luminance image or the like in the case of color.

また、撮影画像取得手段14は、被験者の顔を撮影する際に、撮影する画像の内容に応じて、例えば使用する光源の種類や位置、数等を設定することができる。撮影画像取得手段14により取得された画像は、記憶手段13に蓄積される。   In addition, the photographed image acquisition unit 14 can set, for example, the type, position, number, and the like of the light source to be used according to the content of the photographed image when photographing the subject's face. The image acquired by the captured image acquisition unit 14 is accumulated in the storage unit 13.

補正手段15は、画像取得手段14により得られる画像に対して、例えば色補正やコントラスト補正、明るさ補正等の補正処理を行う。なお、補正処理は、必要に応じて行えばよく、例えば補正処理を行うか否かを予め画像解析装置10を操作する操作者(ユーザ)等が設定しておいてもよい。   The correction unit 15 performs correction processing such as color correction, contrast correction, and brightness correction on the image obtained by the image acquisition unit 14. The correction process may be performed as necessary. For example, an operator (user) who operates the image analysis apparatus 10 may set in advance whether or not to perform the correction process.

メッシュ配置手段16は、画像に含まれる被験者の肌領域に対して、メッシュ分割するための基準点を設定する。具体的には、メッシュ配置手段16は、例えば被験者の顔画像に対してメッシュ分割を行う場合には、顔面において動きの少ない部位(特徴点)を基準点として3点以上設定する。第1実施形態では、3点以上設定することで、メッシュの縦と横の比率を算出することができる。なお、基準点としては、例えば目尻、目頭、鼻先、顎先、上唇中央、耳穴等があるが、これに限定されるものではなく、例えば目の中心等であってもよい。また、第1実施形態では、撮影される顔画像が正面画像の場合や側面画像の場合もあるため、撮影画像に含まれる顔領域に応じて、基準点の設定を変更することができる。   The mesh arrangement means 16 sets a reference point for dividing the mesh into the skin area of the subject included in the image. Specifically, for example, when mesh division is performed on the face image of the subject, the mesh arrangement unit 16 sets three or more points with reference to a portion (feature point) with less movement on the face. In the first embodiment, by setting three or more points, the vertical and horizontal ratio of the mesh can be calculated. Examples of the reference point include the corner of the eye, the head of the eye, the tip of the nose, the tip of the chin, the center of the upper lip, and the ear hole, but are not limited thereto, and may be, for example, the center of the eye. In the first embodiment, since the face image to be shot may be a front image or a side image, the setting of the reference point can be changed according to the face area included in the shot image.

また、メッシュ配置手段16は、設定された基準点に基づいてメッシュの大きさを算出する。例えば、メッシュ配置手段16は、メッシュを矩形とし、予め基準点に基づくメッシュの縦の個数と横の個数が設定されている場合に、複数の基準点から得られる縦の幅をメッシュの縦の個数で除算することで、メッシュの縦の長さが算出され、また複数の基準点から得られる横の幅をメッシュの横の個数で除算することで、メッシュの横の長さが算出される。これにより、メッシュの縦と横の長さが設定される。   Further, the mesh placement unit 16 calculates the size of the mesh based on the set reference point. For example, the mesh arrangement means 16 makes the mesh rectangular, and when the vertical number and horizontal number of meshes based on the reference point are set in advance, the vertical width obtained from the plurality of reference points is set to the vertical length of the mesh. By dividing by the number, the vertical length of the mesh is calculated, and by dividing the horizontal width obtained from a plurality of reference points by the horizontal number of the mesh, the horizontal length of the mesh is calculated. . Thereby, the vertical and horizontal lengths of the mesh are set.

また、メッシュ配置手段16は、算出されたメッシュの大きさに基づいて、基準点の位置に対応付けて複数のメッシュ(メッシュ群)を配置する。なお、メッシュは、各被験者の同一の顔の向きに対して同一数量を配置する。つまり、第1実施形態では、例えば額、頬等の特定の解析領域におけるメッシュの相対的な位置、数が固定となる。なお、メッシュの形状は、例えば矩形や三角形等の予め選択された多角形を用いることができるが、これに限定されるものではない。   Further, the mesh placement unit 16 places a plurality of meshes (mesh groups) in association with the positions of the reference points based on the calculated mesh size. Note that the same number of meshes is arranged with respect to the same face direction of each subject. That is, in the first embodiment, for example, the relative position and number of meshes in a specific analysis region such as the forehead and cheek are fixed. The mesh shape may be a polygon selected in advance, such as a rectangle or a triangle, but is not limited to this.

統計量算出手段17は、各メッシュの統計量を算出する。なお、統計量としては、例えば各メッシュに含まれる画素毎の輝度の平均値、他の画素との輝度のばらつきを示す輝度の標準偏差、又はその両方等があるが、これに限定されるものではない。また、統計量算出手段17は、被験者毎或いは全被験者の統計量のヒストグラムから統計的な水準を算出する。   The statistic calculation means 17 calculates the statistic of each mesh. Examples of the statistics include, but are not limited to, an average value of luminance for each pixel included in each mesh, a standard deviation of luminance indicating variation in luminance with other pixels, or both. is not. Moreover, the statistic calculation means 17 calculates a statistical level from the histogram of the statistic of every test subject or all the test subjects.

画像解析手段18は、統計量に基づいて被験者群における画像解析を行う。具体的には、画像解析手段18は、各メッシュに、予め設定された任意のメッシュ群におけるパーセンタイル値を用いて所定数の水準(例えば、5水準)に分類する。例えば、画像解析手段18は、各メッシュの統計量に基づいて、例えば水分量(水分が多い、少ない等)、肌のばらつき、肌荒れ、かさつき等の解析を行う。   The image analysis means 18 performs image analysis in the subject group based on the statistics. Specifically, the image analysis unit 18 classifies each mesh into a predetermined number of levels (for example, five levels) using percentile values in a predetermined arbitrary mesh group. For example, the image analysis unit 18 analyzes, for example, the amount of water (the amount of water is high or low), skin variation, skin roughness, roughness, and the like based on the statistics of each mesh.

なお、画像解析手段18は、画像解析を行う部分を撮影した顔の肌全体に対して行ってもよく、また入力手段11等を用いてユーザ等により指定された所定領域に対してのみ解析を行ってもよい。また、指定される領域は、1つでもよく、複数でもよい。また、画像解析手段18で解析される画像は、例えば、頬や額等の肌画像であり、また、腕や手、足等の画像でもよい。更に、画像解析手段18は、頭髪についても解析を行うことができる。   Note that the image analysis means 18 may be performed on the entire skin of the face where the image analysis portion is taken, or only for a predetermined region designated by the user or the like using the input means 11 or the like. You may go. Further, the designated area may be one or plural. Further, the image analyzed by the image analysis unit 18 is a skin image such as a cheek or forehead, and may be an image of an arm, a hand, a leg, or the like. Furthermore, the image analysis means 18 can also analyze hair.

更に、画像解析手段18は、メッシュ毎の解析ではなく、例えば複数のメッシュを特徴のある部位毎(例えば、瞼、頬、口元)に纏めて1つの領域として、その領域に対するメッシュ統計量から肌解析を行ってもよい。   Further, the image analysis means 18 does not perform analysis for each mesh but, for example, collects a plurality of meshes for each characteristic site (for example, heel, cheek, mouth) as one region, and determines the skin from the mesh statistics for that region. Analysis may be performed.

画像生成手段19は、統計量をユーザや被験者等に表示させる所定の画像を生成する。具体的には、画像生成手段19は、例えば、各メッシュに統計量を入力した顔面の数値表(マップ)の画像を生成する。また、画像生成手段19は、例えば平均値や標準偏差について所定の水準を規定し、その水準に基づいて色分け等を行った画像を生成する。なお、第1実施形態においては、色分けに限定されるものではなく、例えば所定の水準に基づいて模様分け等を行ってもよく、色と模様を組み合わせてもよい。   The image generation unit 19 generates a predetermined image for displaying a statistic amount to a user, a subject, or the like. Specifically, the image generation unit 19 generates, for example, an image of a face numerical value table (map) in which statistics are input to each mesh. In addition, the image generation unit 19 defines a predetermined level for, for example, an average value or a standard deviation, and generates an image that is color-coded based on the level. In the first embodiment, the present invention is not limited to color classification. For example, pattern classification may be performed based on a predetermined level, or a color and a pattern may be combined.

また、画像生成手段19は、メッシュ領域全体に対して色や模様を付与するのではなく、例えばメッシュの外枠のみに色や模様を付与してもよい。また、色分け等は、背景となる顔画像が分かるように半透明でもよく、透明にしなくてもよい。また、画像生成手段19は、被験者毎或いは全被験者の統計量のヒストグラム等を用いて統計的な水準に対応付けた画像を生成することができる。これにより、第1実施形態では、より明確に統計結果等をユーザや被験者等に提供することができる。   Further, the image generation means 19 may give a color or a pattern only to the outer frame of the mesh, for example, instead of giving a color or a pattern to the entire mesh area. Further, the color coding or the like may be translucent or not transparent so that a face image as a background can be seen. Moreover, the image generation means 19 can generate | occur | produce the image matched with the statistical level using the histogram etc. of the statistics of every test subject or all the test subjects. Thereby, in 1st Embodiment, a statistical result etc. can be provided to a user, a test subject, etc. more clearly.

なお、画像生成手段19は、生成した画像を出力手段12の画面に表示する際、ユーザや被験者に見やすくするために、例えば所定領域の拡大や輝度反転等の処理を行った後、表示させることもできる。また、画像生成手段19は、画像のうち、ユーザにより設定された領域に対する擬似カラー生成等の処理を行う。   In addition, when displaying the generated image on the screen of the output unit 12, the image generation unit 19 displays the image after performing processing such as enlargement of a predetermined region or luminance inversion for easy viewing by the user or the subject. You can also. The image generation unit 19 performs a process such as pseudo color generation for an area set by the user in the image.

送受信手段20は、例えばインターネットやLAN(Local Area Network)等に代表される通信ネットワークを介して外部装置とデータの送受信を行うための通信手段である。なお、送受信手段20は、外部装置等に既に記憶されている顔画像データや被験者情報等を受信することができ、また画像解析装置10で解析された結果を、通信ネットワークを介して外部装置に送信することもできる。   The transmission / reception means 20 is a communication means for transmitting / receiving data to / from an external device via a communication network represented by, for example, the Internet or a LAN (Local Area Network). The transmission / reception means 20 can receive face image data, subject information, and the like that are already stored in the external device and the results analyzed by the image analysis device 10 are transmitted to the external device via the communication network. It can also be sent.

制御手段21は、画像解析装置10の各構成部全体の制御を行う。具体的には、制御手段21は、例えばユーザ等による入力手段11からの指示等に基づいて、画像取得処理や補正処理、メッシュ配置処理、統計量算出処理、画像解析処理、画像生成処理等の各制御を行う。   The control unit 21 controls the entire components of the image analysis apparatus 10. Specifically, the control unit 21 performs, for example, an image acquisition process, a correction process, a mesh arrangement process, a statistic calculation process, an image analysis process, an image generation process, and the like based on an instruction from the input unit 11 by a user or the like. Perform each control.

<画像解析装置10:ハードウェア構成>
ここで、上述した画像解析装置10においては、各機能をコンピュータに実行させることができる実行プログラム(画像解析プログラム)を生成し、例えば汎用のパーソナルコンピュータ、サーバ等にその実行プログラムをインストールすることにより、本発明における画像解析処理を実現することができる。ここで、第1実施形態における画像解析処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。
<Image Analysis Device 10: Hardware Configuration>
Here, in the image analysis apparatus 10 described above, an execution program (image analysis program) that can cause a computer to execute each function is generated, and the execution program is installed in, for example, a general-purpose personal computer or server. The image analysis processing in the present invention can be realized. Here, an example of a hardware configuration of a computer capable of realizing the image analysis processing in the first embodiment will be described with reference to the drawings.

図2は、第1実施形態における画像解析処理が実現可能なハードウェア構成の一例を示す図である。図2におけるコンピュータ本体には、入力装置31と、出力装置32と、ドライブ装置33と、補助記憶装置34と、メモリ35と、各種制御を行うCPU(Central Processing Unit)36と、ネットワーク接続装置37とを有するよう構成されており、これらはシステムバスBで相互に接続されている。   FIG. 2 is a diagram illustrating an example of a hardware configuration capable of realizing the image analysis processing according to the first embodiment. 2 includes an input device 31, an output device 32, a drive device 33, an auxiliary storage device 34, a memory 35, a CPU (Central Processing Unit) 36 for performing various controls, and a network connection device 37. Are connected to each other via a system bus B.

入力装置31は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスを有しており、ユーザ等からのプログラムの実行等、各種操作信号を入力する。また、入力装置31は、ネットワーク接続装置37等に接続された外部装置から通信ネットワークを介して得られる画像や画像取得手段14により得られる画像を入力することもできる。   The input device 31 has a pointing device such as a keyboard and a mouse operated by a user or the like, and inputs various operation signals such as execution of a program from the user or the like. The input device 31 can also input an image obtained from an external device connected to the network connection device 37 or the like via the communication network or an image obtained by the image acquisition unit 14.

出力装置32は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU36が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。また、出力装置32は、上述の処理結果等を紙等の印刷媒体に印刷して、ユーザや被験者等に提示することができる。   The output device 32 has a display for displaying various windows and data necessary for operating the computer main body for performing the processing according to the present invention, and displays the program execution progress and results by the control program of the CPU 36. can do. Further, the output device 32 can print the above-described processing result or the like on a print medium such as paper and present it to a user, a subject, or the like.

ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えば、USB(Universal Serial Bus)メモリやCD−ROM、DVD等の可搬型の記録媒体38等により提供される。プログラムを記録した記録媒体38は、ドライブ装置33にセット可能であり、記録媒体38に含まれる実行プログラムが、記録媒体38からドライブ装置33を介して補助記憶装置34にインストールされる。   Here, the execution program installed in the computer main body in the present invention is provided by, for example, a portable recording medium 38 such as a USB (Universal Serial Bus) memory, a CD-ROM, or a DVD. The recording medium 38 on which the program is recorded can be set in the drive device 33, and the execution program included in the recording medium 38 is installed in the auxiliary storage device 34 from the recording medium 38 via the drive device 33.

補助記憶装置34は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。   The auxiliary storage device 34 is a storage means such as a hard disk, and can store an execution program in the present invention, a control program provided in a computer, and the like, and can perform input / output as necessary.

メモリ35は、CPU36により補助記憶装置34から読み出された実行プログラム等を格納する。なお、メモリ35は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。   The memory 35 stores an execution program read from the auxiliary storage device 34 by the CPU 36. Note that the memory 35 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPU36は、OS(Operating System)等の制御プログラム、及びメモリ35に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現することができる。なお、プログラムの実行中に必要な各種情報等は、補助記憶装置34から取得することができ、また実行結果等を格納することもできる。   The CPU 36 controls processing of the entire computer, such as various operations and input / output of data with each hardware component, based on a control program such as an OS (Operating System) and an execution program stored in the memory 35. Each processing can be realized. Various information necessary during the execution of the program can be acquired from the auxiliary storage device 34, and the execution result and the like can also be stored.

ネットワーク接続装置37は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の装置等に提供することができる。   The network connection device 37 acquires an execution program from another terminal connected to the communication network by connecting to a communication network or the like, or an execution result obtained by executing the program or an execution in the present invention The program itself can be provided to other devices.

また、ネットワーク接続装置37は、通信ネットワークに接続された外部装置に記憶された撮影画像や被験者情報等の各種データを取得することもできる。   The network connection device 37 can also acquire various data such as a captured image and subject information stored in an external device connected to the communication network.

上述したようなハードウェア構成により、本発明における画像解析処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における画像解析処理を容易に実現することができる。   With the hardware configuration as described above, the image analysis processing in the present invention can be executed. Further, by installing the program, the image analysis processing according to the present invention can be easily realized by a general-purpose personal computer or the like.

<第1実施形態における画像解析処理手順>
次に、上述した画像解析装置10や画像解析プログラムを用いた第1実施形態における画像解析処理手順について説明する。図3は、第1実施形態における画像解析処理手順の一例を示すフローチャートである。
<Image Analysis Processing Procedure in First Embodiment>
Next, an image analysis processing procedure in the first embodiment using the image analysis apparatus 10 and the image analysis program described above will be described. FIG. 3 is a flowchart illustrating an example of an image analysis processing procedure in the first embodiment.

図3に示す画像解析処理は、まず、撮影された画像を取得する(S01)。なお、取得される画像は、例えば、可視領域撮影画像(可視画像)、近赤外領域撮影画像(近赤外画像)、赤外領域撮影画像(赤外画像)、及び紫外線撮影画像(紫外画像)等のうち少なくとも1つを含むが、これに限定されるものではない。   In the image analysis process shown in FIG. 3, first, a captured image is acquired (S01). Note that the acquired image includes, for example, a visible region captured image (visible image), a near infrared region captured image (near infrared image), an infrared region captured image (infrared image), and an ultraviolet image captured image (ultraviolet image). ) Etc., but is not limited to this.

次に、画像解析処理は、S01で取得した画像に対して、例えば色補正、コントラスト補正、及び明るさ補正等のうち、少なくとも1つの補正処理を行う(S02)。S02の処理は、例えば複数の画像に対して同一の条件で解析できるように、画像の補正を行う。なお、第1実施形態においては、S02の処理は実施しなくてもよい。   Next, in the image analysis process, at least one correction process, such as color correction, contrast correction, and brightness correction, is performed on the image acquired in S01 (S02). The process of S02 corrects an image so that a plurality of images can be analyzed under the same conditions, for example. In the first embodiment, the process of S02 need not be performed.

次に、画像解析処理は、補正された画像に対して、基準点の設定を行う(S03)。具体的には、例えば顔面において、動きの少ない部位を基準点に設定する。なお、基準点は、縦と横の比率が算出できるように、同一直線上ではなく異なる地点に3点以上の基準点を設定するのが好ましい。なお、基準点としては、上述したように例えば両目尻、両目頭、鼻先、顎先、上唇中央、耳穴等があるが、これに限定されるものではない。   Next, the image analysis process sets a reference point for the corrected image (S03). Specifically, for example, a part of the face with less movement is set as a reference point. In addition, it is preferable that three or more reference points are set at different points rather than on the same straight line so that the vertical / horizontal ratio can be calculated. Examples of the reference point include, but are not limited to, both the corners of the eyes, the heads of the eyes, the tip of the nose, the tip of the chin, the center of the upper lip, and the ear hole.

次に、画像解析処理は、基準点に基づいて予め設定されるメッシュの大きさを算出する(S04)。例えば、矩形型のメッシュを配置する場合には、両目尻の幅に対して所定数(例えば、10〜15個)のメッシュを配置する際のメッシュの配置数に応じてメッシュ1個の横の長さが設定される。また、第1実施形態では、目尻から上唇中央までの縦の幅に対して所定数(例えば、10〜15個)のメッシュを配置する際のメッシュの配置数に応じてメッシュ1個の縦の長さが設定される。これにより、被験者毎のメッシュの縦横の長さが決定される。なお、メッシュの配置数については、例えば画像の画素数や画像中に含まれる顔領域の割合等に対応させて設定することができるが、これに限定されるものではない。例えば、第1実施形態では、メッシュが三角形の場合には、3つの基準点を頂点とする三角形の相似形状に基づいてメッシュの大きさを設定してもよい。   Next, the image analysis process calculates a preset mesh size based on the reference point (S04). For example, in the case of arranging a rectangular mesh, a predetermined number (for example, 10 to 15) of meshes is arranged with respect to the width of both eye corners. The length is set. Further, in the first embodiment, a vertical mesh of one mesh is arranged according to the number of meshes arranged when a predetermined number (for example, 10 to 15) of meshes is arranged with respect to the vertical width from the corner of the eye to the center of the upper lip. The length is set. Thereby, the vertical and horizontal lengths of the mesh for each subject are determined. Note that the number of mesh arrangements can be set according to, for example, the number of pixels of the image or the ratio of the face area included in the image, but is not limited thereto. For example, in the first embodiment, when the mesh is a triangle, the size of the mesh may be set based on a similar shape of a triangle having three reference points as vertices.

次に、画像解析処理は、所定の基準位置を中心にメッシュ群を配置する(S05)なお、S05の処理において、メッシュは、被験者毎に同一数量を配置する。また、S05の処理では、額や頬等の特定の解析領域におけるメッシュの相対的な位置を固定にすることができる。   Next, in the image analysis process, a mesh group is arranged around a predetermined reference position (S05). In the process of S05, the same quantity of mesh is arranged for each subject. In the process of S05, the relative position of the mesh in a specific analysis region such as the forehead or cheek can be fixed.

次に、画像解析処理は、各メッシュ内の統計量を算出する(S06)。なお、統計量としては、例えば、輝度の平均値や標準偏差等があるがこれに限定されるものではない。また、第1実施形態では、例えばメッシュ内に存在するホクロやシミ、傷等がある場合には、画像解析等によりその領域を除いた領域を用いて輝度の平均値や標準偏差を求めることができる。   Next, the image analysis process calculates a statistic in each mesh (S06). Examples of the statistics include, but are not limited to, an average value of brightness and a standard deviation. In the first embodiment, for example, when there are moles, spots, scratches, or the like existing in the mesh, the average value or standard deviation of the luminance is obtained using an area other than the area by image analysis or the like. it can.

次に、画像解析処理は、上述した統計量を表示する画面を生成する。具体的には、第1実施形態では、S06の処理で得られたメッシュ毎の統計量を、予め設定された顔画像の所定の位置に対応するメッシュのマップ図に入力する(S07)。   Next, an image analysis process produces | generates the screen which displays the statistics mentioned above. Specifically, in the first embodiment, the statistic for each mesh obtained in the process of S06 is input to a map diagram of a mesh corresponding to a predetermined position of a preset face image (S07).

次に、画像解析処理は、例えば被験者毎又は全被験者の統計量のヒストグラム等を用いて統計的に水準を算出し(S08)、算出された任意の水準で顔画像に配置されたメッシュに対して色分け等で表示する(S09)。これにより、メッシュ毎の輝度の様子をユーザや被験者が容易に把握させることができる。なお、第1実施形態において画面に表示される画像については、これに限定されるものではなく、他の各種画面を表示させることができる。   Next, in the image analysis process, for example, a level is statistically calculated using a histogram of statistics for each subject or all subjects (S08), and the mesh placed on the face image at the calculated arbitrary level is calculated. Are displayed in different colors (S09). Thereby, a user or a test subject can grasp | ascertain easily the mode of the brightness | luminance for every mesh. The image displayed on the screen in the first embodiment is not limited to this, and other various screens can be displayed.

<取得される画像に応じた解析手法について>
第1実施形態では、取得する画像に応じて多種の解析を行うことができる。例えば、可視画像(例えば、波長領域が約380nm〜約750nm)の場合には、カラー画像から肌の色全体の分布或いは肌の平均的な色とは異なる部分を抽出し、その分布や部分に基づく肌の解析を行うことができる。
<Analysis method according to the acquired image>
In the first embodiment, various types of analysis can be performed according to the acquired image. For example, in the case of a visible image (for example, a wavelength region of about 380 nm to about 750 nm), a distribution of the entire skin color or a portion different from the average skin color is extracted from the color image, and the distribution or the portion is extracted. Based on the analysis of the skin.

また、可視画像の場合には、色彩から見た肌の滑らかさ(綺麗さ)やシミ、赤みといった美容上の問題となる色の解析が可能となる。更に、可視画像の場合には、取得したカラー画像をRGB分解することで、それぞれ輝度の濃淡を取得することができるため、上述したメッシュ毎の解析ができ、上述した解析手法が適用できる。   Further, in the case of a visible image, it is possible to analyze a color that causes cosmetic problems such as smoothness (cleanliness), spots, and redness of the skin as seen from the color. Further, in the case of a visible image, the obtained color image can be RGB-decomposed to obtain the brightness gradation, so that the analysis for each mesh described above can be performed and the above-described analysis method can be applied.

また、近赤外画像(例えば、波長領域が約800nm〜約2500nm)の場合には、近赤外領域の特定の波長についての吸収を画像化し、その分布を用いて解析することができる。また、近赤外画像の場合には、波長により水分や油分の解析が可能である。更に、近赤外画像の場合には、近赤外領域の吸収を輝度情報として画像化することができる。   Further, in the case of a near-infrared image (for example, a wavelength region of about 800 nm to about 2500 nm), absorption at a specific wavelength in the near-infrared region can be imaged and analyzed using the distribution. In the case of a near-infrared image, it is possible to analyze moisture and oil content by wavelength. Further, in the case of a near-infrared image, absorption in the near-infrared region can be imaged as luminance information.

また、赤外画像(例えば、波長領域が約2500nm〜1000μm)の場合には、熱画像を取得できるため、肌表面の温度分布状態を分析することができる。また、赤外画像の場合には、温度変化を取得することができるため、例えば肌のマッサージ後の温度変化や外環境に対する影響等を解析することができる。更に、赤外画像の場合には、取得画像は温度を輝度情報に変換したものであることから、その輝度情報から上述したメッシュ毎の解析ができ、上述した解析手法が適用できる。   Moreover, in the case of an infrared image (for example, a wavelength region is about 2500 nm-1000 micrometers), since a thermal image can be acquired, the temperature distribution state of the skin surface can be analyzed. Moreover, in the case of an infrared image, since a temperature change can be acquired, for example, a temperature change after massaging the skin, an influence on the external environment, and the like can be analyzed. Furthermore, in the case of an infrared image, the acquired image is obtained by converting temperature into luminance information. Therefore, the analysis for each mesh described above can be performed from the luminance information, and the above-described analysis method can be applied.

更に、紫外画像(例えば、波長領域が約10nm〜約400nm)の場合には、主にメラニンが強調された画像が取得できるため、シミの部分を抽出し、その分布状態から肌の解析を行うことができる。つまり、紫外画像の場合には、シミに特化した解析が可能となる。更に、紫外画像の場合には、取得画像は輝度情報であるため、その輝度情報から上述したメッシュ毎の解析ができ、上述した解析手法が適用できる。   Furthermore, in the case of an ultraviolet image (for example, a wavelength region of about 10 nm to about 400 nm), an image in which melanin is mainly emphasized can be acquired. Therefore, a spot portion is extracted and the skin is analyzed from the distribution state. be able to. That is, in the case of an ultraviolet image, an analysis specialized for spots can be performed. Furthermore, in the case of an ultraviolet image, since the acquired image is luminance information, the analysis for each mesh described above can be performed from the luminance information, and the analysis method described above can be applied.

なお、上述した可視画像は、例えばデジタルカメラで撮影でき、近赤外画像は、例えば水等を可視化する撮像手段等で撮影でき、赤外画像は、例えばサーモグラフィー等で撮影でき、紫外画像は、例えばシミ等を強調するカメラ等により撮影することができるが、これに限定されるものではない。第1実施形態における手法は、広義の意味では、観測対象物へ電磁波を照射したときの反射或いは吸収の状態を定量して画像化したものである。また、画像化する阻止の大きさや数によって情報量が変化する。なお、照明装置や撮影装置等については、例えば、本出願人により出願された特許第4882019号公報等に示される装置等を利用することができるが、これに限定されるものではない。   The above-mentioned visible image can be taken with a digital camera, for example, the near-infrared image can be taken with an imaging means for visualizing water or the like, the infrared image can be taken with, for example, a thermography, and the ultraviolet image is For example, the image can be taken with a camera or the like that emphasizes spots or the like, but is not limited thereto. In a broad sense, the technique in the first embodiment is an image obtained by quantifying a reflection or absorption state when an observation object is irradiated with electromagnetic waves. In addition, the amount of information changes depending on the size and number of blocks to be imaged. As for the illumination device, the photographing device, and the like, for example, a device shown in Japanese Patent No. 4882019 filed by the present applicant can be used, but the invention is not limited thereto.

なお、上述した各画像については、解析内容等に応じて所定の波長領域で撮影された被験者の顔画像を用いて、被験者の皮膚の解析を行う。   In addition, about each image mentioned above, a test subject's skin is analyzed using the test subject's face image image | photographed by the predetermined | prescribed wavelength range according to the analysis content etc.

<メッシュ形状の違いについて>
ここで、第1実施形態における被験者毎のメッシュ形状の違いについて、図を用いて説明する図4は、メッシュ形状の違いを説明するための図である。図4には、一例として異なる被験者の顔画像40−1,40−2を有する。各顔画像40−1,40−2は、一例として顔の正面画像を示し、顔領域には、上述した基準点に基づいてメッシュ群が配置され、メッシュで各領域が分割されている。
<Difference in mesh shape>
Here, the difference in mesh shape for each subject in the first embodiment will be described with reference to the drawings. FIG. 4 is a diagram for explaining the difference in mesh shape. FIG. 4 includes face images 40-1 and 40-2 of different subjects as an example. Each of the face images 40-1 and 40-2 shows a front image of the face as an example. In the face area, a mesh group is arranged based on the reference points described above, and each area is divided by the mesh.

ここで、図4に示すように各顔画像40−1,40−2の同一メッシュ部分を抽出すると、各部分画像41−1,41−2のメッシュの大きさは異なっている。具体的には、顔画像40−1に配置された各メッシュ42−1は、縦28ピクセル(pixel)×横25ピクセルであるのに対し、顔画像40−2に配置された各メッシュ42−2は、縦25ピクセル(pixel)×横27ピクセルである。そのように被験者毎の顔の形状や大きさに応じてメッシュの大きさを設定して配置するため、各被験者のメッシュの数が等しくなり、同一位置のメッシュ毎の比較等を高精度に行うことができる。なお、第1実施形態では、被験者毎のメッシュの大きさが異なるが、メッシュ毎に平均値や標準偏差等の統計量に基づいて比較を行うため、大きさの差による評価指標としての影響はない。   Here, when the same mesh portion of each of the face images 40-1 and 40-2 is extracted as shown in FIG. 4, the size of the mesh of each of the partial images 41-1 and 41-2 is different. Specifically, each mesh 42-1 arranged in the face image 40-1 is 28 pixels in height × 25 pixels in width, whereas each mesh 42- arranged in the face image 40-2. 2 is 25 pixels vertical by 27 pixels horizontal. Since the mesh size is set and arranged according to the shape and size of the face for each subject as described above, the number of meshes for each subject becomes equal, and comparison between the meshes at the same position is performed with high accuracy. be able to. In the first embodiment, although the size of the mesh for each subject is different, since the comparison is performed based on statistics such as an average value and a standard deviation for each mesh, the influence as an evaluation index due to the difference in size is Absent.

<マップ図への入力について>
ここで、第1実施形態におけるマップ図への統計量の入力例について説明する。図5,図6は、第1実施形態におけるマップ図への統計量の入力例を説明するための図(その1,その2)である。図5の例では、顔領域の正面図を示し、図6の例では、顔領域の左右両側面図を示している。
<About input to the map>
Here, an example of inputting statistics to the map diagram in the first embodiment will be described. FIGS. 5 and 6 are diagrams (No. 1 and No. 2) for explaining an example of inputting statistics to the map diagram in the first embodiment. The example of FIG. 5 shows a front view of the face area, and the example of FIG. 6 shows left and right side views of the face area.

第1実施形態では、例えば、図5(A)に示す予め設定された顔領域に対して縦、横に所定数配置された矩形の各メッシュ42に対し、図5(B)に示すように、被験者が実際に割り当てられた輝度平均値や輝度標準偏差値が入力される。なお、図5(B)の例では、各メッシュの位置に対応する輝度平均値が入力されている。このメッシュの配置位置や数は、被験者毎に一致する。   In the first embodiment, for example, as shown in FIG. 5B, for each of the rectangular meshes 42 arranged in a predetermined number of lengths and widths with respect to the preset face area shown in FIG. The average brightness value and the standard brightness deviation value actually assigned by the subject are input. In the example of FIG. 5B, the average luminance value corresponding to the position of each mesh is input. The arrangement position and number of meshes are the same for each subject.

また、左右の顔領域に対する統計量を測定した場合には、図6に示すように、左右のメッシュに対して統計量が入力される。また、統計量は、全てのメッシュについて入力しなくてもよく、一部のメッシュに対する入力であってもよい。   When the statistics for the left and right face regions are measured, the statistics are input to the left and right meshes as shown in FIG. The statistics may not be input for all meshes, and may be input for some meshes.

なお、図5,6の例では、被験者そのものの顔画像ではなく、サンプルとしてのモデル顔画像43を表示させているが、これに限定されるものではなく、被験者の顔画像であってもよい。第1実施形態では、メッシュの数が被験者毎に同一になるため、図5,6に示すようなモデル顔画像43を用いても同一位置での統計量の入力が可能となる。したがって、各被験者間で統合した解析や評価を行うことができる。これにより、第1実施形態では、例えばメッシュ単位で詳細な水分量やメッシュ間の輝度のばらつき度といった解析を行うことができる。   5 and 6, the model face image 43 as a sample is displayed instead of the face image of the subject itself, but the present invention is not limited to this, and the face image of the subject may be used. . In the first embodiment, since the number of meshes is the same for each subject, it is possible to input statistics at the same position even using a model face image 43 as shown in FIGS. Therefore, the analysis and evaluation integrated between each test subject can be performed. Thereby, in 1st Embodiment, analysis, such as a detailed moisture content and the dispersion | variation degree of the brightness | luminance between meshes, can be performed, for example per mesh.

なお、図5,6の例では、各メッシュに位置情報(例えば、メッシュ番号)を割り振っておくことで、メッシュ毎の管理を容易に行うことができる。また、位置情報を用いて複数の被験者の同一位置のメッシュの情報(例えば、統計量)等を容易に抽出することができ、解析や評価に用いることができる。   In the example of FIGS. 5 and 6, position information (for example, mesh number) is allocated to each mesh, whereby management for each mesh can be easily performed. Further, mesh information (for example, statistics) at the same position of a plurality of subjects can be easily extracted using the position information, and can be used for analysis and evaluation.

<解析内容>
次に、第1実施形態における統計量からの解析内容について、図を用いて説明する。図7は、統計量に対応する解析内容の一例を示す図である。なお、図7(A)は、輝度平均値に基づく水分マップの一例を示し、図7(B)は、輝度標準偏差に基づく肌のばらつきマップを示している。
<Content of analysis>
Next, analysis contents from the statistics in the first embodiment will be described with reference to the drawings. FIG. 7 is a diagram illustrating an example of analysis content corresponding to a statistic. 7A shows an example of a moisture map based on the luminance average value, and FIG. 7B shows a skin variation map based on the luminance standard deviation.

上述した統計量の算出により、メッシュ内の輝度平均値は、図7(A)に示すように明るい方は水分量が少なく、暗い方は水分量が多い。そのため、第1実施形態では、この輝度平均値の明るさの程度に応じて「水分の多い、少ない」を所定の水準に基づいて設定し、例えば水分マップとして水準レベル毎に色分けして画面に表示することができる。   As shown in FIG. 7A, the average brightness value in the mesh is calculated by the above-described calculation of the statistic, so that the brighter one has less water content and the darker one has more water content. For this reason, in the first embodiment, “water content is high or low” is set based on a predetermined level according to the brightness level of the average brightness value, for example, a color map for each level level as a moisture map. Can be displayed.

また、輝度の標準偏差においても、例えば肌荒れ(かさつき)がある場合には、輝度標準偏差が不均一になる。そこで、第1実施形態では、メッシュ内の輝度の標準偏差の結果に対応付けて「肌の均一、不均一」を所定の水準に基づいて設定し、例えば肌のばらつきマップとして水準レベル毎に色分けして画面に表示することができる。なお、輝度平均値や輝度標準偏差を用いて解析できる内容については、これに限定されるものではなく、取得される画像に応じて、例えば肌の滑らかさ、かさつき、シミ等の解析、評価等を行ってもよい。   Also, with respect to the standard deviation of luminance, for example, when there is rough skin (shading), the luminance standard deviation becomes non-uniform. Therefore, in the first embodiment, “skin uniformity, non-uniformity” is set based on a predetermined level in association with the result of the standard deviation of luminance in the mesh, and for example, color-coded for each level level as a skin variation map. Can be displayed on the screen. The contents that can be analyzed using the luminance average value and the luminance standard deviation are not limited to this, and depending on the acquired image, for example, analysis and evaluation of skin smoothness, roughness, spots, etc. Etc. may be performed.

なお、標準偏差の値は、例えば、複数の被験者のデータに基づく標準偏差でもよく、個別の被験者から統計的に取得したデータに基づく標準偏差でもよい。例えば、個別の被験者から統計的に取得したデータを用いる場合には、固有の肌特性に対応させた肌の解析を行うことができ、より高精度な画像解析を実現することができる。   The standard deviation value may be, for example, a standard deviation based on data of a plurality of subjects, or a standard deviation based on data statistically acquired from individual subjects. For example, in the case of using data statistically acquired from individual subjects, it is possible to perform skin analysis corresponding to specific skin characteristics, and to realize more accurate image analysis.

<画像生成例>
次に、解析結果に基づく画像生成例について、図を用いて説明する。図8は、水分マップの一例を示す図である。また、図9は、ばらつきマップの一例を示す図である。図8,9の例では、統計量を入力した顔画像の数値表に基づいてマップ化が行われている。
<Image generation example>
Next, an image generation example based on the analysis result will be described with reference to the drawings. FIG. 8 is a diagram illustrating an example of a moisture map. FIG. 9 is a diagram illustrating an example of a variation map. In the examples of FIGS. 8 and 9, mapping is performed based on a numerical table of face images to which statistics are input.

例えば、第1実施形態では、図8に示すように輝度の平均値について、予め設定した水準(例えば、Lebel1〜5)を規定し、その水準に基づいて色分け等によりマップ化を行う。具体的には、図8の例では、「Level1:非常に多い」、「Level2:多い」、「Level3:やや少ない」、「Level4:少ない」、「Level5:非常に少ない」として水準を設定している。   For example, in the first embodiment, as shown in FIG. 8, a predetermined level (for example, Levels 1 to 5) is defined for the average value of luminance, and mapping is performed by color coding or the like based on the level. Specifically, in the example of FIG. 8, the levels are set as “Level 1: very high”, “Level 2: high”, “Level 3: slightly low”, “Level 4: low”, and “Level 5: very low”. ing.

また、図8には、レベル毎の統計基準量(輝度の平均値、パーセンタイル値(%))を示している。例えば、図8の例では、パーセンタイル20%の値を区切りとして、輝度平均値0〜68までをLevel1としている。また同様に、パーセンタイル40%の値を区切りとして、輝度平均値68〜74までをLevel2としている。また、Level3〜5も同様に、図8に示すような輝度の平均値を区切りとして各レベルが設定される。なお、本実施形態におけるレベル数やレベルを区切るための値については、図8の例に限定されるものではなく、任意に設定することができる。   FIG. 8 shows statistical reference amounts (average luminance value, percentile value (%)) for each level. For example, in the example of FIG. 8, the luminance average value 0 to 68 is set as Level 1 with the percentile value of 20% as a delimiter. Similarly, the luminance average values 68 to 74 are set as Level 2 with the percentile value of 40% as a delimiter. Similarly, each of Levels 3 to 5 is set with the average luminance value as shown in FIG. Note that the number of levels and the values for dividing the levels in the present embodiment are not limited to the example of FIG. 8 and can be arbitrarily set.

また、本実施形態では、図9に示すように、輝度の標準偏差について、予め設定した水準(例えば、Lebel1〜5)を規定し、その水準に基づいて色分け等によりマップ化を行う。具体的には、図9の例では、「Level1:非常に均一」、「Level2:均一」、「Level3:ややばらついている」、「Level4:ばらついている」、「Level5:非常にばらついている」として水準を設定している。   In this embodiment, as shown in FIG. 9, a predetermined level (for example, Levels 1 to 5) is defined for the standard deviation of luminance, and mapping is performed by color coding or the like based on the level. Specifically, in the example of FIG. 9, “Level 1: very uniform”, “Level 2: uniform”, “Level 3: slightly varied”, “Level 4: varied”, “Level 5: very varied. "Is set as a standard.

また、図9には、レベル毎の統計基準量(輝度の標準偏差値、パーセンタイル値(%))を示している。例えば、図9の例では、パーセンタイル20%の値を区切りとして、輝度の標準偏差値0〜2.9までをLevel1としている。また、同様に、パーセンタイル40%の値を区切りとして、輝度の標準偏差値2.9〜3.6までをLevel2としている。また、Level3〜5も同様に、図9に示すような輝度の標準偏差値を区切りとして各レベルが設定される。なお、本実施形態におけるレベル数やレベルを区切るための値については、図9の例に限定されるものではなく、任意に設定することができる。   Further, FIG. 9 shows the statistical reference amount (standard deviation value of brightness, percentile value (%)) for each level. For example, in the example of FIG. 9, the standard deviation values 0 to 2.9 of the luminance are set as Level 1 with the percentile value of 20% as a delimiter. Similarly, the luminance standard deviation values 2.9 to 3.6 are set as Level 2 with the percentile value of 40% as a delimiter. Similarly, in Levels 3 to 5, each level is set with a luminance standard deviation value as shown in FIG. 9 as a delimiter. Note that the number of levels and the values for dividing the levels in the present embodiment are not limited to the example of FIG. 9 and can be arbitrarily set.

なお、マップ化は、上述したように水準毎に色分けされていることが好ましい。また、水準の算出方法は、例えば図8,9の例では、任意の群におけるパーセンタイル値を用いて5水準に分類し、色分けしているが、分類する数や色等についてはこれに限定されるものではない。また、図8,9の例では、正面顔、左右顔の両方についてのレベル分布が示されているが、これに限定されるものではなく、正面顔のみ、左右一方の顔のみ、又は一部の顔領域のみの分布図であってもよい。   Note that the mapping is preferably color-coded for each level as described above. Further, for example, in the examples of FIGS. 8 and 9, the level calculation method is classified into five levels using the percentile values in an arbitrary group and is color-coded, but the number and colors to be classified are limited to this. It is not something. 8 and 9 show the level distribution for both the front face and the left and right faces. However, the present invention is not limited to this, and only the front face, only one of the left and right faces, or a part thereof is shown. May be a distribution map of only the face area.

また、上述したようなレベルの分布図のパターンから、例えば予め設定されたパターンとのパターンマッチングによる認識により肌状態の解析を行うことができる。図10は、肌状態に対応するレベル分布の一例を示す図である。   In addition, the skin condition can be analyzed from the pattern of the level distribution map as described above, for example, by recognition by pattern matching with a preset pattern. FIG. 10 is a diagram illustrating an example of a level distribution corresponding to the skin state.

第1実施形態では、例えば図10(A)に示す「かさつきを感じる人のレベル分布」、図10(B)に示す「かさつきをやや感じる人のレベル分布、図10(C)に示す「かさつきをあまり感じない人のレベル分布」、図10(D)に示す「かさつきを感じない人のレベル分布」等を予め設定しておくことで、被験者から得られるレベル分布図と比較(パターンマッチング)して、被験者の肌状態を解析することができる。   In the first embodiment, for example, “level distribution of people who feel the roughness” shown in FIG. 10 (A), “level distribution of people who feel a little bit”, shown in FIG. 10 (C), Compared with the level distribution chart obtained from the subject by setting in advance the “level distribution of people who do not feel too much”, the “level distribution of people who do not feel the roughness” shown in FIG. (Pattern matching) to analyze the skin condition of the subject.

また、第1実施形態では、図10(E)に示す「N肌(健康肌)」、図10(F)に示す「D肌(乾燥肌)」、図10(G)に示す「O肌(脂性肌・オイリー肌)」、図10(H)に示す「DO肌(混合肌)」、等を予め設定しておくことで、被験者から得られるレベル分布図と比較して、被験者の肌状態を解析することができる。なお、上述した肌状態に対応するレベル分布は、例えば予め記憶手段13等に記憶されており、例えば上述した画像解析手段18によって読み出されて、上述した解析処理等に用いられたり、例えば画像生成手段19によって読み出されて、上述した画像生成処理等に用いられる。   In the first embodiment, “N skin (healthy skin)” shown in FIG. 10 (E), “D skin (dry skin)” shown in FIG. 10 (F), and “O skin” shown in FIG. 10 (G). (Old oil skin / oily skin) ”,“ DO skin (mixed skin) ”shown in FIG. 10 (H), etc. are set in advance, and compared with the level distribution chart obtained from the subject, the subject's skin The state can be analyzed. The level distribution corresponding to the skin condition described above is stored in advance in the storage unit 13 or the like, for example, and is read out by the image analysis unit 18 described above and used for the analysis processing described above or the like. It is read by the generation means 19 and used for the image generation processing described above.

<第2実施形態:画像解析装置:概略構成例>
次に、第2実施形態における画像解析装置の機能構成例について、図を用いて説明する。図11は、第2実施形態における画像解析装置の機能構成の一例を示す図である。なお、図11に示す画像解析装置50において、上述した第1実施形態における画像解析装置10に含まれる機能構成と略同一の機能を有するものは、同一の符号を付するものとし、ここでの具体的な説明は省略する。
Second Embodiment: Image Analysis Device: Schematic Configuration Example
Next, a functional configuration example of the image analysis apparatus according to the second embodiment will be described with reference to the drawings. FIG. 11 is a diagram illustrating an example of a functional configuration of the image analysis apparatus according to the second embodiment. In the image analysis device 50 shown in FIG. 11, components having substantially the same functions as those included in the image analysis device 10 in the first embodiment described above are denoted by the same reference numerals. Detailed description is omitted.

図11に示す画像解析装置50は、入力手段11と、出力手段12と、記憶手段13と、画像取得手段14と、補正手段15と、画像強調手段51と、メッシュ配置手段16と、統計量算出手段17と、画像解析手段18と、画像生成手段19と、送受信手段20と、制御手段21とを有する。   An image analysis apparatus 50 shown in FIG. 11 includes an input unit 11, an output unit 12, a storage unit 13, an image acquisition unit 14, a correction unit 15, an image enhancement unit 51, a mesh arrangement unit 16, and statistics. The calculation unit 17, the image analysis unit 18, the image generation unit 19, the transmission / reception unit 20, and the control unit 21 are included.

第2実施形態では、第1実施形態と比較すると画像強調手段51を有している。画像強調手段51は、補正手段15により補正された画像(補正を行わない場合は、画像取得手段14により取得された撮影画像)に対して、例えば、色修正、ノイズ除去、エッジ強調、及び暗い箇所を強調するシャドウ強調等のうち、少なくとも1つの強調処理を行う。なお、これらの強調画像は、例えば予め設定されたフィルター等を用いて強調画像を取得することができるが、これに限定されるものではない。   In the second embodiment, the image enhancing means 51 is provided as compared with the first embodiment. The image enhancement unit 51 performs, for example, color correction, noise removal, edge enhancement, and darkness on the image corrected by the correction unit 15 (when the correction is not performed, the captured image acquired by the image acquisition unit 14). At least one emphasis process is performed among shadow emphasis for emphasizing a portion. Note that these enhanced images can be acquired using, for example, a preset filter or the like, but are not limited thereto.

また、メッシュ配置手段16は、画像強調手段51により得られる画像を用いてメッシュ配置を行い、統計量算出手段17により統計量を算出する。したがって、第2実施形態では、強調画像に対する統計量を算出するため、第1実施形態よりも統計量の差を出すことができる。   The mesh placement unit 16 performs mesh placement using the image obtained by the image enhancement unit 51, and the statistic calculation unit 17 calculates the statistic. Therefore, in the second embodiment, since the statistic for the enhanced image is calculated, a difference in statistic can be obtained as compared with the first embodiment.

このように、第2実施形態では、例えば近赤外カメラ等を用いて撮影された画像を用いて肌表層部の水分を可視化し、その分布状態から被験者の肌状態を評価する場合、画像を強調することで、より明確に分布を可視化することができる。   As described above, in the second embodiment, for example, when the moisture of the skin surface layer portion is visualized using an image photographed using a near-infrared camera or the like, and the skin condition of the subject is evaluated from the distribution state, the image is displayed. Emphasis can visualize the distribution more clearly.

なお、第2実施形態では、肌のうるおいについては、色の暗い部分が水分による吸収であることから、被験者の平均値以下の輝度値を「うるおっている部位」とみなす。また、乾燥については、粉ふき状態等が分かり易いように、例えば所定数の水準程度(例えば、4水準等)に分けて乾燥の程度も指標とする。したがって、第2実施形態では、第1実施形態により得られる効果と同様の効果を得ることができると共に、近赤外線画像の輝度値等を用いて基準を設定することで、「うるおい」や「乾燥」を可視化することができる。   In the second embodiment, regarding the moisture of the skin, since the dark portion is absorbed by moisture, the luminance value equal to or lower than the average value of the subject is regarded as the “moisturized part”. As for drying, the degree of drying is also used as an index by dividing it into, for example, a predetermined number of levels (for example, 4 levels) so that the dusting state can be easily understood. Therefore, in the second embodiment, the same effect as that obtained by the first embodiment can be obtained, and “moisture” and “dry” can be obtained by setting a reference using the luminance value of the near-infrared image. Can be visualized.

<画像解析装置50:ハードウェア構成>
ここで、上述した画像解析装置50のハードウェア構成については、例えば上述した画像解析装置10のハードウェア構成と同様の構成を用いることができるため、ここでの具体的な説明は省略する。
<Image Analysis Device 50: Hardware Configuration>
Here, as the hardware configuration of the image analysis device 50 described above, for example, the same configuration as the hardware configuration of the image analysis device 10 described above can be used, and thus a specific description thereof is omitted here.

<第2実施形態における画像解析処理手順>
次に、上述した画像解析装置50や画像解析プログラムを用いた第2実施形態における画像解析処理手順について説明する。図12は、第2実施形態における画像解析処理手順の一例を示すフローチャートである。
<Image Analysis Processing Procedure in Second Embodiment>
Next, an image analysis processing procedure in the second embodiment using the image analysis device 50 and the image analysis program described above will be described. FIG. 12 is a flowchart illustrating an example of an image analysis processing procedure according to the second embodiment.

図12に示す画像解析処理は、まず、撮影された画像を取得する(S11)。なお、取得される画像は、例えば、可視領域撮影画像、近赤外領域撮影画像、及び紫外線撮影画像のうち少なくとも1つを含むが、これに限定されるものではない。次に、画像解析処理は、S11で取得した画像に対して色補正、コントラスト補正、及び明るさ補正等のうち、少なくとも1つの補正処理を行い、例えば複数の画像に対して同一の条件で解析できるようにする(S12)。なお、第2実施形態においては、S12の処理は実施しなくてもよい。   In the image analysis process shown in FIG. 12, first, a captured image is acquired (S11). The acquired image includes, for example, at least one of a visible region captured image, a near infrared region captured image, and an ultraviolet captured image, but is not limited thereto. Next, in the image analysis process, at least one correction process among color correction, contrast correction, brightness correction, and the like is performed on the image acquired in S11. For example, a plurality of images are analyzed under the same conditions. It is made possible (S12). In the second embodiment, the process of S12 need not be performed.

次に、画像解析処理は、補正された画像に対して、予め設定されたフィルター等を用いて目的の強調画像を取得し(S13)、取得した画像を用いて基準点の設定を行う(S14)。なお、それ以降のS15〜S20処理は、上述した第1実施形態における画像解析処理手順のS04〜09の処理と同様であるため、ここでの具体的な説明は省略する。   Next, in the image analysis processing, a target emphasized image is acquired for the corrected image using a preset filter or the like (S13), and a reference point is set using the acquired image (S14). ). The subsequent S15 to S20 processes are the same as the processes in S04 to 09 of the image analysis processing procedure in the first embodiment described above, and a specific description thereof will be omitted here.

<強調画像の取得方法>
ここで、上述した画像強調手段51による強調画像の取得方法の一例について図を用いて説明する。図13は、強調画像の取得方法の一例を説明するための図である。
<Obtained image acquisition method>
Here, an example of the acquisition method of the emphasized image by the image enhancement means 51 mentioned above is demonstrated using figures. FIG. 13 is a diagram for explaining an example of a method for acquiring an emphasized image.

強調画像の取得方法としては、例えば波長領域が1300nmで撮影した画像(ベース画像)から、波長領域1950nmで撮影した画像(水分画像)を差分することで、凹凸を除去した画像(差分画像)を取得する。   As an enhanced image acquisition method, for example, an image (difference image) from which unevenness is removed by subtracting an image (moisture image) captured in a wavelength region 1950 nm from an image (base image) captured in a wavelength region 1300 nm. get.

また、波長領域1950nmで撮影した画像(水分画像)は、予め設定されたハイパスフィルタやローパスフィルタ等により、ノイズ除去や輝度の傾きの除去を行い、解析領域の平均値より白い部分を抽出して強調画像を取得する。ここで、上述した輝度の傾きの除去について説明する。通常は、光源の調整によりほとんど均等に光が照射されるため一様な状態とみなされるが、若干凹凸の大きい所で影のような水分の吸収とは異なる変化が残っている可能性がある。そのため、このノイズとしての変化を、画像処理的に輝度を補正して平らな状態、すなわち、一様に照射された結果としての輝度変化となるように補正するために輝度の傾きの除去を行う。具体的には、光源に対して対象が傾いているような場合に、光源からと遠い部分と近い部分の差が少なくなるように補正を行う。また、図13に示すように、差分画像は、解析領域の平均値により白い部分を抽出して強調画像を取得することができる。   In addition, an image (moisture image) photographed in the wavelength region 1950 nm is subjected to noise removal and luminance gradient removal using a preset high-pass filter and low-pass filter, and a white portion is extracted from the average value of the analysis region. Acquire enhanced image. Here, the removal of the above-described luminance gradient will be described. Normally, light is emitted almost evenly by adjusting the light source, so it is regarded as a uniform state, but there may be a change that is different from the absorption of moisture such as shadows in a slightly uneven area. . Therefore, in order to correct the change as noise so that the brightness is corrected by image processing to be flat, that is, the brightness change as a result of uniform irradiation, the slope of the brightness is removed. . Specifically, when the target is inclined with respect to the light source, the correction is performed so that the difference between the portion far from the light source and the portion close to the light source is reduced. Moreover, as shown in FIG. 13, a difference image can extract a white part by the average value of an analysis area, and can acquire an emphasis image.

第2実施形態では、上述した強調画像等を用いることで、例えば濃いグレーの点状の領域を乾燥部分としての解析対象することができ、またグレーのグラデーション部分をうるおい部分としての解析対象とすることができる。また、第2実施形態では、それらの解析対象の情報の1つを用いて解析を行ったり、複数の情報を組み合わせて多種の解析を行うことができる。   In the second embodiment, by using the above-described enhanced image or the like, for example, a dark gray dot-like region can be analyzed as a dry portion, and a gray gradation portion can be analyzed as a moisture portion. be able to. In the second embodiment, analysis can be performed using one piece of information to be analyzed, or various types of analysis can be performed by combining a plurality of pieces of information.

<第2実施形態における解析結果>
図14は、第2実施形態における解析結果の一例を示す図である。図14(A)は、うるおいむらの解析結果の一例を示し、図14(B)は、乾燥むらの解析結果の一例を示し、図14(C)は、うるおいむら及び乾燥むらの両方の結果が表示された例を示している。
<Analysis result in the second embodiment>
FIG. 14 is a diagram illustrating an example of an analysis result in the second embodiment. FIG. 14A shows an example of the analysis result of moisture unevenness, FIG. 14B shows an example of the analysis result of drying unevenness, and FIG. 14C shows the result of both moisture unevenness and drying unevenness. An example in which is displayed.

図14(A)の例では、例えば予め設定された所定の選択領域の輝度平均値よりも水分が多い部分をレベルに応じた所定の色(例えば、青)等の透かしで表現している。なお、所定の選択領域とは、例えば解析をする際に解析対象となる部位を多角形で任意に選択した多角形選択領域等を示し、例えば目・鼻・口を除いた部分を囲むように設定される。また、図14(B)の例では、所定の選択領域を所定のバンドパスフィルタ(CutOff(高周波、低周波))でフィルタリングした画像に対し、乾燥むらの部分をレベルに応じた所定の色(例えば、赤)等で表現している。なお、第2実施形態では、解析結果として、例えば図14(A)、(B)に示すように、うるおいむらや乾燥むらに対して、Poly領域平均値、指標1(絶対値の積算/Poly領域)、指標2(平均との差分の積算/Poly領域)を表示してもよい。なお、Poly領域とは、例えばポリゴン(例えば、所定の多角形)の領域を意味する。   In the example of FIG. 14A, for example, a portion where the amount of water is higher than the luminance average value of a predetermined selection area set in advance is expressed by a watermark such as a predetermined color (for example, blue) corresponding to the level. The predetermined selection area refers to, for example, a polygon selection area in which a part to be analyzed is arbitrarily selected by a polygon when performing analysis, and surrounds a part excluding eyes, nose, and mouth, for example. Is set. Further, in the example of FIG. 14B, a portion of uneven drying is determined in a predetermined color (corresponding to a level) with respect to an image obtained by filtering a predetermined selection region with a predetermined bandpass filter (CutOff (high frequency, low frequency)). For example, red). In the second embodiment, as an analysis result, for example, as shown in FIGS. 14A and 14B, the Poly region average value and the index 1 (absolute value integration / Poly) for moisture unevenness and dry unevenness. Area) and index 2 (accumulation of difference from average / Poly area) may be displayed. The Poly area means, for example, a polygon (for example, a predetermined polygon) area.

また、図14(C)に示すように、うるおいむらと乾燥むらの両方を正面顔、左右顔に対して表現することができる。これにより、各むらのある部分を強調して表示することができ、ユーザや被験者に対して容易にむらのある部分を認識させることができる。   Further, as shown in FIG. 14C, both moisture unevenness and dry unevenness can be expressed for the front face and the left and right faces. Thereby, each uneven part can be emphasized and displayed, and a user or a test subject can be made to recognize an uneven part easily.

上述したように、本発明によれば、被験者の撮影画像を用いて肌等の解析を高精度に行うことができる。なお、本発明によれば、例えば近赤外線画像を用いて上述した解析処理により生成されたマップと、予め設定される官能評価によるマップ等とを組み合わせて肌評価することができる。これにより、被験者に対する新たな肌ケアカウンセリングや化粧品提供等のサービスを提供することができる。   As described above, according to the present invention, skin and the like can be analyzed with high accuracy using a photographed image of a subject. In addition, according to this invention, skin evaluation can be carried out combining the map produced | generated by the analysis process mentioned above using the near-infrared image, the map by sensory evaluation etc. which were preset, for example. Thereby, services such as new skin care counseling and cosmetics provision for the subject can be provided.

以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

10,50 画像解析装置
11 入力手段
12 出力手段
13 記憶手段
14 画像取得手段
15 補正手段
16 メッシュ配置手段
17 統計量算出手段
18 画像解析手段
19 画像生成手段
20 送受信手段
21 制御手段
31 入力装置
32 出力装置
33 ドライブ装置
34 補助記憶装置
35 メモリ
36 CPU
37 ネットワーク接続装置
38 記憶手段
40 顔画像
41 部分画像
42 メッシュ
43 モデル顔画像
DESCRIPTION OF SYMBOLS 10,50 Image analysis apparatus 11 Input means 12 Output means 13 Storage means 14 Image acquisition means 15 Correction means 16 Mesh arrangement means 17 Statistics calculation means 18 Image analysis means 19 Image generation means 20 Transmission / reception means 21 Control means 31 Input device 32 Output Device 33 Drive device 34 Auxiliary storage device 35 Memory 36 CPU
37 Network connection device 38 Storage means 40 Face image 41 Partial image 42 Mesh 43 Model face image

Claims (11)

所定の波長領域で撮影された被験者の顔画像を用いて、前記被験者の顔の肌の解析を行う画像解析方法において、
前記顔画像から得られる、少なくとも目尻を含む3点以上の基準点に基づいて、複数のメッシュを配置するメッシュ領域の縦横の長さを設定する領域設定ステップと、
前記メッシュ領域の縦幅をメッシュの縦の個数で除算することで、メッシュの縦の長さを算出し、前記メッシュ領域の横幅をメッシュの横の個数で除算することで、メッシュの横の長さを算出して、算出した大きさの同一種類の多角形状の複数のメッシュを配置するメッシュ配置ステップと、
前記メッシュ配置ステップにより得られるメッシュ毎に統計量を算出する統計量算出ステップと、
前記統計量算出ステップにより得られる統計量に基づいて前記メッシュ毎の肌の解析する画像解析ステップと、
前記画像解析ステップにより得られる解析結果の画像を生成する画像生成ステップとを有することを特徴とする画像解析方法。
In the image analysis method for analyzing the skin of the face of the subject using the face image of the subject photographed in a predetermined wavelength region,
An area setting step for setting the vertical and horizontal lengths of a mesh area in which a plurality of meshes are arranged based on at least three reference points including at least the corners of the eye obtained from the face image;
The vertical length of the mesh area is calculated by dividing the vertical width of the mesh area by the vertical number of meshes, and the horizontal width of the mesh area is calculated by dividing the horizontal width of the mesh area by the horizontal number of meshes. A mesh placement step of calculating a thickness and placing a plurality of polygonal meshes of the same type of the calculated size;
A statistic calculation step for calculating a statistic for each mesh obtained by the mesh placement step;
An image analysis step for analyzing the skin for each mesh based on the statistic obtained by the statistic calculation step;
And an image generation step of generating an image of an analysis result obtained by the image analysis step.
前記顔画像は、正面顔と少なくとも左右の一方の顔を含むことを特徴とする請求項1に記載の画像解析方法。   The image analysis method according to claim 1, wherein the face image includes a front face and at least one of left and right faces. 前記所定の波長領域は、約800nm〜約2500nmの近赤外線であることを特徴とする請求項1又は2に記載の画像解析方法。   The image analysis method according to claim 1, wherein the predetermined wavelength region is a near infrared ray of about 800 nm to about 2500 nm. 前記メッシュ配置ステップは、
前記基準点に基づいて、他の被験者との間でメッシュの数が同一となるようにメッシュの形状を設定することを特徴とする請求項1乃至3の何れか一項に記載の画像解析方法。
The mesh placement step includes:
The image analysis method according to any one of claims 1 to 3, wherein the shape of the mesh is set so that the number of meshes is the same with another subject based on the reference point. .
前記統計量算出ステップは、
前記メッシュ毎に含まれる画素の輝度の平均値又は輝度の標準偏差による統計量を算出することを特徴とする請求項1乃至4の何れか一項に記載の画像解析方法。
The statistic calculation step includes:
5. The image analysis method according to claim 1, further comprising: calculating a statistic based on an average value of luminance or standard deviation of luminance of pixels included in each mesh.
前記画像生成ステップは、
前記統計量算出ステップにより算出された統計量に基づいて所定の基準に基づいて色分け又は模様分けしたマップを生成することを特徴とする請求項1乃至5の何れか1項に記載の画像解析方法。
The image generation step includes
6. The image analysis method according to claim 1, wherein a map color-coded or pattern-coded based on a predetermined criterion is generated based on the statistic calculated in the statistic calculating step. .
前記所定の波長領域で撮影された被験者の画像に強調処理を行う画像強調ステップを有することを特徴とする請求項1乃至6の何れか1項に記載の画像解析方法。   The image analysis method according to claim 1, further comprising an image enhancement step of performing enhancement processing on an image of a subject photographed in the predetermined wavelength region. 所定の波長領域で撮影された被験者の顔画像を用いて、前記被験者の顔の肌の解析を行う画像解析装置において、
前記画像から得られる少なくとも目尻を含む3点以上の基準点に基づいて、複数のメッシュを配置するメッシュ領域の縦横の長さを設定して、前記メッシュ領域の縦幅をメッシュの縦の個数で除算することで、メッシュの縦の長さを算出し、前記メッシュ領域の横幅をメッシュの横の個数で除算することで、メッシュの横の長さを算出して、算出した大きさの同一種類の多角形状の複数のメッシュを配置するメッシュ配置手段と、
前記メッシュ配置手段により得られるメッシュ毎に統計量を算出する統計量算出手段と、
前記統計量算出手段により得られる統計量に基づいて前記メッシュ毎の肌の解析する画像解析手段と、
前記画像解析手段により得られる解析結果の画像を生成する画像生成手段とを有することを特徴とする画像解析装置。
In the image analysis device for analyzing the skin of the face of the subject using the face image of the subject photographed in a predetermined wavelength region,
Based on three or more reference points including at least the corners of the eye obtained from the image, the vertical and horizontal lengths of the mesh region in which a plurality of meshes are arranged are set, and the vertical width of the mesh region is the number of vertical meshes. By dividing, the vertical length of the mesh is calculated, and the horizontal width of the mesh area is divided by the number of horizontal sides of the mesh to calculate the horizontal length of the mesh, and the same type of the calculated size Mesh arranging means for arranging a plurality of polygonal meshes of
Statistic calculation means for calculating a statistic for each mesh obtained by the mesh placement means;
Image analysis means for analyzing the skin for each mesh based on the statistics obtained by the statistics calculation means;
An image analysis apparatus comprising: an image generation unit configured to generate an image of an analysis result obtained by the image analysis unit.
前記前記顔画像は、正面顔と少なくとも左右の一方の顔を含むことを特徴とする請求項8に記載の画像解析装置。   The image analysis apparatus according to claim 8, wherein the face image includes a front face and at least one of the left and right faces. 前記所定の波長領域は、約800nm〜約2500nmの近赤外線であることを特徴とする請求項8又は9に記載の画像解析装置。   The image analysis apparatus according to claim 8 or 9, wherein the predetermined wavelength region is a near infrared ray of about 800 nm to about 2500 nm. コンピュータを、請求項8乃至10の何れか一項に記載の画像解析装置が有する各手段として機能させるための画像解析プログラム。   The image analysis program for functioning a computer as each means which the image analysis apparatus as described in any one of Claims 8 thru | or 10 has.
JP2017121352A 2017-06-21 2017-06-21 Image analysis method, image analysis device, and image analysis program Pending JP2017192767A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017121352A JP2017192767A (en) 2017-06-21 2017-06-21 Image analysis method, image analysis device, and image analysis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017121352A JP2017192767A (en) 2017-06-21 2017-06-21 Image analysis method, image analysis device, and image analysis program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012082714A Division JP2013212177A (en) 2012-03-30 2012-03-30 Image analysis method, image analyzer, and image analysis program

Publications (1)

Publication Number Publication Date
JP2017192767A true JP2017192767A (en) 2017-10-26

Family

ID=60156200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017121352A Pending JP2017192767A (en) 2017-06-21 2017-06-21 Image analysis method, image analysis device, and image analysis program

Country Status (1)

Country Link
JP (1) JP2017192767A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021193996A1 (en) * 2020-03-26 2021-09-30 주식회사 유투메드텍 Sinus diagnosis system and method for determining sinus state using same
KR20210120333A (en) * 2020-03-26 2021-10-07 주식회사 유투메드텍 System for sinus diagnosis and method for using the same
JP7412767B2 (en) 2020-07-20 2024-01-15 日本メナード化粧品株式会社 Skin color unevenness evaluation device, skin color unevenness evaluation method, and skin color unevenness evaluation program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124680A (en) * 1996-10-16 1998-05-15 Atr Ningen Joho Tsushin Kenkyusho:Kk Device for generating image and method therefor
JP2010072747A (en) * 2008-09-16 2010-04-02 Kagoshima Univ Image processor, image processing method, program, and storage medium
JP2011212308A (en) * 2010-03-31 2011-10-27 Shiseido Co Ltd Skin evaluation device, skin evaluation method, and skin evaluation program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124680A (en) * 1996-10-16 1998-05-15 Atr Ningen Joho Tsushin Kenkyusho:Kk Device for generating image and method therefor
JP2010072747A (en) * 2008-09-16 2010-04-02 Kagoshima Univ Image processor, image processing method, program, and storage medium
JP2011212308A (en) * 2010-03-31 2011-10-27 Shiseido Co Ltd Skin evaluation device, skin evaluation method, and skin evaluation program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山田貴志、渡辺富夫: "バーチャル顔面像の情動表示", 弓削商船高等専門学校 紀要, vol. 第24号, JPN7016002378, 2002, pages 第39−45頁 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021193996A1 (en) * 2020-03-26 2021-09-30 주식회사 유투메드텍 Sinus diagnosis system and method for determining sinus state using same
KR20210120332A (en) * 2020-03-26 2021-10-07 주식회사 유투메드텍 System for sinus diagnosis and method of determining sinus state using the same
KR20210120333A (en) * 2020-03-26 2021-10-07 주식회사 유투메드텍 System for sinus diagnosis and method for using the same
KR102363308B1 (en) 2020-03-26 2022-02-16 주식회사 유투메드텍 System for sinus diagnosis and method for performed by the same
KR102406999B1 (en) * 2020-03-26 2022-06-10 주식회사 유투메드텍 System for sinus diagnosis and method for determining sinus status performed by the same
JP7412767B2 (en) 2020-07-20 2024-01-15 日本メナード化粧品株式会社 Skin color unevenness evaluation device, skin color unevenness evaluation method, and skin color unevenness evaluation program

Similar Documents

Publication Publication Date Title
JP2013212177A (en) Image analysis method, image analyzer, and image analysis program
US11154200B2 (en) Skin assessment using image fusion
JP5290585B2 (en) Skin color evaluation method, skin color evaluation device, skin color evaluation program, and recording medium on which the program is recorded
JP5426475B2 (en) Skin color unevenness analysis apparatus, skin color unevenness analysis method, and skin color unevenness analysis program
JP6026655B2 (en) Transparency evaluation apparatus, transparency evaluation apparatus operating method, transparency evaluation method, and transparency evaluation program
JP7248820B2 (en) Apparatus and method for determining cosmetic skin attributes
WO2014208067A1 (en) Skin function evaluation device and skin evaluation method
US10638968B2 (en) Skin gloss evaluation device, skin gloss evaluation method, and skin gloss evaluation program
JP5080060B2 (en) Skin condition analysis method, skin condition analysis apparatus, skin condition analysis program, and recording medium on which the program is recorded
Garnavi et al. Automatic segmentation of dermoscopy images using histogram thresholding on optimal color channels
WO2016121518A1 (en) Information processing device, information processing method, and program
JP2009508648A (en) System and method for analyzing human skin condition using digital images
JP5576775B2 (en) Image processing apparatus, image processing method, and image processing program
JP2018121752A (en) Image analysis apparatus, image analysis method and image analysis program
JP2009082338A (en) Skin discrimination method using entropy
JP2017192767A (en) Image analysis method, image analysis device, and image analysis program
JP5771647B2 (en) Skin analysis device, skin analysis system, skin analysis method, and skin analysis program
JP2007252891A (en) Estimation method of evaluation value by visual recognition of beauty of skin
JP2011118671A (en) Apparatus, method and system for processing image, skin evaluation method
JP6008698B2 (en) Face image analyzing apparatus and face image analyzing method
JP6527765B2 (en) Wrinkle state analyzer and method
JP6898150B2 (en) Pore detection method and pore detection device
JP2007252892A (en) Estimation method of evaluation value by visual recognition of three-dimensional shape of skin surface
JP2005034424A (en) Method and apparatus for evaluating the state of skin surface
JP6942012B2 (en) Skin evaluation method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181002