JP6736489B2 - Brightness evaluation method, evaluation program, and device - Google Patents

Brightness evaluation method, evaluation program, and device Download PDF

Info

Publication number
JP6736489B2
JP6736489B2 JP2017005500A JP2017005500A JP6736489B2 JP 6736489 B2 JP6736489 B2 JP 6736489B2 JP 2017005500 A JP2017005500 A JP 2017005500A JP 2017005500 A JP2017005500 A JP 2017005500A JP 6736489 B2 JP6736489 B2 JP 6736489B2
Authority
JP
Japan
Prior art keywords
brightness
image
value
amount
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017005500A
Other languages
Japanese (ja)
Other versions
JP2018116378A (en
Inventor
美乃里 藤原
美乃里 藤原
岡田 明大
明大 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naris Cosmetics Co Ltd
Original Assignee
Naris Cosmetics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naris Cosmetics Co Ltd filed Critical Naris Cosmetics Co Ltd
Priority to JP2017005500A priority Critical patent/JP6736489B2/en
Publication of JP2018116378A publication Critical patent/JP2018116378A/en
Application granted granted Critical
Publication of JP6736489B2 publication Critical patent/JP6736489B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、明るさ感の評価方法、評価プログラム、装置に関する。 The present invention relates to an evaluation method of brightness, an evaluation program, and an apparatus.

従来から、対象物の明るさを測定する装置は様々な物が存在し、例えば、照度計、輝度計、測色計等が存在する。これらは、使用者の目的に応じて、部屋の明るさを測定したり、光源の明るさを測定したり、肌等の明るさを測定するものである。
しかしながら、これらの装置で測定された絶対的な値としての明るさと、ヒトが感じる明るさ(明るさ感)とは、必ずしも連動しておらず、測定値では「明るい」という結果であっても、観測者は「明るい」と認識しない場合があることは、日常的に経験するところである。
Conventionally, there are various devices for measuring the brightness of an object, for example, an illuminance meter, a luminance meter, a colorimeter, and the like. These measure the brightness of a room, the brightness of a light source, and the brightness of the skin or the like according to the purpose of the user.
However, the brightness as an absolute value measured by these devices and the brightness perceived by humans (brightness) are not necessarily linked, and even if the measured value is "bright", However, it is a daily experience that the observer may not recognize it as "bright".

従来、対象物の明るさを評価する際には、対象物を含む輝度分布画像が主に用いられてきた。
ヒトが任意の対象物を観察したときに感じる明るさに影響する要素として、着目領域の輝度値だけでなく、対象物の着目領域とその周辺領域との明るさの対比も影響を及ぼす(非特許文献1)他、その輝度分布画像において明るいと感じ始める輝度値なども影響する(非特許文献2)。
従って、着目する部分(エリア)における絶対的結果を示す照度計(輝度)等の結果と、ヒトが複数の要因を知覚した結果が異なるのは、ある意味当然の事といえる。
Conventionally, a brightness distribution image including an object has been mainly used when evaluating the brightness of the object.
As an element that affects the brightness that a human feels when observing an arbitrary object, not only the brightness value of the area of interest but also the contrast of brightness between the area of interest of the object and its surrounding area (non- In addition, the brightness value of the brightness distribution image, which starts to feel bright, also affects the brightness distribution image (Non-Patent Document 2).
Therefore, it can be said that, in a sense, the result of the luminometer (luminance) or the like showing the absolute result in the part (area) of interest is different from the result of human perception of a plurality of factors.

一方で、ヒトが日々の生活の中で、明るさを基準として、商品の選択、物の品質評価、ヒトの肌の美しさ等の評価をする場合には、ヒトの目によって判断されるのが一般的であって、照度計等の機器によって評価している訳ではない。
このような状況下、対象物に対してヒトが感じる明るさを評価することが出来れば、任意の条件下で対象物が実際にヒトに与える印象が評価でき、品質評価、あるいは光環境や空間デザイン設計にも活用することが可能となる。また、このような明るさ評価法を構築することにより、都度ヒトによる評価を行う必要がなくなるため、多くの対象物・条件等を評価したいシーンにおいて時間や労力をかけることなく、一挙に明るさ評価値を算出することができる。
On the other hand, when humans make decisions on product selection, product quality evaluation, beauty of human skin, etc. on the basis of brightness in daily life, it is judged by human eyes. Is common, and is not evaluated by a device such as an illuminometer.
Under such a circumstance, if it is possible to evaluate the brightness that a human feels with respect to an object, it is possible to evaluate the impression that the object actually gives to the human under arbitrary conditions, and it is possible to evaluate the quality, or the light environment or space. It can also be used for designing. In addition, by constructing such a brightness evaluation method, it is not necessary to perform evaluation by humans each time, so in many scenes where it is desired to evaluate many objects/conditions, the brightness can be calculated at once without spending time and effort. An evaluation value can be calculated.

そこで近年、この明るさ感を評価する方法がいくつか提案されている。
既に提案されている方法では、例えば、輝度分布画像の中の対象領域の明るさ感を高い精度で定量的に予測できる明るさ感の予測方法が特許文献1で開示されている。特許文献1は、輝度分布画像を元に、対象領域を均一輝度と見なしたときの第1明るさ感と、着目領域と周辺領域との対比を考慮した第2明るさ感の双方を考慮して、予測対象領域の明るさ感を予測するものである。
Therefore, in recent years, some methods for evaluating the sense of brightness have been proposed.
In the method already proposed, for example, Patent Document 1 discloses a brightness prediction method that can quantitatively predict the brightness of a target region in a brightness distribution image with high accuracy. Patent Document 1 considers both the first brightness feeling when the target area is regarded as uniform brightness and the second brightness feeling considering the contrast between the target area and the peripheral area based on the brightness distribution image. Then, the sense of brightness of the prediction target area is predicted.

一方、特許文献2には、肌のつやを客観的に測定し、肉眼観察と同様な評価を与えることのできる評価方法が開示されている。特許文献2においては、被験者の肌の撮影画像を元に、物理的な光沢度と見かけの粗さの双方を算出することにより、肌のつや状態を評価している。 On the other hand, Patent Document 2 discloses an evaluation method capable of objectively measuring the gloss of the skin and giving the same evaluation as that of the naked eye observation. In Patent Document 2, the glossiness of the skin is evaluated by calculating both the physical glossiness and the apparent roughness based on the photographed image of the skin of the subject.

しかしながら、特許文献1の方法は、ヒトが明るいと感じ始める輝度値を考慮していないことから、明るさ感を精度よく比較評価できるとは言い難い。 However, since the method of Patent Document 1 does not consider the brightness value at which humans start to feel bright, it cannot be said that the feeling of brightness can be accurately compared and evaluated.

特許文献2では、つやの明るさを輝度平均値で評価しているに過ぎず、周辺領域との対比は考慮されていないため、ヒトの知覚する明るさ感の評価という点では精度が低い。 In Patent Document 2, the brightness of gloss is only evaluated by the average value of brightness, and the contrast with the surrounding area is not taken into consideration. Therefore, the accuracy of evaluation of brightness perceived by humans is low.

特開2004−61150号公報JP, 2004-61150, A 特開2004−166801号公報JP, 2004-166801, A

中村芳樹、照明学会誌、Vol.84, No.8A,522-528, 2000Yoshiki Nakamura, Journal of Lighting Society, Vol.84, No.8A,522-528, 2000 杁山晃司ら、第35回照明学会全国大会講演論文集、P138, 2003Koji Akiyama et al., Proc. of the 35th Annual Meeting of the Lighting Society of Japan, P138, 2003

上述のように、公知の方法では、被験物の明るさ感を被験物の画像を用いて評価する場合、ヒトが感じる明るさの目視評価値と精度よく一致しないことがあった。特に、一部に高輝度画素が集まっているような画像や、全体がぼんやりと明るい画像のような輝度の位置分布傾向が異なる画像(例えば、図4における画像8、画像10等)では、目視評価値と一致しない傾向が強く、更には、前述のような画像を比較評価する場合には、目視評価値と一致しない傾向が顕著であった。その理由の一つとして、このような画像の場合、同じ画像であっても、ヒトによって評価が分かれることが考えられた。 As described above, in the known method, when the brightness of the test object is evaluated using the image of the test object, the visual evaluation value of the brightness perceived by a person may not accurately match. In particular, in an image in which high-intensity pixels are gathered in a part or an image in which the position distribution tendency of the brightness is different such as a vaguely bright image as a whole (for example, image 8, image 10 in FIG. 4) There was a strong tendency not to match the evaluation value, and further, when the images as described above were compared and evaluated, the tendency not to match the visual evaluation value was remarkable. As one of the reasons for this, in the case of such an image, even if the image is the same, the evaluation may be different depending on the person.

本発明は、明るさ感の評価方法を提供することを課題とし、より具体的には、単に対象物が明るいか否かを測定するのではなく、対象物の明るさをヒトが評価した際に感じる微妙なニュアンスを客観的数値として反映できる明るさ感の評価方法を提供することを課題とする。 The present invention has an object to provide a method for evaluating a feeling of brightness, and more specifically, when a human evaluates the brightness of an object, rather than simply measuring whether or not the object is bright. It is an object of the present invention to provide a method of evaluating a sense of brightness that can reflect the subtle nuances felt by the user as an objective numerical value.

本願発明者らは、上述のような、一部に高輝度画素が集まっているような画像や、全体がぼんやりと明るい画像のような輝度の位置分布傾向が異なる画像の比較評価において、ヒトの明るさ感評価値と画像の分析結果が一致しない理由を鋭意精鋭検討した結果、ヒトが対象物の明るさ感を判断する際には、単に明るい、暗いだけでなく、明るい部分と暗い部分の境界(輝度閾値)、明るい部分と暗い部分の面積、明るい部分と暗い部分との面積対比も合わせて総合的に判断しているとことを見いだした。
本願発明は、上記知見に基づくものである。
The inventors of the present application, in the comparative evaluation of an image in which high-brightness pixels are gathered in a part as described above and an image in which the position distribution tendency of the brightness is different, such as an image where the whole is vaguely bright, As a result of diligently examining the reason why the brightness evaluation value and the image analysis result do not match, when judging the brightness feeling of the object, not only the bright and dark areas but also the bright and dark areas It was found that the boundary (brightness threshold), the areas of bright and dark areas, and the area contrast of bright and dark areas were also comprehensively judged.
The present invention is based on the above findings.

本発明は、
被験物と同一又は同種の物の少なくとも2以上の画像から任意画像情報を得、
前記画像のヒトによる目視評価値を得、
前記画像情報と目視評価値との関係性をもとに
被験物画像における画像情報から、当該被験物画像のヒトによる目視評価値を予測する方法において、
前記画像情報として、輝度ヒストグラムから少なくとも1種以上の基本統計量と、少なくとも1種以上のニュアンス量を用いることで上記課題を解決した。
The present invention is
Obtaining arbitrary image information from at least two or more images of the same or the same kind as the test object,
Obtaining a human visual evaluation value of the image,
From the image information in the test object image based on the relationship between the image information and the visual evaluation value, in the method of predicting the human visual evaluation value of the test object image,
The above problem is solved by using at least one basic statistic and at least one nuance amount from the luminance histogram as the image information.

本発明に係る評価方法、システム、装置によれば、対象物の明るさをヒトが評価した際に感じる微妙なニュアンスを客観的数値として反映できるので、実生活においてヒトが行っている評価により近い評価を数値として認識することができ、ヒトに与える印象の評価、商品開発、空間デザイン制作等のシーンにおいて、簡便な方法で開発や制作の方向性を客観的に判断することができる。 According to the evaluation method, system, and device according to the present invention, it is possible to reflect a subtle nuance felt by a human when evaluating the brightness of an object as an objective numerical value, and therefore, it is closer to the evaluation performed by a human in real life. The evaluation can be recognized as a numerical value, and the direction of development and production can be objectively determined by a simple method in the scenes such as evaluation of impression given to people, product development, and space design production.

図1は、本願実施形態の明るさ感評価値の予測方法の手順を示すフローチャートの一例である。FIG. 1 is an example of a flowchart showing a procedure of a method of predicting a brightness sensation evaluation value according to the embodiment of the present application. 図2は、輝度閾値を求める際のグラフの一例である。FIG. 2 is an example of a graph for obtaining the brightness threshold value. 図3は、輝度閾値と暗さ総量、明るさ総量の関係を示すグラフの一例である。FIG. 3 is an example of a graph showing the relationship between the brightness threshold value and the total darkness and the total brightness. 図4は、キャリブレーション用画像の一例を示す図である。FIG. 4 is a diagram showing an example of the calibration image. 図5は、例2の被験物画像である、ヒト頬部の表面反射画像を示す図である。FIG. 5 is a diagram showing a surface reflection image of a human cheek portion, which is a test object image of Example 2. 図6は、化粧を施していない場合(パターン1)、化粧を施した場合(パターン2、パターン3)における、ヒト頬部の表面反射画像を示す図である(例3)。FIG. 6 is a diagram showing a surface reflection image of a human cheek when the makeup is not applied (Pattern 1) and when the makeup is applied (Pattern 2 and Pattern 3) (Example 3). 図7は、化粧を施していない場合(パターン1)、化粧を施した場合(パターン2)における、ヒト頬部および顎部の表面反射画像を示す図である(例4)。FIG. 7 is a diagram showing surface reflection images of human cheeks and jaws when makeup is not applied (Pattern 1) and when makeup is applied (Pattern 2) (Example 4).

本発明は、被験物と同一又は同種の物の少なくとも2以上の画像から任意画像情報を得、前記画像のヒトによる目視評価値を得、前記画像情報と目視評価値との関係性をもとに被験物画像における前記画像情報から、当該被験物画像のヒトによる目視評価値を予測する方法において、前記画像情報として、輝度ヒストグラムから少なくとも1種以上の基本統計量とニュアンス量を用いる方法、システム、装置であって、被験物画像の明るさ感を数値化して客観的に評価することにより、被験物の明るさ感を評価するものである。 The present invention obtains arbitrary image information from at least two or more images of the same or the same kind as a test object, obtains a visual evaluation value by the human of the image, and based on the relationship between the image information and the visual evaluation value. In the method of predicting a human visual evaluation value of the test object image from the image information in the test object image, as the image information, a method using at least one or more basic statistics and nuance amount from a luminance histogram, a system The apparatus is for evaluating the brightness of the test object by digitizing the brightness of the test object image and objectively evaluating the brightness.

本発明は、
(1) 被験物と同一又は同種の物の任意の画像から得た画像情報と、当該画像のヒトによる目視評価値、すなわち明るさ感評価値との関係性を紐づけるキャリブレーション工程と、
(2) 被験物の画像から、前記任意画像で得た画像情報と同じ情報を得、
(3) キャリブレーション工程で得られた画像情報と明るさ感評価値の関係性をもとに、被験物画像の明るさ感を推測する工程
を含み、
前記画像情報として、輝度ヒストグラムから得た基本統計量とニュアンス量を用いて、
被験物の画像の明るさ感を推測することで、被験物の明るさ感を評価する。
The present invention is
(1) A calibration step of associating the relationship between image information obtained from an arbitrary image of the same or the same kind as the test object and a human visual evaluation value of the image, that is, a brightness feeling evaluation value,
(2) Obtain the same information as the image information obtained in the arbitrary image from the image of the test object,
(3) Including the step of estimating the brightness feeling of the test object image based on the relationship between the image information obtained in the calibration step and the brightness feeling evaluation value,
As the image information, using the basic statistic and nuance amount obtained from the luminance histogram,
The brightness of the test object is evaluated by estimating the brightness of the image of the test object.

本発明の被験物は、特に限定されない。例えば、頬、腕、額、髪等のヒトの体の部位、リンゴ、ミカン等の果実、炊いた米等であっても良い。 The subject of the present invention is not particularly limited. For example, human body parts such as cheeks, arms, forehead and hair, fruits such as apples and mandarins, cooked rice and the like may be used.

画像を得る方法としては、例えば、デジタルカメラ、銀塩カメラ、インスタントカメラ等がある。アナログ画像を得た後で任意の機器に取り込みデジタル変換したものを用いても構わない。利便性の観点から、デジタルカメラを用いるのが好ましい。 Examples of methods for obtaining an image include a digital camera, a silver halide camera, an instant camera, and the like. After obtaining the analog image, the image may be taken into any device and digitally converted. From the viewpoint of convenience, it is preferable to use a digital camera.

画像の撮影条件は、基本的には、被験物およびその撮影条件に合わせて、キャリブレーションに用いる対象物および撮影条件を設定することが望ましい。
画像情報と当該画像の明るさ感評価値をキャリブレーションした情報を集めた、キャリブレーションデータベースを使用する場合には、キャリブレーション用に用いた画像の対象物、撮影条件に合わせて、被験物の撮影条件を設定することが望ましい。勿論、いずれの場合においても、厳密に撮影条件を一致させる必要はない。
As for the image capturing conditions, it is basically desirable to set the target object and the capturing condition used for calibration in accordance with the test object and its capturing conditions.
In the case of using a calibration database, which collects image information and information obtained by calibrating the brightness evaluation value of the image, in the case of using a calibration database, the object of the image used for calibration, the test object according to the shooting conditions. It is desirable to set the shooting conditions. Of course, in either case, it is not necessary to strictly match the shooting conditions.

本発明で使用できる画像は、評価対象物の明るさに関する情報が画像に適正に反映されたものであればよく、かつ当該画像から輝度ヒストグラムを抽出できればよい。例えば、対象物の表面反射画像や、あるいは撮像画像をグレースケール化したものなどを用いることができる。 The image that can be used in the present invention may be any image as long as the information regarding the brightness of the evaluation object is properly reflected in the image, and the luminance histogram can be extracted from the image. For example, a surface reflection image of the object or a grayscale image of the captured image can be used.

キャリブレーションに用いる画像は、明るさ感予測式の精度の観点より、被験物画像と同一もしくは表面性状等が近い対象物を撮影したものほど好適であるが、被験物と必ずしも同一物の画像である必要はない。同種物の画像であっても良い。
例えば、ヒトの頬部が被験物であった場合に、被験物と同じヒトの頬部の画像であっても良いし、別のヒトの頬部の画像であっても良い。また、頬部の画像でなくとも、額部、顎部、膝部等の同種物であっても良い。この場合の同種物とは、ヒトの皮膚という趣旨である。
From the viewpoint of the accuracy of the brightness perception prediction formula, the image used for calibration is more preferable as it is an image of an object that is the same as or similar to the surface image of the test object, but is not necessarily the same image as the test object. It doesn't have to be. It may be an image of the same kind.
For example, when the human cheek is the test subject, the image may be the same human cheek as the test subject, or may be the image of another human cheek. Further, it is not limited to the image of the cheek portion, and the same kind of object such as a forehead portion, a chin portion, and a knee portion may be used. In this case, the same kind of substance means human skin.

キャリブレーションに用いる画像は、対象物を含む画像を複数枚用いれば何でもよい。明るさ感評価の精度の観点から、検量線と同様の概念より、ヒトが目視評価をした際に、異なる評価となる画像を複数枚用いることが望ましい。例えば、目視評価が10段階であった場合に、点数5と評価する画像を計5枚用いることもできるが、点数1、3、5、7、10と評価される画像を各1枚ずつ計5枚用いる方が好ましい。そうすることにより、実際に評価したい対象物の画像を、より広い範囲で精度高く評価することができる。 The image used for calibration may be any image as long as a plurality of images including the target object are used. From the viewpoint of the accuracy of brightness evaluation, it is desirable to use a plurality of images that give different evaluations when visually evaluated by humans from the same concept as the calibration curve. For example, if the visual evaluation is 10 steps, a total of 5 images that are evaluated as a score of 5 may be used, but one image that is evaluated as a score of 1, 3, 5, 7, 10 may be used. It is preferable to use 5 sheets. By doing so, the image of the object to be actually evaluated can be evaluated with high accuracy in a wider range.

本発明における基本統計量とは、画像の基本的な情報を反映したデータである。例えば、輝度ヒストグラムより算出した平均値、中央値、最頻値、トリム平均、ミッドレンジ、幾何平均、調和平均等のデータの中心的傾向を示す統計量、分散、標準偏差、変動係数、範囲、四分位範囲等のデータのバラつき具合を示す統計量、歪度、尖度、最大値、最小値、分位値等のデータの分布を示す統計量、標本の大きさ、合計等のデータの大きさを示す統計量等、基本統計量と言われているパラメータなら何でもよい。特に、多重共線性の観点から、例えばバラつきを表すパラメータのうち、分散、標準偏差、変動係数等より一つのパラメータを選択することが好ましい。また、性質が異なると考えられる複数のパラメータを選択することがより好ましい。例えば、平均値・変動係数・歪度・尖度の組み合わせ等があるが、組み合わせはこれに限定されるものではない。 The basic statistic in the present invention is data that reflects the basic information of an image. For example, the average value calculated from the brightness histogram, the median value, the mode, the trimmed average, the midrange, the geometric average, the statistic indicating the central tendency of the data such as harmonic mean, the variance, the standard deviation, the coefficient of variation, the range, Statistics such as interquartile range showing the variation of data, skewness, kurtosis, maximum value, minimum value, statistic showing distribution of data such as quantile, sample size, total of data etc. Any parameter called a basic statistic, such as a statistic indicating size, may be used. In particular, from the viewpoint of multi-collinearity, it is preferable to select one parameter from among the parameters representing variations, for example, variance, standard deviation, and coefficient of variation. It is more preferable to select a plurality of parameters that are considered to have different properties. For example, there is a combination of average value, coefficient of variation, skewness, kurtosis, etc., but the combination is not limited to this.

本発明におけるニュアンス量とは、ヒトの目で見た感覚を考慮したパラメータであり、ヒトが物を見て各種の判断をする際に自然に行われる生理的な調整機能を考慮したパラメータである。例えば、対比や増幅等によって得られる量である。例えば、着目領域と背景領域との輝度の差や、形状の違いからくる輝度の位置分布などの差異を考慮したもの、感度の増幅、明るさの重み付け等が挙げられる。ニュアンス量を算出し、活用することで、よりヒトの感覚を反映した明るさ感予測式を導出することが可能となる。 The nuance amount in the present invention is a parameter that takes into consideration the sensation seen by the human eye, and a parameter that takes into consideration the physiological adjustment function that is naturally performed when a human sees an object and makes various judgments. .. For example, it is an amount obtained by comparison or amplification. For example, the difference in brightness between the region of interest and the background region, the difference in the position distribution of brightness due to the difference in shape, and the like are taken into consideration, amplification of sensitivity, weighting of brightness, and the like. By calculating and using the nuance amount, it is possible to derive a brightness perception prediction formula that more reflects the human sense.

本発明における明るさ量とは、ある輝度値と当該輝度値を持つ領域(面積)を総合して捉える概念である。
ヒトが対象物の明るさ感を判断する際には、単に明暗だけでなく、明暗とその面積を総合的に判断しているという、自らの知見から、明暗と面積を共通化したものを「明るさ量」として取り扱う。具体的には、ある輝度値における画素数(又は、ある輝度値における画素数の、対象画像における総画素数に対する割合;以下、単に「総画素数比」という場合がある。)に、当該輝度値を乗算して得られた値を、その輝度値における「明るさ量」とする。なお、総画素数とは、対象画像を構成する画素の総和を意味する。
明るさ量を求めるにあたって、ある輝度値に、当該輝度値における画素数(又は総画素数比)を乗じた値を用いるが、この場合において画素数でも、総画素数比であっても特に問題はない。キャリブレーション及び評価に用いる画像のサイズがすべて同一でない場合、画素数を用いると各パラメータの算出結果が異なるものになってしまうため、汎用性の観点から、総画素数比を用いることが望ましい。以下に述べる輝度閾値、明るさ総量、暗さ総量における画素数比、画素数においても同様である(図2、図3において同じ)。以下、分かり易さを優先するため、「画素数」とのみ記載し、「総画素数比」に関し、併記しない場合があるが、上記趣旨を満たす限りにおいて、総画素数比を排除するものではないことは、言うまでもない。
The brightness amount in the present invention is a concept that comprehensively captures a certain luminance value and a region (area) having the luminance value.
When humans judge the brightness of an object, not only the light and dark, but the light and dark and the area are comprehensively judged. Treated as "brightness". Specifically, the luminance is added to the number of pixels at a certain luminance value (or the ratio of the number of pixels at a certain luminance value to the total number of pixels in the target image; hereinafter, simply referred to as “total pixel number ratio”). The value obtained by multiplying the value is defined as the "brightness amount" for the brightness value. The total number of pixels means the total sum of pixels forming the target image.
A value obtained by multiplying a certain brightness value by the number of pixels in the brightness value (or the ratio of the total number of pixels) is used to obtain the brightness amount. In this case, the number of pixels or the ratio of the total number of pixels is a particular problem. There is no. When the sizes of the images used for calibration and evaluation are not the same, the calculation result of each parameter becomes different when the number of pixels is used. Therefore, from the viewpoint of versatility, it is desirable to use the total pixel number ratio. The same applies to the brightness threshold value, the total amount of brightness, the pixel number ratio in the total amount of darkness, and the number of pixels described below (the same applies to FIGS. 2 and 3). Hereinafter, in order to give priority to the ease of understanding, only “the number of pixels” may be described, and the “total pixel number ratio” may not be described together. However, as long as the above-mentioned purpose is satisfied, the total pixel number ratio is not excluded. Needless to say, nothing.

ニュアンス量における輝度閾値とは、ヒトが被験物画像の明るさを判断する際、どの輝度値から明るいと感じ始めるかを示すパラメータである。例えば、被験物画像中に明るい部分と暗い部分が連続的に存在した場合に、ヒトはどこを境に明るいと感じはじめるのか、言い換えると、明るい部分と暗い部分の境目をどの輝度値になった場合に認識するのかを示すパラメータである。
具体的には、画面表示における輝度階調がnである場合において、ある輝度値(H;i=0〜n−1の整数)に対して、当該輝度値(H)を超える明るさをもつ輝度値(Hi+1〜Hn−1)を当該輝度値(H)と同一とみなし、さらに当該輝度値(H)以上の輝度値における各画素数の総和に当該輝度値(H)を乗算した値が最大となるときの輝度値(H)を輝度閾値として算出する。より具体的には、X軸を「輝度値」、Y軸を「輝度値に、当該輝度値以上の輝度値における各画素数の総和を乗じたもの」としたときの、y値がピークを示すときの輝度値が当該画像における輝度閾値である(図2)。この最大値のx値にあたる輝度値が、その画像における明るさの感じ方が変わるポイントであり、明るいと感じ始める輝度値となるという知見に基づき、輝度閾値を算出している。
例えば、輝度階調が256である場合において、輝度値253における画素数が10、輝度値254における画素数が5、輝度値255における画素数が1であったと仮定すると、輝度値253におけるY軸の値は、y=253×(10+5+1)となり、輝度値254におけるY軸の値は、y=254×(5+1)となる。この概念を図示したものが、図2である。この場合において、総画素数比を用いるのであれば、輝度値253におけるY軸の値は、y=253×{(10/総画素数)+(5/総画素数)+(1/総画素数)}となり、以下同様に考えれば良い。
The brightness threshold value in the nuance amount is a parameter that indicates from which brightness value a person starts to feel bright when determining the brightness of the test object image. For example, when a bright part and a dark part are continuously present in the image of a test object, where does the human begin to feel bright, in other words, which brightness value is the boundary between the bright part and the dark part? It is a parameter that indicates whether to recognize the case.
Specifically, when the brightness gradation in the screen display is n, for a certain brightness value (H i ; i=0 to n−1), the brightness that exceeds the brightness value (H i ) luminance value with (H i + 1 ~H n- 1) the luminance value (H i) and regarded as the same, yet the brightness value (H i) or of the brightness value to the sum of the number of pixels in the luminance value (H The brightness value (H x ) when the value obtained by multiplying i ) becomes the maximum is calculated as the brightness threshold value. More specifically, when the X-axis is the "brightness value" and the Y-axis is the "brightness value multiplied by the sum of the numbers of pixels in the brightness value equal to or higher than the brightness value", the y value has a peak value. The brightness value at that time is the brightness threshold value in the image (FIG. 2). The brightness threshold value is calculated based on the knowledge that the brightness value corresponding to the maximum value x is the point at which the feeling of brightness in the image changes, and the brightness value starts to feel bright.
For example, assuming that the number of pixels at the luminance value 253 is 10, the number of pixels at the luminance value 254 is 5, and the number of pixels at the luminance value 255 is 1 when the luminance gradation is 256, the Y-axis at the luminance value 253 is Y-axis. Is y=253×(10+5+1), and the Y-axis value of the luminance value 254 is y=254×(5+1). FIG. 2 illustrates this concept. In this case, if the total pixel number ratio is used, the Y-axis value of the luminance value 253 is y=253×{(10/total pixel number)+(5/total pixel number)+(1/total pixel number Number)}, and so on.

ニュアンス量における明るさ総量とは、「明るい」と認識される領域の明るさ量の総量を表すパラメータである。例えば、輝度閾値以上の各輝度値における、明るさ量(輝度値×総画素数比又は当該輝度値における画素数)の積分値で表される。
輝度値ごとに算出される明るさ量を、明るいと感じ始める輝度値(輝度閾値)以上の輝度値について合算することで、対象画像における「明るさ総量」を算出したものである。
The total brightness amount in the nuance amount is a parameter indicating the total brightness amount of the area recognized as “bright”. For example, it is represented by an integrated value of the brightness amount (luminance value×total pixel number ratio or the number of pixels in the luminance value) at each luminance value equal to or higher than the luminance threshold.
The "total brightness" in the target image is calculated by summing the brightness amounts calculated for each brightness value with respect to brightness values equal to or higher than the brightness value (brightness threshold) at which the user feels bright.

ニュアンス量における暗さ総量とは、「明るい」と認識される領域の周辺領域である「明るい」と認識されない領域、つまり「暗い」と認識される領域の明るさ量の総量を示すパラメータである。
輝度値ごとに算出される明るさ量を、明るいと感じ始める輝度値(輝度閾値)未満の輝度値について合算することで、対象画像における、「暗い」と認識される領域の明るさ量の総量を算出したものである。
The total amount of darkness in the nuance amount is a parameter indicating the total amount of brightness of a region that is not recognized as “bright” that is a peripheral region of a region that is recognized as “bright”, that is, a region that is recognized as “dark”. ..
The brightness amount calculated for each brightness value is summed up for brightness values less than the brightness value (brightness threshold) at which the user perceives to be bright, so that the total brightness amount of the area recognized as "dark" in the target image Is calculated.

ニュアンス量における明暗総量比とは、明るいと認識される領域における明るさ量の総量(明るさ総量)と、明るいと認識されない領域、すなわち、暗いと認識される領域における明るさ量の総量(暗さ総量)との比を示すパラメータである。例えば、先述の明るさ総量を暗さ総量で除算することにより算出しても良いし、暗さ総量を明るさ総量で除算してもよい。着目領域、つまり、明るいと認識される領域の明るさ感は、当該領域における輝度値や面積だけでなく、その周辺領域、つまり明るいと認識されない領域(暗いと認識される領域)の輝度値や面積にも影響されると考えられる。本パラメータは、着目領域と周辺領域との対比を反映している。明暗総量比を算出する際に、比率性を強調するために明るさ総量に対しては、更に対象画像における「明るい」と認識される領域の占める割合を、暗さ総量に対しては、更に対象画像における「暗い」と認識される領域の占める割合を重み付けとして乗算することができる。重み付けは必須でない。対象物画像に応じて、適宜重み付けをすれば良い。 The total brightness/darkness ratio in the nuance amount is the total amount of brightness in a region recognized as bright (total brightness) and the total amount of brightness in a region not recognized as bright, that is, a region recognized as dark (dark). It is a parameter indicating the ratio of the total amount). For example, it may be calculated by dividing the total brightness described above by the total darkness, or the total darkness may be divided by the total brightness. The sense of brightness of the region of interest, that is, the region that is recognized as bright, is not only the brightness value and area in that region, It is thought that it is also affected by the area. This parameter reflects the contrast between the region of interest and the peripheral region. In order to emphasize the ratio when calculating the total brightness ratio, the ratio of the area recognized as “bright” in the target image to the total brightness is further emphasized, and the total amount of darkness is further evaluated. It is possible to multiply as a weight by the ratio of the area recognized as “dark” in the target image. Weighting is not mandatory. Weighting may be appropriately performed according to the object image.

本発明におけるキャリブレーション工程は、被験物と同一又は同種の物の複数の画像から得た画像情報と、当該各画像に対する明るさ感評価値の関係性を紐づける工程である。
具体的には、被験物と同一又は同種の物の画像を複数得る工程、当該画像より基本統計量およびニュアンス量を算出する工程、当該画像の明るさ感評価値を得る工程、当該基本統計量とニュアンス量の情報と明るさ感評価値から被験物の明るさ感予測式を導出する工程を含む。
この場合において、キャリブレーション用画像の明るさ感評価値と、当該画像から得られる画像情報における基本統計量とニュアンス量との関係性を紐付けることが重要であり、必ずしも「式」である必要性はない。
The calibration step in the present invention is a step of associating the relationship between the image information obtained from a plurality of images of the same or the same kind as the test object and the brightness sensation evaluation value for each image.
Specifically, a step of obtaining a plurality of images of the same or the same kind as the test object, a step of calculating a basic statistic and a nuance amount from the image, a step of obtaining a brightness feeling evaluation value of the image, the basic statistic And a step of deriving a brightness feeling prediction formula of the test object from the information on the nuance amount and the brightness feeling evaluation value.
In this case, it is important to associate the relationship between the brightness feeling evaluation value of the calibration image and the basic statistic and nuance amount in the image information obtained from the image, and it is not always an “expression”. There is no sex.

キャリブレーション工程における画像の明るさ感画像評価値を得る工程は、キャリブレーションに用いる各画像について、ヒトの目で見た明るさ感として尺度化する工程である。例えば、一対比較法、順位法、評定尺度法などによって、各画像の明るさ感を尺度化することができる。例えば、一対比較法であれば、複数の画像を準備し、任意の2サンプルを取り出して一対一で比較し、一対一の比較を全ての画像の組み合わせで実施することで、各画像に対するヒトの評価値を得る。予測式算出の精度の観点から、一対比較法のような間隔尺度が得られる手法が望ましい。一対比較法では、例えば類似性の高いもの同士でも、その差異を詳しく評価することが可能である。
明るさ感評価値は必ずしも数値である必要はなく、順位付け、ランク付けであっても問題ないが、数値であると、より客観的に判断が可能であるので、数値化することが望ましい。
Brightness of Image in Calibration Step The step of obtaining the image evaluation value is a step of scaling each image used for calibration as the brightness as seen by human eyes. For example, the brightness feeling of each image can be scaled by a paired comparison method, a rank method, a rating scale method, or the like. For example, in the case of the paired comparison method, a plurality of images are prepared, two arbitrary samples are taken out, and one-to-one comparison is performed, and a one-to-one comparison is performed on a combination of all images. Get the evaluation value. From the viewpoint of the accuracy of the prediction formula calculation, a method that can obtain an interval scale such as the paired comparison method is desirable. In the paired comparison method, it is possible to evaluate the difference in detail even among those having high similarity.
The brightness evaluation value does not necessarily have to be a numerical value, and ranking or ranking is not a problem, but if it is a numerical value, it is possible to make a more objective determination, so it is desirable to quantify it.

キャリブレーション工程における基本統計量とニュアンス量の情報と明るさ感評価値から被験物画像の明るさ感予測式を導出する工程としては、重回帰分析、ロジスティック回帰分析等の方法によるものが挙げられる。例えば、重回帰分析を行う場合、目的変数を各画像に対するヒトの明るさ感評価値、説明変数を各画像の輝度ヒストグラムより得られた基本統計量およびニュアンス量とし、分析を行うことで、ヒトの明るさ感評価値を各パラメータから求めるための最適な予測式を得ることができる。より良い予測式を選択するには、例えば、修正済決定係数、赤池のAIC等を指標とすることができる。予測式算出の際に、基本統計量だけでなくニュアンス量を説明変数として投入することで、明るさ感評価値をより精度よく予測するための予測式を得ることができる。
得られた予測式において、ニュアンス量が含まれないことがあっても差し支えない。キャリブレーション工程において、基本統計量とニュアンス量をもとにキャリブレーションをすることが重要なのであり、得られた式においてニュアンス量が含まれることが重要なのではない。
Examples of the process of deriving the brightness perception prediction formula of the test object image from the information on the basic statistic amount and nuance amount and the brightness perception evaluation value in the calibration process include those by methods such as multiple regression analysis and logistic regression analysis. .. For example, when performing multiple regression analysis, the objective variable is the human brightness evaluation value for each image, and the explanatory variable is the basic statistic and nuance amount obtained from the luminance histogram of each image. It is possible to obtain an optimum prediction formula for obtaining the brightness feeling evaluation value of from each parameter. In order to select a better prediction formula, for example, the corrected coefficient of determination, AIC of Akaike, or the like can be used as an index. By inputting not only the basic statistic amount but also the nuance amount as an explanatory variable when the prediction formula is calculated, a prediction formula for more accurately predicting the brightness perception evaluation value can be obtained.
It does not matter if the obtained prediction formula does not include the nuance amount. In the calibration process, it is important to perform the calibration based on the basic statistics and the nuance amount, and it is not important that the obtained formula includes the nuance amount.

キャリブレーション工程は、被験物画像を評価する度に行う必要はない。予めヒトの部位画像、頬画像、顔面画像、頭髪画像、その他の物の明るさ画像等の画像を複数入手し、キャリブレーションデータベースとしておくことも可能である。 The calibration step does not need to be performed each time the subject image is evaluated. It is also possible to obtain a plurality of images such as human part images, cheek images, face images, hair images, and brightness images of other objects in advance and use them as a calibration database.

被験物画像の評価は、任意の対象物の撮影画像に対して、よりヒトの感覚に近い形で精度高く明るさ感評価値を予測する工程である。被験物画像の評価は、被験物の画像を撮影する工程、被験物の画像より基本統計量およびニュアンス量を算出する工程、キャリブレーション工程より導出した明るさ感予測式に各パラメータを代入し、被験物画像の明るさ感評価値を得る工程が含まれる。 The evaluation of the test object image is a step of predicting a brightness evaluation value with high accuracy in a form closer to a human sense for a captured image of an arbitrary object. Evaluation of the test object image, the step of capturing the image of the test object, the step of calculating the basic statistics and nuance amount from the image of the test object, each parameter is substituted into the brightness feeling prediction formula derived from the calibration step, A step of obtaining a brightness evaluation value of the test object image is included.

キャリブレーション工程で得られた明るさ感予測式に、評価したい被験物画像から抽出した輝度ヒストグラムより算出した基本統計量およびニュアンス量の説明変数を代入することで、被験物画像の明るさ感評価値の予測値を算出することができる。 The brightness sensation evaluation of the test object image is performed by substituting the explanatory variables of the basic statistic amount and the nuance amount calculated from the brightness histogram extracted from the test object image to be evaluated, into the brightness feeling prediction formula obtained in the calibration process. The predicted value of the value can be calculated.

以下、本発明を具体的に挙げてさらに詳細に説明するが、本願発明が実施例に限定されないことは言うまでもない。 Hereinafter, the present invention will be described in more detail with specific examples, but it goes without saying that the present invention is not limited to the examples.

例1:明るさ感予測式の導出および予測式精度の確認
−キャリブレーション工程−
〔評価対象物の撮影および画像の取得〕
評価対象物を「頬部のつや」とし、対象物の画像を取得した。30代男性・40代男性・20代女性・バイオスキンドール(F910,ビューラックス社製)の頬部を、以下に示す方法で撮影し、評価に用いる画像として、つやをより反映していると考えられる表面反射画像を取得した。
Example 1: Derivation of brightness prediction formula and confirmation of prediction formula accuracy-calibration process-
[Shooting of the evaluation target and acquisition of images]
The object to be evaluated was "cheek gloss", and an image of the object was acquired. The cheeks of males in their 30s, males in their 40s, females in their 20s, and Bioskin Doll (F910, made by Burax) were photographed by the method shown below, and it is said that gloss is more reflected as an image used for evaluation. A possible surface reflection image was acquired.

(1) 対象物の撮影
暗室において、偏光板を装着した面光源(LED光源、5400k:CN‐600HS サンテック社製)を一方向から被写体に照射し、偏光板が装着されたデジタルカメラ(Nikon D70,Nikon社製)にて被写体を撮影した。光源から被写体までの距離、被写体からカメラまでの距離はそれぞれ1mである。光源入射角(θi)を0°,22°,45°,67°に設定し、各入射角(θi)において受光角(θr)を0°,22°,45°,67°に設定して(但し、光源入射角(θi)を0°、受光角(θr)を0°の場合を除く)、被写体の画像(全15組)を撮影した。撮影画像取得時のデータ形式は、RAW+BASIC、画像サイズLの設定とした。被写体および入射角・受光角の組み合わせより得られた計60枚の画像より、ヒトが明るさの目視評価を行った際に異なる評価となると想定される画像を計10枚選択し、キャリブレーション用画像とした。
(1) In a dark room for photographing an object, a surface light source (LED light source, 5400k: manufactured by CN-600HS Suntec Co., Ltd.) equipped with a polarizing plate is irradiated onto the subject from one direction, and a digital camera (Nikon D70) equipped with the polarizing plate. , Manufactured by Nikon). The distance from the light source to the subject and the distance from the subject to the camera are 1 m, respectively. The light source incident angle (θi) is set to 0°, 22°, 45°, 67°, and the light receiving angle (θr) is set to 0°, 22°, 45°, 67° at each incident angle (θi). (Except when the light source incident angle (θi) is 0° and the light receiving angle (θr) is 0°), images of the subject (15 sets in total) were taken. The data format at the time of obtaining the captured image was set to RAW+BASIC and the image size L. From a total of 60 images obtained from the subject and the combination of the incident angle and the light receiving angle, 10 images which are supposed to be different when a human visually evaluates the brightness are selected, and a calibration is selected. The image.

(2) 表面反射画像の取得
画像処理ソフトウェア(Photoshop 6.0,Adobe社製)を用いて、各画像のIss,Isp,Ips,Ippの画像を取得して、下記の数1を用いて、表面反射成分Isを取得した。得られた表面反射成分Isをグレースケール化し、Labカラーモードに変換したものを、表面反射画像とした。8bit/チャンネルを選択し、256階調(n=256;以下、実施例、比較例において同じ。)とした。表面反射画像の取得の際におけるROI(region of interest)は、頬のつやが出ている箇所が含まれる領域とした。得られた画像のサイズは270×270ピクセル、総画素数は72900ピクセルであった。なお、前記4つの画像の添え字のs,pはそれぞれ入射光側及び受光側の偏光フィルターを示し、例えばIspは入射光側にs偏光フィルターを、受光側にp偏光フィルターを入れたことを表す。
(2) Acquisition of surface reflection image Using image processing software (Photoshop 6.0, manufactured by Adobe Systems Incorporated), images of Iss, Isp, Ips, and Ipp of each image are acquired, and using the following formula 1, The surface reflection component Is was acquired. The obtained surface reflection component Is was grayscaled and converted into the Lab color mode to obtain a surface reflection image. 8 bits/channel was selected and the gradation was set to 256 (n=256; the same applies to the examples and comparative examples below). The ROI (region of interest) at the time of acquiring the surface reflection image is a region including a glossy part of the cheek. The size of the obtained image was 270×270 pixels, and the total number of pixels was 72900 pixels. The subscripts s and p of the four images respectively indicate the incident light side and the light receiving side polarization filters. For example, Isp means that the incident light side has an s polarizing filter and the light receiving side has a p polarizing filter. Represent

〔基本統計量およびニュアンス量の算出〕
対象物の表面反射画像より、輝度ヒストグラムを抽出し、それを活用して基本統計量およびニュアンス量をそれぞれ算出した。
[Calculation of basic statistics and nuances]
A luminance histogram was extracted from the surface reflection image of the object, and the basic histogram and nuance amount were calculated by utilizing the histogram.

(1) 輝度ヒストグラム抽出
前記表面反射画像を画像解析ソフトウェア(WinROOF,三谷商事社製)に取り込み、輝度ヒストグラムの度数分布データを得た。
(1) Luminance Histogram Extraction The surface reflection image was imported into image analysis software (WinROOF, manufactured by Mitani Corporation) to obtain frequency distribution data of the luminance histogram.

(2) 各種基本統計量の算出
〔0044〕の(1)で得た画像のヒストグラムより、各輝度値(0〜n−1)における画素数を求め、各種基本統計量を算出した。輝度平均値は、画像全体における平均輝度値を意味する。nを輝度階調、Hiを任意の輝度値(i=0〜n−1の整数)、fiを輝度値Hiにおける画素数の総画素数に対する割合とする。(以下に記載のすべての式において同じ)。輝度平均値Avは下記式(数2)で算出した。
(2) Calculation of various basic statistics The number of pixels at each luminance value (0 to n-1) was obtained from the histogram of the image obtained in (1) of [0044], and various basic statistics were calculated. The brightness average value means an average brightness value in the entire image. Here, n is a brightness gradation, Hi is an arbitrary brightness value (i=0 to n−1), and fi is a ratio of the number of pixels in the brightness value Hi to the total number of pixels. (Same for all formulas below). The brightness average value Av was calculated by the following formula (Equation 2).

変動係数CVは、輝度平均値に対する標準偏差の割合である。標準偏差をsとしたとき、下記式(数3)よりsを算出し、さらにCVを(数4)より算出した。 The coefficient of variation CV is the ratio of the standard deviation to the average luminance value. When the standard deviation is s, s was calculated from the following equation (Equation 3), and CV was further calculated from (Equation 4).

歪度Sk、尖度Kuは下記式(数5)および(数6)より算出した。 The skewness Sk and kurtosis Ku were calculated from the following equations (Equation 5) and (Equation 6).

(3) 各種ニュアンス量の算出
〔0044〕の(1)で得た画像の輝度ヒストグラムより、各輝度値(0〜n−1)における画素数を求め、各種ニュアンス量を算出した。
輝度閾値は、Y軸を「輝度値×当該輝度値以上の輝度値における各画素数の総和」、X軸を輝度値としたときの、y値がピークを示すときの輝度値である(図2)。kを任意の輝度値、fkを度数すなわちその輝度値における総画素数比とし、輝度閾値を下記式(数7)より算出した。
(3) Calculation of various nuance amounts From the luminance histogram of the image obtained in (0044) of [0044], the number of pixels at each luminance value (0 to n-1) was obtained, and various nuance amounts were calculated.
The brightness threshold is a brightness value when the y value shows a peak when the Y axis is “brightness value×sum of the numbers of pixels in brightness values equal to or higher than the brightness value” and the X axis is a brightness value (FIG. 2). The luminance threshold value was calculated from the following equation (Equation 7), where k is an arbitrary luminance value and fk is a frequency, that is, a ratio of the total number of pixels in the luminance value.

明るさ総量は、Y軸を明るさ量、X軸を輝度値としたとき、〔0053〕で求めた輝度閾値を基準としたときの、輝度閾値以上の輝度値における明るさ量の総和である。下記式(数8)より算出した。 The total brightness is the total brightness at brightness values equal to or higher than the brightness threshold value with reference to the brightness threshold value obtained in [0053], where the brightness value is on the Y axis and the brightness value is on the X axis. .. It was calculated from the following formula (Equation 8).

暗さ総量は、Y軸を明るさ量、X軸を輝度値としたとき、〔0053〕で求めた輝度閾値未満の輝度値における明るさ量の総和である。下記式(数9)より算出した。 The total amount of darkness is the total amount of brightness at a brightness value less than the brightness threshold value obtained in [0053] when the brightness amount is on the Y axis and the brightness value is on the X axis. It was calculated from the following formula (Equation 9).

明暗総量比は、前記より求めた明るさ総量と暗さ総量の比である。後に示す実施例(Y1)、比較例(Y2)では、明暗総量比は、明るさ総量を暗さ総量で除したものを用い、更に、対象画像における「明るい」と認識される領域の占める割合、および「暗い」と認識される領域の占める割合を重み付けし、下記式(数10〜13)より算出した。 The total light/dark ratio is the ratio of the total brightness and the total darkness obtained from the above. In Example (Y1) and Comparative Example (Y2) described later, the total brightness/darkness ratio is obtained by dividing the total brightness by the total darkness, and the ratio of the area recognized as “bright” in the target image is further occupied. , And the proportion of the area recognized as “dark” are weighted and calculated by the following equations (Equations 10 to 13).

〔目視評価による明るさ感評価値の算出〕
キャリブレーション用画像10枚に対し、以下に示す方法により明るさ感評価値を算出した。
(1) キャリブレーション用画像の明るさ感評価試験
一対比較法を用いて、各キャリブレーション用画像の明るさ感評価値を算出した。
暗室条件下、被験者に任意の2画像をディスプレイ上にて提示し、「画像全体を見たとき、どちらが明るいか」という質問文に基づいて、どちらが明るいと感じるかを判断させた。本工程を、すべての画像の組み合わせについて行った。本試験における被験者は10名とした。キャリブレーション用画像10枚の画像を(図4)に示す。
(2) 被験物画像の明るさ感評価値算出
上記(1)より得られた、各画像の組み合わせにおける「どちらが明るいか」の情報を元に、一対比較法における中屋の変法に基づいて、各画像の明るさ感評価値を算出した。その結果を(表1)に示す。
[Calculation of brightness evaluation value by visual evaluation]
Brightness sensation evaluation values were calculated for 10 calibration images by the following method.
(1) Brightness sensation evaluation test of calibration image The brightness sensation evaluation value of each calibration image was calculated using the paired comparison method.
Under the dark room condition, the subjects were presented with two arbitrary images on the display and were asked to judge which one was brighter based on the question sentence "Which is brighter when looking at the whole image?". This step was performed for all image combinations. There were 10 test subjects in this test. An image of 10 images for calibration is shown in FIG.
(2) Calculation of brightness evaluation value of test object image Based on the information “which is brighter” in the combination of the images obtained from the above (1), based on Nakaya's modified method in the paired comparison method. The brightness feeling evaluation value of each image was calculated. The results are shown in (Table 1).

〔明るさ感予測式導出〕
各キャリブレーション用画像の輝度ヒストグラムより算出した基本統計量・ニュアンス量等の各パラメータを説明変数、一対比較法により求めた各被験物画像の明るさ感評価値を目的変数として、重回帰分析を行った。分析には統計解析ソフト(エクセル統計2008,社会情報サービス社製)を用いた。
(1)説明変数として基本統計量・ニュアンス量を用いた場合の明るさ感予測式導出(実施例)
説明変数を基本統計量・ニュアンス量としたときの、明るさ感評価値の最適な予測式を算出した。説明変数は〔輝度平均値、変動係数、歪度、尖度、輝度閾値、明るさ総量、暗さ総量、明暗総量比〕である。変数選択にはステップワイズ法を用い、得られた重回帰式の修正済決定係数を指標として、最適な変数の組み合わせおよび予測式を求めた。加えて、VIF・トレランスを変数選択の際の多重共線性の指標とした。
(2)説明変数として基本統計量のみを用いた場合の明るさ感予測式導出(比較例)
説明変数を基本統計量のみとしたときの、明るさ感評価値の最適な予測式を算出した。説明変数は〔輝度平均値、変動係数、歪度、尖度〕である。変数選択にはステップワイズ法を用い、得られた重回帰式の修正済決定係数を指標として、最適な変数の組み合わせおよび予測式を求めた。加えて、VIF・トレランスを変数選択の際の多重共線性の指標とした。
[Derivation of brightness prediction formula]
Multiple regression analysis was performed with each parameter such as basic statistics and nuance amount calculated from the brightness histogram of each calibration image as an explanatory variable, and the brightness evaluation value of each test object image obtained by the paired comparison method as the objective variable. went. Statistical analysis software (Excel Statistics 2008, manufactured by Social Information Service Co., Ltd.) was used for the analysis.
(1) Derivation of brightness perception prediction formula when basic statistics and nuance amount are used as explanatory variables (Example)
The optimal prediction formula of the brightness evaluation value was calculated when the explanatory variables were the basic statistics and nuances. The explanatory variables are [luminance average value, coefficient of variation, skewness, kurtosis, luminance threshold, total brightness, total darkness, total brightness ratio]. The stepwise method was used for the variable selection, and the optimal combination of variables and the prediction formula were obtained by using the corrected coefficient of determination of the obtained multiple regression formula as an index. In addition, VIF tolerance was used as an index of multicollinearity when selecting variables.
(2) Derivation of a brightness perception prediction formula when only basic statistics are used as explanatory variables (comparative example)
The optimal prediction formula of the brightness evaluation value when only the basic statistic was used as the explanatory variable was calculated. The explanatory variables are [luminance average value, coefficient of variation, skewness, kurtosis]. The stepwise method was used for the variable selection, and the optimal combination of variables and the prediction formula were obtained by using the corrected coefficient of determination of the obtained multiple regression formula as an index. In addition, VIF tolerance was used as an index of multicollinearity when selecting variables.

説明変数として基本統計量・ニュアンス量を用いた場合の明るさ感予測式Y1(実施例)、および説明変数として基本統計量のみを用いた場合の明るさ感予測式Y2(比較例)を、それぞれ以下(数14)、(数15)に示す。 Brightness sensation prediction formula Y1 (Example) when the basic statistic/nuance amount is used as the explanatory variable, and brightness sensation prediction formula Y2 (Comparative example) when only the basic statistic is used as the explanatory variable, The following (Equation 14) and (Equation 15) are shown below.

また、得られた各予測式における、実測値との当てはまり度合を示す修正済決定係数を、以下(表2)に示す。 In addition, in each of the obtained prediction formulas, the corrected coefficient of determination indicating the degree of fitting with the actual measurement value is shown below (Table 2).

(表2)より、説明変数として基本統計量・ニュアンス量を用いた場合の明るさ感予測式Y1は、説明変数として基本統計量のみを用いた場合の明るさ感予測式Y2と比較して、実測値との当てはまりを示す修正済決定係数が大きい、すなわち予測式の精度が向上していることが分かる。 From (Table 2), the brightness perception prediction formula Y1 when the basic statistic/nuance amount is used as the explanatory variable is compared with the brightness perception prediction formula Y2 when only the basic statistics are used as the explanatory variable. It can be seen that the corrected coefficient of determination showing the fit with the measured value is large, that is, the accuracy of the prediction formula is improved.

例2:頬部つや画像の明るさ感予測値算出および精度の確認
例1と同対象物、かつ同撮影条件で取得した頬部つや画像を3つ選択し(図5)、例1で得られた明るさ感予測式(Y1、Y2)を適用して明るさ感予測値を算出し、予測式Y1を適用して得られた明るさ感予測値をy1、予測式Y2を適用して得られた予測値をy2とした。尚、画像取得方法、輝度ヒストグラム抽出方法、各パラメータ算出方法等は全て例1と同様の方法にて行った。また、各被験物画像について得られた明るさ感予測値の精度を確認するため、例1で示したものと同様の一対比較法を用いて各被験物画像の明るさ感評価値を算出し、明るさ感予測値(y1、y2)と比較した。
Example 2: Calculation of brightness sense predicted value of cheek gloss image and confirmation of accuracy Select three cheek gloss images acquired under the same object and under the same shooting conditions as in Example 1 (FIG. 5), and obtain in Example 1. The brightness perception prediction value (Y1, Y2) is applied to calculate the brightness perception prediction value, and the brightness perception prediction value obtained by applying the prediction equation Y1 is applied to y1 and the prediction equation Y2. The obtained predicted value was set to y2. The image acquisition method, the brightness histogram extraction method, each parameter calculation method, and the like were all the same as in Example 1. Further, in order to confirm the accuracy of the brightness sensation predicted value obtained for each test object image, the brightness sensation evaluation value of each test object image was calculated using the paired comparison method similar to that shown in Example 1. , And the brightness sense predicted value (y1, y2).

各被験物画像の明るさ感評価値および実施例(Y1)、比較例(Y2)の予測式より算出した明るさ感予測値y1、y2を(表3)に示した。いずれの画像においてもy1において、明るさ感評価値との差がより小さく、比較例よりも精度高く明るさ感予測値を得られることが確認された。 The brightness sensation evaluation value of each test object image and the brightness sensation predicted values y1 and y2 calculated from the prediction formulas of Example (Y1) and Comparative Example (Y2) are shown in (Table 3). It was confirmed that, in y1 in all images, the difference from the brightness feeling evaluation value was smaller, and the brightness feeling predicted value could be obtained with higher accuracy than in the comparative example.

例3:活用事例1(化粧料塗布による頬部つやの明るさ感への影響の評価)
〔化粧料の調製〕
処方例(表4)に示す組成に関して、成分(1)〜(6)を混合、さらに成分(7)〜(9)を混合したものを加え、ホモミキサーにて均一に混合分散し、ウンモフンを含むリキッドファンデーションである化粧料1および高輝性粉体である酸化チタン・水酸化アルミニウム被覆マイカを含むリキッドファンデーションである化粧料2を得た。
Example 3: Application example 1 (Evaluation of the effect of cosmetic application on the brightness of cheek gloss)
[Preparation of cosmetics]
With respect to the composition shown in the formulation example (Table 4), the components (1) to (6) were mixed, further the components (7) to (9) were added, and the mixture was uniformly mixed and dispersed with a homomixer to give unmofun. A cosmetic 1 which is a liquid foundation containing it and a cosmetic 2 which is a liquid foundation containing titanium oxide/aluminum hydroxide coated mica which is a high-brightness powder were obtained.

〔評価対象物の撮影および画像の取得〕
評価対象物を「頬部のつや」とし、対象物の画像を取得した。バイオスキンドール(F910,ビューラックス社製)に対して、化粧料無塗布(パターン1)、化粧料1塗布後にセリサイト均一塗布(パターン2)、化粧料2塗布後にセリサイト均一塗布(パターン3)、各パターンにおける頬部画像を撮影し、つやをより反映していると考えられる表面反射画像を取得した。化粧料1および化粧料2の塗布後にセリサイトを均一塗布しているのは、おしろい使用を想定したものである。対象物の撮影時、拡散光の照射角度は、対象物の顔面の正面に対して22.5度とし、受光角度は、被験者の顔面に対して前記照射光の入射方向と反対方向に22.5度とした。その他撮影条件、表面反射画像取得方法、ヒストグラム抽出方法、各パラメータ算出方法等は全て例1と同様の方法にて行った。
[Shooting of the evaluation target and acquisition of images]
The object to be evaluated was "cheek gloss", and an image of the object was acquired. Bioskin Doll (F910, manufactured by Vurax) is not coated with the cosmetic (pattern 1), is uniformly coated with sericite after applying the cosmetic 1 (pattern 2), and is uniformly coated with sericite after coating the cosmetic 2 (pattern 3). ), the cheek image in each pattern was photographed, and the surface reflection image considered to more reflect gloss was acquired. The uniform application of sericite after the application of the cosmetics 1 and 2 is intended for an interesting use. When the object is photographed, the irradiation angle of the diffused light is 22.5 degrees with respect to the front of the face of the object, and the light receiving angle is 22. It was 5 degrees. The other photographing conditions, the surface reflection image acquisition method, the histogram extraction method, the respective parameter calculation methods, and the like were all the same as in Example 1.

各パターンの頬部画像を図6に示した。図6より、化粧料無塗布であるパターン1が最も暗く、パターン2ではパターン1と比較してわずかに明るさが増していることが分かる。さらにパターン3では、パターン2と比較して大幅に明るさ感を増していることが分かる。つまり、リキッドファンデーションに当該酸化チタン・水酸化アルミニウム被覆マイカを配合することにより頬部に明るさ感を効果的に付与できていることが分かる。 The cheek image of each pattern is shown in FIG. It can be seen from FIG. 6 that the pattern 1 in which the cosmetic is not applied is the darkest, and the pattern 2 is slightly brighter than the pattern 1. Further, it can be seen that the pattern 3 has a significantly increased sense of brightness as compared with the pattern 2. That is, it is understood that the cheeks can be effectively given a feeling of brightness by mixing the titanium oxide/aluminum hydroxide coated mica with the liquid foundation.

パターン1〜3の各画像について、例1の実施例の予測式(Y1)より算出した明るさ感予測値y1を表5に示した。実施例におけるパターン1とパターン2の明るさ感予測値の差は4.66、パターン1とパターン3の明るさ感予測値の差は31.61、パターン2とパターン3の明るさ感予測値の差は26.95である。各パターンの頬部画像の明るさ感の数値感を適正に評価できていることが確認された。 Table 5 shows the brightness perception prediction value y1 calculated from the prediction formula (Y1) of the example of Example 1 for each image of patterns 1 to 3. In the embodiment, the difference between the predicted brightness values of pattern 1 and pattern 2 is 4.66, the difference between the predicted brightness values of pattern 1 and pattern 3 is 31.61, and the predicted brightness value between pattern 2 and pattern 3 is Is 26.95. It was confirmed that the numerical feeling of brightness of the cheek image of each pattern could be evaluated properly.

以上より、例1の実施例で得た予測式を用いることで、化粧料を塗布したときの頬部つやの明るさ感を比較評価することが可能であることが分かる。また、頬部に適切な明るさ感を付与する化粧料や機能性紛体のスクリーニング等にも活用可能であると考えられる。 From the above, it can be seen that by using the prediction formula obtained in the example of Example 1, it is possible to compare and evaluate the brightness of the cheek gloss when applying the cosmetic. In addition, it is considered that it can be used for screening cosmetics and functional powders that give an appropriate brightness to the cheeks.

例4:活用事例2(部位別の明るさ感比較評価)
化粧料塗布時および無塗布時における、顔面の部位別の明るさ感比較評価を行った。
〔化粧料の調製〕
表4に示す化粧料2を用いた。
〔評価対象物の撮影および画像の取得〕
評価対象物を「頬部のつや」および「顎部のつや」とし、対象物の画像を取得した。バイオスキンドール(F910,ビューラックス社製)に対して、化粧料無塗布(パターン1)、化粧料2塗布後にセリサイト均一塗布(パターン2)、各パターンにおける頬部画像を撮影し、つやをより反映していると考えられる表面反射画像を取得した。対象物の撮影時、拡散光の照射角度は、対象物の顔面の正面に対して22.5度とし、受光角度は、被験者の顔面に対して前記照射光の入射方向と反対方向に22.5度とした。その他撮影条件、表面反射画像取得方法、ヒストグラム抽出方法、各パラメータ算出方法等は全て例1と同様の方法にて行った。
Example 4: Utilization example 2 (comparative evaluation of brightness feeling for each part)
A comparative evaluation of the feeling of brightness for each facial part was performed with and without the application of cosmetics.
[Preparation of cosmetics]
The cosmetic material 2 shown in Table 4 was used.
[Shooting of the evaluation target and acquisition of images]
An image of the object was acquired by setting the evaluation objects to be “cheek gloss” and “chin gloss”. Bioskin Doll (F910, manufactured by Vurax) is not coated with cosmetics (Pattern 1), and evenly coated with sericite after applying Cosmetics 2 (Pattern 2). The surface reflection image, which is considered to be more reflected, was acquired. When the object is photographed, the irradiation angle of the diffused light is 22.5 degrees with respect to the front of the face of the object, and the light receiving angle is 22. It was 5 degrees. The other photographing conditions, the surface reflection image acquisition method, the histogram extraction method, the respective parameter calculation methods, and the like were all the same as in Example 1.

各パターンの頬部画像および顎部画像を(図7)に示した。パターン1においては、顎部と比較して頬部のつや明るさ感は同等もしくはそれ未満と考えられるのに対し、化粧料2を塗布しているパターン2では、顎部と比較して頬部のつや明るさ感が大きくなっていることが確認できる。さらに、パターン1と比較してパターン2では、頬部、顎部ともに全体的に明るさ感が増していることが確認できる。 The cheek image and jaw image of each pattern are shown in (FIG. 7). In Pattern 1, it is considered that the cheeks have the same or less glossiness than the chin, whereas in Pattern 2 in which the cosmetic 2 is applied, the cheeks are brighter than the chin. It can be confirmed that the gloss and brightness are getting larger. Furthermore, it can be confirmed that the cheek portion and the chin portion have an increased sense of brightness as a whole in the pattern 2 as compared with the pattern 1.

パターン1、2の頬部および顎部つや画像について、例1の実施例、比較例の予測式より算出した明るさ感予測値y1、y2を(表6)に示した。実施例の明るさ感予測式(Y1)より算出した明るさ感予測値において、パターン1では顎部と比較して頬部のつやの方が明るさ感予測値は小さく、パターン2では顎部と比較して頬部のつやの方が明るさ感予測値は大きいことから、目視による各画像の明るさ感の大小関係と同様の傾向であり、かつ、各画像を目視した際、その明るさ感と各明るさ感予測値の傾向が一致していることが分かる。一方、比較例の明るさ感予測式(Y2)より算出した明るさ感予測値においては、各画像の明るさ感予測値と目視による各画像の明るさ感を比較した際、その大小関係は同様ではあるが、特にパターン2の顎部つやと頬部つやとの明るさ感予測値を比較した場合、パターン1の頬部および顎部の明るさ感予測値を基準とすると、各画像を目視した際の明るさ感の傾向との一致度合いが低いことが分かる。以上より、実施例の予測式より算出した明るさ感予測値は、比較例の予測式より算出した明るさ感予測値と比較して、より精度が高いことが分かる。 For the cheek and chin gloss images of patterns 1 and 2, brightness feeling predicted values y1 and y2 calculated from the prediction formulas of the example of Example 1 and the comparative example are shown in (Table 6). In the brightness sensation predicted value calculated by the brightness sensation prediction formula (Y1) of the embodiment, the brightness sensation predicted value is smaller in the cheeks in the pattern 1 than in the chin, and in the pattern 2 as the chin. Since the glossiness of the cheeks is larger than that of the cheeks in comparison, the tendency is similar to the magnitude relationship of the brightness perception of each image visually, and the brightness perception when each image is visually observed. It can be seen that the tendencies of the predicted brightness values agree with. On the other hand, in the brightness sense predicted value calculated from the brightness sense prediction formula (Y2) of the comparative example, when comparing the brightness sense predicted value of each image with the brightness sense of each image visually, the magnitude relationship is Although similar, in particular, when comparing the brightness sensation prediction values of the chin gloss and cheek shine of pattern 2, each image is calculated based on the cheek and chin brightness prediction values of pattern 1. It can be seen that the degree of agreement with the tendency of the sense of brightness when visually observed is low. From the above, it can be seen that the brightness sense predicted value calculated by the prediction formula of the example has higher accuracy than the brightness sense predicted value calculated by the prediction formula of the comparative example.

以上より、例1の実施例で得た予測式を用いることにより、頬部つや画像だけでなく、頬部以外の部位である顎部つやの明るさ感評価や、頬部と顎部のような異なる部位の明るさ感評価が可能であることが分かる。また、適切な明るさ感バランスを付与する化粧料及び機能性粉体のスクリーニングや、顔形状の異なるヒト同士での、特定部位の明るさ感比較評価等にも活用可能であると考えられる。 From the above, by using the prediction formula obtained in the example of Example 1, not only the cheek gloss image, but also the brightness sensation evaluation of the chin gloss which is a part other than the cheek part, the cheek part and the chin part, etc. It can be seen that it is possible to evaluate the brightness of different parts. In addition, it is considered that the present invention can be used for screening cosmetics and functional powders that give an appropriate balance of brightness feeling, and for comparative evaluation of brightness feeling of a specific site between people having different face shapes.

本発明に係る方法を利用することで、簡便かつ精度高く、形状の違いを加味した明るさ感の比較評価をすることが可能である。この方法はヒト頬部の明るさ感評価だけでなく、例えば、顔面の部位別の明るさ感比較評価や、好ましい明るさ感を付与する化粧料の評価法としても用いられる。

By using the method according to the present invention, it is possible to perform a simple and highly accurate comparative evaluation of a sense of brightness in consideration of a difference in shape. This method is used not only for evaluating the brightness feeling of human cheeks, but also as a comparative evaluation of brightness feeling for each part of the face and an evaluation method for cosmetics that imparts a preferable brightness feeling, for example.

Claims (8)

キャリブレーション用の画像を得る第1工程と、
前記画像より輝度ヒストグラムを抽出する第2工程と、
前記輝度ヒストグラムより基本統計量を算出する第3工程と、
前記輝度ヒストグラムより下記に示す方法で輝度閾値を算出する第4工程と、
前記輝度閾値を少なくとも1つのニュアンス量とする第5工程と、
ヒトの目視評価により前記キャリブレーション用画像に対する明るさ感評価値を算出する第6工程と、
前記キャリブレーション用画像各々より得られた前記基本統計量、前記ニュアンス量および各画像の明るさ感評価値をもとに、明るさ感予測式を算出する第7工程と、
被験物画像の輝度ヒストグラムより得られた基本統計量およびニュアンス量と前記明るさ感予測式から、明るさ感評価値の予測値を得る第8工程と
を含む明るさ感の評価方法。
輝度閾値の算出方法:
輝度階調がnである場合に、ある輝度値(Hi;i=0〜n−1の整数)に、当該輝度値(Hi)以上の輝度値における画素数の総和を乗算した値が最大となるときの輝度値(Hx)を輝度閾値とする。
A first step of obtaining an image for calibration,
A second step of extracting a brightness histogram from the image;
A third step of calculating basic statistics from the brightness histogram,
A fourth step of calculating a brightness threshold value from the brightness histogram by the method described below,
A fifth step of setting the brightness threshold to at least one nuance amount,
A sixth step of calculating the brightness sensation evaluation value for the calibration image by visual evaluation of the human,
The summary statistics obtained from each image for the Calibration, on the basis of the brightness sensation evaluation value of the two Yuansu amount and each image, a seventh step of calculating the brightness sensation prediction equation,
Brightness evaluation including an eighth step of obtaining a predicted value of a brightness evaluation value from the basic statistic amount and nuance amount obtained from the brightness histogram of the test object image and the brightness prediction formula. Method.
Brightness threshold calculation method:
When the luminance gradation is n, a maximum value is obtained by multiplying a certain luminance value (Hi; i=0 to n-1) by the total number of pixels in the luminance value equal to or higher than the luminance value (Hi). The brightness value (Hx) at which is defined as the brightness threshold value.
キャリブレーション用の画像を得る第1工程と、
前記画像より輝度ヒストグラムを抽出する第2工程と、
前記輝度ヒストグラムより基本統計量を算出する第3工程と、
前記輝度ヒストグラムより以下に示す算出方法を用いて明るさ量を、請求項1記載の算出方法を用いて輝度閾値を算出する4工程と、
前記輝度ヒストグラムよりニュアンス量として、前記輝度閾値、前記明るさ量と前記輝度閾値を指標とした明るさ総量、暗さ総量、明暗総量比から選択される少なくとも1種以上を算出する第5工程と、
ヒトの目視評価により前記キャリブレーション用画像に対する明るさ感評価値を算出する第6工程と、
記キャリブレーション用画像各々より得られた前記基本統計量、前記ニュアンス量および各画像の明るさ感評価値をもとに、明るさ感予測式を算出する第7工程と、
被験物画像の輝度ヒストグラムより得られた基本統計量およびニュアンス量と前記明るさ感予測式から、明るさ感評価値の予測値を得る第8工程と
を含む明るさ感の評価方法。
明るさ量の算出方法:
輝度階調がnである場合に
ある輝度値(Hi;i=0〜n−1の整数)に、当該輝度値における画素数を乗じたものを、当該輝度値(Hi)における明るさ量とする。
A first step of obtaining an image for calibration,
A second step of extracting a brightness histogram from the image;
A third step of calculating basic statistics from the brightness histogram,
4 steps of calculating a brightness amount using the following calculation method from the brightness histogram and a brightness threshold value using the calculation method according to claim 1;
As a nuance amount from the brightness histogram, the brightness threshold value, a total amount of brightness using the brightness amount and the brightness threshold value as an index, a total amount of darkness, a fifth step of calculating at least one or more selected from the total dark and light ratio; ,
A sixth step of calculating the brightness sensation evaluation value for the calibration image by visual evaluation of the human,
The basic statistics obtained from each image for the front SL calibration, based on the brightness sensation evaluation value of the nuances amount and each image, a seventh step of calculating the brightness sensation prediction equation,
Brightness evaluation including an eighth step of obtaining a predicted value of a brightness evaluation value from the basic statistic amount and nuance amount obtained from the brightness histogram of the test object image and the brightness prediction formula. Method.
How to calculate the brightness:
When the brightness gradation is n
A value obtained by multiplying a certain brightness value (Hi; an integer of i=0 to n−1) by the number of pixels at the brightness value is set as the brightness amount at the brightness value (Hi).
前記ニュアンス量の算出において
輝度階調がnである場合に、ある輝度値(Hi;i=0〜n−1の整数)に、当該輝度値(Hi)における画素数又は総画素数比を乗算した値を当該輝度値(Hi)における明るさ量とし、
前記輝度閾値(Hx)を基準として、輝度閾値(Hx)以上の輝度値における明るさ量の総和を対象画像における明るさ総量とする
請求項1又は請求項2に記載の明るさ感の評価方法。
When the luminance gradation is n in the calculation of the nuance amount, a certain luminance value (Hi; i=0 to n-1) is multiplied by the number of pixels or the ratio of the total number of pixels at the luminance value (Hi). And the brightness value at the brightness value (Hi),
The brightness sensation evaluation method according to claim 1 or 2, wherein a sum of brightness amounts at brightness values equal to or higher than the brightness threshold value (Hx) is set as a brightness amount in the target image with the brightness threshold value (Hx) as a reference. ..
前記ニュアンス量の算出において
輝度階調がnである場合に、ある輝度値(Hi;i=0〜n−1の整数)に、当該輝度値(Hi)における画素数又は総画素数比を乗算した値を当該輝度値(Hi)における明るさ量とし、
前記輝度閾値(Hx)未満の輝度値における明るさ量の総和を対象画像における暗さ総量とする
請求項1乃至請求項3いずれか1項に記載の明るさ感の評価方法。
When the luminance gradation is n in the calculation of the nuance amount, a certain luminance value (Hi; i=0 to n-1) is multiplied by the number of pixels or the ratio of the total number of pixels at the luminance value (Hi). And the brightness value at the brightness value (Hi),
The brightness feeling evaluation method according to any one of claims 1 to 3, wherein a sum of brightness amounts at brightness values less than the brightness threshold value (Hx) is set as a total darkness amount in the target image.
前記ニュアンス量の算出において
画像の明るさ総量および暗さ総量の比を、画像の明暗総量比とする
請求項1乃至請求項4いずれか1項に記載の明るさ感の評価方法。
The nuances amount ratio of brightness total and darkness total image in the calculation of the evaluation method of the brightness sensation of claim 1 to claim 4 any one the contrast ratio of the total amounts of the image.
対象物を撮像し、キャリブレーション用の画像を得る第1手順と、
前記画像より輝度ヒストグラムを抽出する第2手順と、
前記輝度ヒストグラムより基本統計量を算出する第3手順と、
前記輝度ヒストグラムより、請求項1記載の算出方法を用いて輝度閾値を算出する第4手順と、
前記輝度閾値を少なくとも1つのニュアンス量とする第5手順と、
ヒトの目視評価により前記キャリブレーション用画像に対して明るさ感評価値を算出する第6手順と、
前記キャリブレーション用画像各々より得られた前記基本統計量、前記ニュアンス量および各画像の明るさ感評価値を元に、明るさ感予測式を算出する第7手順と、
被験物画像の輝度ヒストグラムより得られた基本統計量およびニュアンス量を前記明るさ感予測式に代入し、明るさ感評価値の予測値を得る第8手順と
を有する明るさ感の評価プログラム。
A first procedure for capturing an image of an object and obtaining an image for calibration;
A second step of extracting a brightness histogram from the image;
A third step of calculating a basic statistic from the luminance histogram,
A fourth step of calculating a brightness threshold value from the brightness histogram using the calculation method according to claim 1;
A fifth step in which the brightness threshold is at least one nuance amount,
A sixth step of calculating the brightness sensation evaluation values for the calibration image by visual evaluation of the human,
The summary statistics obtained from each image for the calibration, based on the brightness sensation evaluation value of the nuances amount and each image, a seventh step of calculating the brightness sensation prediction equation,
A brightness sensation evaluation program including an eighth step of substituting the basic statistic amount and the nuance amount obtained from the brightness histogram of the test object image into the brightness sensation prediction formula to obtain a predicted value of the brightness sensation evaluation value.
対象物を撮像し、キャリブレーション用の画像を得る第1手順と、
前記画像より輝度ヒストグラムを抽出する第2手順と、
前記輝度ヒストグラムより基本統計量を算出する第3手順と、
前記輝度ヒストグラムより、請求項1、2記載の算出方法を用いて明るさ量と輝度閾値を算出する第4手順と
前記輝度ヒストグラムよりニュアンス量として、輝度閾値、前記明るさ量と前記輝度閾値を指標とした明るさ総量、暗さ総量、明暗総量比から選択される少なくとも1種以上を算出する第5手順と、
ヒトの目視評価により前記キャリブレーション用画像に対して明るさ感評価値を算出する第6手順と、
前記キャリブレーション用画像各々より得られた前記基本統計量、前記ニュアンス量および各画像の明るさ感評価値を元に、明るさ感予測式を算出する第7手順と、
被験物画像の輝度ヒストグラムより得られた基本統計量およびニュアンス量を前記明るさ感予測式に代入し、明るさ感評価値の予測値を得る第8手順と
を有する明るさ感の評価プログラム。
A first procedure for capturing an image of an object and obtaining an image for calibration;
A second step of extracting a brightness histogram from the image;
A third step of calculating a basic statistic from the luminance histogram,
A fourth step of calculating a brightness amount and a brightness threshold value from the brightness histogram using the calculation method according to claim 1.
As a nuance amount from the brightness histogram, a brightness threshold value, a total amount of brightness using the brightness amount and the brightness threshold as an index, a total amount of darkness, a fifth step of calculating at least one or more selected from the total amount of light and darkness,
A sixth step of calculating the brightness sensation evaluation values for the calibration image by visual evaluation of the human,
The summary statistics obtained from each image for the calibration, based on the brightness sensation evaluation value of the nuances amount and each image, a seventh step of calculating the brightness sensation prediction equation,
A brightness sensation evaluation program including an eighth step of substituting the basic statistic amount and the nuance amount obtained from the brightness histogram of the test object image into the brightness sensation prediction formula to obtain a predicted value of the brightness sensation evaluation value.
請求項1乃至請求項5のいずれか1項に記載の方法、又は請求項6若しくは請求項7に記載のプログラムを実行するための装置。 An apparatus for executing the method according to any one of claims 1 to 5, or the program according to claim 6 or 7 .
JP2017005500A 2017-01-17 2017-01-17 Brightness evaluation method, evaluation program, and device Active JP6736489B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017005500A JP6736489B2 (en) 2017-01-17 2017-01-17 Brightness evaluation method, evaluation program, and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017005500A JP6736489B2 (en) 2017-01-17 2017-01-17 Brightness evaluation method, evaluation program, and device

Publications (2)

Publication Number Publication Date
JP2018116378A JP2018116378A (en) 2018-07-26
JP6736489B2 true JP6736489B2 (en) 2020-08-05

Family

ID=62985480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017005500A Active JP6736489B2 (en) 2017-01-17 2017-01-17 Brightness evaluation method, evaluation program, and device

Country Status (1)

Country Link
JP (1) JP6736489B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7199845B2 (en) 2018-06-19 2023-01-06 キヤノン株式会社 Image processing device, image processing method and program

Also Published As

Publication number Publication date
JP2018116378A (en) 2018-07-26

Similar Documents

Publication Publication Date Title
CN108024719B (en) Skin gloss evaluation device, gloss evaluation method, and recording medium
Mayer et al. BMI and WHR are reflected in female facial shape and texture: a geometric morphometric image analysis
CN107315987B (en) Method for evaluating apparent age of face and aging degree of face and application thereof
Stephen et al. Visual attention mediates the relationship between body satisfaction and susceptibility to the body size adaptation effect
JP6907766B2 (en) Measuring equipment and measuring system
JP2023040229A (en) Apparatus and method for visualizing cosmetic skin attributes
JP2009082338A (en) Skin discrimination method using entropy
JP2007252891A (en) Estimation method of evaluation value by visual recognition of beauty of skin
JP2021532915A (en) How to identify the color of the pores
Schulze et al. The use of fractal analysis and photometry to estimate the accuracy of bulbar redness grading scales
Dantcheva et al. Female facial aesthetics based on soft biometrics and photo-quality
JP6736489B2 (en) Brightness evaluation method, evaluation program, and device
JP6530703B2 (en) Skin condition evaluation method
JP5651385B2 (en) Face evaluation method
JP2008093048A (en) Elasticity evaluation method
JP6124295B2 (en) Method for evaluating the texture of bare skin or makeup skin
Kim et al. A Quantative Evaluation of Pigmented Skin Lesions Using The L* a* b* Color Coordinates
Houser et al. Shadow analysis via the C+ K Visioline: A technical note
Wu et al. Quality enhancement based on retinex and pseudo-HDR synthesis algorithms for endoscopic images
Lu et al. Investigation of effect of skin tone to facial attractiveness
TWI729338B (en) Skin detection method and image processing device
JP2021032855A (en) Evaluation method of cosmetics, and evaluation device of cosmetics
JP7387985B2 (en) Painted surface evaluation method, painted surface evaluation device, and program
He et al. A novel camera colour characterisation model for the colour measurement of human skin
Xiao et al. Principal component analysis for skin reflectance reconstruction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200715

R150 Certificate of patent or registration of utility model

Ref document number: 6736489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250