JP6883943B2 - Evaluation method, evaluation device and program - Google Patents

Evaluation method, evaluation device and program Download PDF

Info

Publication number
JP6883943B2
JP6883943B2 JP2015243398A JP2015243398A JP6883943B2 JP 6883943 B2 JP6883943 B2 JP 6883943B2 JP 2015243398 A JP2015243398 A JP 2015243398A JP 2015243398 A JP2015243398 A JP 2015243398A JP 6883943 B2 JP6883943 B2 JP 6883943B2
Authority
JP
Japan
Prior art keywords
image
change
amount
data
transition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015243398A
Other languages
Japanese (ja)
Other versions
JP2017110941A (en
Inventor
崇訓 五十嵐
崇訓 五十嵐
雅俊 橋本
雅俊 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2015243398A priority Critical patent/JP6883943B2/en
Publication of JP2017110941A publication Critical patent/JP2017110941A/en
Application granted granted Critical
Publication of JP6883943B2 publication Critical patent/JP6883943B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、化粧料の濡れ広がり方の評価方法、評価装置及びプログラムに関する。 The present invention relates to an evaluation method, an evaluation device, and a program for how to spread wetness of cosmetics.

化粧料の分野では化粧料や肌の状態を客観的に評価する方法が提案されている。 In the field of cosmetics, a method for objectively evaluating cosmetics and skin condition has been proposed.

特許文献1には、化粧料の揮発成分を揮発させて、該評価サンプルの質量の経時変化を測定し、不揮発成分の質量に対する前記揮発成分の比率が所定の値であるときの該評価サンプルの乾燥速度を求め、その大小に基づき、化粧料の保湿性を判断する工程を含む化粧料の保湿性の評価方法が開示されている。 In Patent Document 1, the volatile component of the cosmetic is volatilized, the change in mass of the evaluation sample with time is measured, and the ratio of the volatile component to the mass of the non-volatile component is a predetermined value. A method for evaluating the moisturizing property of a cosmetic product, which includes a step of determining the moisturizing property of the cosmetic product based on the drying speed and the magnitude thereof, is disclosed.

特許文献2には、人の肌状態を定量的に評価する肌状態評価方法が開示されている。当該肌状態評価方法では、表面張力が異なる複数の液体を被験者の肌に滴下する。そして、滴下した液体の肌上での形状から、肌表面を濡らして広がる限界の液体の種類を特定し、特定した液体の種類から被験者の肌状態を判断する。 Patent Document 2 discloses a skin condition evaluation method for quantitatively evaluating a human skin condition. In the skin condition evaluation method, a plurality of liquids having different surface tensions are dropped on the skin of a subject. Then, the type of the limit liquid that wets the skin surface and spreads is specified from the shape of the dropped liquid on the skin, and the skin condition of the subject is determined from the type of the specified liquid.

特開2014−219309号公報Japanese Unexamined Patent Publication No. 2014-21930 特開2005−329008号公報Japanese Unexamined Patent Publication No. 2005-329008

一方、近年の消費者の化粧料の要求も多様となり、保湿性といった化粧料の効能に加え、より優れた使用感を有する化粧料が求められるようになってきた。その使用感の一つが化粧料の濡れ広がりである。しかし、この化粧料の濡れ広がりを定量的に評価する技術は確立されていない。特許文献1の発明の技術は保湿性の評価方法に関する発明であり、また、特許文献2の発明は肌状態の評価方法に関する発明であり、当該技術を提供するものでない。本発明は、化粧料の濡れ広がり方を定量化する技術に関する。 On the other hand, consumers' demands for cosmetics have diversified in recent years, and in addition to the effects of cosmetics such as moisturizing properties, cosmetics having a better usability have been demanded. One of the feelings of use is the wet spread of cosmetics. However, a technique for quantitatively evaluating the wet spread of this cosmetic has not been established. The technique of the invention of Patent Document 1 is an invention relating to an evaluation method of moisturizing property, and the invention of Patent Document 2 is an invention relating to an evaluation method of skin condition and does not provide the technique. The present invention relates to a technique for quantifying how a cosmetic is wet and spread.

本発明によれば、
滴下対象物に滴下された化粧料を所定時間にわたり撮影した複数フレームの画像データを取得する画像データ取得工程と、
2つの前記フレーム間の画像の変化量を示すデータを算出する解析工程と、
前記解析工程における算出結果に基づき、時間的に連続する2つの前記フレーム間の前記画像の変化量の推移を示すデータ、及び/又は、前記画像の変化量の累積値の推移を示すデータを出力する出力工程と、
を有する化粧料の濡れ広がり方の評価方法が提供される。
According to the present invention
An image data acquisition process for acquiring image data of a plurality of frames obtained by photographing the cosmetics dropped on the dropping object over a predetermined time, and
An analysis step of calculating data indicating the amount of change in the image between the two frames, and
Based on the calculation result in the analysis step, data showing the transition of the change amount of the image between two temporally continuous frames and / or the data showing the transition of the cumulative value of the change amount of the image are output. Output process and
A method for evaluating how to spread the wetness of a cosmetic having the above is provided.

また、本発明によれば、
滴下対象物に滴下された化粧料を所定時間にわたり撮影した複数フレームの画像データを取得する画像データ取得部と、
2つの前記フレーム間の画像の変化量を示すデータを算出する解析部と、
前記解析部における算出結果に基づき、時間的に連続する前記フレーム間の前記画像の変化量の推移を示すデータ、及び/又は、前記画像の変化量の累積値の推移を示すデータを出力する出力部と、
を有する化粧料の濡れ広がり方を評価するための評価装置が提供される。
Further, according to the present invention.
An image data acquisition unit that acquires image data of a plurality of frames of the cosmetics dropped on the dropping object over a predetermined time, and an image data acquisition unit.
An analysis unit that calculates data indicating the amount of change in the image between the two frames,
Based on the calculation result in the analysis unit, an output that outputs data showing the transition of the amount of change in the image between the frames that are continuous in time and / or data showing the transition of the cumulative value of the amount of change in the image. Department and
An evaluation device for evaluating how to spread the wetness of the cosmetic having the above is provided.

また、本発明によれば、
コンピュータを、
滴下対象物に滴下された化粧料を所定時間にわたり撮影した複数フレームの画像データを取得する画像データ取得手段、
2つの前記フレーム間の画像の変化量を示すデータを算出する解析手段、
前記解析手段における算出結果に基づき、時間的に連続する前記フレーム間の前記画像の変化量の推移を示すデータ、及び/又は、前記画像の変化量の累積値の推移を示すデータを出力する出力手段、
として機能させる化粧料の濡れ広がり方を評価するためのプログラムが提供される。
Further, according to the present invention.
Computer,
An image data acquisition means for acquiring image data of a plurality of frames in which cosmetics dropped on a drop target are photographed over a predetermined time.
An analysis means for calculating data indicating the amount of change in an image between two frames.
Output that outputs data showing the transition of the amount of change in the image between the frames that are continuous in time and / or data showing the transition of the cumulative value of the amount of change in the image based on the calculation result in the analysis means. means,
A program is provided to evaluate how the cosmetics that function as a wet spread spread.

本発明によれば、化粧料の濡れ広がり方を定量化する技術が実現される。 According to the present invention, a technique for quantifying how a cosmetic is wet and spread is realized.

本実施形態の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of this embodiment. 本実施形態の評価装置の機能ブロック図の一例である。This is an example of a functional block diagram of the evaluation device of the present embodiment. 本実施形態の評価装置のハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the evaluation apparatus of this embodiment. 本実施形態の画像データの一例を模式的に示す図である。It is a figure which shows an example of the image data of this embodiment schematically. 本実施形態の解析部の処理を説明するための図である。It is a figure for demonstrating the processing of the analysis part of this embodiment. 本実施形態の出力部による出力例である。This is an output example by the output unit of this embodiment. 本実施形態の出力部による出力例である。This is an output example by the output unit of this embodiment. 本実施形態の出力部による出力例である。This is an output example by the output unit of this embodiment. 本実施形態の出力部による出力例である。This is an output example by the output unit of this embodiment. 本実施形態の画像データの一例を模式的に示す図である。It is a figure which shows an example of the image data of this embodiment schematically. 本実施形態の解析工程の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the process flow of the analysis process of this embodiment. 本実施形態の解析工程の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the process flow of the analysis process of this embodiment. 実施例の出力例である。This is an output example of the embodiment. 実施例の出力例である。This is an output example of the embodiment.

<第1の実施形態>
まず、本実施形態の概要を説明する。本実施形態では、滴下対象物に滴下された化粧料を所定時間にわたり所定条件で撮影した複数フレームの画像データを解析し、時間的に連続する2つのフレーム間の画像の変化量の推移を示すデータ、及び/又は、画像の変化量の累積値の推移を示すデータを出力する。当該出力データに基づき、化粧料の濡れ広がり方を評価することができる。以下、本実施形態の構成を詳細に説明する。
<First Embodiment>
First, the outline of the present embodiment will be described. In the present embodiment, the image data of a plurality of frames of the cosmetics dropped on the dropping object taken under predetermined conditions for a predetermined time is analyzed, and the transition of the amount of change in the image between two frames that are continuous in time is shown. Data and / or data showing the transition of the cumulative value of the amount of change in the image is output. Based on the output data, it is possible to evaluate how the cosmetics get wet and spread. Hereinafter, the configuration of the present embodiment will be described in detail.

図1は、本実施形態の評価方法の流れを示すフローチャートである。図示するように、画像データ取得工程S10と、解析工程S20と、出力工程S30とを有する。これらの工程の少なくとも一部は、図2に示す評価装置10により実行される。図2に示すように、評価装置10は、画像データ取得部11と、解析部12と、出力部13とを有する。 FIG. 1 is a flowchart showing the flow of the evaluation method of the present embodiment. As shown in the figure, it has an image data acquisition step S10, an analysis step S20, and an output step S30. At least a part of these steps is performed by the evaluation device 10 shown in FIG. As shown in FIG. 2, the evaluation device 10 includes an image data acquisition unit 11, an analysis unit 12, and an output unit 13.

図3を用いて、評価装置10のハードウエア構成の一例について説明する。図3に示すように、評価装置10は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路には、様々なモジュールが含まれる。 An example of the hardware configuration of the evaluation device 10 will be described with reference to FIG. As shown in FIG. 3, the evaluation device 10 includes a processor 1A, a memory 2A, an input / output interface 3A, a peripheral circuit 4A, and a bus 5A. Peripheral circuits include various modules.

バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、他の装置と情報の送受信を行うためのインターフェイスなどを含む。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行う。 The bus 5A is a data transmission path for the processor 1A, the memory 2A, the peripheral circuits 4A, and the input / output interface 3A to transmit and receive data to and from each other. The processor 1A is, for example, an arithmetic processing unit such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The memory 2A is, for example, a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory). The input / output interface 3A includes an interface for transmitting / receiving information to / from another device. The processor 1A issues a command to each module and performs a calculation based on the calculation results thereof.

以下、図1のフローチャートに示された各工程を詳細に説明する。 Hereinafter, each step shown in the flowchart of FIG. 1 will be described in detail.

画像データ取得工程S10では、滴下対象物に滴下された化粧料を所定時間にわたり撮影した複数フレームの画像データを取得する。 In the image data acquisition step S10, image data of a plurality of frames obtained by photographing the cosmetics dropped on the dropping object over a predetermined time is acquired.

画像データ取得工程S10は、このような画像データを撮影する撮影工程、及び、撮影された画像データを評価装置10の画像データ取得部11に入力する入力工程の少なくとも一方を含む。 The image data acquisition step S10 includes at least one of an imaging step of capturing such image data and an input step of inputting the captured image data into the image data acquisition unit 11 of the evaluation device 10.

撮影工程では、滴下対象物に化粧料を滴下する。そして、当該化粧料を所定時間にわたり撮影し、複数フレームの画像データを取得する。化粧料の滴下は、所定の装置を用いて行われてもよい。その他、作業者がスポイトやマイクロピペッタなどの道具を用いて当該滴下を行ってもよい。 In the photographing process, the cosmetic is dropped onto the object to be dropped. Then, the cosmetic is photographed for a predetermined time, and image data of a plurality of frames is acquired. The dropping of the cosmetic may be performed using a predetermined device. In addition, the operator may perform the dropping using a tool such as a dropper or a micropipetta.

滴下対象物の種類は特段制限されない。例えば、生体や基板等を滴下対象物とすることができる。基板としては、ガラス、アクリル、シリコーン、ウレタン等で形成された基板が挙げられるが、これらに限定されない。基板の形状も特段制限されないが、例えば、平板であってもよい。 The type of object to be dropped is not particularly limited. For example, a living body, a substrate, or the like can be a dropping target. Examples of the substrate include, but are not limited to, a substrate made of glass, acrylic, silicone, urethane, or the like. The shape of the substrate is not particularly limited, but it may be, for example, a flat plate.

化粧料は、滴下対象物上での濡れ広がり方を評価する対象であり、溶液等の液体化粧料、ジェル化粧料、クリーム化粧料、ワックス化粧料及びエアゾール化粧料等である。その種類は特段制限されない。なお、化粧料に染料等の色素(滴下対象物と異なる色)を適度に加え、着色してもよい。この場合、より精度の高い評価結果を得る観点から、肌の色とは色相環で反対側に位置する色の色素を添加することが好ましく、例えば、化粧料に添加する色素の色と、肌の色とが補色の関係になっているものも好ましい態様の一方法である。 The cosmetics are objects for evaluating how to get wet and spread on the object to be dropped, and are liquid cosmetics such as solutions, gel cosmetics, cream cosmetics, wax cosmetics, aerosol cosmetics and the like. The type is not particularly limited. In addition, a dye such as a dye (a color different from the object to be dropped) may be appropriately added to the cosmetic to color the cosmetic. In this case, from the viewpoint of obtaining a more accurate evaluation result, it is preferable to add a pigment having a color located on the opposite side of the hue circle from the skin color. For example, the color of the pigment to be added to the cosmetic and the skin. It is also a preferable method to have a complementary color relationship with the color of.

滴下対象物上への化粧料の滴下量は設計的事項であるが、例えば、1〜10μLである。スポイトやマイクロピペッタ等を用いることで、適量の化粧料を滴下対象物上に滴下することができる。 The amount of the cosmetic to be dropped onto the object to be dropped is a design matter, but is, for example, 1 to 10 μL. By using a dropper, a micropipetta, or the like, an appropriate amount of cosmetics can be dropped onto the object to be dropped.

撮影は、動画像を撮影可能なカメラを用いて行うことができる。フレームレートは、化粧料及び滴下対象物に応じて定めることができる。濡れ広がり方が速い場合はフレームレートを大きくし、濡れ広がり方が遅い場合はフレームレートを小さくすることができる。なお、動画像の撮影に代えて、所定の時間間隔で静止画像の連写撮影を行ってもよい。 Shooting can be performed using a camera capable of shooting moving images. The frame rate can be determined according to the cosmetic and the object to be dropped. The frame rate can be increased when the wet spread is fast, and the frame rate can be decreased when the wet spread is slow. Instead of shooting moving images, continuous shooting of still images may be performed at predetermined time intervals.

また、撮影時間は、化粧料及び滴下対象物に応じて定めることができる。濡れ広がり方が速い場合は、滴下タイミングから比較的短い時間で、ある状態(例:濡れ広がりが停止した状態、またはほぼ停止した状態)に収束する。濡れ広がり方が遅い場合は、滴下タイミングから比較的長い時間で、濡れ広がり方がある状態(例:濡れ広がりが停止した状態、またはほぼ停止した状態)に収束する。例えば、収束するまでの時間を含むように撮影時間を設定することができる。 In addition, the shooting time can be determined according to the cosmetics and the object to be dropped. When the wet spread is fast, it converges to a certain state (eg, a state in which the wet spread has stopped or almost stopped) in a relatively short time from the dropping timing. When the wet spreading is slow, it converges to a state in which the wet spreading is stopped (eg, a state in which the wet spreading is stopped or almost stopped) within a relatively long time from the dropping timing. For example, the shooting time can be set so as to include the time until convergence.

カメラ及び滴下対象物は、撮影の間、互いの相対的な位置関係(距離、向き等)を固定される。例えば、カメラ及び滴下対象物各々を所定位置に固定し、固定状態を維持したまま撮影することで実現できる。このようにすると、カメラで撮影されたフレーム内に写る滴下対象物の位置等を、複数フレームに跨って固定することができる。 The relative positional relationship (distance, orientation, etc.) between the camera and the dropping object is fixed during shooting. For example, it can be realized by fixing each of the camera and the dropping object at a predetermined position and taking a picture while maintaining the fixed state. In this way, the position of the dropping object in the frame photographed by the camera can be fixed across a plurality of frames.

なお、カメラのレンズ倍率や、カメラと滴下対象物間の距離などを調整し、フレーム内に化粧料及び滴下対象物以外のものが写らないようにしてもよい。 The lens magnification of the camera, the distance between the camera and the object to be dropped, and the like may be adjusted so that the frame does not show anything other than the cosmetic and the object to be dropped.

以下で説明する解析工程S20における一処理例では、2つのフレームF間の画像の相関係数を算出し、これを、画像の変化量を示すデータとする。そして、この画像の変化量を示すデータにより、化粧料の濡れ広がり方を評価する。 In one processing example in the analysis step S20 described below, the correlation coefficient of the image between the two frames F is calculated, and this is used as data indicating the amount of change in the image. Then, the wet spread of the cosmetic is evaluated based on the data showing the amount of change in the image.

フレーム内に化粧料及び滴下対象物以外のもの(以下、「他のもの」という場合がある)が写っており、それの状態(位置、形状、色等)が2つのフレーム間で変化すると、算出される相関係数に当該他のものが変化した変化成分が含まれる。このような画像の変化量を示すデータに基づき、化粧料の濡れ広がり方を評価するのは適切でない。フレーム内に化粧料及び滴下対象物以外のものが写らないように調整されていると、当該不都合を回避できる。 When something other than cosmetics and objects to be dropped (hereinafter, may be referred to as "other things") is shown in the frame and its state (position, shape, color, etc.) changes between the two frames, The calculated correlation coefficient includes a change component in which the other is changed. It is not appropriate to evaluate how the cosmetics get wet and spread based on the data showing the amount of change in the image. The inconvenience can be avoided if adjustments are made so that objects other than the cosmetic and the object to be dropped are not reflected in the frame.

また、以下で説明する解析工程S20における一処理例では、フレームから化粧料が写るエリアを抽出する。フレーム内に化粧料及び滴下対象物以外のものが写らないように調整されていると、フレームから化粧料が写るエリアを抽出する処理が容易になる。 Further, in one processing example in the analysis step S20 described below, an area in which the cosmetics are reflected is extracted from the frame. If the frame is adjusted so that objects other than the cosmetic and the object to be dropped are not reflected in the frame, the process of extracting the area in which the cosmetic is reflected from the frame becomes easy.

なお、フレーム内に化粧料及び滴下対象物以外のものが写らないようにカメラ等を調整する技術に代えて、フレーム内の一部のみを解析工程S20の処理対象とする技術を採用してもよい。処理対象とするエリア内に化粧料及び滴下対象物以外のものが写らないように、処理対象とするエリアを選択することで、同様の効果が得られる。 It should be noted that, instead of the technique of adjusting the camera or the like so that objects other than cosmetics and dripping objects are not captured in the frame, a technique of processing only a part of the frame in the analysis step S20 may be adopted. Good. The same effect can be obtained by selecting the area to be treated so that the area other than the cosmetic and the object to be dropped does not appear in the area to be treated.

撮影時の照明光としては、フリッカーが生じないものを用いるのが好ましい。例えば、ハロゲンランプ、キセノンランプ、LED等が挙げられる。また、照明光側と、カメラ側の両方に偏光板を設置し、これらの偏光方向を交差させることで、鏡面反射光をカットすることができる。 As the illumination light at the time of shooting, it is preferable to use a light that does not cause flicker. For example, halogen lamps, xenon lamps, LEDs and the like can be mentioned. Further, by installing polarizing plates on both the illumination light side and the camera side and crossing these polarization directions, it is possible to cut the specularly reflected light.

ここで、図4に、画像データの一例を模式的に示す。複数のフレームF各々の画像が示されている。各フレームに対応付けて、撮影タイミングt(1≦i≦m;iはi番目の撮影フレームを示す正の整数であり、mは撮影最後の撮影フレームを示す正の整数)が示されている。時間の経過に従いiの値が大きくなる。 Here, FIG. 4 schematically shows an example of image data. Images of each of the plurality of frames F are shown. In association with each frame, imaging timing t i (1 ≦ i ≦ m ; i is a positive integer indicating the i-th imaging frame, m is a positive integer indicating the shooting last captured frame) is shown There is. The value of i increases with the passage of time.

各フレームFには、滴下対象物D及び化粧料Cのみが写っている。化粧料Cは、濡れ広がる前及び後いずれにおいても、簡易的に円で示している。そして、円の大きさにより、濡れ広がっている様子を示している。 Only the object D to be dropped and the cosmetic C are shown in each frame F. Cosmetic C is simply represented by a circle both before and after it gets wet and spreads. The size of the circle shows that it is getting wet and spreading.

入力工程では、撮影工程で得られた画像データを、評価装置10の画像データ取得部11に入力する。結果、図1に示す評価装置10の画像データ取得部11は、当該画像データを取得することができる。 In the input step, the image data obtained in the photographing step is input to the image data acquisition unit 11 of the evaluation device 10. As a result, the image data acquisition unit 11 of the evaluation device 10 shown in FIG. 1 can acquire the image data.

図1に戻り、解析工程S20では、評価装置10の解析部12が、2つのフレーム間の画像の変化量を示すデータを算出する。 Returning to FIG. 1, in the analysis step S20, the analysis unit 12 of the evaluation device 10 calculates data indicating the amount of change in the image between the two frames.

例えば、解析部12は、時間的に連続する2つのフレームで複数のペアを作成し、ペア毎に、2つのフレーム間の画像の変化量を示すデータを算出してもよい。 For example, the analysis unit 12 may create a plurality of pairs in two temporally continuous frames, and calculate data indicating the amount of change in the image between the two frames for each pair.

図4に示すm個のフレームFを処理対象とする場合、解析部12は、撮影タイミングtのフレームFと、撮影タイミングta+1のフレームFとで複数のペアを作成し(1≦a≦m−1;aはa番目の撮影フレームを示す正の整数)、ペア毎に、2つのフレームF間の画像の変化量を示すデータを算出することになる。 If to be processed of m frame F shown in FIG. 4, analyzer 12 includes a frame F of the imaging timing t a, create multiple pairs between frame F of the imaging timing t a + 1 (1 ≦ a ≦ m-1; a is a positive integer indicating the a-th shooting frame), and data indicating the amount of change in the image between the two frames F is calculated for each pair.

この例の場合、解析部12は、時間的に連続する2つのフレーム間の画像の変化量の時系列データを生成することができる。当該時系列データは、時間的に連続する2つのフレーム間の画像の変化量の推移を示すデータとなる。 In the case of this example, the analysis unit 12 can generate time-series data of the amount of change in the image between two frames that are continuous in time. The time-series data is data showing the transition of the amount of change in the image between two frames that are continuous in time.

なお、解析部12は、上述のようにして得られた「時間的に連続する2つのフレーム間の画像の変化量の時系列データ」を時系列順に積算していくことで、時間的に最初のフレーム(図4の場合、撮影タイミングtのフレームF)の画像を基準にした変化量の累積値の時系列データを生成することができる。当該時系列データは、画像の変化量の累積値の推移を示すデータとなる。 The analysis unit 12 first accumulates the "time-series data of the amount of change in the image between two temporally continuous frames" obtained as described above in chronological order. (in the case of FIG. 4, the frame F of the imaging timing t 1) of the frame can be generated time-series data of the image variation amount of the cumulative value relative to the of. The time-series data is data showing the transition of the cumulative value of the amount of change in the image.

他の例として、解析部12は、時間的に最初のフレームと、その他のフレーム各々とで複数のペアを作成し、ペア毎に、2つのフレーム間の画像の変化量を示すデータを算出してもよい。 As another example, the analysis unit 12 creates a plurality of pairs in the first frame in time and each of the other frames, and calculates data indicating the amount of change in the image between the two frames for each pair. You may.

図4に示すm個のフレームFを処理対象とする場合、解析部12は、撮影タイミングtのフレームF(時間的に最初のフレーム)と、撮影タイミングtのフレームFとで複数のペアを作成し(2≦b≦m;bはb番目の撮影フレームを示す正の整数)、ペア毎に、2つのフレームF間の画像の変化量を示すデータを算出することになる。 When the m frames F shown in FIG. 4 are to be processed, the analysis unit 12 has a plurality of pairs of the frame F at the shooting timing t 1 (the first frame in time) and the frame F at the shooting timing t b. (2 ≦ b ≦ m; b is a positive integer indicating the b-th shooting frame), and data indicating the amount of change in the image between the two frames F is calculated for each pair.

この例の場合、解析部12は、時間的に最初のフレーム(図4の場合、撮影タイミングtのフレームF)の画像を基準にした変化量の累積値の時系列データを生成することができる。当該時系列データは、画像の変化量の累積値の推移を示すデータとなる。 In this example, the analysis unit 12 may generate time-series data of temporally (in the case of FIG. 4, the frame F of the imaging timing t 1) the first frame image variation amount of the cumulative value relative to the in it can. The time-series data is data showing the transition of the cumulative value of the amount of change in the image.

次に、画像の変化量を示すデータを算出する処理について説明する。解析部12は、あらゆる従来技術を用いて、2つのフレーム間の画像の変化量を算出することができる。ここでは、画像の変化量を示すデータとして、「2つのフレーム間の相関係数を算出する第1の算出方法」と、「2つのフレーム各々において化粧料が写るエリアの面積の変化量を算出する第2の算出方法」とを説明する。 Next, a process of calculating data indicating the amount of change in the image will be described. The analysis unit 12 can calculate the amount of change in the image between the two frames by using any conventional technique. Here, as data indicating the amount of change in the image, "the first calculation method for calculating the correlation coefficient between two frames" and "the amount of change in the area of the area where the makeup is reflected in each of the two frames are calculated. The second calculation method to be performed ”will be described.

「2つのフレーム間の相関係数を算出する第1の算出方法」
上述の通り、滴下対象物とカメラの相対的な位置関係を固定し、かつ、処理画像内に滴下対象物と化粧料のみが写っている場合、撮影時間内で外観の状態が変動する成分は化粧料のみとなる。このため、2つのフレーム間の画像の変化量を算出することで、2つのフレーム間での化粧料の変化量を算出することができる。
"First calculation method for calculating the correlation coefficient between two frames"
As described above, when the relative positional relationship between the dripping object and the camera is fixed and only the dripping object and the cosmetic are shown in the processed image, the component whose appearance changes within the shooting time is Only cosmetics. Therefore, by calculating the amount of change in the image between the two frames, the amount of change in the cosmetics between the two frames can be calculated.

例えば、2つのフレームの画像間の相関係数を、画像の変化量を示すデータ(指標)とすることができる。2つのフレームの画像間で変化がない場合、相関係数は1となり、変化が大きくなるほど相関係数が小さくなる。当該相関係数の算出方法としては、あらゆる技術を採用できるが、以下、一例を説明する。 For example, the correlation coefficient between the images of the two frames can be used as data (index) indicating the amount of change in the image. If there is no change between the images in the two frames, the correlation coefficient is 1, and the larger the change, the smaller the correlation coefficient. Any technique can be adopted as the method for calculating the correlation coefficient, and an example will be described below.

まず、解析部12は、フレーム毎に、複数の画素各々の画素値を所定の順番に並べることで、1次元のベクトルを得る。並べる順番は、すべてのフレーム間で共通であればよく、詳細は設計的事項である。結果、図5に示すようなデータが得られる。Ft1は、撮影タイミングtのフレームFの複数の画素の画素値を所定の順番に並べたものである。 First, the analysis unit 12 obtains a one-dimensional vector by arranging the pixel values of each of the plurality of pixels in a predetermined order for each frame. The order of arrangement may be the same among all frames, and the details are a matter of design. As a result, the data shown in FIG. 5 can be obtained. F t1 is obtained by arranging the pixel values of a plurality of pixels of the frame F of the imaging timing t 1 to a predetermined order.

なお、各フレームのすべての画素の画素値でベクトルを生成してもよいし、一部の画素の画素値でベクトルを生成してもよい。例えば、1行おき、又は、1列おきの画素の画素値を並べて、ベクトルを生成してもよい。精度の面を考えると、全ての画素の画素値を用いるのが好ましい。しかし、用いる画素の数を減らすことで、コンピュータによる処理負担を軽減し、処理時間の短縮などの効果が得られる。要求精度や所望の処理時間等に応じて適切に設計することができる。 A vector may be generated from the pixel values of all the pixels of each frame, or a vector may be generated from the pixel values of some pixels. For example, a vector may be generated by arranging the pixel values of pixels every other row or every other column. Considering the accuracy, it is preferable to use the pixel values of all the pixels. However, by reducing the number of pixels used, the processing load on the computer can be reduced, and effects such as shortening the processing time can be obtained. It can be appropriately designed according to the required accuracy, the desired processing time, and the like.

また、図4に示す画像データの場合、濡れ広がった化粧料CはフレームFの外周沿いまで到達していない。このような傾向がある場合、各フレームFの外周沿いの画素の画素値を除いて、ベクトルを生成してもよい。 Further, in the case of the image data shown in FIG. 4, the wet and spread cosmetic C does not reach along the outer periphery of the frame F. When there is such a tendency, a vector may be generated by excluding the pixel values of the pixels along the outer circumference of each frame F.

その後、解析部12は、2つのフレームでペアを作成する。ペアの作成方法は、上述の通りである。 After that, the analysis unit 12 creates a pair in two frames. The method of creating a pair is as described above.

その後、解析部12は、ペア毎に、相関係数を算出する。相関係数は、例えば、2つのベクトルの内積を、2つのベクトル各々の大きさの積で除することで算出できる。 After that, the analysis unit 12 calculates the correlation coefficient for each pair. The correlation coefficient can be calculated, for example, by dividing the inner product of two vectors by the product of the magnitudes of each of the two vectors.

「2つのフレーム各々において化粧料が写るエリアの面積の変化量を算出する第2の算出方法」
各フレームの画像から、化粧料が写るエリアを抽出し、抽出したエリアの面積を算出する。2つのフレーム間の当該面積の差を、画像の変化量を示すデータ(指標)とすることができる。当該画像の変化量を示すデータは、化粧料の濡れ広がり方を直接的に表す。面積は、例えば画素数で表現してもよい。
"A second calculation method for calculating the amount of change in the area of the area where the cosmetics are reflected in each of the two frames"
From the image of each frame, the area where the cosmetics are reflected is extracted, and the area of the extracted area is calculated. The difference in the area between the two frames can be used as data (index) indicating the amount of change in the image. The data showing the amount of change in the image directly represents how the cosmetic is wet and spread. The area may be expressed by, for example, the number of pixels.

化粧料が写るエリアの抽出方法としては、あらゆる技術を採用できる。例えば、各フレームの画像がカラー画像である場合、化粧料と滴下対象物の色の違いを利用して、滴下対象物上の化粧料を抽出してもよい。一例として、化粧料の色範囲を設定しておき、当該色範囲に含まれる画素を含むエリアを、化粧料が写るエリアとして抽出することができる。 Any technique can be adopted as a method for extracting the area where the cosmetics are reflected. For example, when the image of each frame is a color image, the cosmetic on the dropping object may be extracted by utilizing the difference in color between the cosmetic and the dropping object. As an example, a color range of cosmetics can be set, and an area including pixels included in the color range can be extracted as an area in which the cosmetics are reflected.

その他、各フレームの画像がグレースケール画像である場合、化粧料と滴下対象物の明暗の違いを利用して、滴下対象物上の化粧料を抽出してもよい。一例として、化粧料の明度範囲を設定しておき、当該明度範囲に含まれる画素を含むエリアを、化粧料が写るエリアとして抽出することができる。 In addition, when the image of each frame is a grayscale image, the cosmetic on the dropping object may be extracted by utilizing the difference in brightness between the cosmetic and the dropping object. As an example, the lightness range of the cosmetics can be set, and the area including the pixels included in the lightness range can be extracted as the area in which the cosmetics are reflected.

図1に戻り、出力工程S30では、評価装置10の出力部13が、解析工程S20における解析・算出結果に基づき、時間的に連続する2つのフレーム間の画像の変化量の推移を示すデータ、及び/又は、画像の変化量の累積値の推移を示すデータを出力する。 Returning to FIG. 1, in the output step S30, the output unit 13 of the evaluation device 10 shows the transition of the amount of change in the image between two temporally continuous frames based on the analysis / calculation result in the analysis step S20. And / or output data showing the transition of the cumulative value of the amount of change in the image.

図6に、出力部13により出力されるデータの一例を示す。図6に示すデータは、解析部12により算出された「時間的に連続する2つのフレーム間の画像の変化量(相関係数)の時系列データ」をグラフ上にプロットしたものであり、時間的に連続するti、i+1の2つのフレーム間の画像の変化量の推移を示す。横軸に時間的に連続するt、ti+1のうち、時間的に最初のフレームに対応する時間tを取り、縦軸にtとtのタイミングの相関係数を取ったグラフで、サンプルS1及びサンプルS2各々の相関係数の推移を示している。tとtのタイミング(t1−2のタイミング)の相関係数とは、撮影タイミングtのフレームと、撮影タイミングtのフレームとの間の相関係数である。上記条件で撮影及び算出された相関係数は、化粧料の濡れ広がるスピードを表す。1に近い程スピードが遅く、1から離れるほどスピードが速いことを意味する。 FIG. 6 shows an example of the data output by the output unit 13. The data shown in FIG. 6 is a graph obtained by plotting "time-series data of the amount of change (correlation coefficient) of an image between two temporally continuous frames" calculated by the analysis unit 12 on a graph. The transition of the amount of change in the image between two frames of ti and ti + 1 that are continuous with each other is shown. Of ti i and ti + 1 that are continuous in time on the horizontal axis, the time t 1 corresponding to the first frame in time is taken, and the correlation coefficient of the timings of t 1 and t 2 is taken on the vertical axis. The graph shows the transition of the correlation coefficient of each of sample S1 and sample S2. The correlation coefficient between the timings t 1 and t 2 (timing t 1-2 ) is the correlation coefficient between the frame at the shooting timing t 1 and the frame at the shooting timing t 2 . The correlation coefficient photographed and calculated under the above conditions represents the speed at which the cosmetics get wet and spread. The closer it is to 1, the slower the speed, and the farther it is from 1, the faster the speed.

図6に示すデータより、サンプルS1及びサンプルS2各々の化粧料の触れ広がり方の違いが分かる。 From the data shown in FIG. 6, it can be seen that there is a difference in how the cosmetics of sample S1 and sample S2 are touched and spread.

サンプルS1は、すべての時間帯にわたって相関係数の値がほとんど変動せず、1付近で推移している。このようなサンプル1の場合、滴下された化粧料は、滴下後、ほとんど濡れ広がっていないことがわかる。 In sample S1, the value of the correlation coefficient hardly fluctuates over all time zones and changes around 1. In the case of such sample 1, it can be seen that the dropped cosmetic is hardly wet and spread after being dropped.

一方、サンプルS2は、滴下当初(t1−2、t2−3等)の相関係数の値は相対的に小さいが、時間経過とともに徐々に1に近づいていき、その後、あるタイミングで1付近に収束することが分かる。このようなサンプル2の場合、滴下された化粧料は、当初、相対的に速いスピードで濡れ広がるが、濡れ広がるスピードは時間経過とともに徐々に遅くなっていき、濡れ広がりが収束しつつあることが分かる。 On the other hand, in sample S2, the value of the correlation coefficient at the beginning of dropping (t 1-2 , t 2-3, etc.) is relatively small, but gradually approaches 1 with the passage of time, and then 1 at a certain timing. It can be seen that it converges in the vicinity. In the case of such sample 2, the dropped cosmetics initially wet and spread at a relatively high speed, but the speed of wet and spread gradually slows down with the passage of time, and the wet spread is converging. I understand.

図7に、出力部13により出力されるデータの他の一例を示す。図7に示すデータは、解析部12により算出された「時間的に連続する2つのフレーム間の画像の変化量(相関係数)の時系列データ」を補正した時系列データをグラフ上にプロットしたものであり、時間的に連続する2つのフレーム間の画像の変化量の推移を示す。補正は、各タイミングの値を、1から各タイミングの相関係数を引いた値に変更するものである。これにより、画像の変化量が小さい場合は0に近い値を取り、画像の変化量が大きくなるほど大きい値を取るようになる。 FIG. 7 shows another example of the data output by the output unit 13. The data shown in FIG. 7 is a graph of time-series data obtained by correcting "time-series data of the amount of change (correlation coefficient) of an image between two temporally continuous frames" calculated by the analysis unit 12. It shows the transition of the amount of change in the image between two frames that are continuous in time. The correction changes the value of each timing to a value obtained by subtracting the correlation coefficient of each timing from 1. As a result, when the amount of change in the image is small, the value is close to 0, and as the amount of change in the image is large, the value is large.

図7に示すデータは、横軸に時間を取り、縦軸に上記補正値(変化量)を取ったグラフで、サンプルS1及びサンプルS2各々の変化量の推移を示している。縦軸の変化量は、1から相関係数を引いた値となっている。当該変化量は、濡れ広がるスピードを表す。0に近い程スピードが遅く、0から離れるほどスピードが速いことを意味する。 The data shown in FIG. 7 is a graph in which time is taken on the horizontal axis and the correction value (change amount) is taken on the vertical axis, and the transition of the change amount of each of the sample S1 and the sample S2 is shown. The amount of change on the vertical axis is the value obtained by subtracting the correlation coefficient from 1. The amount of change represents the speed at which wetting and spreading. The closer it is to 0, the slower the speed, and the farther it is from 0, the faster the speed.

図7に示すデータより、サンプルS1及びサンプルS2各々の化粧料の触れ広がり方の違いが分かる。図7に示すデータからは、図6に示すデータと同様な傾向が読み取れる。 From the data shown in FIG. 7, it can be seen that there is a difference in how the cosmetics of sample S1 and sample S2 are touched and spread. From the data shown in FIG. 7, a tendency similar to that of the data shown in FIG. 6 can be read.

図8に、出力部13により出力されるデータの他の一例を示す。図8に示すデータは、解析部12により算出された「時間的に最初のフレーム(図4の場合、撮影タイミングtのフレームF)の画像を基準にした変化量の累積値の時系列データ」をグラフ上にプロットしたものであり、画像の変化量の累積値の推移を示す。具体的には、図7に示す変化量の時系列データを時系列順に積算していった時系列データをプロットしたものである。横軸に時間を取り、縦軸に変化量の累積値を取ったグラフで、サンプルS1及びサンプルS2各々の変化量の累積値の推移を示している。当該グラフの線の傾きは、濡れ広がるスピードを表す。 FIG. 8 shows another example of the data output by the output unit 13. The data shown in FIG. 8, (in the case of FIG. 4, the frame F of the imaging timing t 1) analyzer 12 "temporally first frame is calculated by the time-series data of the cumulative value of the amount of change that image relative to the the Is plotted on a graph, and shows the transition of the cumulative value of the amount of change in the image. Specifically, it is a plot of time-series data obtained by integrating the time-series data of the amount of change shown in FIG. 7 in chronological order. A graph in which time is taken on the horizontal axis and the cumulative value of the change amount is taken on the vertical axis shows the transition of the cumulative value of the change amount of each of the sample S1 and the sample S2. The slope of the line in the graph represents the speed at which wetting and spreading.

図8に示すデータより、サンプルS1及びサンプルS2各々の化粧料の触れ広がり方の違いが分かる。サンプルS1及びサンプルS2各々の線の傾きの推移を読み取ることで、図6及び図7に示すデータと同様な傾向が読み取れる。 From the data shown in FIG. 8, it can be seen that there is a difference in how the cosmetics of sample S1 and sample S2 are touched and spread. By reading the transition of the slope of each of the lines of the sample S1 and the sample S2, the same tendency as the data shown in FIGS. 6 and 7 can be read.

また、図8に示すデータより、化粧料が濡れ広がった量(累積値)の推移を容易に把握することができる。また、各タイミングにおいて、サンプルS1及びサンプルS2各々の化粧料が濡れ広がった量の違いを容易に把握することができる。 Further, from the data shown in FIG. 8, it is possible to easily grasp the transition of the amount (cumulative value) of the cosmetics wet and spread. In addition, at each timing, it is possible to easily grasp the difference in the amount of wet and spread cosmetics of each of sample S1 and sample S2.

図9に、出力部13により出力されるデータの他の一例を示す。図9に示すデータは、解析部12により算出された「時間的に最初のフレーム(図4の場合、撮影タイミングtのフレームF)の画像を基準にした変化量(化粧料が写るエリアの面積の変化量)の累積値の時系列データ」をグラフ上にプロットしたものであり、画像の変化量の累積値の推移を示す。横軸に時間を取り、縦軸に化粧料が写るエリアの面積の変化量の累積値を取ったグラフで、サンプルS1及びサンプルS2各々の変化量の累積値の推移を示している。当該グラフの線の傾きは、濡れ広がるスピードを表す。 FIG. 9 shows another example of the data output by the output unit 13. Data shown in Figure 9, is calculated by the analyzer 12 "temporally first frame (the case of FIG. 4, the frame F of the imaging timing t 1) the variation relative to the image of (the area in which the cosmetic objects appear Time-series data of the cumulative value of the amount of change in the area) ”is plotted on a graph, and the transition of the cumulative value of the amount of change in the image is shown. The horizontal axis is the time, and the vertical axis is the cumulative value of the change in the area where the cosmetics are reflected. The graph shows the transition of the cumulative change in each of the samples S1 and S2. The slope of the line in the graph represents the speed at which wetting and spreading.

図9に示すデータより、サンプルS1及びサンプルS2各々の化粧料の触れ広がり方の違いが分かる。サンプルS1及びサンプルS2各々の線の傾きの推移を読み取ることで、図6乃至図8に示すデータと同様な傾向が読み取れる。 From the data shown in FIG. 9, it can be seen that there is a difference in how the cosmetics of sample S1 and sample S2 are touched and spread. By reading the transition of the slope of each of the lines of the sample S1 and the sample S2, the same tendency as the data shown in FIGS. 6 to 8 can be read.

また、図9に示すデータより、化粧料が濡れ広がったエリアの大きさの推移を容易に把握することができる。また、各タイミングにおいて、サンプルS1及びサンプルS2各々の化粧料が濡れ広がったエリアの大きさの違いを容易に把握することができる。 Further, from the data shown in FIG. 9, it is possible to easily grasp the transition of the size of the area where the cosmetics are wet and spread. Further, at each timing, it is possible to easily grasp the difference in the size of the area where the cosmetics of the sample S1 and the sample S2 are wet and spread.

以上説明した本実施形態では、滴下対象物に滴下された化粧料を所定時間にわたり撮影した複数フレームの画像データを解析し、時間的に連続する2つのフレーム間の画像の変化量の推移を示すデータ、及び/又は、画像の変化量の累積値の推移を示すデータを出力する。図6乃至図9を用いて説明したように、当該データに基づき、化粧料の触れ広がり方を解析することができる。 In the present embodiment described above, the image data of a plurality of frames obtained by photographing the cosmetics dropped on the dropping object over a predetermined time is analyzed, and the transition of the amount of change in the image between two frames that are continuous in time is shown. Data and / or data showing the transition of the cumulative value of the amount of change in the image is output. As described with reference to FIGS. 6 to 9, it is possible to analyze how the cosmetics are touched and spread based on the data.

このように、本実施形態によれば、比較的簡易な手法で、化粧料の濡れ広がり方を定量化することができる。 As described above, according to the present embodiment, it is possible to quantify how the cosmetics get wet and spread by a relatively simple method.

<第2の実施形態>
まず、本実施形態の概要について説明する。本発明者らは、例えば人の皮膚などのように、細かい多数の溝(例:皮溝)と、溝で囲まれた部分とを有する滴下対象物(以下、「溝有滴下対象物」という)上に、多数の溝及び溝で囲まれた部分に跨って化粧料を滴下し、濡れ広がる様子を観察した。結果、このような場合、液滴の外周付近の一部において、溝を介して先に濡れ広がる部分が存在することを見出した。
<Second embodiment>
First, the outline of the present embodiment will be described. The present inventors have referred to a dripping object having a large number of fine grooves (eg, skin grooves) and a portion surrounded by the grooves, such as human skin (hereinafter, "grooved dripping object"). ), The cosmetic was dropped over a large number of grooves and the portion surrounded by the grooves, and the state of getting wet and spreading was observed. As a result, it was found that in such a case, there is a portion that wets and spreads first through the groove in a part near the outer periphery of the droplet.

図10を用いて詳細に説明する。図10は、溝有滴下対象物E上に化粧料Cを滴下した場合の時間変化を示す。なお、溝有滴下対象物E上の溝及び溝で囲まれた部分の記載は省略してある。図10の撮影タイミングt及びtのフレームFを参照すると、濡れ広がった化粧料Cは、本体部分C1と、本体部分C1の外周付近から溝を介して先に濡れ広がる先行部分C2とに分かれる。本体部分C1と先行部分C2は異なるスピードで濡れ広がっていく。 This will be described in detail with reference to FIG. FIG. 10 shows the time change when the cosmetic C is dropped on the grooved dropping object E. The description of the groove and the portion surrounded by the groove on the grooved dropping object E is omitted. With reference to the frame F at the shooting timings t 2 and t m in FIG. 10, the wet and spread cosmetic C is formed on the main body portion C1 and the preceding portion C2 that wets and spreads first from the vicinity of the outer periphery of the main body portion C1 through the groove. Divide. The main body portion C1 and the preceding portion C2 get wet and spread at different speeds.

本実施形態は、本体部分C1と、先行部分C2とを切り分けて、濡れ広がり方を評価することができる。以下、詳細に説明する。 In this embodiment, the main body portion C1 and the preceding portion C2 can be separated to evaluate how to spread wet. Hereinafter, a detailed description will be given.

第1の実施形態同様、図1のフローチャートが、本実施形態の評価方法の流れを示す。図示するように、画像データ取得工程S10と、解析工程S20と、出力工程S30とを有する。これらの工程の少なくとも一部は、図2に示す評価装置10により実行される。図2に示すように、評価装置10は、画像データ取得部11と、解析部12と、出力部13とを有する。以下、各工程について説明する。 Similar to the first embodiment, the flowchart of FIG. 1 shows the flow of the evaluation method of the present embodiment. As shown in the figure, it has an image data acquisition step S10, an analysis step S20, and an output step S30. At least a part of these steps is performed by the evaluation device 10 shown in FIG. As shown in FIG. 2, the evaluation device 10 includes an image data acquisition unit 11, an analysis unit 12, and an output unit 13. Hereinafter, each step will be described.

画像データ取得工程S10の詳細は、第1の実施形態と同様である。本実施形態では、溝を介して濡れ広がる化粧料が写るように、カメラのレンズ倍率や、カメラと滴下対象物間の距離などを調整する。滴下対象物は、人等の生体の皮膚であってもよいし、人の皮膚のきめ(皮溝)を模した溝等を有する基板等であってもよい。 The details of the image data acquisition step S10 are the same as those in the first embodiment. In the present embodiment, the lens magnification of the camera, the distance between the camera and the object to be dropped, and the like are adjusted so that the cosmetic that spreads wet through the groove is captured. The object to be dropped may be the skin of a living body such as a human being, or a substrate or the like having a groove or the like imitating the texture (skin groove) of the human skin.

解析工程S20は、図11に示すように、平滑化工程S21と、第1の算出工程S22とを有する。 As shown in FIG. 11, the analysis step S20 includes a smoothing step S21 and a first calculation step S22.

平滑化工程S21では、解析部12が画像データに平滑化処理を行う。解析部12は、あらゆる平滑化技術を採用することができる。例えば、平滑化フィルタ(平均化フィルタ、ガウシアンフィルタ等)を利用した平滑化処理や、フーリエ変換を利用した平滑化処理等が挙げられるが、これらに限定されない。 In the smoothing step S21, the analysis unit 12 performs a smoothing process on the image data. The analysis unit 12 can adopt any smoothing technique. For example, a smoothing process using a smoothing filter (averaging filter, Gaussian filter, etc.), a smoothing process using a Fourier transform, and the like can be mentioned, but the present invention is not limited thereto.

人等の生体の皮膚上や、人の皮膚のきめ(皮溝)を模した溝等を有する基板上等に、1〜10μLまたはそれ以上の化粧料を滴下した場合、図10に示すように、本体部分C1のエリアは、先行部分C2のエリアに比べて十分に大きくなる。また、本体部分C1はまとまった1つの塊となる一方で、先行部分C2は複数の細い線状物の集合体となる。 When 1 to 10 μL or more of the cosmetic is dropped on the skin of a living body such as a human being or on a substrate having a groove that imitates the texture (skin groove) of the human skin, as shown in FIG. The area of the main body portion C1 is sufficiently larger than the area of the preceding portion C2. Further, the main body portion C1 is a cohesive mass, while the leading portion C2 is an aggregate of a plurality of thin linear objects.

本体部分C1及び先行部分C2の間にこのような違いが存在するので、画像データに適度な平滑化処理を行うと、先行部分C2と溝有滴下対象物Eとの間の画素値の差異が小さくなる一方で、本体部分C1と溝有滴下対象物Eとの間の画素値の差異は十分に残る。すなわち、先行部分C2のみが選択的に、溝有滴下対象物Eと同化する傾向となる。 Since such a difference exists between the main body portion C1 and the preceding portion C2, when the image data is appropriately smoothed, the difference in pixel values between the preceding portion C2 and the grooved dropping object E becomes large. On the other hand, the difference in pixel value between the main body portion C1 and the grooved dropping object E remains sufficient. That is, only the preceding portion C2 tends to be selectively assimilated with the grooved dropping object E.

図11に戻り、第1の算出工程S22では、解析部12が平滑化処理後の画像データに基づき、画像の変化量を示すデータを算出する。画像の変化量を示すデータを算出する処理は、第1の実施形態で説明したものと同様であるので、ここでの説明は省略する。 Returning to FIG. 11, in the first calculation step S22, the analysis unit 12 calculates data indicating the amount of change in the image based on the image data after the smoothing process. Since the process of calculating the data indicating the amount of change in the image is the same as that described in the first embodiment, the description here will be omitted.

平滑化処理をなされていない画像データに基づき画像の変化量を示すデータを算出した場合、算出される変化量には、「本体部分C1の変化(濡れ広がり)に起因した変化量成分」及び「先行部分C2の変化(濡れ広がり)に起因した変化量成分」が含まれる。これに対し、上述のような平滑化処理を行い、先行部分C2のみを選択的に溝有滴下対象物Eと同化させた画像データに基づき画像の変化量を示すデータを算出した場合には、算出される変化量における「先行部分C2の変化(濡れ広がり)に起因した変化量成分」を小さくし、「本体部分C1の変化(濡れ広がり)に起因した変化量」をよく表す変化量を算出することができる。 When data indicating the amount of change in the image is calculated based on the image data that has not been smoothed, the calculated amount of change includes "change amount component due to change (wet spread) of main body portion C1" and "change amount component". "Change amount component due to change (wet spread) of the preceding portion C2" is included. On the other hand, when the smoothing process as described above is performed and the data indicating the amount of change in the image is calculated based on the image data in which only the preceding portion C2 is selectively assimilated with the grooved dropping object E, the data indicating the amount of change in the image is calculated. In the calculated change amount, the "change amount component due to the change (wet spread) of the preceding portion C2" is reduced, and the change amount that well represents the "change amount due to the change (wet spread) of the main body portion C1" is calculated. can do.

図1に戻り、出力工程S30では、出力部13が、第1の算出工程S22における算出結果に基づき、画像の変化量の推移を示すデータ及び/又は画像の変化量の累積値の推移を示すデータを出力する。これらのデータの詳細は、第1の実施形態と同様である。 Returning to FIG. 1, in the output step S30, the output unit 13 shows the transition of the data showing the transition of the change amount of the image and / or the cumulative value of the change amount of the image based on the calculation result in the first calculation step S22. Output data. The details of these data are the same as in the first embodiment.

第1の算出工程S22における算出結果に基づいた上述のような出力データは、「本体部分C1の変化(濡れ広がり)」の推移や、「本体部分C1の変化(濡れ広がり)の累積値」の推移を表すデータとなる。 The output data as described above based on the calculation result in the first calculation step S22 is the transition of the "change (wetting spread) of the main body portion C1" and the cumulative value of the "change (wetting spread) of the main body portion C1". It is the data that shows the transition.

以上、本実施形態によれば、第1の実施形態と同様な作用効果を実現できる。また、溝有滴下対象物上に化粧料を滴下し、濡れ広がる状態を撮影した場合、本体部分C1と、先行部分C2を切り分けて、濡れ広がり方を評価することができる。 As described above, according to the present embodiment, the same effects as those of the first embodiment can be realized. Further, when the cosmetic is dropped on the grooved drip object and a state in which the wet spread is photographed, the main body portion C1 and the preceding portion C2 can be separated to evaluate how the wet spread spreads.

具体的には、本実施形態によれば、本体部分C1の濡れ広がり方を評価することができる。なお、第1の実施形態と同様の処理を採用することで、本体部分C1及び先行部分C2をひとまとまりにして、化粧料の濡れ広がり方を評価することができる。このように、本実施形態によれば、様々な視点から、化粧料の濡れ広がり方を評価することができる。 Specifically, according to the present embodiment, it is possible to evaluate how the main body portion C1 gets wet and spreads. By adopting the same treatment as in the first embodiment, it is possible to evaluate how the cosmetics are wet and spread by grouping the main body portion C1 and the preceding portion C2. As described above, according to the present embodiment, it is possible to evaluate how the cosmetics get wet and spread from various viewpoints.

<第3の実施形態>
本実施形態は、第2の実施形態同様、本体部分C1と先行部分C2とを切り分けて、濡れ広がり方を評価する技術に関する。以下、詳細に説明する。
<Third embodiment>
Similar to the second embodiment, the present embodiment relates to a technique of separating the main body portion C1 and the preceding portion C2 and evaluating how to spread wet. Hereinafter, a detailed description will be given.

第1及び第2の実施形態同様、図1のフローチャートが、本実施形態の評価方法の流れを示す。図示するように、画像データ取得工程S10と、解析工程S20と、出力工程S30とを有する。これらの工程の少なくとも一部は、図2に示す評価装置10により実行される。図2に示すように、評価装置10は、画像データ取得部11と、解析部12と、出力部13とを有する。以下、各工程について説明する。 Similar to the first and second embodiments, the flowchart of FIG. 1 shows the flow of the evaluation method of the present embodiment. As shown in the figure, it has an image data acquisition step S10, an analysis step S20, and an output step S30. At least a part of these steps is performed by the evaluation device 10 shown in FIG. As shown in FIG. 2, the evaluation device 10 includes an image data acquisition unit 11, an analysis unit 12, and an output unit 13. Hereinafter, each step will be described.

画像データ取得工程S10は、第1及び第2の実施形態と同様である。本実施形態では、溝を介して濡れ広がる化粧料が写るように、カメラのレンズ倍率や、カメラと滴下対象物間の距離などを調整する。滴下対象物は、人等の生体の皮膚であってもよいし、人の皮膚のきめ(皮溝)を模した溝等を有する基板等であってもよい。 The image data acquisition step S10 is the same as that of the first and second embodiments. In the present embodiment, the lens magnification of the camera, the distance between the camera and the object to be dropped, and the like are adjusted so that the cosmetic that wets and spreads through the groove is captured. The object to be dropped may be the skin of a living body such as a human being, or a substrate or the like having a groove or the like imitating the texture (skin groove) of the human skin.

解析工程S20は、図12に示すように、平滑化工程S21と、第1の算出工程S22と、第2の算出工程S23と、差分算出工程S24とを有する。 As shown in FIG. 12, the analysis step S20 includes a smoothing step S21, a first calculation step S22, a second calculation step S23, and a difference calculation step S24.

平滑化工程S21及び第1の算出工程S22は、第2の実施形態と同様である。 The smoothing step S21 and the first calculation step S22 are the same as those in the second embodiment.

第2の算出工程S23では、解析部12が、平滑化処理をなされていない画像データに基づき、画像の変化量を示すデータを算出する。画像の変化量を示すデータを算出する処理は、第1の実施形態で説明したものと同様であるので、ここでの説明は省略する。 In the second calculation step S23, the analysis unit 12 calculates data indicating the amount of change in the image based on the image data that has not been smoothed. Since the process of calculating the data indicating the amount of change in the image is the same as that described in the first embodiment, the description here will be omitted.

第2の算出工程S23は、平滑化工程S21及び第1の算出工程S22の後に行われてもよいし、これらよりも前に行われてもよいし、これらと並行して行われてもよい。 The second calculation step S23 may be performed after the smoothing step S21 and the first calculation step S22, may be performed before these, or may be performed in parallel with these. ..

第2の実施形態で説明した通り、平滑化処理をなされていない画像データに基づき画像の変化量を示すデータを算出した場合、算出される変化量には、「本体部分C1の変化(濡れ広がり)に起因した変化量成分」及び「先行部分C2の変化(濡れ広がり)に起因した変化量成分」が含まれる。すなわち、「本体部分C1の変化(濡れ広がり)に起因した変化量」及び「先行部分C2の変化(濡れ広がり)に起因した変化量」を足し合わせた変化量を算出することができる。 As described in the second embodiment, when data indicating the amount of change in the image is calculated based on the image data that has not been smoothed, the calculated amount of change includes "change in the main body portion C1 (wet spread). ) And "change amount component due to change (wet spread) of the preceding portion C2" are included. That is, it is possible to calculate the amount of change by adding the "amount of change caused by the change (wetting spread) of the main body portion C1" and the "amount of change caused by the change (wetting spread) of the preceding portion C2".

差分算出工程S24では、解析部12が、第2の算出工程S23で算出した画像の変化量を示すデータ(時系列データ)から、第1の算出工程S22で算出した画像の変化量を示すデータ(時系列データ)を引くことで差分を算出する。解析部12は、第2の算出工程S23得られた上記時系列データと、第1の算出工程S22で得られた上記時系列データとの測定タイミングを合わせて、差分処理を行う。 In the difference calculation step S24, the data indicating the amount of change in the image calculated by the analysis unit 12 in the first calculation step S22 from the data (time series data) indicating the amount of change in the image calculated in the second calculation step S23. Calculate the difference by subtracting (time series data). The analysis unit 12 performs the difference processing by matching the measurement timings of the time-series data obtained in the second calculation step S23 and the time-series data obtained in the first calculation step S22.

上述の通り、第2の算出工程S23で算出される画像の変化量を示すデータは、「本体部分C1の変化(濡れ広がり)に起因した変化量」及び「先行部分C2の変化(濡れ広がり)に起因した変化量」を足し合わせた変化量を表す。 As described above, the data indicating the amount of change in the image calculated in the second calculation step S23 is "the amount of change due to the change in the main body portion C1 (wetting spread)" and "the change in the preceding portion C2 (wetting spread)". It represents the amount of change obtained by adding up the amount of change caused by.

一方、第2の実施形態で説明した通り、第1の算出工程S22で算出される画像の変化量を示すデータ(平滑化処理後の画像データに基づき算出される画像の変化量を示すデータ)は、「本体部分C1の変化(濡れ広がり)に起因した変化量」をよく表す。 On the other hand, as described in the second embodiment, data indicating the amount of change in the image calculated in the first calculation step S22 (data indicating the amount of change in the image calculated based on the image data after the smoothing process). Well represents "the amount of change due to the change (wet spread) of the main body portion C1".

このため、第2の算出工程S23で算出される画像の変化量を示すデータから第1の算出工程S22で算出される画像の変化量を示すデータを引くことで得られる差分データは、「先行部分C2の変化(濡れ広がり)に起因した変化量」をよく表す。 Therefore, the difference data obtained by subtracting the data indicating the amount of change in the image calculated in the first calculation step S22 from the data indicating the amount of change in the image calculated in the second calculation step S23 is "preceding". The amount of change due to the change (wet spread) of the partial C2 is well represented.

図1に戻り、出力工程S30では、出力部13が、画像の変化量の推移を示すデータ及び/又は画像の変化量の累積値の推移を示すデータに代えて、差分算出工程S24で算出された差分の推移を示すデータ及び/又は差分の累積値の推移を示すデータを出力する。出力部13は、画像の変化量の推移を示すデータ及び/又は画像の変化量の累積値の推移を示すデータと同様な表示手法(図6乃至図9参照)で、これら差分のデータを出力することができる。 Returning to FIG. 1, in the output step S30, the output unit 13 is calculated in the difference calculation step S24 instead of the data showing the transition of the change amount of the image and / or the data showing the transition of the cumulative value of the change amount of the image. The data showing the transition of the difference and / or the data showing the transition of the cumulative value of the difference are output. The output unit 13 outputs the difference data by the same display method (see FIGS. 6 to 9) as the data showing the transition of the change amount of the image and / or the data showing the transition of the cumulative value of the change amount of the image. can do.

なお、出力部13は、画像の変化量の推移を示すデータ及び/又は画像の変化量の累積値の推移を示すデータをさらに出力してもよい。例えば、出力部13は、ユーザ選択に応じて、所定のデータを出力してもよい。 The output unit 13 may further output data indicating a transition of the amount of change in the image and / or data indicating a transition of the cumulative value of the amount of change in the image. For example, the output unit 13 may output predetermined data according to the user's selection.

以上、本実施形態によれば、第1及び第2の実施形態と同様な作用効果を実現できる。また、溝有滴下対象物上に化粧料を滴下し、濡れ広がる状態を撮影した場合、本体部分C1と、先行部分C2を切り分けて、濡れ広がり方を評価することができる。 As described above, according to the present embodiment, the same effects as those of the first and second embodiments can be realized. Further, when the cosmetic is dropped on the grooved drip object and a state in which the wet spread is photographed, the main body portion C1 and the preceding portion C2 can be separated to evaluate how the wet spread spreads.

具体的には、本実施形態では、先行部分C2の濡れ広がり方を評価することができる。なお、第1の実施形態と同様の処理を採用することで、本体部分C1及び先行部分C2をひとまとまりにして、化粧料の濡れ広がり方を評価することができる。また、第2の実施形態と同様の処理を採用することで、本体部分C1の濡れ広がり方を評価することができる。このように、本実施形態によれば、様々な視点から、化粧料の濡れ広がり方を評価することができる。 Specifically, in the present embodiment, it is possible to evaluate how the preceding portion C2 gets wet and spreads. By adopting the same treatment as in the first embodiment, it is possible to evaluate how the cosmetics are wet and spread by grouping the main body portion C1 and the preceding portion C2. Further, by adopting the same treatment as in the second embodiment, it is possible to evaluate how the main body portion C1 gets wet and spreads. As described above, according to the present embodiment, it is possible to evaluate how the cosmetics get wet and spread from various viewpoints.

<<実施例>>
化粧料として、以下の表1に示す成分の化粧料を準備した。当該化粧料に対して着色料(青色1号)0.10質量%を添加した溶液2.0μLを、人の肌の上に滴下した。
<< Example >>
As cosmetics, cosmetics having the ingredients shown in Table 1 below were prepared. 2.0 μL of a solution prepared by adding 0.10% by mass of a colorant (Blue No. 1) to the cosmetic was added dropwise onto human skin.

Figure 0006883943
Figure 0006883943

そして、フレームレート:30fps、人の肌とカメラとの距離:10cm、画像サイズ1280×960pxl、カメラのレンズ倍率:40倍の撮影条件で、化粧料が濡れ広がる様子を撮影した。フレーム内には、化粧料及び人の肌のみが写っていた。 Then, under the shooting conditions of a frame rate of 30 fps, a distance between the human skin and the camera: 10 cm, an image size of 1280 × 960 pxl, and a camera lens magnification of 40 times, the appearance of the cosmetics getting wet and spreading was photographed. Only cosmetics and human skin were shown in the frame.

その後、得られた画像データに対して解析工程S20を行った。具体的には、解析部12は、フレーム毎にすべての画素の画素値を所定の順番に並べることで、1次元のベクトルを得た。その後、解析部12は、撮影タイミングtのフレームFと、撮影タイミングta+1のフレームFとで複数のペアを作成し(1≦a≦m−1)、ペア毎に、2つのフレームF間の相関係数を算出することで、相関係数の時系列データを得た。 Then, the analysis step S20 was performed on the obtained image data. Specifically, the analysis unit 12 obtained a one-dimensional vector by arranging the pixel values of all the pixels in a predetermined order for each frame. Thereafter, analyzer 12 includes a frame F of the imaging timing t a, create multiple pairs between frame F of the imaging timing t a + 1 (1 ≦ a ≦ m-1), for each pair, between two frames F By calculating the correlation coefficient of, time-series data of the correlation coefficient was obtained.

また、解析部12は、複数のフレーム各々に対して、平滑化フィルタを利用した平滑化処理を行った。その後、解析部12は、フレーム毎にすべての画素の画素値を所定の順番に並べることで、1次元のベクトルを得た。次いで、解析部12は、撮影タイミングtのフレームFと、撮影タイミングta+1のフレームFとで複数のペアを作成し(1≦a≦m−1)、ペア毎に、2つのフレームF間の相関係数を算出することで、相関係数の時系列データを得た。 In addition, the analysis unit 12 performed a smoothing process using a smoothing filter on each of the plurality of frames. After that, the analysis unit 12 obtained a one-dimensional vector by arranging the pixel values of all the pixels in a predetermined order for each frame. Then, the analysis unit 12 includes a frame F of the imaging timing t a, create multiple pairs between frame F of the imaging timing t a + 1 (1 ≦ a ≦ m-1), for each pair, between two frames F By calculating the correlation coefficient of, time-series data of the correlation coefficient was obtained.

図13に、上記算出結果に基づき、出力部13が出力したデータを示す。図13は、図6と同様のグラフで同様の情報を表示している。 FIG. 13 shows the data output by the output unit 13 based on the above calculation result. FIG. 13 shows the same information in the same graph as in FIG.

「original」は、平滑化処理を行わずに算出された相関係数の時系列データである。「blurred」は、平滑化処理を行った後に算出された相関係数の時系列データである。 “Original” is time series data of the correlation coefficient calculated without performing the smoothing process. “Blurred” is time series data of the correlation coefficient calculated after the smoothing process.

図13より、第1の実施形態で説明した通り、化粧料の濡れ広がり方を評価できることが分かる。 From FIG. 13, it can be seen that the wet spreading method of the cosmetic can be evaluated as described in the first embodiment.

また、図13より、平滑化処理の有無により、相関係数の推移が変化することが分かる。「original」は、「本体部分C1の変化(濡れ広がり)に起因した変化」及び「先行部分C2の変化(濡れ広がり)」を足し合わせた変化の推移を表す。「blurred」は、「本体部分C1の変化(濡れ広がり)」の推移を表す。 Further, from FIG. 13, it can be seen that the transition of the correlation coefficient changes depending on the presence or absence of the smoothing process. “Original” represents the transition of the change obtained by adding the “change due to the change (wetting spread) of the main body portion C1” and the “change (wetting spread) of the preceding portion C2”. “Blurred” represents the transition of “change (wetting spread) of main body portion C1”.

次に、図14に、図13の「original」と「blurred」の差分データを示す。当該差分データは、「先行部分C2の変化(濡れ広がり)」の推移を表す。 Next, FIG. 14 shows the difference data between “original” and “blurred” in FIG. The difference data represents the transition of "change (wet spread) of preceding portion C2".

以上、本実施例により、第1乃至第3の実施形態で説明したように、化粧料の濡れ広がり方を評価できることが示された。 As described above, it has been shown that the present embodiment can evaluate how the cosmetics get wet and spread as described in the first to third embodiments.

1A プロセッサ
2A メモリ
3A 入出力I/F
4A 周辺回路
5A バス
10 評価装置
11 画像データ取得部
12 解析部
13 出力部
C 化粧料
C1 本体部分
C2 先行部分
D 滴下対象物
E 溝有滴下対象物
F フレーム
1A processor 2A memory 3A I / O I / F
4A Peripheral circuit 5A Bus 10 Evaluation device 11 Image data acquisition unit 12 Analysis unit 13 Output unit C Cosmetics C1 Main body part C2 Preceding part D Dropping object E Grooved dropping object F frame

Claims (6)

溝を有する滴下対象物に前記溝及びその他の部分に跨って滴下された化粧料を所定時間にわたり撮影した複数フレームの画像データを取得する画像データ取得工程と、
平滑化処理後の前記画像データに基づき、2つの前記フレーム間の画像の変化量を示すデータを算出する第1の解析工程と、前記平滑化処理をなされていない前記画像データに基づき、2つの前記フレーム間の画像の変化量を示すデータを算出し、前記平滑化処理をなされていない前記画像データに基づき算出された前記画像の変化量を示すデータから、前記平滑化処理後の前記画像データに基づき算出された前記画像の変化量を示すデータを引いた差分を算出する第2の解析工程とを実行する解析工程と、
前記平滑化処理後の前記画像データに基づき算出された前記画像の変化量の推移及び当該変化量の累積値の推移の少なくとも一方を示すデータと、前記差分の推移及び前記差分の累積値の推移の少なくとも一方を示すデータとを出力する出力工程と、
を有する化粧料の濡れ広がり方の評価方法。
An image data acquisition step of acquiring image data of a plurality of frames obtained by photographing a cosmetic material dropped over a groove and other portions on a dropping object having a groove over a predetermined time.
Based on the image data after the smoothing process, there are two analysis steps, one is a first analysis step of calculating data indicating the amount of change in the image between the two frames, and the other is based on the image data not subjected to the smoothing process. The data showing the amount of change in the image between the frames is calculated, and the data showing the amount of change in the image calculated based on the image data not subjected to the smoothing process is used to obtain the image data after the smoothing process. An analysis step of executing a second analysis step of calculating a difference obtained by subtracting data indicating the amount of change in the image calculated based on
Data showing at least one of the transition of the change amount of the image and the transition of the cumulative value of the change amount calculated based on the image data after the smoothing process, the transition of the difference, and the transition of the cumulative value of the difference. An output process that outputs data indicating at least one of
How to evaluate how to spread the wetness of cosmetics with.
請求項1に記載の評価方法において、
前記解析工程では、前記画像の変化量を示すデータとして、2つの前記フレーム間の相関係数を算出する評価方法。
In the evaluation method according to claim 1,
In the analysis step, an evaluation method for calculating a correlation coefficient between two frames as data indicating the amount of change in the image.
請求項1に記載の評価方法において、
前記解析工程では、前記画像の変化量を示すデータとして、2つの前記フレーム各々において前記化粧料が写るエリアの面積の変化量を算出する評価方法。
In the evaluation method according to claim 1,
In the analysis step, an evaluation method for calculating the amount of change in the area of the area in which the cosmetic is reflected in each of the two frames as data indicating the amount of change in the image.
請求項1から3のいずれか1項に記載の評価方法において、
前記出力工程では、前記平滑化処理をなされていない前記画像データに基づき算出された前記画像の変化量の推移及び当該変化量の累積値の推移の少なくとも一方を示すデータをさらに出力する評価方法。
In the evaluation method according to any one of claims 1 to 3,
In the output step, an evaluation method for further outputting data indicating at least one of a transition of a change amount of the image and a transition of a cumulative value of the change amount calculated based on the image data that has not been smoothed.
溝を有する滴下対象物に前記溝及びその他の部分に跨って滴下された化粧料を所定時間にわたり撮影した複数フレームの画像データを取得する画像データ取得部と、
平滑化処理後の前記画像データに基づき、2つの前記フレーム間の画像の変化量を示すデータを算出する第1の解析処理と、前記平滑化処理をなされていない前記画像データに基づき、2つの前記フレーム間の画像の変化量を示すデータを算出し、前記平滑化処理をなされていない前記画像データに基づき算出された前記画像の変化量を示すデータから、前記平滑化処理後の前記画像データに基づき算出された前記画像の変化量を示すデータを引いた差分を算出する第2の解析処理とを実行する解析部と、
前記平滑化処理後の前記画像データに基づき算出された前記画像の変化量の推移及び当該変化量の累積値の推移の少なくとも一方を示すデータと、前記差分の推移及び前記差分の累積値の推移の少なくとも一方を示すデータとを出力する出力部と、
を有する化粧料の濡れ広がり方を評価するための評価装置。
An image data acquisition unit that acquires image data of a plurality of frames obtained by photographing a cosmetic material dropped over a groove and other portions on a dropping object having a groove over a predetermined time.
Based on the image data after the smoothing process, there are two, a first analysis process for calculating data indicating the amount of change in the image between the two frames, and two based on the image data not subjected to the smoothing process. The data showing the amount of change in the image between the frames is calculated, and the data showing the amount of change in the image calculated based on the image data not subjected to the smoothing process is used to obtain the image data after the smoothing process. An analysis unit that executes a second analysis process that calculates a difference obtained by subtracting data indicating the amount of change in the image calculated based on
Data showing at least one of the transition of the change amount of the image and the transition of the cumulative value of the change amount calculated based on the image data after the smoothing process, the transition of the difference, and the transition of the cumulative value of the difference. An output unit that outputs data indicating at least one of
An evaluation device for evaluating how a cosmetic having a wet spread spreads.
コンピュータを、
溝を有する滴下対象物に前記溝及びその他の部分に跨って滴下された化粧料を所定時間にわたり撮影した複数フレームの画像データを取得する画像データ取得手段、
平滑化処理後の前記画像データに基づき、2つの前記フレーム間の画像の変化量を示すデータを算出する第1の解析処理と、前記平滑化処理をなされていない前記画像データに基づき、2つの前記フレーム間の画像の変化量を示すデータを算出し、前記平滑化処理をなされていない前記画像データに基づき算出された前記画像の変化量を示すデータから、前記平滑化処理後の前記画像データに基づき算出された前記画像の変化量を示すデータを引いた差分を算出する第2の解析処理とを実行する解析手段、
前記平滑化処理後の前記画像データに基づき算出された前記画像の変化量の推移及び当該変化量の累積値の推移の少なくとも一方を示すデータと、前記差分の推移及び前記差分の累積値の推移の少なくとも一方を示すデータとを出力する出力手段、
として機能させる化粧料の濡れ広がり方を評価するためのプログラム。
Computer,
An image data acquisition means for acquiring image data of a plurality of frames obtained by photographing a cosmetic material dropped over a groove and other portions on a dropping object having a groove for a predetermined time.
Based on the image data after the smoothing process, there are two, a first analysis process for calculating data indicating the amount of change in the image between the two frames, and two based on the image data not subjected to the smoothing process. The data showing the amount of change in the image between the frames is calculated, and the data showing the amount of change in the image calculated based on the image data not subjected to the smoothing process is used to obtain the image data after the smoothing process. An analysis means for executing a second analysis process for calculating a difference obtained by subtracting data indicating the amount of change in the image calculated based on the above.
Data showing at least one of the transition of the change amount of the image and the transition of the cumulative value of the change amount calculated based on the image data after the smoothing process, the transition of the difference, and the transition of the cumulative value of the difference. An output means that outputs data indicating at least one of
A program to evaluate how the cosmetics that function as wet and spread.
JP2015243398A 2015-12-14 2015-12-14 Evaluation method, evaluation device and program Active JP6883943B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015243398A JP6883943B2 (en) 2015-12-14 2015-12-14 Evaluation method, evaluation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015243398A JP6883943B2 (en) 2015-12-14 2015-12-14 Evaluation method, evaluation device and program

Publications (2)

Publication Number Publication Date
JP2017110941A JP2017110941A (en) 2017-06-22
JP6883943B2 true JP6883943B2 (en) 2021-06-09

Family

ID=59080601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015243398A Active JP6883943B2 (en) 2015-12-14 2015-12-14 Evaluation method, evaluation device and program

Country Status (1)

Country Link
JP (1) JP6883943B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024017008A (en) * 2022-07-27 2024-02-08 株式会社Uacj Wettability evaluation method and wettability evaluation device

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3727807B2 (en) * 1999-06-14 2005-12-21 株式会社資生堂 Method and apparatus for measuring components in skin and skin characteristics
JP2004241945A (en) * 2003-02-05 2004-08-26 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for image monitoring, and recording medium where same program is recorded
JP2005329008A (en) * 2004-05-20 2005-12-02 Shiseido Co Ltd Skin condition evaluation method
JP4424165B2 (en) * 2004-11-15 2010-03-03 株式会社日立プラントテクノロジー Droplet applicator
GB2436654A (en) * 2006-02-03 2007-10-03 Snell & Wilcox Ltd Detection of a cross-fade in a video sequence
JP2007149095A (en) * 2006-11-24 2007-06-14 Hitachi Ltd Method and device for detecting variation point of moving image
JP4954038B2 (en) * 2007-11-28 2012-06-13 花王株式会社 Evaluation method of makeup scraps
JP5544065B2 (en) * 2007-11-28 2014-07-09 花王株式会社 Evaluation method of skin condition
JP2011053068A (en) * 2009-09-01 2011-03-17 Shiseido Co Ltd Face lotion evaluation method
US10729625B2 (en) * 2010-02-04 2020-08-04 Isp Investments Llc Self adapting polymers for anhydrous sunscreen formulations
JP5215363B2 (en) * 2010-08-30 2013-06-19 株式会社東芝 Medical diagnostic imaging equipment
JP2013244138A (en) * 2012-05-25 2013-12-09 Fujifilm Corp Ultrasonic diagnostic apparatus and sound velocity display method
JP5306529B2 (en) * 2012-09-24 2013-10-02 株式会社東芝 Medical diagnostic imaging equipment
JP6292602B2 (en) * 2013-04-15 2018-03-14 学校法人神奈川大学 Formulation used for reducing or increasing wettability, raw material for production thereof, and method for reducing or increasing wettability

Also Published As

Publication number Publication date
JP2017110941A (en) 2017-06-22

Similar Documents

Publication Publication Date Title
JP7027537B2 (en) Image processing methods and equipment, electronic devices, and computer-readable storage media
US10638968B2 (en) Skin gloss evaluation device, skin gloss evaluation method, and skin gloss evaluation program
JP2013101633A5 (en) Program and makeup simulation device
US9782119B2 (en) Wrinkle detection apparatus and wrinkle detection method
US9501689B2 (en) Image processing apparatus and image processing method
CN104111165A (en) Device for evaluating image quality of near-eye display optical lens
US8532736B1 (en) Apparatus and a method for quantifying properties of skin
JP2014166271A5 (en)
CN104122078A (en) Evaluation method for image quality of near-to-eye display optical lens
US9959841B2 (en) Image presentation control methods and image presentation control apparatuses
CN108665421A (en) The high light component removal device of facial image and method, storage medium product
WO2018090450A1 (en) Uniformity measurement method and system for display screen
CN109661815A (en) There are the robust disparity estimations in the case where the significant Strength Changes of camera array
KR20220142465A (en) Systems and methods for processing laser speckle signals
JP2014087464A (en) Skin evaluation method and skin evaluation device
JP6883943B2 (en) Evaluation method, evaluation device and program
JP6124295B2 (en) Method for evaluating the texture of bare skin or makeup skin
CN112912713B (en) Coefficient determination device, pigment concentration calculation device, and coefficient determination method
JP7234086B2 (en) Biometric information acquisition device and program
KR20140100756A (en) Measurement Method of Surface Behavior and Sizing Degree for Paper, and Its Measuring Apparatus
EP3169069A1 (en) Systems and methods for imaging device interfaces
KR20180042657A (en) Skin moisture estimating method using image
CN108135346B (en) Skin evaluation device, skin evaluation method, and recording medium
Che Azemin et al. Box-counting fractal dimension algorithm variations on retina images
EP4107936B1 (en) Determining pixel intensity values in imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210511

R151 Written notification of patent or utility model registration

Ref document number: 6883943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151