JP7183005B2 - Skin analysis method and skin analysis system - Google Patents

Skin analysis method and skin analysis system Download PDF

Info

Publication number
JP7183005B2
JP7183005B2 JP2018218557A JP2018218557A JP7183005B2 JP 7183005 B2 JP7183005 B2 JP 7183005B2 JP 2018218557 A JP2018218557 A JP 2018218557A JP 2018218557 A JP2018218557 A JP 2018218557A JP 7183005 B2 JP7183005 B2 JP 7183005B2
Authority
JP
Japan
Prior art keywords
facial
image
facial expression
skin
expression change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018218557A
Other languages
Japanese (ja)
Other versions
JP2019098168A (en
Inventor
賢哉 平山
興治 水越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pola Chemical Industries Inc
Original Assignee
Pola Chemical Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pola Chemical Industries Inc filed Critical Pola Chemical Industries Inc
Publication of JP2019098168A publication Critical patent/JP2019098168A/en
Application granted granted Critical
Publication of JP7183005B2 publication Critical patent/JP7183005B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明は、肌解析方法及び肌解析システムに関するものである。 The present invention relates to a skin analysis method and a skin analysis system.

近年、人の見た目の印象を客観的に推定する技術について研究が行われている。例えば、特許文献1には、少なくとも1つの音を発出する間に撮影された人の顔画像のシーケンスから、音の発出と同時に起こる1つまたは複数の画像を抽出し、臨床徴候を評価する技術が公開されている。 In recent years, research has been conducted on techniques for objectively estimating a person's visual impression. For example, Patent Literature 1 discloses a technique for extracting one or more images occurring simultaneously with the emission of a sound from a sequence of facial images of a person taken while emitting at least one sound, and evaluating clinical signs. is published.

また、特許文献2には、被験者の目尻のような解析領域に予め複数の追跡点を配置して動画像を撮影し、表情の変化に伴う追跡点の変化量を追跡して肌の圧縮率を取得することによって、被験者の肌状態を解析する技術が公開されている。 In addition, in Patent Document 2, a plurality of tracking points are arranged in advance in an analysis area such as the outer corner of the eye of a subject, and a moving image is shot, and the amount of change in the tracking points due to changes in facial expression is tracked. A technique for analyzing the skin condition of a subject by obtaining the is disclosed.

更に、特許文献3には、動的情報を用いて顔の見た目印象と相関関係が高い因子を抽出する方法と、その因子に基づいて顔の見た目印象を鑑別する方法についての技術が公開されている。 Furthermore, Patent Literature 3 discloses a technique for a method of extracting factors that are highly correlated with facial visual impressions using dynamic information, and a method of discriminating facial visual impressions based on the factors. there is

特開2017-502732JP 2017-502732 特開2014-193197JP 2014-193197 特開2016-194901JP 2016-194901

先述の通り、人物の顔を含む動画を解析して肌を評価する技術について研究されてきた。また、出願人は、表情変化の過程を表す動画を用いて肌の運動特性を解析することにより、皮膚の構造状態を解析するための研究を行ってきた。このような解析を行う際に、被撮影者の表情変化のタイミングを正確に判定しなければ、正確な解析結果が得られない。そのため、表情動作の開始時点と終了時点を正確に特定し、入力される動画から顔の動きを解析したい部分を抽出する精度を向上させることが求められていた。 As mentioned above, research has been carried out on techniques for evaluating skin by analyzing videos that include human faces. In addition, the applicant has conducted research to analyze the structural state of the skin by analyzing the motion characteristics of the skin using moving images representing the process of facial expression changes. When performing such an analysis, accurate analysis results cannot be obtained unless the timing of changes in facial expression of the photographed person is accurately determined. Therefore, it has been required to accurately identify the start and end points of facial expressions and to improve the accuracy of extracting the part whose facial movement is to be analyzed from the input video.

特許文献1においては、表情変化に伴って被撮影者に音声を発出させ、動画と同時に記録して、音の分析から解析対象の画像を抽出する技術が開示されている。しかし、表情変化は必ずしも音の発出と同時に起こるわけではないため、解析対象の抽出の精度については課題があった。また、音声を発することは、撮影場所によっては被撮影者にとって負担になり、更に集音器が必要になるという課題があった。 Japanese Patent Application Laid-Open No. 2002-200000 discloses a technique of making a person to be photographed emit sound in accordance with a change in facial expression, recording the sound at the same time as a moving image, and extracting an image to be analyzed from sound analysis. However, since facial expression changes do not always occur at the same time as the sound is emitted, there was a problem with the accuracy of extraction of the analysis target. In addition, there is a problem in that the utterance of sound is a burden on the person to be photographed depending on the photographing location, and furthermore, a sound collector is required.

そこで、本発明は、表情変化の過程を表す複数の画像から、表情変化が開始する画像及び終了する画像を特定して解析対象を抽出し、高い精度で肌解析を行うことができる、肌解析方法及び肌解析システムを提供することを課題とする。 Therefore, the present invention provides skin analysis that can perform skin analysis with high accuracy by specifying an image where expression change starts and an image where expression change ends from a plurality of images representing the process of expression change and extracts an analysis target. The object is to provide a method and a skin analysis system.

上記課題を解決するために、本発明は、顔の表情変化の動的情報に基づいて肌の特徴を解析する肌解析方法であって、
前記表情変化の過程を表す複数の画像を取得する画像取得工程と、
前記複数の画像について、前記顔の部品の位置を示す複数の顔部品座標を検出する顔部品座標検出工程と、
前記複数の画像について、前記顔部品座標間の距離を算出する距離算出工程と、
前記顔部品座標間の距離の時系列の変化に基づいて、前記複数の画像から、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定し、前記表情変化が開始する画像及び前記表情変化が終了する画像の間の画像を解析対象として抽出する解析対象抽出工程と、
前記解析対象抽出工程において抽出された画像を用いて、肌の特徴を解析する解析工程と、を含むことを特徴とする。
In order to solve the above problems, the present invention provides a skin analysis method for analyzing skin characteristics based on dynamic information of facial expression changes,
an image acquiring step of acquiring a plurality of images representing the process of the facial expression change;
a facial part coordinate detection step of detecting a plurality of facial part coordinates indicating positions of the facial parts from the plurality of images;
a distance calculation step of calculating the distance between the coordinates of the facial parts for the plurality of images;
Based on the time-series change in the distance between the facial part coordinates, an image where the expression change starts and an image where the expression change ends are specified from the plurality of images, and the image where the expression change starts and the image where the expression change ends. an analysis target extraction step of extracting, as an analysis target, an image between images in which the facial expression change ends;
and an analysis step of analyzing skin features using the image extracted in the analysis target extraction step.

このように、表情変化の過程を表す画像から、顔部品座標間の距離の変化に基づいて表情変化の始点と終点を特定することにより、画像から直接的に表情変化のタイミングを特定することができる。これにより、音声等に基づいて表情変化のタイミングを特定する場合に比べ、より正確に解析対象の抽出を行うことが可能になる。また、集音器がない場合や、声を発出することに抵抗があるような場所でも被撮影者への負担を強いることなく、表情変化のタイミングを特定し、画像を用いた肌解析を行うことができる。 In this way, by specifying the start point and the end point of the facial expression change based on the change in the distance between the facial part coordinates from the image representing the facial expression change process, it is possible to specify the timing of the facial expression change directly from the image. can. This makes it possible to extract the analysis target more accurately than when specifying the timing of facial expression change based on voice or the like. In addition, even if there is no sound collector or if there is a reluctance to speak, the timing of facial expression changes can be specified without imposing a burden on the person being photographed, and skin analysis using images can be performed. be able to.

本発明の好ましい形態では、前記解析工程は、頬部分の肌の特徴を解析する工程を含むことを特徴とする。
このように、頬部分の肌の特徴を解析することで、顔全体に占める面積が大きく印象を左右しやすい部分についての解析結果が得られる。
A preferred form of the present invention is characterized in that the analysis step includes a step of analyzing the skin characteristics of the cheek portion.
In this way, by analyzing the characteristics of the cheek skin, it is possible to obtain the analysis result of the part that occupies a large area of the entire face and tends to influence the impression.

本発明の好ましい形態では、前記複数の画像は、前記顔を通る鉛直方向の軸まわりに正面を0度として0~90度の範囲で回転させた前記顔の表情変化を表す複数の画像を含むことを特徴とする。
このように、正面から0~90度の範囲で回転させた角度から顔を撮影した画像を用いて解析を行うことで、頬部分や目尻等、顔の印象を左右しやすい部分の肌をより広く含む画像を取得することができるため、顔の印象を左右しやすい部分の肌について、肌解析をより正確に行うことができる。
In a preferred embodiment of the present invention, the plurality of images include a plurality of images representing expression changes of the face rotated in a range of 0 to 90 degrees with the front being 0 degrees around a vertical axis passing through the face. It is characterized by
In this way, by performing analysis using an image of the face photographed from an angle that is rotated from the front in the range of 0 to 90 degrees, the skin in areas that are likely to affect the impression of the face, such as the cheeks and the corners of the eyes, can be extracted more. Since a wide range of images can be acquired, skin analysis can be performed more accurately on the skin of the part that tends to affect the impression of the face.

本発明の好ましい形態では、前記複数の画像は、前記顔を通る鉛直方向の軸まわりに正面を0度として20~30度の範囲で回転させた前記顔の表情変化を表す複数の画像を含むことを特徴とする。
このように、正面から20~30度の範囲で回転させた角度から顔を撮影した画像を用いることで、正面から撮影した画像を用いる場合に比べて頬部分や目尻等、顔の印象を左右しやすい部分の肌を広く含む画像を取得して、顔の印象を左右しやすい部分の肌についてより正確に肌解析を行うことができる。また、30度より大きく回転させた角度から顔を撮影した画像を用いる場合に比べて高い精度で顔部品座標を検出できるため、表情変化が開始する画像及び表情変化が終了する画像の抽出を正確に行うことができる。
In a preferred embodiment of the present invention, the plurality of images include a plurality of images representing expression changes of the face rotated in a range of 20 to 30 degrees with the front being 0 degrees around a vertical axis passing through the face. It is characterized by
In this way, by using an image of the face that has been rotated from the front by an angle of 20 to 30 degrees, the impression of the face, such as the cheeks and the corners of the eyes, can be left and right compared to the case of using the image taken from the front. It is possible to obtain an image that includes a wide range of skin that is likely to be affected, and perform more accurate skin analysis on the skin that is likely to influence the impression of the face. In addition, since the coordinates of facial parts can be detected with higher accuracy than when using an image of the face photographed at an angle that is rotated by more than 30 degrees, it is possible to accurately extract the image at which facial expression changes start and the image at which facial expression changes end. can be done.

本発明の好ましい形態では、前記顔部品座標検出工程は、
前記顔部品座標として、前記表情変化に連動して距離が変化する2点を検出することを特徴とする。
このように、表情変化に連動して距離が変化する2点を顔部品座標として検出することにより、2点間の距離を用いて表情変化が開始する画像及び表情変化が終了する画像をより正確に特定することができる。
In a preferred embodiment of the present invention, the facial part coordinate detection step includes:
It is characterized in that, as the face part coordinates, two points whose distance changes in conjunction with the change in facial expression are detected.
In this way, by detecting the two points whose distance changes in conjunction with the change in facial expression as facial part coordinates, the distance between the two points can be used to more accurately determine the image in which the facial expression starts to change and the image in which the facial expression ends. can be specified.

本発明の好ましい形態では、前記表情変化は、頬部分の肌を縦方向に伸縮させる縦方向表情変化と、頬部分の肌を横方向に伸縮させる横方向表情変化と、のうち少なくとも何れかを含むことを特徴とする。
このように、頬部分の肌を特定の方向に伸縮させる表情変化の過程を表す複数の画像を用いることにより、肌を特定の方向に伸縮させた際の皮膚の運動特性を解析することが可能になる。
In a preferred embodiment of the present invention, the change in facial expression includes at least one of a vertical facial expression change in which the cheek skin is vertically stretched and a horizontal facial expression change in which the cheek skin is horizontally stretched and stretched. characterized by comprising
In this way, by using a plurality of images representing the process of facial expression changes in which the cheek skin expands and contracts in a specific direction, it is possible to analyze the motion characteristics of the skin when the skin expands and contracts in a specific direction. become.

本発明の好ましい形態では、前記表情変化は、前記頬部分の肌を同じ方向に伸縮させる表情変化を複数種類含み、
前記解析対象抽出工程は、各種の表情変化が開始する画像及び終了する画像を特定し、前記各種の表情変化が開始する画像及び終了する画像の間の画像を解析対象として抽出することを特徴とする。
このように、頬部分の肌を同じ方向に伸縮させる表情変化を複数種類含む画像を取得することにより、特定の方向の肌の伸縮に伴う皮膚の運動特性をより詳細に解析することができる。
In a preferred embodiment of the present invention, the facial expression change includes a plurality of facial expression changes that expand and contract the skin of the cheek portion in the same direction,
The analysis target extracting step is characterized by specifying an image where various facial expression changes start and an image where the various facial expression changes end, and extracting images between the images where the various facial expression changes start and end as analysis targets. do.
In this way, by acquiring an image containing a plurality of types of facial expression changes in which the cheek skin expands and contracts in the same direction, it is possible to analyze in more detail the motion characteristics of the skin associated with the expansion and contraction of the skin in a specific direction.

本発明の好ましい形態では、前記画像取得工程、前記顔部品座標検出工程、前記距離算出工程及び前記解析対象抽出工程は、前記縦方向表情変化を含む前記複数の画像と、前記横方向表情変化を含む前記複数の画像と、のそれぞれについて実行され、
前記解析工程は、前記解析対象抽出工程においてそれぞれ抽出された、前記縦方向表情変化を含む複数の画像の中の解析対象及び前記横方向表情変化を含む複数の画像の中の解析対象を用いて、肌の特徴を解析することを特徴とする。
このように、縦方向表情変化及び横方向表情変化についてそれぞれ解析対象を抽出して解析を行うことにより、異なる方向の肌の運動特性を得ることができ、より詳細な解析を行うことが可能になる。
In a preferred embodiment of the present invention, the image acquiring step, the face part coordinate detecting step, the distance calculating step, and the analysis target extracting step are performed by combining the plurality of images including the vertical expression change and the horizontal expression change. performed for each of the plurality of images comprising;
The analysis step uses the analysis target in the plurality of images including the vertical facial expression change and the analysis target in the plurality of images including the horizontal facial expression change extracted in the analysis target extraction step. , characterized by analyzing the characteristics of the skin.
In this way, by extracting and analyzing the facial expression changes in the vertical direction and the facial expression changes in the horizontal direction, it is possible to obtain the motion characteristics of the skin in different directions and perform more detailed analysis. Become.

本発明の好ましい形態では、前記距離算出工程及び前記解析対象抽出工程の間に、前記表情変化の大きさを評価する表情動作評価工程を含み、
前記表情動作評価工程は、前記顔部品座標間の距離の変化に基づいて前記表情変化の大きさを評価し、前記表情変化の大きさが所定の値を上回った場合に解析対象抽出工程に進むことを特徴とする。
このように、表情変化の大きさを評価することで、所定の基準に満たない場合に再度撮影を指示するなどして再度画像の取得を行い、表情変化の大きさが肌解析を行う為に十分である一連の画像に対して肌解析を実行することができる。これにより、肌解析の精度を向上させることができる。
In a preferred embodiment of the present invention, a facial expression action evaluation step of evaluating the magnitude of the facial expression change is included between the distance calculation step and the analysis target extraction step,
The facial expression motion evaluation step evaluates the magnitude of the facial expression change based on the change in the distance between the facial part coordinates, and advances to the analysis target extraction step when the facial expression change magnitude exceeds a predetermined value. It is characterized by
In this way, by evaluating the magnitude of facial expression change, if the predetermined criteria are not met, the image is acquired again by instructing photography again, and the magnitude of facial expression change is used for skin analysis. Skin analysis can be performed on a series of images that are sufficient. Thereby, the accuracy of skin analysis can be improved.

本発明の好ましい形態では、前記距離算出工程は、前記顔部品座標間の距離を複数算出する工程を含み、
前記解析対象抽出工程は、複数の前記顔部品座標間の距離に基づいて、前記複数の画像から、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定し、前記表情変化が開始する画像及び前記表情変化が終了する画像の間の画像を解析対象として抽出することを特徴とする。
このように、顔部品座標間の距離を複数用いることにより、表情変化が開始する画像及び表情変化が終了する画像の特定をより精度よく行うことができる。また、複数の種類の表情変化について、解析対象の抽出が可能になる。
In a preferred embodiment of the present invention, the distance calculation step includes a step of calculating a plurality of distances between the facial part coordinates,
The analysis target extracting step identifies an image in which the expression change starts and an image in which the expression change ends from the plurality of images based on the distance between the plurality of facial part coordinates, and the expression change starts. An image between an image where the facial expression change ends and an image between the image where the facial expression change ends is extracted as an analysis target.
In this way, by using a plurality of distances between facial part coordinates, it is possible to more accurately identify an image in which a change in facial expression starts and an image in which a change in facial expression ends. In addition, it becomes possible to extract analysis targets for a plurality of types of facial expression changes.

本発明の好ましい形態では、前記顔部品座標は、少なくとも唇輪郭の位置を示す座標を含むことを特徴とする。
このように、唇輪郭の位置を示す座標を顔部品座標として検出することにより、個人ごとの表情動作の癖による解析対象抽出への影響を小さくする効果が期待できる。また、唇輪郭の位置を示す座標は表情動作に連動した移動が大きいため、表情変化が開始する画像及び表情変化が終了する画像をより正確に特定することができる。
A preferred embodiment of the present invention is characterized in that the facial part coordinates include at least coordinates indicating the position of the lip contour.
In this way, by detecting the coordinates indicating the position of the lip contour as the facial part coordinates, the effect of reducing the influence of individual facial expressions on extraction of analysis targets can be expected. In addition, since the coordinates indicating the position of the lip contour move significantly in conjunction with the facial expression action, it is possible to more accurately specify the image where the facial expression change starts and the image where the facial expression change ends.

本発明の好ましい形態では、前記距離算出工程は、前記顔部品座標間の距離を標準化する為の基準距離を算出する基準距離算出工程を更に含み、
前記解析対象抽出工程は、前記基準距離に基づいて前記顔部品座標間の距離を標準化した値を用いて、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定することを特徴とする。
このように、基準距離に基づいて顔部品座標間の距離を標準化することで、顔の大きさ等の個人差や撮影時の倍率、カメラとの距離等による影響を軽減することができる。これにより、更に正確に表情変化のタイミングを特定し、解析対象を抽出することができる。
In a preferred embodiment of the present invention, the distance calculation step further includes a reference distance calculation step of calculating a reference distance for standardizing the distance between the facial part coordinates,
The analysis target extracting step specifies an image where the expression change starts and an image where the expression change ends, using a value obtained by standardizing the distance between the facial part coordinates based on the reference distance. do.
In this way, by standardizing the distances between facial part coordinates based on the reference distance, it is possible to reduce the effects of individual differences in face size and the like, magnification at the time of photographing, distance from the camera, and the like. As a result, it is possible to more accurately specify the timing of facial expression change and extract an analysis target.

本発明は、顔の表情変化の動的情報に基づいて肌の特徴を解析する肌解析システムであって、
前記表情変化の過程を表す複数の画像を取得する画像取得手段と、
前記複数の画像について、前記顔の複数の顔部品座標を検出する顔部品座標検出手段と、
前記複数の画像について、前記顔部品座標間の距離を算出する距離算出手段と、
前記顔部品座標間の距離の時系列の変化に基づいて、前記複数の画像から、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定し、前記表情変化が開始する画像及び前記表情変化が終了する画像の間の画像を解析対象として抽出する解析対象抽出手段と、
前記解析対象抽出手段において抽出された画像を用いて、肌の特徴を解析する解析手段と、を備えることを特徴とする。
The present invention is a skin analysis system for analyzing skin characteristics based on dynamic information of facial expression changes,
an image acquiring means for acquiring a plurality of images representing the process of facial expression change;
face part coordinate detection means for detecting a plurality of face part coordinates of the face for the plurality of images;
distance calculation means for calculating the distance between the facial part coordinates for the plurality of images;
Based on the time-series change in the distance between the facial part coordinates, an image where the expression change starts and an image where the expression change ends are specified from the plurality of images, and the image where the expression change starts and the image where the expression change ends. an analysis target extracting means for extracting as an analysis target an image between images in which the facial expression change ends;
and analysis means for analyzing the characteristics of the skin using the image extracted by the analysis target extraction means.

表情変化の過程を表す複数の画像から、表情変化が開始する画像及び表情変化が終了する画像を特定し、解析対象となる画像の抽出を行うことができ、精度の高い肌解析を行うことができる。 From multiple images showing the process of facial expression changes, it is possible to identify the image where facial expression changes start and the image where facial expression changes end, extract images to be analyzed, and perform highly accurate skin analysis. can.

本発明の実施形態1において被撮影者が再現する表情の模式図である。FIG. 2 is a schematic diagram of a facial expression reproduced by a person to be photographed in Embodiment 1 of the present invention; 本発明の実施形態1に係る肌解析システムの機能ブロック図である。1 is a functional block diagram of a skin analysis system according to Embodiment 1 of the present invention; FIG. 本発明の実施形態1に係る肌解析方法を示すフローチャートである。4 is a flowchart showing a skin analysis method according to Embodiment 1 of the present invention; 本発明の実施形態1における画像取得から解析対象の抽出までの処理を示すフローチャートである。4 is a flow chart showing processing from image acquisition to analysis target extraction in Embodiment 1 of the present invention. 本発明の実施形態1における被撮影者の撮影方向を示す図である。FIG. 2 is a diagram showing the photographing direction of a person to be photographed in Embodiment 1 of the present invention; 本発明の実施形態1における顔部品座標間の距離を示す図である。FIG. 4 is a diagram showing distances between facial part coordinates according to Embodiment 1 of the present invention; 本発明の実施形態1における解析対象抽出工程の処理を示すフローチャートである。4 is a flow chart showing processing of an analysis target extraction step in Embodiment 1 of the present invention. 本発明の実施形態2における顔部品座標間の距離の一例を示す図である。FIG. 10 is a diagram showing an example of distances between facial part coordinates according to Embodiment 2 of the present invention; 本発明の実施形態2における基準距離の一例を示す図である。It is a figure which shows an example of the reference distance in Embodiment 2 of this invention.

<実施形態1>
以下、本発明の一実施形態について、図面を参照して詳細に説明する。なお、以下において顔部品座標とは、顔の動きを追跡して表情の変化を解析する為の、顔上の部品の位置を示す座標である。本発明において部品とは、目、鼻、顔の輪郭、等のような任意の特徴を示す。例えば、唇輪郭の上下端の点や左右端等の点を顔部品座標として検出し、用いることができる。
<Embodiment 1>
An embodiment of the present invention will be described in detail below with reference to the drawings. In the following description, facial part coordinates are coordinates indicating the positions of parts on the face for tracking facial movements and analyzing changes in facial expressions. A part in the present invention refers to any feature such as eyes, nose, facial contours, and the like. For example, it is possible to detect and use the upper and lower edge points and the left and right edge points of the lip contour as facial part coordinates.

また、解析対象とは、肌解析の対象とする画像の集合である。本実施形態においては、表情変化が開始する画像と表情変化が終了する画像を特定し、その間に含まれる表情変化の最中の画像を用いて動きを解析することにより肌解析を行う。 Also, the analysis target is a set of images to be subjected to skin analysis. In the present embodiment, skin analysis is performed by specifying an image at which facial expression change starts and an image at which facial expression change ends, and analyzing the movement using the image in the middle of facial expression change included between them.

なお、本実施形態においては、表情変化として頬部分の肌を縦方向に伸縮させる縦方向表情変化の過程を表す動画と、頬部分の肌を横方向に伸縮させる横方向表情変化の過程を表す動画と、をそれぞれ取得し、その各々について解析対象を抽出して肌解析を行う。 In the present embodiment, a moving image showing the process of vertical facial expression change in which cheek skin is stretched and contracted in the vertical direction and a horizontal facial expression process in which cheek skin is stretched and contracted in the horizontal direction are shown. A moving image and are acquired respectively, and skin analysis is performed by extracting an analysis target for each of them.

図1は本実施形態において被撮影者が再現する表情を示す図である。本実施形態においては、被撮影者はここに示すように、無表情(図1(a))と、口を縦に開く表情(以下「あ」の表情、図1(b))と、口を横に開く表情(以下「い」の表情、図1(c))と、口をすぼめる表情(以下「う」の表情、図1(d))と、の4つの表情をとる。 FIG. 1 is a diagram showing facial expressions reproduced by a person to be photographed in this embodiment. In this embodiment, as shown here, the person to be photographed has an expressionless expression (Fig. 1(a)), an expression with the mouth open vertically (hereinafter referred to as an "a" expression, Fig. 1(b)), and an expression with the mouth open. There are four facial expressions: a facial expression of opening the mouth to the side (“I” facial expression, FIG. 1(c)) and a facial expression of pursed lips (“U” facial expression, FIG. 1(d)).

本実施形態においては、縦方向表情変化として、無表情、「あ」の表情、「う」の表情、「あ」の表情、「う」の表情、無表情、の順に被撮影者が表情を再現する。即ち、無表情から「あ」の表情への縦方向表情変化と、「あ」の表情から「う」の表情への縦方向表情変化と、「う」の表情から「あ」の表情への縦方向表情変化と、「う」の表情から無表情への縦方向表情変化と、を含む動画を取得して肌解析を行う。 In the present embodiment, as the facial expression changes in the vertical direction, the person to be photographed changes facial expressions in the following order: expressionless, "ah" expression, "uh" expression, "ah" expression, "uh" expression, and expressionless expression. Reproduce. That is, the vertical facial expression change from expressionless to "a" facial expression, the vertical facial expression change from "a" facial expression to "u" facial expression, and the vertical facial expression change from "u" facial expression to "a" facial expression Skin analysis is performed by acquiring a moving image including a vertical facial expression change and a vertical facial expression change from an "up" expression to an expressionless expression.

また、横方向表情変化として、無表情、「い」の表情、「う」の表情、「い」の表情、「う」の表情、無表情、の順に被撮影者が表情を再現する。即ち、無表情から「い」の表情への横方向表情変化と、「い」の表情から「う」の表情への横方向表情変化と、「う」の表情から「い」の表情への横方向表情変化と、「う」の表情から無表情への横方向表情変化と、を含む動画を取得して肌解析を行う。 In addition, as the change in facial expression in the horizontal direction, the photographed person reproduces facial expressions in the following order: expressionless, "I" expression, "U" expression, "I" expression, "U" expression, and expressionless expression. That is, the horizontal facial expression change from expressionless to "i" facial expression, the lateral facial expression change from "i" facial expression to "u" facial expression, and the horizontal facial expression change from "u" facial expression to "i" facial expression Skin analysis is performed by acquiring a moving image including a horizontal facial expression change and a horizontal facial expression change from a "U" facial expression to an expressionless facial expression.

図2は、本実施形態に係る肌解析システムの機能ブロック図である。本実施形態に係る肌解析システムは、サーバ装置1と、端末装置2と、が通信可能に構成される。なお、図2における各手段間の矢印は、情報の流れや指示の方向を表している。 FIG. 2 is a functional block diagram of the skin analysis system according to this embodiment. The skin analysis system according to this embodiment is configured such that a server device 1 and a terminal device 2 can communicate with each other. The arrows between each means in FIG. 2 indicate the direction of information flow and instructions.

サーバ装置1は、縦方向表情変化解析対象抽出部と、横方向表情変化解析対象抽出部と、記憶手段16と、解析手段17と、を備える。また、縦方向表情変化解析対象抽出部及び横方向表情変化解析対象抽出部はそれぞれ、画像取得手段11と、顔部品座標検出手段12と、距離算出手段13と、表情動作評価手段14と、解析対象抽出手段15と、を備える。 The server device 1 includes a vertical facial expression change analysis target extraction unit, a horizontal facial expression change analysis target extraction unit, storage means 16 , and analysis means 17 . Further, the vertical facial expression change analysis target extraction unit and the horizontal facial expression change analysis target extraction unit are respectively an image acquisition unit 11, a facial part coordinate detection unit 12, a distance calculation unit 13, a facial expression motion evaluation unit 14, and an analysis unit. and a target extraction means 15 .

記憶手段16は、画像取得手段11が取得した画像の情報、顔部品座標検出手段12が検出した顔部品座標、距離算出手段13が算出した顔部品座標間の距離、解析対象抽出手段15が特定した表情変化が開始する画像及び終了する画像の情報、等を記憶する。 The storage means 16 stores the information of the image acquired by the image acquisition means 11, the facial part coordinates detected by the facial part coordinate detection means 12, the distance between the facial part coordinates calculated by the distance calculation means 13, the analysis object extraction means 15 specified It stores information such as the image at which the facial expression change starts and the image at which it ends.

サーバ装置1としては、CPU(Central Processing Unit)等の演算装置、RAM(Random Access Memory)等の主記憶装置、HDD(Hard Disk Drive)やSSD(Solid State Drive)、フラッシュメモリ等の補助記憶装置、端末装置2との通信手段を含む種々の入出力装置等を備えた、サーバ機器等の一般的なコンピュータ装置を利用することができる。より詳細には、補助記憶装置に予め、あるいは記録媒体からの複製等によって、後述する各手段としてサーバ装置1を動作させるためのプログラムを格納しておき、それらのプログラムを主記憶装置上に展開して演算装置による演算を行い、入出力手段の制御等を行うことで、コンピュータ装置を本実施形態に係る肌解析システムにおけるサーバ装置1として利用することができる。 The server device 1 includes an arithmetic unit such as a CPU (Central Processing Unit), a main storage device such as a RAM (Random Access Memory), an auxiliary storage device such as a HDD (Hard Disk Drive), an SSD (Solid State Drive), and a flash memory. , a general computer device such as a server device equipped with various input/output devices including communication means with the terminal device 2 can be used. More specifically, programs for operating the server device 1 as each means described later are stored in the auxiliary storage device in advance or by duplication from a recording medium, etc., and those programs are developed on the main storage device. The computer device can be used as the server device 1 in the skin analysis system according to the present embodiment by performing calculations by the calculation device and controlling the input/output means.

端末装置2は、顔の表情変化の過程を撮影する撮像手段21と、撮影した画像や肌解析結果等を表示する表示手段22と、を備える。端末装置2としては、演算装置、主記憶装置、補助記憶装置、サーバ装置1との通信手段、デジタルカメラ等の撮像手段や、種々の入出力装置等を備えた、一般的なコンピュータ装置を利用することができる。例えば、カメラ機能を備えるタブレット端末等を用いてもよい。具体的には、例えば、後述する各手段として端末装置を動作させるための専用のアプリケーションソフトをインストールすることにより、端末装置を本実施形態に係る肌解析システムにおける端末装置2として利用することができる。 The terminal device 2 includes an imaging unit 21 that captures a process of facial expression changes, and a display unit 22 that displays the captured image, skin analysis results, and the like. As the terminal device 2, a general computer device equipped with an arithmetic device, a main memory device, an auxiliary memory device, a communication means with the server device 1, an imaging means such as a digital camera, various input/output devices, etc. is used. can do. For example, a tablet terminal or the like having a camera function may be used. Specifically, for example, the terminal device can be used as the terminal device 2 in the skin analysis system according to the present embodiment by installing dedicated application software for operating the terminal device as each means described later. .

図3は、肌解析システムによる、肌解析方法を示すフローチャートである。まず、ステップS11において、縦方向表情変化解析対象抽出部が縦方向表情変化の過程を表す動画について解析対象を抽出する。次に、ステップS12において、横方向表情変化解析対象抽出部が横方向表情変化の過程を表す動画について解析対象を抽出する。なお、本実施形態においては、ステップS11の縦方向表情変化解析対象抽出工程の次にステップS12の横方向表情変化解析対象抽出工程を行う構成を示すが、縦方向表情変化解析対象抽出工程及び横方向表情変化解析対象抽出工程を行う順番に制限はなく、これらの順番を逆転させてもよい。 FIG. 3 is a flow chart showing a skin analysis method by the skin analysis system. First, in step S11, the vertical facial expression change analysis target extraction unit extracts an analysis target for a moving image representing the process of vertical facial expression change. Next, in step S12, the horizontal facial expression change analysis target extracting unit extracts an analysis target for the moving image representing the process of horizontal facial expression change. In this embodiment, the vertical expression change analysis target extraction step of step S11 is followed by the horizontal expression change analysis target extraction step of step S12. There are no restrictions on the order in which the directional expression change analysis target extraction step is performed, and these orders may be reversed.

ステップS12が終了すると、ステップS11及びステップS12で抽出した解析対象を用いて解析手段17が解析を行い、解析結果を端末装置2に送信し、端末装置2において表示手段22が解析結果を表示して処理を終了する。ここで、ステップS13の解析工程においては、解析結果を記憶手段16が記憶してもよい。 When step S12 ends, the analysis means 17 performs analysis using the analysis targets extracted in steps S11 and S12, transmits the analysis results to the terminal device 2, and the display means 22 displays the analysis results on the terminal device 2. to end the process. Here, in the analysis step of step S13, the storage means 16 may store the analysis result.

図4は、図3のステップS11及びステップS12における縦方向表情変化解析対象抽出工程及び横方向表情変化解析対象抽出工程における処理を示すフローチャートである。なお、これらの工程は縦方向表情変化解析対象抽出部及び横方向表情変化解析対象抽出部においてそれぞれ実行される。つまり、縦方向表情変化解析対象抽出部においては縦方向表情変化を含む動画を、横方向表情変化解析対象抽出部においては横方向表情変化を含む動画をそれぞれ取得し、それぞれの動画について解析対象が抽出される。 FIG. 4 is a flow chart showing processing in the vertical facial expression change analysis target extraction step and the horizontal facial expression change analysis target extraction step in steps S11 and S12 of FIG. These steps are executed by the vertical facial expression change analysis target extraction unit and the horizontal facial expression change analysis target extraction unit, respectively. In other words, the vertical facial expression change analysis target extraction unit acquires videos including vertical facial expression changes, and the horizontal facial expression change analysis target extraction unit acquires videos including horizontal facial expression changes. extracted.

まず、ステップS21の画像取得工程において、画像取得手段11は、動画の撮影を促す情報を表示手段22に表示させ、撮像手段21が動画の撮影を行う。画像取得手段11は撮像手段21によって撮影された動画の情報を取得し、記憶手段16に記録する。図5は、本実施形態における動画の撮影方向を示す図である。本実施形態においては、画像取得手段11は、被撮影者の顔を通る鉛直方向の軸まわりに、正面を0度として20~30度の範囲で回転した方向から撮像手段21が撮影した動画の情報を取得する。 First, in the image acquisition step of step S21, the image acquisition unit 11 causes the display unit 22 to display information prompting the user to shoot a moving image, and the imaging unit 21 shoots the moving image. The image acquisition means 11 acquires information on the moving image captured by the imaging means 21 and records it in the storage means 16 . FIG. 5 is a diagram showing directions in which moving images are captured in this embodiment. In the present embodiment, the image acquiring means 11 captures the moving image captured by the imaging means 21 from a direction rotated in a range of 20 to 30 degrees with the front being 0 degrees around the vertical axis passing through the face of the subject. Get information.

ステップS21の画像取得工程において撮像手段21による撮影と画像取得手段11による動画の取得が完了すると、顔部品座標検出手段12が、ステップS22の顔部品座標検出工程において、ステップS21で取得した動画に含まれる顔の顔部品座標をフレームごとに複数検出する。ここで、動画に含まれる表情変化に連動して距離が変化する2点の組を少なくとも1組検出する。特に、表情変化の際の頬部分の肌の伸縮に連動して距離が変化する2点の組を少なくとも1組検出することが好ましい。これにより、頬部分の肌を伸縮させる表情変化が開始する画像及び表情変化が終了する画像をより正確に特定することができる。 When the photographing by the imaging means 21 and the acquisition of the moving image by the image acquiring means 11 are completed in the image acquiring step of step S21, the face part coordinate detecting means 12 detects the moving image acquired in step S21 in the face part coordinate detecting step of step S22. Multiple face part coordinates of the included face are detected for each frame. Here, at least one set of two points whose distance changes in association with changes in facial expression included in the moving image is detected. In particular, it is preferable to detect at least one set of two points whose distance changes in conjunction with expansion and contraction of the cheek skin when the facial expression changes. As a result, it is possible to more accurately specify the image in which the facial expression change that expands and contracts the skin of the cheek portion starts and the image in which the facial expression change ends.

本実施形態においては、縦方向表情変化解析対象抽出部では、唇の上下端の2点と、こめかみ及びあごの2点と、を、横方向表情変化解析対象抽出部では唇輪郭の上下端の2点及び唇輪郭の左右端の2点を、それぞれ組として検出する。 In this embodiment, the vertical facial expression change analysis target extraction unit extracts two points at the upper and lower ends of the lips, the temple and the chin, and the horizontal facial expression change analysis target extraction unit extracts the upper and lower ends of the lip contour. Two points and two points at the left and right ends of the lip contour are detected as a set.

ここで、唇の上下端の2点と、こめかみ及びあごの2点と、は、いずれも頬部分の肌を縦方向に伸ばした時に距離が大きくなり、頬部分の肌を縦方向に縮めた時に距離が小さくなる。これにより、各種の縦方向表情変化のタイミングを特定できる。また、唇輪郭の左右端の2点は、頬部分の肌を横方向に伸ばした時に距離が小さくなり、頬部分の肌を横方向に縮めた時に距離が大きくなる。更に、唇輪郭の上下端の2点の距離を用いることで、例えば唇輪郭の左右端の2点の距離変化が小さい「う」の表情から無表情への表情変化等についても、表情変化の開始する画像及び表情変化の終了する画像を特定することができ、各種の横方向表情変化のタイミングを特定できる。 Here, the distance between the two points at the upper and lower ends of the lips and the two points at the temple and chin increased when the cheek skin was stretched in the vertical direction, and the cheek skin was shortened in the vertical direction. sometimes the distance becomes smaller. This makes it possible to specify the timing of various vertical facial expression changes. Also, the distance between the two points on the left and right ends of the lip contour becomes smaller when the skin of the cheek portion is stretched in the horizontal direction, and the distance becomes larger when the skin of the cheek portion is contracted in the horizontal direction. Furthermore, by using the distance between the two points at the upper and lower ends of the lip contour, for example, the change in the distance between the two points at the left and right ends of the lip contour is small. The starting image and the ending image of facial expression change can be specified, and the timing of various lateral facial expression changes can be specified.

このように、顔部品座標検出工程においては、頬部分の肌の伸縮に連動して距離が変化する2点を組として検出することが好ましい。また、このような2点の組を複数検出し、その距離を用いることで、複数種類の表情変化を含む画像に対して、その各種の表情変化の開始する画像及び表情変化の終了する画像を特定することができる。 In this manner, in the face part coordinate detection step, it is preferable to detect a set of two points whose distance changes in conjunction with expansion and contraction of the cheek skin. In addition, by detecting a plurality of pairs of such two points and using the distances thereof, an image at which various facial expression changes start and an image at which facial expression changes end are determined for an image including a plurality of facial expression changes. can be specified.

なお、顔部品座標の検出には、一般に知られている任意の方法を用いることができる。例えば、一般に販売されている開発キットを利用して開発したアプリケーションソフトを用いてもよい。開発キットとしては、例えば、Face Sensing Engine(登録商標)(https://www.oki.com/jp/fse/function/#fp,最終閲覧日:平成29年11月16日)等を利用することができる。 Any generally known method can be used to detect facial part coordinates. For example, application software developed using a commercially available development kit may be used. As a development kit, for example, Face Sensing Engine (registered trademark) (https://www.oki.com/jp/fse/function/#fp, last viewed: November 16, 2017), etc. are used. be able to.

ステップS22の顔部品座標検出工程において動画全体について顔部品座標の検出が終了すると、ステップS23において、距離算出手段13が、顔部品座標間の距離を算出する。距離の算出は動画全体の各フレームについて行われ、その算出結果が記憶手段16に記憶される。 When detection of face part coordinates for the entire moving image is completed in the face part coordinate detection step of step S22, the distance calculation means 13 calculates the distance between the face part coordinates in step S23. Distance calculation is performed for each frame of the entire moving image, and the calculation result is stored in the storage means 16 .

図6は、本実施形態において用いる、顔部品座標間の距離を示す図である。図6(a)は縦方向表情変化解析対象抽出部で用いられる顔部品座標を、図6(b)は横方向表情変化解析対象抽出部で用いられる顔部品座標をそれぞれ示す。ここに示すように、本実施形態においては、縦方向表情変化解析対象抽出部では唇の上下端の2点間の距離及びこめかみと顎の2点間の距離を、横方向表情変化解析対象抽出部では唇輪郭の上下端の2点間の距離及び唇輪郭の左右端の2点間の距離を、それぞれ算出する。このように、解析したい一連の表情変化に応じて、用いる顔部品座標を設定することにより、少ない情報で正確に表情変化の開始及び終了を特定することができる。 FIG. 6 is a diagram showing distances between facial part coordinates used in this embodiment. FIG. 6A shows facial part coordinates used in the vertical facial expression change analysis target extraction unit, and FIG. 6B shows facial part coordinates used in the horizontal facial expression change analysis target extraction unit. As shown here, in the present embodiment, the vertical facial expression change analysis target extracting unit extracts the horizontal facial expression change analysis target by extracting the distance between two points at the upper and lower ends of the lips and the distance between the two points on the temple and the chin. In part, the distance between two points on the upper and lower ends of the lip contour and the distance between two points on the left and right ends of the lip contour are calculated. In this way, by setting the facial part coordinates to be used according to a series of facial expression changes to be analyzed, it is possible to accurately identify the start and end of facial expression changes with a small amount of information.

ステップS24の表情動作評価工程においては、ステップS23において算出された顔部品座標間の距離の変化に基づいて表情変化の大きさを評価する。具体的には、例えば、被撮影者が無表情を再現した時の顔部品座標間の距離と、無表情以外の表情(「あ」の表情、「い」の表情、「う」の表情)を再現した時の顔部品座標間の距離と、の比を表情変化の評価値として算出することができる。このように比を用いることで、顔の大きさ等の個人差の影響を小さくすることができる。 In the facial expression motion evaluation process of step S24, the magnitude of facial expression change is evaluated based on the change in the distance between the facial part coordinates calculated in step S23. Specifically, for example, the distance between the coordinates of the facial parts when the person to be photographed reproduces an expressionless expression, and the expressions other than expressionlessness ("A" expression, "I" expression, "U" expression) can be calculated as an evaluation value of facial expression change. By using the ratio in this way, the influence of individual differences such as face size can be reduced.

次に、ステップS25において、ステップS24で算出した評価値を基準値と比較し、基準値を上回った場合にはステップS26の解析対象抽出工程に進む。基準値に満たない場合には、ステップS21の画像取得工程に戻って再度動画の撮影を促す等の方法により再度動画を取得する。再度取得した動画については、ステップS22~ステップS25を行い、顔部品座標検出工程と、距離算出工程と、表情動作評価工程と、のそれぞれの処理が行われる。 Next, in step S25, the evaluation value calculated in step S24 is compared with a reference value, and if the evaluation value exceeds the reference value, the process proceeds to step S26 for extracting an analysis target. If it does not meet the reference value, the process returns to the image acquisition step of step S21, and the moving image is acquired again by a method such as prompting the user to shoot the moving image again. Steps S22 to S25 are performed for the reacquired moving image, and each of the facial part coordinate detection process, the distance calculation process, and the facial expression action evaluation process is performed.

なお、本実施形態においては、取得する動画には複数の表情変化が含まれるため、表情動作評価工程においては、動画に含まれる全ての表情変化について基準値との比較を行い、全ての表情変化の評価値が基準値を上回った場合に解析対象抽出工程に進む。 In this embodiment, since a moving image to be acquired includes a plurality of facial expression changes, in the facial expression action evaluation process, all facial expression changes included in the moving image are compared with a reference value. When the evaluation value of exceeds the reference value, proceed to the analysis target extraction step.

ステップS26においては、解析対象抽出手段15が解析対象の抽出を行う。ここで、図4に示す各々の工程は全て、動画全体への処理が完了してから次の工程に移る。即ち、例えば、ステップS24の表情動作評価工程は、ステップS23の距離算出工程において動画を構成する全てのフレームについて顔部品座標の距離の算出が完了してから開始する。 In step S26, the analysis target extracting means 15 extracts the analysis target. Here, each process shown in FIG. 4 moves to the next process after the processing of the entire moving image is completed. That is, for example, the facial expression action evaluation process of step S24 is started after the calculation of the distances of the facial part coordinates is completed for all the frames constituting the moving image in the distance calculation process of step S23.

図7は、解析対象抽出工程における処理の一例を示すフローチャートである。なお、図7に示す処理は、組として検出された2点の顔部品座標間の距離それぞれについて行われる処理である。本実施形態においては、顔部品座標間の距離を複数用いて解析対象の抽出を行うため、組として検出された2点の顔部品座標間の距離それぞれについてこの処理を行い、その結果の組み合わせによって解析対象を抽出する。具体的には、組として検出された2点の顔部品座標間の距離を用いて解析対象を抽出し、その際に抽出できなかった表情変化に対して他の2点の顔部品座標間の距離を用いて図7に示す処理を行うことで解析対象を抽出することができる。 FIG. 7 is a flowchart showing an example of processing in the analysis target extraction step. Note that the processing shown in FIG. 7 is processing performed for each distance between two points of facial part coordinates detected as a set. In this embodiment, since a plurality of distances between facial part coordinates are used to extract an analysis target, this process is performed for each distance between two points of facial part coordinates detected as a set, and the combination of the results Extract the analysis target. Specifically, the analysis target is extracted using the distance between the coordinates of the two facial parts detected as a pair, and the facial expression changes that could not be extracted at that time are calculated using the distance between the coordinates of the other two facial parts. Analysis targets can be extracted by performing the processing shown in FIG. 7 using the distance.

解析対象抽出手段15は、まず、ステップS31において、フレーム間の顔部品座標間の距離の差分(変化量)の絶対値を算出する。次に、ステップS32において、顔部品座標間の距離の差分が基準値より大きい頂点(極大点)を検出する。すなわち、動画に含まれる複数の表情変化の各々の過程において、最も大きく顔部品座標間の距離が変化した点を検出する。 First, in step S31, the analysis target extracting means 15 calculates the absolute value of the difference (change amount) of the distance between the facial part coordinates between the frames. Next, in step S32, a vertex (maximum point) having a distance difference between facial part coordinates larger than a reference value is detected. That is, in each process of a plurality of facial expression changes included in the moving image, the point at which the distance between the facial part coordinates changes the most is detected.

ステップS33においては、ステップS32で検出した頂点の前後で顔部品座標間の距離の差分が基準値を下回るフレームを特定する。これにより、ステップS32で検出した頂点の直前に顔部品座標間の距離の差分が基準値を下回ったフレームを表情変化が開始したフレームとして特定し、同様にして頂点の直後に顔部品座標間の距離の差分が基準値を下回ったフレームを表情変化が終了したフレームとして特定し、記憶手段16に記録する。これにより、解析対象抽出手段15は、表情変化の開始したフレームと、終了したフレームと、の間に含まれるフレームを解析対象として抽出する。 In step S33, a frame is specified in which the difference in distance between facial part coordinates before and after the vertex detected in step S32 is less than a reference value. As a result, the frame in which the difference in the distance between the facial part coordinates is less than the reference value immediately before the vertex detected in step S32 is specified as the frame in which the facial expression change starts. A frame in which the difference in distance is less than the reference value is specified as a frame in which the change in facial expression has ended, and is recorded in the storage means 16.例文帳に追加As a result, the analysis target extracting means 15 extracts the frames included between the frame at which the facial expression change started and the frame at which the facial expression change ended as the analysis target.

なお、図7に示した処理を行う際には、適宜フィルタリング等を行ってもよい。例えば、ステップS31において、顔部品座標間の距離の時間変化(各フレームにおける顔部品座標間の距離の変化)に対して低域通過フィルタ(LPF:Low Pass Filter)を適用してノイズ除去を行った上で、フレーム間の差分を算出してもよい。この他には、ノイズ除去のために、ステップS31において算出されたフレーム間の顔部品座標間の距離の差分の絶対値について、所定の値に満たない部分を0とする処理等を行うことができる。 It should be noted that, when performing the processing shown in FIG. 7, filtering or the like may be performed as appropriate. For example, in step S31, noise is removed by applying a low-pass filter (LPF) to temporal changes in distance between facial part coordinates (change in distance between facial part coordinates in each frame). After that, the difference between frames may be calculated. In addition, in order to remove noise, the absolute value of the difference in the distance between the facial part coordinates between the frames calculated in step S31 may be set to 0 when it is less than a predetermined value. can.

以上のように、複数の画像から顔の顔部品座標を検出し、顔部品座標間の距離に基づいて表情変化が開始する画像及び表情変化が終了する画像を特定して、その間に含まれる画像を解析対象として抽出することにより、所定の表情変化を含むフレームを精度よく特定できる。これにより、所定の表情変化の際の肌の運動特性をより正確に解析することができ、肌解析の精度を上げることができる。 As described above, facial part coordinates of a face are detected from a plurality of images, and based on the distance between the facial part coordinates, an image where expression change starts and an image where expression change ends are specified, and images included in between are specified. is extracted as an analysis target, it is possible to accurately identify a frame including a predetermined facial expression change. As a result, it is possible to more accurately analyze the motion characteristics of the skin when a predetermined facial expression changes, and to improve the accuracy of the skin analysis.

更に、顔部品座標として頬部分の肌の収縮に連動して距離が変化する2点を2組以上検出し、各組の距離を組み合わせて用いることで、複数種類の表情変化を連続して行う様子を撮影した複数の画像について、各種の表情変化の開始する画像及び表情変化の終了する画像を特定することができる。これにより、複数種類の表情変化を含む一連の表情変化に対して、そこに含まれる各種の表情変化のタイミングを一律の処理によって特定することができる。 Furthermore, by detecting two or more sets of two points whose distance changes in conjunction with contraction of the cheek skin as facial part coordinates, and using the distances of each set in combination, multiple types of facial expression changes are continuously performed. It is possible to specify an image in which various facial expression changes start and an image in which various facial expression changes end from among a plurality of images of the situation. Thus, for a series of facial expression changes including a plurality of facial expression changes, the timing of various facial expression changes included therein can be specified by uniform processing.

本実施形態においては、例えば、無表情から「あ」の表情への縦方向表情変化と、「あ」の表情から「う」の表情への縦方向表情変化と、「う」の表情から「あ」の表情への縦方向表情変化と、「う」の表情から無表情への縦方向表情変化と、を連続して行う表情変化を撮影した動画に対して、図4に示した処理を行うことができる。これにより、一律の処理で各種の表情変化のタイミングをそれぞれ特定することができる。 In this embodiment, for example, a vertical facial expression change from an expressionless expression to an "ah" facial expression, a vertical facial expression change from an "ah" facial expression to an "uh" facial expression, and a vertical facial expression change from an "ah" facial expression to an "uh" facial expression The processing shown in FIG. 4 is performed on a moving image of facial expression changes in which a vertical facial expression change to a facial expression of "Ah" and a vertical facial expression change from a facial expression of "U" to expressionless are performed continuously. It can be carried out. As a result, it is possible to specify the timings of various facial expression changes through uniform processing.

また、本発明によれば、音声等の画像以外の情報を必要としないため、被撮影者への負担が小さく、集音器等を用いなくても解析対象を抽出することができる。 Further, according to the present invention, since information such as sound other than the image is not required, the burden on the person to be photographed is small, and the analysis target can be extracted without using a sound collector or the like.

<実施形態2>
以下、本発明の他の実施形態について説明する。なお、実施形態1と同様の構成については同一の符号を付して説明を省略する。本実施形態では、顔部品座標として他の点を用いる構成を例示する。また、本実施形態では、顔の大きさ等の個人差や撮影時の倍率、カメラとの距離等による影響を減らすために、顔部品座標間の距離を所定の基準で標準化した値を用いて解析対象の抽出を行う。
<Embodiment 2>
Other embodiments of the present invention will be described below. In addition, the same code|symbol is attached|subjected about the structure similar to Embodiment 1, and description is abbreviate|omitted. In this embodiment, a configuration using other points as facial part coordinates is exemplified. Further, in the present embodiment, in order to reduce the effects of individual differences in face size and the like, magnification at the time of photographing, distance from the camera, etc., the distance between face part coordinates is standardized according to a predetermined standard. Extract the analysis target.

図8は、本実施形態において縦方向表情変化の解析対象抽出に用いられる顔部品座標の一例を示す図である。このように、本実施形態では、顔部品座標検出工程において、顔部品座標検出手段12が、唇輪郭の上下端の点に加え、左右の頬のそれぞれ複数の点及び顎部の点の座標を顔部品座標として検出する。そして、距離算出工程(図4のS23)において、距離算出手段13が、左右の頬の各点と顎部の点との間の距離をそれぞれ算出して、その算出結果に基づいて解析対象が抽出される。 FIG. 8 is a diagram showing an example of facial part coordinates used for extracting an analysis target for facial expression changes in the vertical direction in this embodiment. As described above, in the present embodiment, in the face part coordinate detection step, the face part coordinate detection means 12 detects the coordinates of a plurality of points on each of the left and right cheeks and the points on the chin in addition to the points on the upper and lower ends of the lip contour. Detect as facial part coordinates. Then, in the distance calculation step (S23 in FIG. 4), the distance calculation means 13 calculates the distance between each point on the left and right cheeks and the point on the chin, and based on the calculation result, the analysis target is extracted.

このように、顔の左右からそれぞれ複数の点を検出し、表情変化に伴って距離が変化する2点の組を複数用いることで、より精度よく解析対象を抽出することができる。また、横方向表情変化についても同様に、顔部品座標の組を複数用いて解析対象の抽出を行ってもよい。 In this way, by detecting a plurality of points from the left and right sides of the face and using a plurality of sets of two points whose distance changes according to the change in facial expression, it is possible to extract the analysis target with higher accuracy. Similarly, for lateral facial expression changes, a plurality of pairs of facial part coordinates may be used to extract analysis targets.

また、本実施形態では、距離算出工程において、顔部品座標間の距離を標準化する為の基準距離を算出する基準距離算出工程が実行される。図9は、本実施形態において用いることができる、基準距離の例を示す図である。本実施形態では、左右の目の距離(図示例における「A」の距離)を基準距離として用いて、顔部品座標間の距離を標準化する。具体的には、例えば、Aの距離を算出し、顔部品座標間の距離を全てAで除算する等の方法で、顔部品座標間の距離を標準化することができる。 Further, in the present embodiment, in the distance calculation process, a reference distance calculation process for calculating a reference distance for standardizing the distance between facial part coordinates is executed. FIG. 9 is a diagram showing examples of reference distances that can be used in this embodiment. In this embodiment, the distance between the left and right eyes (the distance of "A" in the illustrated example) is used as the reference distance to standardize the distance between the facial part coordinates. Specifically, for example, the distance between the facial part coordinates can be standardized by calculating the distance of A and dividing all the distances between the facial part coordinates by A.

この他、左右の目を結ぶ線分から顎先に降ろした垂線の長さ(図示例における「B」の距離)等、個人差等による影響を是正できると考えられる任意の距離を、基準距離として用いることが好ましい。また、基準距離を複数組み合わせて、顔部品座標間の距離を標準化する構成としてもよい。なお、基準距離としては、顔上の任意の特徴を示す点に関する距離を用いればよく、特に制限はない。 In addition, an arbitrary distance that is considered to be able to correct the influence of individual differences, such as the length of the vertical line drawn from the line connecting the left and right eyes to the chin (distance "B" in the example shown), is used as the reference distance. It is preferable to use Further, a configuration may be adopted in which a plurality of reference distances are combined to standardize the distance between facial part coordinates. As the reference distance, it is sufficient to use a distance relating to a point indicating an arbitrary feature on the face, and there is no particular limitation.

そして、表情動作評価工程(図4のS24)~解析対象抽出工程(図4のS26)においては、顔部品座標間の距離を基準距離によって標準化した値を用いて、解析対象の抽出が行われる。ここでの処理は実施形態1と同様であり、本実施形態では、顔部品座標間の距離の代わりに、基準距離によって標準化された値を用いる。 Then, in the facial expression action evaluation step (S24 in FIG. 4) to the analysis target extraction step (S26 in FIG. 4), the analysis target is extracted using the value obtained by standardizing the distance between the facial part coordinates by the reference distance. . The processing here is the same as in the first embodiment, and in this embodiment, instead of the distance between facial part coordinates, a value standardized by a reference distance is used.

以上のようにして、本実施形態では、顔部品座標間の距離を標準化した値を用いて、解析対象を抽出する。このようにすることで、個人差の影響を低減してより精度よく解析対象を抽出することができる。 As described above, in the present embodiment, an analysis target is extracted using a value obtained by standardizing the distance between facial part coordinates. By doing so, it is possible to reduce the influence of individual differences and extract the analysis target with higher accuracy.

なお、上記の各実施形態において説明した構成は本発明の一例であり、本発明はこれらの実施形態に限定されない。例えば、用いる顔部品座標の内容や数は任意に決定すればよく、より効果的に距離の変化を分析できるように構成することが好ましい。また、各工程の実行順序等も任意に変更してよく、例えば一部の処理を並行して実行してもよい。この他、本発明の趣旨を変更しない範囲で任意に構成を変更することができる。 Note that the configurations described in each of the above embodiments are examples of the present invention, and the present invention is not limited to these embodiments. For example, the content and number of facial part coordinates to be used may be arbitrarily determined, and it is preferable to configure the system so that the change in distance can be analyzed more effectively. Also, the execution order of each process may be changed arbitrarily, and for example, some processes may be executed in parallel. In addition, the configuration can be arbitrarily changed without changing the gist of the present invention.

1 サーバ装置
11 画像取得手段
12 顔部品座標検出手段
13 距離算出手段
14 表情動作評価手段
15 解析対象抽出手段
16 記憶手段
17 解析手段
2 端末装置
21 撮像手段
22 表示手段
1 Server Device 11 Image Acquisition Means 12 Face Part Coordinate Detection Means 13 Distance Calculation Means 14 Facial Expression Action Evaluation Means 15 Analysis Object Extraction Means 16 Storage Means 17 Analysis Means 2 Terminal Device 21 Imaging Means 22 Display Means

Claims (12)

顔の表情変化の動的情報に基づいて肌の特徴を解析する肌解析方法であって、
前記表情変化の過程を表す複数の画像を取得する画像取得工程と、
前記複数の画像について、前記顔の部品の位置を示す複数の顔部品座標を検出する顔部品座標検出工程と、
前記複数の画像について、前記顔部品座標間の距離を算出する距離算出工程と、
前記顔部品座標間の距離の時系列の変化に基づいて、前記複数の画像から、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定し、前記表情変化が開始する画像及び前記表情変化が終了する画像の間の画像を解析対象として抽出する解析対象抽出工程と、
前記解析対象抽出工程において抽出された画像を用いて、肌の特徴を解析する解析工程と、を含み、
前記顔部品座標検出工程は、前記顔部品座標として、前記表情変化に連動して距離が変化する2点を検出することを特徴とする肌解析方法。
A skin analysis method for analyzing skin characteristics based on dynamic information of changes in facial expression,
an image acquiring step of acquiring a plurality of images representing the process of the facial expression change;
a facial part coordinate detection step of detecting a plurality of facial part coordinates indicating positions of the facial parts from the plurality of images;
a distance calculation step of calculating the distance between the coordinates of the facial parts for the plurality of images;
Based on the time-series change in the distance between the facial part coordinates, an image where the expression change starts and an image where the expression change ends are specified from the plurality of images, and the image where the expression change starts and the image where the expression change ends. an analysis target extraction step of extracting, as an analysis target, an image between images in which the facial expression change ends;
an analysis step of analyzing skin characteristics using the image extracted in the analysis target extraction step ;
The skin analysis method, wherein, in the facial part coordinate detection step, two points whose distance changes in association with the change in facial expression are detected as the facial part coordinates.
前記解析工程は、頬部分の肌の特徴を解析する工程を含むことを特徴とする、請求項1に記載の肌解析方法。 2. The skin analysis method according to claim 1, wherein said analysis step includes a step of analyzing skin characteristics of cheek portions. 前記複数の画像は、前記顔を通る鉛直方向の軸まわりに正面を0度として0~90度の範囲で回転させた前記顔の表情変化を表す複数の画像を含むことを特徴とする、請求項1又は請求項2に記載の肌解析方法。 wherein said plurality of images include a plurality of images representing expression changes of said face rotated in a range of 0 to 90 degrees with the front being 0 degrees around a vertical axis passing through said face. The skin analysis method according to claim 1 or 2. 前記複数の画像は、前記顔を通る鉛直方向の軸まわりに正面を0度として20~30度の範囲で回転させた前記顔の表情変化を表す複数の画像を含むことを特徴とする、請求項1又は請求項2に記載の肌解析方法。 wherein said plurality of images include a plurality of images representing expression changes of said face rotated in a range of 20 to 30 degrees with the front being 0 degrees around a vertical axis passing through said face. The skin analysis method according to claim 1 or 2. 前記表情変化は、頬部分の肌を縦方向に伸縮させる縦方向表情変化と、頬部分の肌を横方向に伸縮させる横方向表情変化と、のうち少なくとも何れかを含むことを特徴とする、請求項2~の何れかに記載の肌解析方法。 The expression change includes at least one of a vertical expression change that stretches the skin of the cheek part in the vertical direction and a horizontal expression change that stretches the skin of the cheek part in the horizontal direction, The skin analysis method according to any one of claims 2-4 . 前記表情変化は、前記頬部分の肌を同じ方向に伸縮させる表情変化を複数種類含み、
前記解析対象抽出工程は、各種の表情変化が開始する画像及び終了する画像を特定し、前記各種の表情変化が開始する画像及び終了する画像の間の画像を解析対象として抽出することを特徴とする、請求項に記載の肌解析方法。
The facial expression change includes a plurality of facial expression changes that expand and contract the skin of the cheek part in the same direction,
The analysis target extracting step is characterized by specifying an image where various facial expression changes start and an image where the various facial expression changes end, and extracting images between the images where the various facial expression changes start and end as analysis targets. The skin analysis method according to claim 5 , wherein
前記画像取得工程、前記顔部品座標検出工程、前記距離算出工程及び前記解析対象抽出工程は、前記縦方向表情変化を含む前記複数の画像と、前記横方向表情変化を含む前記複数の画像と、のそれぞれについて実行され、
前記解析工程は、前記解析対象抽出工程においてそれぞれ抽出された、前記縦方向表情変化を含む複数の画像の中の解析対象及び前記横方向表情変化を含む複数の画像の中の解析対象を用いて、肌の特徴を解析することを特徴とする、請求項又は請求項に記載の肌解析方法。
The image acquiring step, the facial part coordinate detecting step, the distance calculating step, and the analysis target extracting step include the plurality of images including the vertical expression change, the plurality of images including the horizontal expression change, is executed for each of the
The analysis step uses the analysis target in the plurality of images including the vertical facial expression change and the analysis target in the plurality of images including the horizontal facial expression change extracted in the analysis target extraction step. 7. The skin analysis method according to claim 5 or 6 , characterized in that the characteristics of the skin are analyzed.
前記距離算出工程及び前記解析対象抽出工程の間に、前記表情変化の大きさを評価する表情動作評価工程を含み、
前記表情動作評価工程は、前記顔部品座標間の距離の変化に基づいて前記表情変化の大きさを評価し、前記表情変化の大きさが所定の値を上回った場合に解析対象抽出工程に進むことを特徴とする、請求項1~の何れかに記載の肌解析方法。
including a facial expression action evaluation step of evaluating the magnitude of the facial expression change between the distance calculation step and the analysis target extraction step;
The facial expression motion evaluation step evaluates the magnitude of the facial expression change based on the change in the distance between the facial part coordinates, and advances to the analysis target extraction step when the facial expression change magnitude exceeds a predetermined value. The skin analysis method according to any one of claims 1 to 7 , characterized by:
前記距離算出工程は、前記顔部品座標間の距離を複数算出する工程を含み、
前記解析対象抽出工程は、複数の前記顔部品座標間の距離に基づいて、前記複数の画像から、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定し、前記表情変化が開始する画像及び前記表情変化が終了する画像の間の画像を解析対象として抽出することを特徴とする、請求項1~の何れかに記載の肌解析方法。
The distance calculation step includes a step of calculating a plurality of distances between the facial part coordinates,
The analysis target extracting step identifies an image in which the expression change starts and an image in which the expression change ends from the plurality of images based on the distance between the plurality of facial part coordinates, and the expression change starts. The skin analysis method according to any one of claims 1 to 8 , wherein an image between an image where the expression change ends and an image between the image where the facial expression change ends is extracted as an analysis target.
前記顔部品座標は、少なくとも唇輪郭の位置を示す座標を含むことを特徴とする、請求項1~の何れかに記載の肌解析方法。 The skin analysis method according to any one of claims 1 to 9 , wherein the facial part coordinates include at least coordinates indicating the position of a lip contour. 前記距離算出工程は、前記顔部品座標間の距離を標準化する為の基準距離を算出する基準距離算出工程を更に含み、
前記解析対象抽出工程は、前記基準距離に基づいて前記顔部品座標間の距離を標準化した値を用いて、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定することを特徴とする、請求項1~10の何れかに記載の肌解析方法。
The distance calculation step further includes a reference distance calculation step of calculating a reference distance for standardizing the distance between the facial part coordinates,
The analysis target extracting step specifies an image where the expression change starts and an image where the expression change ends, using a value obtained by standardizing the distance between the facial part coordinates based on the reference distance. The skin analysis method according to any one of claims 1 to 10 .
顔の表情変化の動的情報に基づいて肌の特徴を解析する肌解析システムであって、
前記表情変化の過程を表す複数の画像を取得する画像取得手段と、
前記複数の画像について、前記顔の部品の座標を示す複数の顔部品座標を検出する顔部品座標検出手段と、
前記複数の画像について、前記顔部品座標間の距離を算出する距離算出手段と、
前記顔部品座標間の距離の時系列の変化に基づいて、前記複数の画像から、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定し、前記表情変化が開始する画像及び前記表情変化が終了する画像の間の画像を解析対象として抽出する解析対象抽出手段と、
前記解析対象抽出手段において抽出された画像を用いて、肌の特徴を解析する解析手段と、を備え
前記顔部品座標検出手段が、前記顔部品座標として、前記表情変化に連動して距離が変化する2点を検出する手段であることを特徴とする肌解析システム。
A skin analysis system for analyzing skin characteristics based on dynamic information of changes in facial expression,
an image acquiring means for acquiring a plurality of images representing the process of facial expression change;
face part coordinate detection means for detecting a plurality of face part coordinates indicating the coordinates of the face part for the plurality of images;
distance calculation means for calculating the distance between the facial part coordinates for the plurality of images;
Based on the time-series change in the distance between the facial part coordinates, an image where the expression change starts and an image where the expression change ends are specified from the plurality of images, and the image where the expression change starts and the image where the expression change ends. an analysis target extracting means for extracting as an analysis target an image between images in which the facial expression change ends;
analysis means for analyzing skin characteristics using the image extracted by the analysis target extraction means ;
The skin analysis system, wherein the facial part coordinate detection means is means for detecting, as the facial part coordinates, two points whose distance changes in association with the change in facial expression.
JP2018218557A 2017-12-01 2018-11-21 Skin analysis method and skin analysis system Active JP7183005B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017231333 2017-12-01
JP2017231333 2017-12-01

Publications (2)

Publication Number Publication Date
JP2019098168A JP2019098168A (en) 2019-06-24
JP7183005B2 true JP7183005B2 (en) 2022-12-05

Family

ID=66974953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018218557A Active JP7183005B2 (en) 2017-12-01 2018-11-21 Skin analysis method and skin analysis system

Country Status (1)

Country Link
JP (1) JP7183005B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000338987A (en) 1999-05-28 2000-12-08 Mitsubishi Electric Corp Utterance start monitor, speaker identification device, voice input system, speaker identification system and communication system
JP2005242567A (en) 2004-02-25 2005-09-08 Canon Inc Movement evaluation device and method
JP2006081846A (en) 2004-09-17 2006-03-30 Inforward Inc Method and apparatus for estimating facial wrinkle
JP2009098901A (en) 2007-10-16 2009-05-07 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for detecting facial expression
JP2009163422A (en) 2007-12-28 2009-07-23 Canon Inc Image processing device, image processing method and image processing program
US20090196475A1 (en) 2008-02-01 2009-08-06 Canfield Scientific, Incorporated Automatic mask design and registration and feature detection for computer-aided skin analysis
JP2014193197A (en) 2013-03-28 2014-10-09 Shiseido Co Ltd Image analysis device, image analysis method, and image analysis program
JP2016194901A (en) 2015-03-31 2016-11-17 ポーラ化成工業株式会社 Method of extracting part for determining impression of facial appearance, method of extracting factor for determining impression of facial appearance, and method of classifying impression of facial appearance
JP2017502732A (en) 2013-12-12 2017-01-26 ロレアル Process for assessing clinical signs of at least one face

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000338987A (en) 1999-05-28 2000-12-08 Mitsubishi Electric Corp Utterance start monitor, speaker identification device, voice input system, speaker identification system and communication system
JP2005242567A (en) 2004-02-25 2005-09-08 Canon Inc Movement evaluation device and method
JP2006081846A (en) 2004-09-17 2006-03-30 Inforward Inc Method and apparatus for estimating facial wrinkle
JP2009098901A (en) 2007-10-16 2009-05-07 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for detecting facial expression
JP2009163422A (en) 2007-12-28 2009-07-23 Canon Inc Image processing device, image processing method and image processing program
US20090196475A1 (en) 2008-02-01 2009-08-06 Canfield Scientific, Incorporated Automatic mask design and registration and feature detection for computer-aided skin analysis
JP2014193197A (en) 2013-03-28 2014-10-09 Shiseido Co Ltd Image analysis device, image analysis method, and image analysis program
JP2017502732A (en) 2013-12-12 2017-01-26 ロレアル Process for assessing clinical signs of at least one face
JP2016194901A (en) 2015-03-31 2016-11-17 ポーラ化成工業株式会社 Method of extracting part for determining impression of facial appearance, method of extracting factor for determining impression of facial appearance, and method of classifying impression of facial appearance

Also Published As

Publication number Publication date
JP2019098168A (en) 2019-06-24

Similar Documents

Publication Publication Date Title
JP7452016B2 (en) Learning data generation program and learning data generation method
JP6184271B2 (en) Imaging management apparatus, imaging management system control method, and program
JP6007682B2 (en) Image processing apparatus, image processing method, and program
KR101929077B1 (en) Image identificaiton method and image identification device
JPWO2014171258A1 (en) Information processing system, information processing method, and program
JP5754990B2 (en) Information processing apparatus, information processing method, and program
JP2009089077A5 (en)
KR20130066438A (en) Image processing apparatus and image processing method
US9721153B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP5087037B2 (en) Image processing apparatus, method, and program
JP4513699B2 (en) Moving image editing apparatus, moving image editing method and program
CN111950401B (en) Method, image processing system, device and medium for determining position of key point area
US8284292B2 (en) Probability distribution constructing method, probability distribution constructing apparatus, storage medium of probability distribution constructing program, subject detecting method, subject detecting apparatus, and storage medium of subject detecting program
CN110910449B (en) Method and system for identifying three-dimensional position of object
JP2018081402A (en) Image processing system, image processing method, and program
KR20160046399A (en) Method and Apparatus for Generation Texture Map, and Database Generation Method
JP6406044B2 (en) Camera calibration unit, camera calibration method, and camera calibration program
JP7183005B2 (en) Skin analysis method and skin analysis system
KR102126370B1 (en) Apparatus and method for analyzing motion
US20230368409A1 (en) Storage medium, model training method, and model training device
JP7047848B2 (en) Face 3D shape estimation device, face 3D shape estimation method, and face 3D shape estimation program
US20190327390A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
KR102468648B1 (en) Method for calculating heart rate using rPPG signal of serial image and system thereof
JP7356927B2 (en) Skin analysis method, skin analysis system and skin analysis program
JP6548306B2 (en) Image analysis apparatus, program and method for tracking a person appearing in a captured image of a camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221122

R150 Certificate of patent or registration of utility model

Ref document number: 7183005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150