JP2020131026A - Skin analysis method, skin analysis system, and skin analysis program - Google Patents

Skin analysis method, skin analysis system, and skin analysis program Download PDF

Info

Publication number
JP2020131026A
JP2020131026A JP2020021669A JP2020021669A JP2020131026A JP 2020131026 A JP2020131026 A JP 2020131026A JP 2020021669 A JP2020021669 A JP 2020021669A JP 2020021669 A JP2020021669 A JP 2020021669A JP 2020131026 A JP2020131026 A JP 2020131026A
Authority
JP
Japan
Prior art keywords
skin
viscoelasticity
physical quantity
subject
collagen structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020021669A
Other languages
Japanese (ja)
Other versions
JP7356927B2 (en
Inventor
興治 水越
Koji Mizukoshi
興治 水越
賢哉 平山
Masaya Hirayama
賢哉 平山
祥弘 ▲濱▼中
祥弘 ▲濱▼中
Yoshihiro Hamanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pola Orbis Holdings Inc
Original Assignee
Pola Chemical Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pola Chemical Industries Inc filed Critical Pola Chemical Industries Inc
Publication of JP2020131026A publication Critical patent/JP2020131026A/en
Application granted granted Critical
Publication of JP7356927B2 publication Critical patent/JP7356927B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a novel, noninvasive, and simple method of analyzing the physical properties of the skin, which puts a less burden on both a subject and an analyzing person.SOLUTION: The skin analysis method for analyzing the skin of a subject on the basis of the movement of the skin caused by change in facial expression calculates, on the basis of the correlation between the physical amount of a skin change caused by the change in facial expression and the viscoelasticity of the skin, the viscoelasticity of the skin of the subject from a measured value of the physical amount related to the subject.SELECTED DRAWING: Figure 3

Description

本発明は、肌解析方法、肌解析システム及び肌解析プログラムに関するものである。 The present invention relates to a skin analysis method, a skin analysis system and a skin analysis program.

近年、動画を利用して人の肌を解析する技術について研究が行われている。例えば、特許文献1には、被験者の目尻のような解析領域に予め複数の追跡点を配置して動画を撮影し、表情の変化に伴う追跡点の変化量を追跡して肌の圧縮率を取得することによって、被験者の肌状態を解析する技術が公開されている。 In recent years, research has been conducted on techniques for analyzing human skin using moving images. For example, in Patent Document 1, a plurality of tracking points are arranged in advance in an analysis area such as the outer corner of the eyes of a subject to shoot a moving image, and the amount of change in the tracking points due to a change in facial expression is tracked to determine the compression rate of the skin. The technology to analyze the skin condition of the subject by acquiring it is open to the public.

特許文献2には、音を発出する間に撮影された人の顔の画像のシーケンスから、しわ、小じわ等の臨床徴候を評価するプロセスに関する技術が公開されている。 Patent Document 2 discloses a technique relating to a process of evaluating clinical signs such as wrinkles and fine wrinkles from a sequence of images of a person's face taken while producing a sound.

また、特許文献3には、動的情報を用いて顔の見た目印象と相関関係が高い因子を抽出する方法と、その因子に基づいて顔の見た目印象を鑑別する方法についての技術が公開されている。特許文献3により、年齢印象の決定部位が頬及び目の周辺部であることが公開されている。 Further, Patent Document 3 discloses a technique for extracting a factor having a high correlation with the appearance impression of a face using dynamic information and a method for distinguishing the appearance impression of a face based on the factor. There is. Patent Document 3 discloses that the sites for determining the age impression are the cheeks and the periphery of the eyes.

特開2014−193197号公報Japanese Unexamined Patent Publication No. 2014-193197 特開2017−502732号公報Japanese Unexamined Patent Publication No. 2017-502732 特開2016−194901号公報Japanese Unexamined Patent Publication No. 2016-194901

先述の通り、人物の顔を含む動画を解析して非侵襲的に肌を評価する技術について広く研究されてきた。しかし、従来の技術は、シワ等の肌表面に現れる徴候を評価するものに過ぎず、非侵襲的に肌の粘弾性やコラーゲン構造等の物性の解析を行うための具体的な方法は開示されていない。そのため、肌の物性を評価するためには、肌の組織を採取したり、肌に接触して力を加え、力学的特性を測定したりする等の方法が必要だった。そこで、本発明では、非侵襲的に肌の物性を解析する新規な方法を提供することを課題とする。 As mentioned above, techniques for non-invasively evaluating skin by analyzing videos including human faces have been widely studied. However, the conventional technique merely evaluates the signs appearing on the skin surface such as wrinkles, and a specific method for non-invasively analyzing the physical properties such as the viscoelasticity and collagen structure of the skin is disclosed. Not. Therefore, in order to evaluate the physical properties of the skin, it is necessary to collect the tissue of the skin, apply force to the skin in contact with the skin, and measure the mechanical properties. Therefore, an object of the present invention is to provide a novel method for non-invasively analyzing the physical properties of skin.

上記課題を解決するために、本発明に係る肌解析方法は、顔の表情変化によって生じる皮膚変化の物理量と皮膚の粘弾性との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚の粘弾性を算出することを特徴とする。 In order to solve the above-mentioned problems, the skin analysis method according to the present invention is based on the correlation between the physical quantity of the skin change caused by the change in facial expression and the viscoelasticity of the skin, and is based on the measured value of the physical quantity of the subject. It is characterized by calculating the viscoelasticity of the skin.

このように、顔の表情変化によって生じる皮膚変化の物理量と皮膚の粘弾性との相関関係に基づいて、皮膚変化の物理量の測定値から皮膚の粘弾性を算出することで、皮膚の粘弾性の算出を含む肌の解析を非侵襲的に行うことができる。 In this way, the viscoelasticity of the skin is calculated by calculating the viscoelasticity of the skin from the measured value of the physical amount of the skin change based on the correlation between the physical amount of the skin change caused by the facial expression change and the viscoelasticity of the skin. Skin analysis, including calculations, can be performed non-invasively.

本発明の好ましい形態では、前記粘弾性は、真皮の粘弾性及び皮下の粘弾性の内、少なくとも何れかを含むことを特徴とする。 In a preferred embodiment of the present invention, the viscoelasticity is characterized by including at least one of dermal viscoelasticity and subcutaneous viscoelasticity.

本発明の好ましい形態では、前記物理量及び粘弾性の測定値の組を複数入力することによって作成された粘弾性算出モデルを用いて、被験者についての前記物理量の測定値から被験者の皮膚の粘弾性を算出することを特徴とする。
このように、物理量及び粘弾性の測定データの組を用いて作成された粘弾性算出モデルを用いて粘弾性の算出を行うことで、実例に基づいてより正確に粘弾性の算出を行うことができる。
In a preferred embodiment of the present invention, the viscoelasticity of the subject's skin is determined from the measured values of the physical quantity for the subject by using a viscoelasticity calculation model created by inputting a plurality of sets of the measured values of the physical quantity and the viscoelasticity. It is characterized by calculating.
In this way, by calculating the viscoelasticity using the viscoelasticity calculation model created using the set of physical quantity and viscoelasticity measurement data, it is possible to calculate the viscoelasticity more accurately based on actual examples. it can.

本発明の好ましい形態では、前記粘弾性と肌のコラーゲン構造との相関関係に基づいて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定することを特徴とする。
このように、顔の表情変化によって生じる皮膚変化の物理量の測定値から算出される皮膚の粘弾性に基づいて、皮下のコラーゲン構造を推定することにより、皮下のコラーゲン構造の推定を含む肌の解析を非侵襲的に行うことができる。
A preferred embodiment of the present invention is characterized in that the collagen structure of the skin of a subject is estimated from the viscoelasticity calculated for the subject based on the correlation between the viscoelasticity and the collagen structure of the skin.
In this way, skin analysis including estimation of the subcutaneous collagen structure by estimating the subcutaneous collagen structure based on the viscoelasticity of the skin calculated from the measured value of the physical quantity of the skin change caused by the facial expression change. Can be done non-invasively.

本発明の好ましい形態では、前記粘弾性及び肌のコラーゲン構造の測定値の組を複数入力することによって作成されたコラーゲン構造推定モデルを用いて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定することを特徴とする。 In a preferred embodiment of the present invention, the subject's skin is calculated from the viscoelasticity calculated for the subject using a collagen structure estimation model created by inputting a plurality of sets of measured values of the viscoelasticity and the collagen structure of the skin. It is characterized by estimating the collagen structure.

本発明の好ましい形態では、前記粘弾性に基づいて、肌の評価値を1又は複数算出することを特徴とする。
このように、皮膚の粘弾性に基づいて肌の評価値を算出することにより、被験者にとってわかりやすい結果を示すことができる。
A preferred embodiment of the present invention is characterized in that one or a plurality of evaluation values of skin are calculated based on the viscoelasticity.
In this way, by calculating the evaluation value of the skin based on the viscoelasticity of the skin, it is possible to show a result that is easy for the subject to understand.

本発明の好ましい形態では、前記粘弾性の算出結果に基づく情報を含む解析結果を出力することを特徴とする。 A preferred embodiment of the present invention is characterized in that an analysis result including information based on the calculation result of viscoelasticity is output.

本発明の好ましい形態では、前記粘弾性の算出結果に基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力することを特徴とする。
このように、算出された粘弾性及び測定された物理量に基づく情報をあわせて出力することにより、測定した量と解析結果との対応をユーザが理解しやすくなる。
A preferred embodiment of the present invention is characterized in that an analysis result including information based on the measured value of the physical quantity is output together with information based on the calculation result of viscoelasticity.
By outputting the calculated viscoelasticity and the information based on the measured physical quantity together in this way, it becomes easier for the user to understand the correspondence between the measured quantity and the analysis result.

本発明は、顔の表情変化によって生じる皮膚変化の物理量と皮膚のコラーゲン構造との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚のコラーゲン構造を推定することを特徴とする。
このように、顔の表情変化によって生じる皮膚変化の物理量と皮膚のコラーゲン構造との相関関係に基づいて、皮膚変化の物理量の測定値から皮膚のコラーゲン構造を推定することで、皮膚のコラーゲン構造の推定を含む肌の解析を非侵襲的に行うことができる。
The present invention is characterized in that the collagen structure of the skin of a subject is estimated from the measured value of the physical quantity of the subject based on the correlation between the physical quantity of the skin change caused by the change of facial expression and the collagen structure of the skin. ..
In this way, the collagen structure of the skin is estimated by estimating the collagen structure of the skin from the measured value of the physical amount of the skin change based on the correlation between the physical amount of the skin change caused by the facial expression change and the collagen structure of the skin. Skin analysis, including estimation, can be performed non-invasively.

本発明の好ましい形態では、前記コラーゲン構造の推定結果に基づく情報を含む解析結果を出力することを特徴とする。 A preferred embodiment of the present invention is characterized in that an analysis result including information based on the estimation result of the collagen structure is output.

本発明の好ましい形態では、前記コラーゲン構造の推定結果に基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力することを特徴とする。 A preferred embodiment of the present invention is characterized in that an analysis result including information based on the measurement value of the physical quantity is output together with information based on the estimation result of the collagen structure.

本発明の好ましい形態では、前記物理量は、前記表情変化の過程を含む動画に基づいて測定されることを特徴とする。
このように、動画を用いて物理量を測定することにより、被験者の皮膚に接触せず、より簡単に皮膚の粘弾性を算出することができる。これにより、被験者及び解析を行う者の双方にとっての負担を小さくすることができる。
In a preferred embodiment of the present invention, the physical quantity is measured based on a moving image including the process of changing the facial expression.
In this way, by measuring the physical quantity using the moving image, the viscoelasticity of the skin can be calculated more easily without contacting the skin of the subject. As a result, the burden on both the subject and the person performing the analysis can be reduced.

本発明の好ましい形態では、前記動画を撮影するための画面において、被験者の顔における顔部品の位置を合わせるためのガイドを表示することを特徴とする。
このように、動画を撮影するための画面において、顔部品の位置を合わせるためのガイドを表示し、このガイドに従って撮影を行うことで、被験者を適切な距離から適切な位置に収めての画像撮影を行うことができる。
A preferred embodiment of the present invention is characterized in that a guide for aligning the position of a facial component on the face of the subject is displayed on the screen for capturing the moving image.
In this way, on the screen for shooting a moving image, a guide for aligning the position of the face part is displayed, and by shooting according to this guide, the subject is captured at an appropriate position from an appropriate distance. It can be performed.

本発明の好ましい形態では、前記動画は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20〜30度の範囲で回転させた方向から撮影されることを特徴とする。
このように、正面から20〜30度の範囲で回転させた角度から顔を撮影した画像を用いることで、正面から撮影した画像を用いる場合に比べて頬部分や目尻等、顔の印象を左右しやすい部分の肌を広く含む画像を取得して、顔の印象を左右しやすい部分の肌についてより正確に肌解析を行うことができる。
In a preferred embodiment of the present invention, the moving image is captured from a direction rotated in a range of 20 to 30 degrees with the front surface as 0 degrees around an axis in the vertical direction passing through the face of the subject.
In this way, by using the image of the face taken from an angle rotated in the range of 20 to 30 degrees from the front, the impression of the face such as the cheeks and the outer corners of the eyes can be left and right compared to the case of using the image taken from the front. It is possible to acquire an image that includes a wide range of skin in a part that is easy to make, and to perform a more accurate skin analysis on the skin in a part that easily affects the impression of the face.

本発明の好ましい形態では、前記動画として、被験者の顔を通る鉛直方向の軸まわりに正面を0度として時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、被験者の顔を通る鉛直方向の軸まわりに正面を0度として反時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、の両方を用いることを特徴とする。
このように、異なる方向から撮影した動画を用いることで、左右の表情変化から得られる皮膚変化を総合的に考慮した物理量から、皮膚の物性を解析することができる。
In a preferred embodiment of the present invention, as the moving image, a moving image taken from a direction in which the front is rotated clockwise in the range of 20 to 30 degrees with the front as 0 degrees around the vertical axis passing through the subject's face, and the subject's moving image. It is characterized by using both a moving image taken from a direction in which the front is rotated counterclockwise in the range of 20 to 30 degrees with the front as 0 degrees around an axis in the vertical direction passing through the face.
In this way, by using moving images taken from different directions, it is possible to analyze the physical properties of the skin from the physical quantity that comprehensively considers the skin changes obtained from the left and right facial expression changes.

本発明の好ましい形態では、前記動画は、
前記被験者を正面から捉えた状態を初期位置とし、前記初期位置からの撮影装置の回転角度を取得し、
前記回転角度が所定の範囲内である場合に前記動画の撮影を許可し、
前記許可に基づいて撮影されることを特徴とする。
In a preferred embodiment of the invention, the moving image
The initial position is the state in which the subject is captured from the front, and the rotation angle of the imaging device from the initial position is acquired.
When the rotation angle is within a predetermined range, shooting of the moving image is permitted, and
It is characterized in that it is photographed based on the above permission.

本発明の好ましい形態では、前記物理量は、前記顔に含まれる特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向の内、少なくとも1つに基づいて測定されることを特徴とする。 In a preferred embodiment of the present invention, the physical quantity is measured based on at least one of the magnitude, direction of velocity, magnitude of acceleration, and direction of acceleration of the feature points contained in the face. It is characterized by that.

本発明の好ましい形態では、前記物理量は、肌の追従性、伸縮性及び変形性から選ばれることを特徴とする。 In a preferred embodiment of the present invention, the physical quantity is selected from skin followability, elasticity and deformability.

本発明の好ましい形態では、前記物理量と、表皮の水分量との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の表皮の水分量を算出することを特徴とする。
このように、顔の表情変化によって生じる皮膚変化の物理量と表皮の水分量との相関関係に基づいて、物理量の測定値から表皮の水分量を算出することで、表皮の水分量の算出を含む肌の解析を非侵襲的に行うことができる。
A preferred embodiment of the present invention is characterized in that the water content of the epidermis of a subject is calculated from the measured value of the physical quantity of the subject based on the correlation between the physical quantity and the water content of the epidermis.
In this way, the calculation of the water content of the epidermis is included by calculating the water content of the epidermis from the measured value of the physical quantity based on the correlation between the physical quantity of the skin change caused by the facial expression change and the water content of the epidermis. Skin analysis can be performed non-invasively.

本発明の好ましい形態では、前記物理量及び水分量の測定値の組を複数入力することによって作成された水分量算出モデルを用いて、被験者についての前記物理量の測定値から被験者の前記水分量を算出することを特徴とする。 In a preferred embodiment of the present invention, the water content of the subject is calculated from the measured values of the physical quantity for the subject by using the water content calculation model created by inputting a plurality of sets of the measured values of the physical quantity and the water content. It is characterized by doing.

本発明は、顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析する、肌解析システムであって、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚の粘弾性との相関関係を記憶する記憶手段と、
前記物理量と皮膚の粘弾性との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚の粘弾性を算出する粘弾性算出手段と、を備えることを特徴とする。
The present invention is a skin analysis system that analyzes the skin of a subject based on the movement of the skin when the facial expression changes.
A physical quantity measuring means for measuring the physical quantity of skin changes caused by the facial expression change,
A memory means for storing the correlation between the physical quantity and the viscoelasticity of the skin,
It is characterized by comprising a viscoelasticity calculating means for calculating the viscoelasticity of the skin of the subject from the measured value of the physical quantity of the subject based on the correlation between the physical quantity and the viscoelasticity of the skin.

本発明の好ましい形態では、前記粘弾性算出手段は、真皮の粘弾性及び皮下の粘弾性の内、少なくとも何れかを算出することを特徴とする。 In a preferred embodiment of the present invention, the viscoelasticity calculating means calculates at least one of dermis viscoelasticity and subcutaneous viscoelasticity.

本発明の好ましい形態では、前記記憶手段は、前記物理量及び粘弾性の測定値の組を複数入力することによって作成された粘弾性算出モデルを記憶し、
前記粘弾性算出手段は、前記粘弾性算出モデルを用いて、被験者について測定された前記物理量から前記粘弾性を算出することを特徴とする。
In a preferred embodiment of the present invention, the storage means stores a viscoelasticity calculation model created by inputting a plurality of sets of physical quantities and measured values of viscoelasticity.
The viscoelasticity calculation means is characterized in that the viscoelasticity is calculated from the physical quantity measured for a subject by using the viscoelasticity calculation model.

本発明の好ましい形態では、前記記憶手段が、前記粘弾性と肌のコラーゲン構造との相関関係を記憶し、
前記粘弾性と肌のコラーゲン構造との相関関係に基づいて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定するコラーゲン構造推定手段を更に備えることを特徴とする。
In a preferred embodiment of the present invention, the storage means stores the correlation between the viscoelasticity and the collagen structure of the skin.
It is characterized by further comprising a collagen structure estimating means for estimating the collagen structure of the skin of the subject from the viscoelasticity calculated for the subject based on the correlation between the viscoelasticity and the collagen structure of the skin.

本発明の好ましい形態では、前記記憶手段は、前記粘弾性及びコラーゲン構造の測定値の組を複数入力することによって作成されたコラーゲン構造推定モデルを記憶し、
前記コラーゲン構造推定手段は、前記コラーゲン構造推定モデルを用いて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定することを特徴とする。
In a preferred embodiment of the present invention, the storage means stores a collagen structure estimation model created by inputting a plurality of sets of measured values of viscoelasticity and collagen structure.
The collagen structure estimation means is characterized in that the collagen structure of the subject's skin is estimated from the viscoelasticity calculated for the subject using the collagen structure estimation model.

本発明の好ましい形態では、前記被験者の皮膚の粘弾性に基づいて、肌の評価値を1又は複数算出する評価手段を更に備えることを特徴とする。 A preferred embodiment of the present invention is further provided with an evaluation means for calculating one or more evaluation values of the skin based on the viscoelasticity of the skin of the subject.

本発明の好ましい形態では、前記粘弾性の算出結果に基づく情報を含む解析結果を出力する出力手段を更に備えることを特徴とする。 A preferred embodiment of the present invention is further provided with an output means for outputting an analysis result including information based on the calculation result of viscoelasticity.

本発明の好ましい形態では、前記出力手段は、前記粘弾性の算出結果に基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力することを特徴とする。 In a preferred embodiment of the present invention, the output means outputs an analysis result including information based on the measured value of the physical quantity together with information based on the calculation result of the viscoelasticity.

本発明は、顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析する、肌解析システムであって、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚のコラーゲン構造との相関関係を記憶する記憶手段と、
前記物理量と皮膚のコラーゲン構造との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚のコラーゲン構造を推定するコラーゲン構造推定手段と、を備えることを特徴とする。
The present invention is a skin analysis system that analyzes the skin of a subject based on the movement of the skin when the facial expression changes.
A physical quantity measuring means for measuring the physical quantity of skin changes caused by the facial expression change,
A memory means for storing the correlation between the physical quantity and the collagen structure of the skin,
It is characterized by comprising a collagen structure estimating means for estimating the collagen structure of the skin of the subject from the measured value of the physical quantity of the subject based on the correlation between the physical quantity and the collagen structure of the skin.

本発明の好ましい形態では、前記コラーゲン構造の推定結果に基づく情報を出力する出力手段を更に備えることを特徴とする。 A preferred embodiment of the present invention is further provided with an output means for outputting information based on the estimation result of the collagen structure.

前記出力手段は、前記コラーゲン構造の推定結果に基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力することを特徴とする。 The output means is characterized in that it outputs an analysis result including information based on the measurement value of the physical quantity together with information based on the estimation result of the collagen structure.

本発明の好ましい形態では、前記表情変化の過程を含む動画を取得する動画取得手段を更に備え、
前記物理量測定手段は、前記動画に基づいて前記物理量を測定することを特徴とする。
In a preferred embodiment of the present invention, a moving image acquisition means for acquiring a moving image including the process of changing the facial expression is further provided.
The physical quantity measuring means is characterized in that the physical quantity is measured based on the moving image.

本発明の好ましい形態では、前記動画を撮影するための画面において、被験者の顔における顔部品の位置を合わせるためのガイドを表示処理する手段を更に備えることを特徴とする。 A preferred embodiment of the present invention is further provided with means for displaying a guide for aligning the positions of facial parts on the face of the subject on the screen for capturing the moving image.

本発明の好ましい形態では、前記動画取得手段は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20〜30度の範囲で回転させた方向から、被験者の顔を撮影した動画を取得することを特徴とする。 In a preferred embodiment of the present invention, the moving image acquisition means captures a moving image of a subject's face from a direction rotated in a range of 20 to 30 degrees with the front surface as 0 degrees around a vertical axis passing through the subject's face. It is characterized by acquiring.

本発明の好ましい形態では、前記動画として、被験者の顔を通る鉛直方向の軸まわりに正面を0度として時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、被験者の顔を通る鉛直方向の軸まわりに正面を0度として反時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、の両方を用いることを特徴とする。 In a preferred embodiment of the present invention, as the moving image, a moving image taken from a direction in which the front is rotated clockwise in the range of 20 to 30 degrees with the front as 0 degrees around the vertical axis passing through the subject's face, and the subject's moving image. It is characterized by using both a moving image taken from a direction in which the front is rotated counterclockwise in the range of 20 to 30 degrees with the front as 0 degrees around an axis in the vertical direction passing through the face.

本発明の好ましい形態では、前記動画取得手段は、被験者を所定の条件で撮影するための端末装置によって撮影された前記動画を取得し、
前記端末装置は、
前記被験者を正面から捉えた状態を初期位置とし、前記初期位置からの前記端末装置の回転角度を取得する手段と、
前記回転角度が20〜30度の範囲内である場合に前記動画の撮影を許可する手段と、
前記許可に基づいて前記動画を撮影する手段と、を備えることを特徴とする。
In a preferred embodiment of the present invention, the moving image acquisition means acquires the moving image taken by a terminal device for taking a picture of a subject under predetermined conditions.
The terminal device is
A means for acquiring the rotation angle of the terminal device from the initial position, with the state in which the subject is captured from the front as the initial position,
A means for permitting the shooting of the moving image when the rotation angle is within the range of 20 to 30 degrees, and
It is characterized by comprising means for shooting the moving image based on the permission.

本発明の好ましい形態では、前記物理量測定手段は、前記顔に含まれる特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向の内、少なくとも1つに基づいて前記物理量を測定することを特徴とする。 In a preferred embodiment of the present invention, the physical quantity measuring means is based on at least one of the magnitude, direction of velocity, magnitude of acceleration, and direction of acceleration of movement of feature points contained in the face. It is characterized by measuring a physical quantity.

本発明の好ましい形態では、前記物理量測定手段は、前記物理量として、肌の追従性、伸縮性及び変形性のうち何れかを測定することを特徴とする。 In a preferred embodiment of the present invention, the physical quantity measuring means measures, as the physical quantity, any of skin followability, elasticity, and deformability.

本発明の好ましい形態では、前記記憶手段が、前記物理量と表皮の水分量との相関関係を記憶し、
前記物理量と表皮の水分量との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の表皮の水分量を算出する水分量算出手段を更に備えることを特徴とする。
In a preferred embodiment of the present invention, the storage means stores the correlation between the physical quantity and the water content of the epidermis.
It is further provided with a water content calculating means for calculating the water content of the skin of the subject from the measured value of the physical quantity of the subject based on the correlation between the physical quantity and the water content of the epidermis.

本発明の好ましい形態では、前記記憶手段は、前記物理量及び水分量の測定値の組を複数入力することによって作成された水分量算出モデルを記憶し、
前記水分量算出手段は、前記水分量算出モデルを用いて、被験者について測定された前記物理量から前記水分量を算出することを特徴とする。
In a preferred embodiment of the present invention, the storage means stores a water content calculation model created by inputting a plurality of sets of the measured values of the physical quantity and the water content.
The water content calculation means is characterized in that the water content is calculated from the physical quantity measured for a subject by using the water content calculation model.

本発明は、顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析するための肌解析プログラムであって、コンピュータを、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚の粘弾性との相関関係を記憶する記憶手段と、
前記物理量と皮膚の粘弾性との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚の粘弾性を算出する粘弾性算出手段と、として機能させることを特徴とする。
The present invention is a skin analysis program for analyzing the skin of a subject based on the movement of the skin when the facial expression changes, and uses a computer.
A physical quantity measuring means for measuring the physical quantity of skin changes caused by the facial expression change,
A memory means for storing the correlation between the physical quantity and the viscoelasticity of the skin,
It is characterized in that it functions as a viscoelasticity calculating means for calculating the viscoelasticity of the skin of a subject from the measured value of the physical quantity of the subject based on the correlation between the physical quantity and the viscoelasticity of the skin.

本発明は、顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析するための肌解析プログラムであって、コンピュータを、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚のコラーゲン構造との相関関係を記憶する記憶手段と、
前記物理量と皮膚のコラーゲン構造との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚のコラーゲン構造を推定するコラーゲン構造推定手段と、として機能させることを特徴とする。
The present invention is a skin analysis program for analyzing the skin of a subject based on the movement of the skin when the facial expression changes, and uses a computer.
A physical quantity measuring means for measuring the physical quantity of skin changes caused by the facial expression change,
A memory means for storing the correlation between the physical quantity and the collagen structure of the skin,
It is characterized in that it functions as a collagen structure estimation means for estimating the collagen structure of the skin of the subject from the measured value of the physical quantity of the subject based on the correlation between the physical quantity and the collagen structure of the skin.

顔の表情変化の際の皮膚の変化に基づいて、非侵襲的に皮膚の物性を解析することができる。 It is possible to analyze the physical properties of the skin non-invasively based on the changes in the skin when the facial expressions change.

本発明の一実施形態において被験者が再現する表情の模式図である。It is a schematic diagram of the facial expression reproduced by the subject in one embodiment of the present invention. 本発明の一実施形態に係る肌解析システムの機能ブロック図である。It is a functional block diagram of the skin analysis system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る肌解析方法を示すフローチャートである。It is a flowchart which shows the skin analysis method which concerns on one Embodiment of this invention. 本発明の一実施形態における動画取得工程の処理を示すフローチャートである。It is a flowchart which shows the process of the moving image acquisition process in one Embodiment of this invention. 本発明の一実施形態における被験者の撮影方向を示す図である。It is a figure which shows the imaging direction of the subject in one Embodiment of this invention. 本発明の一実施形態における顔部品座標を示す図である。It is a figure which shows the face part coordinates in one Embodiment of this invention. 本発明の一実施形態における基準距離の一例を示す図である。It is a figure which shows an example of the reference distance in one Embodiment of this invention. 本発明の一実施形態における解析対象抽出工程の処理を示すフローチャートである。It is a flowchart which shows the process of the analysis target extraction process in one Embodiment of this invention. 本発明の一実施形態における移動量測定工程の処理を示すフローチャートである。It is a flowchart which shows the process of the movement amount measurement process in one Embodiment of this invention. 本発明の一実施形態における解析領域の分画パターンを示す図である。It is a figure which shows the fractionation pattern of the analysis area in one Embodiment of this invention. 本発明の一実施形態における粘弾性算出工程の処理の流れを示すフローチャートである。It is a flowchart which shows the process flow of the viscoelasticity calculation process in one Embodiment of this invention. 本発明の一実施形態における水分量算出工程の処理の流れを示すフローチャートである。It is a flowchart which shows the process flow of the water content calculation process in one Embodiment of this invention. 本発明の一実施形態における皮下の粘弾性に基づく皮下のコラーゲン構造の算出の処理の流れを示すフローチャートである。It is a flowchart which shows the process flow of the calculation of the subcutaneous collagen structure based on the subcutaneous viscoelasticity in one Embodiment of this invention. 本発明の一実施形態に係る端末装置の外観を示す図である。It is a figure which shows the appearance of the terminal apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態における動画の撮影の流れを示すフローチャートである。It is a flowchart which shows the flow of shooting a moving image in one Embodiment of this invention. 本発明の一実施形態における動画の撮影角度を示す図である。It is a figure which shows the shooting angle of the moving image in one Embodiment of this invention. 本発明の一実施形態における動画の撮影準備画面の一例を示す図である。It is a figure which shows an example of the shooting preparation screen of a moving image in one Embodiment of this invention. 本発明の一実施形態における動画の撮影画面の一例を示す図である。It is a figure which shows an example of the shooting screen of the moving image in one Embodiment of this invention.

以下、本発明の一実施形態について、図面を参照して詳細に説明する。本実施形態においては、顔の表情変化の過程を表す動画を取得して、表情変化が開始するフレーム及び表情変化が終了するフレームを特定し、両者の間に撮影されたフレームを対象に解析を行う。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In the present embodiment, a moving image showing the process of facial expression change is acquired, a frame at which the facial expression change starts and a frame at which the facial expression change ends are specified, and analysis is performed on a frame shot between the two. Do.

本発明において「粘弾性を算出する」とは、粘性と弾性を定量的に評価する値を算出することを指す。本実施形態において、皮膚の粘弾性とは、真皮の粘弾性及び皮下の粘弾性を指す。このような皮膚の粘弾性は、皺やたるみ等の外見上の変化の原因になることから、加齢に伴う肌の老化現象を確認する上での指標となる。 In the present invention, "calculating viscoelasticity" refers to calculating a value for quantitatively evaluating viscosity and elasticity. In the present embodiment, the viscoelasticity of the skin refers to the viscoelasticity of the dermis and the viscoelasticity of the skin. Since such viscoelasticity of the skin causes changes in appearance such as wrinkles and sagging, it is an index for confirming the aging phenomenon of the skin with aging.

また、肌のコラーゲン構造とは、皮下脂肪細胞を包む線維構造の線維化レベルや、真皮のコラーゲン線維の結束の度合いを含む、皮下又は真皮のコラーゲン構造を指す。 The collagen structure of the skin refers to the collagen structure of the subcutaneous or dermis, including the fibrotic level of the fibrotic structure surrounding the subcutaneous adipocytes and the degree of binding of the collagen fibers of the dermis.

皮膚は、表皮、真皮及び皮下組織の3層で形成される。表皮や真皮を支える皮下組織の大部分は脂肪細胞が集塊を形成した脂肪小葉から構成される皮下脂肪であり、保温や外力に対する緩衝作用などを有する。脂肪小葉はコラーゲン線維やエラスチン線維などの結合組織等によって周囲が網目状に取り囲まれることで、脂肪細胞を包む線維構造を形成する。 The skin is formed of three layers: epidermis, dermis and subcutaneous tissue. Most of the subcutaneous tissue that supports the epidermis and dermis is subcutaneous fat composed of fat leaflets in which adipocytes form agglomerates, and has a heat retaining effect and a buffering action against external force. The fat leaflets are surrounded by connective tissues such as collagen fibers and elastin fibers in a mesh pattern to form a fibrous structure that encloses adipocytes.

本発明者らの鋭意研究の結果、皮下脂肪細胞を包むコラーゲン線維が、加齢と共に線維化することが明らかとなった。このような皮下の線維構造の線維化レベルを表す指標を、本発明では「皮下コラーゲン構造」として推定する。 As a result of diligent studies by the present inventors, it has been clarified that collagen fibers surrounding subcutaneous adipocytes become fibrotic with aging. In the present invention, an index representing the fibrosis level of such a subcutaneous fiber structure is estimated as "subcutaneous collagen structure".

また、加齢に伴い真皮の結合組織が次第に柔軟性、弾力性を失い硬くなっていくことが知られている。これは、結合組織の主成分であるコラーゲン線維が加齢と共に架橋し、結束してしまうことに起因していると考えられている。したがって本発明では、このような真皮のコラーゲン線維の結束の度合いを表す指標を「真皮コラーゲン構造」として推定する。なお、この他にも、コラーゲンの構造を評価する為の任意の指標を用いてよい。 It is also known that the connective tissue of the dermis gradually loses its flexibility and elasticity and becomes harder with aging. It is believed that this is due to the fact that collagen fibers, which are the main components of connective tissue, crosslink and bind with age. Therefore, in the present invention, an index indicating the degree of binding of collagen fibers in the dermis is estimated as "dermis collagen structure". In addition to this, any index for evaluating the structure of collagen may be used.

本実施形態においては、表情変化の過程における、顔に含まれる特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向の内、少なくとも1つを示す値(以下、移動量)を測定する。移動量は、各フレームにおける値として求めてもよいし、また、ひとつの表情変化を通しての平均値として求めてもよい。あるいは、頬部、顎部といったように領域を設定し、その領域内における値の積算値や平均値等を求めてもよい。また、本実施形態において、表情変化によって生じる皮膚変化の物理量とは、移動量に基づいて測定される値を指す。 In the present embodiment, a value indicating at least one of the magnitude of the movement of the feature points included in the face, the direction of the velocity, the magnitude of the acceleration, and the direction of the acceleration in the process of changing the facial expression (hereinafter, The amount of movement) is measured. The amount of movement may be obtained as a value in each frame, or may be obtained as an average value through one facial expression change. Alternatively, a region such as a cheek or a chin may be set, and an integrated value, an average value, or the like of values in the region may be obtained. Further, in the present embodiment, the physical quantity of the skin change caused by the facial expression change refers to a value measured based on the movement amount.

なお、以下において顔部品座標とは、顔の動きを追跡して表情の変化を評価する為の、顔上の部品の位置を示す座標である。顔上の部品とは、目、鼻、顔の輪郭、等のような任意の特徴を示す。例えば、唇輪郭の上下端の点や左右端の点等を顔部品座標として検出し、用いることができる。 In the following, the facial component coordinates are coordinates indicating the positions of the components on the face for tracking the movement of the face and evaluating the change in facial expression. The facial component refers to any feature such as eyes, nose, facial contours, etc. For example, points at the upper and lower ends of the lip contour, points at the left and right ends, and the like can be detected and used as facial component coordinates.

また、解析対象とは、肌解析の対象とする画像の集合である。本実施形態においては、表情変化が開始するフレームと表情変化が終了するフレームを特定し、その間に含まれる表情変化の最中の画像を用いて動きを解析することにより肌解析を行う。 The analysis target is a set of images to be analyzed for skin. In the present embodiment, the skin analysis is performed by specifying the frame at which the facial expression change starts and the frame at which the facial expression change ends, and analyzing the movement using the image during the facial expression change included between them.

なお、本実施形態においては、表情変化として頬部分の肌を縦方向に伸縮させる縦方向表情変化の過程を表す動画と、頬部分の肌を横方向に伸縮させる横方向表情変化の過程を表す動画と、をそれぞれ取得し、その各々の表情変化によって生じる皮膚変化の物理量を動画に基づいて測定して肌解析を行う。このように、肌を特定の方向に伸縮させる表情変化の過程を表す動画を用いることにより、肌を特定の方向に伸縮させた際の皮膚の運動特性を解析することが可能になる。特に、縦方向表情変化及び横方向表情変化の両方について解析を行うことで、より幅広い皮膚の運動特性を調べることができる。 In the present embodiment, a moving image showing the process of the vertical facial expression change in which the skin of the cheek portion is expanded and contracted in the vertical direction and the process of the lateral facial expression change in which the skin of the cheek portion is expanded and contracted in the horizontal direction are shown. A moving image is acquired, and the physical quantity of the skin change caused by each facial expression change is measured based on the moving image to perform skin analysis. In this way, by using a moving image showing the process of facial expression change that stretches and contracts the skin in a specific direction, it becomes possible to analyze the movement characteristics of the skin when the skin is stretched and contracted in a specific direction. In particular, by analyzing both the vertical facial expression change and the horizontal facial expression change, a wider range of skin motor characteristics can be investigated.

図1は本実施形態において被験者が再現する表情を示す図である。本実施形態においては、被験者はここに示すように、無表情(図1(a))と、口を縦に開く表情(以下「あ」の表情、図1(b))と、口を横に開く表情(以下「い」の表情、図1(c))と、口をすぼめる表情(以下「う」の表情、図1(d))と、の4つの表情をとる。 FIG. 1 is a diagram showing a facial expression reproduced by a subject in the present embodiment. In the present embodiment, as shown here, the subject has an expressionless expression (FIG. 1 (a)), a facial expression that opens the mouth vertically (hereinafter, “a” facial expression, FIG. 1 (b)), and a lateral mouth. It takes four facial expressions: a facial expression that opens to the front (hereinafter, "i" facial expression, FIG. 1 (c)) and a facial expression that purses the mouth (hereinafter, "u" facial expression, FIG. 1 (d)).

本実施形態においては、縦方向表情変化として、無表情、「あ」の表情、「う」の表情、「あ」の表情、「う」の表情、無表情、の順に被験者が表情を再現する。即ち、無表情から「あ」の表情への縦方向表情変化と、「あ」の表情から「う」の表情への縦方向表情変化と、「う」の表情から「あ」の表情への縦方向表情変化と、「う」の表情から無表情への縦方向表情変化と、の4種類の縦方向表情変化を含む動画を取得して肌解析を行う。肌解析を行う表情の種類としては、4種類のうち、無表情から「あ」の表情への縦方向表情変化と「う」の表情から無表情への縦方向表情変化の2種類のみを用いてもよい。 In the present embodiment, the subject reproduces facial expressions in the order of no expression, "a" expression, "u" expression, "a" expression, "u" expression, and no expression as vertical facial expression changes. .. That is, the vertical facial expression change from no expression to the "a" facial expression, the vertical facial expression change from the "a" facial expression to the "u" facial expression, and the "u" facial expression to the "a" facial expression. Skin analysis is performed by acquiring moving images including four types of vertical facial expression changes: a vertical facial expression change and a vertical facial expression change from a "u" facial expression to no facial expression. Of the four types of facial expressions for skin analysis, only two types are used: a vertical facial expression change from expressionless to "a" and a vertical facial expression change from "u" to expressionless. You may.

また、横方向表情変化として、無表情、「い」の表情、「う」の表情、「い」の表情、「う」の表情、無表情、の順に被験者が表情を再現する。即ち、無表情から「い」の表情への横方向表情変化と、「い」の表情から「う」の表情への横方向表情変化と、「う」の表情から「い」の表情への横方向表情変化と、「う」の表情から無表情への横方向表情変化と、の4種類の横方向表情変化を含む動画を取得して肌解析を行う。肌解析を行う表情の種類としては、4種類のうち、無表情から「い」の表情への横方向表情変化と「う」の表情から無表情への横方向表情変化の2種類のみを用いてもよい。ここで、無表情から「う」の表情への表情変化においては、頬部分の肌は縦にも横にも伸縮するため、縦方向表情変化及び横方向表情変化の両方として扱う。 In addition, as the lateral facial expression change, the subject reproduces the facial expression in the order of no expression, "i" expression, "u" expression, "i" expression, "u" expression, and no expression. That is, the lateral expression change from expressionless to "i" expression, the lateral expression change from "i" expression to "u" expression, and the "u" expression to "i" expression. Skin analysis is performed by acquiring moving images including four types of lateral facial expression changes, that is, a lateral facial expression change and a lateral facial expression change from a "u" facial expression to no facial expression. Of the four types of facial expressions for skin analysis, only two types are used: a lateral facial expression change from expressionless to "i" and a lateral expression change from "u" to expressionless. You may. Here, in the facial expression change from the expressionless expression to the facial expression of "U", since the skin of the cheek portion expands and contracts both vertically and horizontally, it is treated as both a vertical facial expression change and a horizontal facial expression change.

このように、本実施形態においては、頬部分の肌を同じ方向に伸縮させる表情変化を複数種類含む動画を取得し、各種の表情変化が開始するフレーム及び終了するフレームを特定して、各種の表情変化が開始するフレームから終了するフレームまでの間の画像を解析対象とする。このように、肌を同じ方向に伸縮させる複数種類の表情変化についてそれぞれ解析対象を特定して解析を行うことで、特定の方向の肌の伸縮に伴う皮膚の運動特性をより詳細に解析することができる。 As described above, in the present embodiment, a moving image including a plurality of types of facial expression changes that expand and contract the skin of the cheek portion in the same direction is acquired, and various frames at which various facial expression changes start and end are specified. The image from the frame at which the facial expression change starts to the frame at which the facial expression changes ends is analyzed. In this way, by identifying and analyzing each of the multiple types of facial expression changes that stretch and contract the skin in the same direction, it is possible to analyze in more detail the movement characteristics of the skin that accompany the stretching of the skin in a specific direction. Can be done.

本実施形態においては、このように4種類の縦方向表情変化と4種類の横方向表情変化についてそれぞれ解析対象を抽出し、各解析対象について移動量が測定される。物理量としては、解析対象ごとに測定された複数の移動量の平均値、合計値、各移動量に重みづけして算出された値等、移動量から導かれる任意の値を用いることができる。 In the present embodiment, analysis targets are extracted for each of the four types of vertical facial expression changes and four types of horizontal facial expression changes, and the amount of movement is measured for each analysis target. As the physical quantity, any value derived from the movement amount can be used, such as the average value, the total value, and the value calculated by weighting each movement amount measured for each analysis target.

図2は、本実施形態に係る肌解析システムの機能ブロック図である。ここに示すように、本実施形態に係る肌解析システムは、肌解析装置10と端末装置20とが通信可能に構成される。肌解析装置10としては、CPU(Central Processing Unit)等の演算装置、RAM(Random Access Memory)等の主記憶装置、HDD(Hard Disk Drive)やSSD(Solid State Drive)、フラッシュメモリ等の補助記憶装置、端末装置20との通信手段を含む種々の入出力装置等を備えた、サーバ機器等の一般的なコンピュータ装置を利用することができる。より詳細には、補助記憶装置に予め、あるいは記録媒体からの複製等によって、後述する各手段としてコンピュータを動作させるためのプログラムを格納しておき、それらのプログラムを主記憶装置上に展開して演算装置による演算を行い、入出力手段の制御等を行うことで、コンピュータ装置を本実施形態における肌解析装置10として利用することができる。 FIG. 2 is a functional block diagram of the skin analysis system according to the present embodiment. As shown here, the skin analysis system according to the present embodiment is configured so that the skin analysis device 10 and the terminal device 20 can communicate with each other. The skin analysis device 10 includes a computing device such as a CPU (Central Processing Unit), a main storage device such as a RAM (Random Access Memory), an auxiliary storage such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), and a flash memory. A general computer device such as a server device provided with various input / output devices including a device and a means for communicating with the terminal device 20 can be used. More specifically, programs for operating a computer are stored in the auxiliary storage device in advance or by copying from a recording medium as various means described later, and these programs are expanded on the main storage device. The computer device can be used as the skin analysis device 10 in the present embodiment by performing calculations by the arithmetic unit and controlling the input / output means and the like.

端末装置20は、撮影手段201と、表示部202と、を備えている。端末装置20としては、演算装置、主記憶装置、補助記憶装置、肌解析装置10との通信手段、デジタルカメラ等の撮影手段や、種々の入出力装置等を備えた、一般的なコンピュータ装置を利用することができる。例えば、カメラ機能を備えるタブレット端末等を用いてもよい。具体的には、例えば、後述する各手段としてコンピュータ装置を動作させるための専用のアプリケーションソフトをインストールすることにより、コンピュータ装置を本実施形態に係る肌解析システムにおける端末装置20として利用することができる。 The terminal device 20 includes a photographing means 201 and a display unit 202. The terminal device 20 includes a general computer device provided with an arithmetic unit, a main storage device, an auxiliary storage device, a communication means with the skin analysis device 10, a photographing means such as a digital camera, various input / output devices, and the like. It can be used. For example, a tablet terminal or the like having a camera function may be used. Specifically, for example, by installing dedicated application software for operating the computer device as each means described later, the computer device can be used as the terminal device 20 in the skin analysis system according to the present embodiment. ..

本実施形態における肌解析装置10は、顔の表情変化の過程を撮影した動画を取得する動画取得手段1と、動画取得手段1が取得した動画から表情変化のタイミングを特定して解析対象を抽出する解析対象抽出手段2と、解析対象抽出手段2によって抽出された解析対象における移動量を測定し、移動量に基づいて皮膚変化の物理量を測定する物理量測定手段3と、相関関係データを記憶する記憶手段4と、皮膚の粘弾性の算出、表皮の水分量の算出、皮下のコラーゲン構造の推定を行う解析部5と、解析部5の解析結果に基づいて被験者の肌の評価値を算出する評価手段6と、を備える。 The skin analysis device 10 in the present embodiment identifies the timing of the facial expression change from the moving image acquisition means 1 for acquiring the moving image of the facial expression change process and the moving image acquired by the moving image acquisition means 1 and extracts the analysis target. Correlation data is stored with the analysis target extraction means 2 to be analyzed, the physical quantity measuring means 3 that measures the movement amount in the analysis target extracted by the analysis target extraction means 2 and measures the physical amount of skin change based on the movement amount. The evaluation value of the skin of the subject is calculated based on the memory means 4, the analysis unit 5 that calculates the viscoelasticity of the skin, the water content of the epidermis, and the estimation of the subcutaneous collagen structure, and the analysis unit 5. The evaluation means 6 is provided.

本実施形態において、物理量測定手段3は、動画から顔の特徴点を抽出する特徴点抽出手段31と、特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向、等を示す動きベクトルを特定し、動きベクトルから移動量を測定する移動量測定手段32と、移動量に基づいて物理量を測定する移動量解析手段33と、を備える。 In the present embodiment, the physical quantity measuring means 3 includes the feature point extracting means 31 for extracting the feature points of the face from the moving image, the magnitude of the movement speed of the feature points, the direction of the speed, the magnitude of the acceleration, the direction of the acceleration, and the like. A movement amount measuring means 32 for specifying a movement vector indicating the above and the like and measuring the movement amount from the movement vector, and a movement amount analysis means 33 for measuring a physical quantity based on the movement amount are provided.

記憶手段4は、物理量と粘弾性の相関関係を記憶する。本実施形態において、記憶手段4が記憶する物理量と粘弾性の相関関係は、物理量と皮下の粘弾性の相関関係と、物理量と真皮の粘弾性の相関関係と、を含む。本実施形態においては、記憶手段4はこの他に、物理量と表皮の水分量の相関関係、真皮の粘弾性と真皮コラーゲン構造との相関関係、皮下の粘弾性と皮下コラーゲン構造の相関関係等のデータや、動画取得手段1が取得した動画の情報、解析対象抽出手段2が抽出した解析対象に関する情報、解析結果、等を記憶する。 The storage means 4 stores the correlation between the physical quantity and the viscoelasticity. In the present embodiment, the correlation between the physical quantity and the viscoelasticity stored by the storage means 4 includes the correlation between the physical quantity and the viscoelasticity under the skin, and the correlation between the physical quantity and the viscoelasticity of the dermis. In the present embodiment, the memory means 4 also has a correlation between the physical amount and the water content of the epidermis, a correlation between the viscoelasticity of the dermis and the dermis collagen structure, a correlation between the subcutaneous viscoelasticity and the subcutaneous collagen structure, and the like. Data, information on the moving image acquired by the moving image acquisition means 1, information on the analysis target extracted by the analysis target extracting means 2, analysis results, and the like are stored.

ここで、本実施形態における各種の相関関係データとしては、例えば、各種の値の相互の関係を表す関数や、各種のデータを組として与えることで学習させたモデル等を、算出モデルとして記憶させておくことができる。この他にも、任意の方法で相関関係を表す情報を記憶し、算出に用いてよい。 Here, as various correlation data in the present embodiment, for example, a function representing the mutual relationship of various values, a model trained by giving various data as a set, and the like are stored as a calculation model. Can be kept. In addition to this, information representing the correlation may be stored by any method and used for calculation.

本実施形態において、解析部5は、物理量と粘弾性の相関関係に基づいて、物理量の測定値から粘弾性を算出する粘弾性算出手段51と、粘弾性と皮下のコラーゲン構造の相関関係に基づいて、算出した粘弾性から肌のコラーゲン構造を推定するコラーゲン構造推定手段52と、物理量と表皮の水分量の相関関係に基づいて、物理量の測定値から表皮の水分量を算出する水分量算出手段53と、を備える。粘弾性算出手段51は、皮下の粘弾性を算出する皮下粘弾性算出手段511と、真皮の粘弾性を算出する真皮粘弾性算出手段512と、を備える。また、コラーゲン構造推定手段52は、皮下コラーゲン構造を推定する皮下コラーゲン構造推定手段521と、真皮コラーゲン構造を推定する真皮コラーゲン構造推定手段522と、を備える。 In the present embodiment, the analysis unit 5 is based on the viscoelasticity calculating means 51 that calculates the viscoelasticity from the measured value of the physical quantity based on the correlation between the physical quantity and the viscoelasticity, and the correlation between the viscoelasticity and the subcutaneous collagen structure. The collagen structure estimation means 52 that estimates the skin collagen structure from the calculated viscoelasticity, and the water content calculation means that calculates the water content of the epidermis from the measured value of the physical quantity based on the correlation between the physical quantity and the water content of the epidermis. 53 and. The viscoelasticity calculating means 51 includes a subcutaneous viscoelasticity calculating means 511 for calculating the subcutaneous viscoelasticity and a dermis viscoelasticity calculating means 512 for calculating the viscoelasticity of the dermis. Further, the collagen structure estimating means 52 includes a subcutaneous collagen structure estimating means 521 for estimating the subcutaneous collagen structure and a dermis collagen structure estimating means 522 for estimating the dermis collagen structure.

本実施形態において、評価手段6は、真皮粘弾性算出手段512が算出した真皮の粘弾性に関する評価値を算出する真皮粘弾性評価手段61と、皮下粘弾性算出手段511が算出した皮下の粘弾性に関する評価値を算出する皮下粘弾性評価手段62と、真皮コラーゲン構造推定手段522が推定した真皮コラーゲン構造に関する評価値を算出する真皮コラーゲン構造評価手段63と、皮下コラーゲン構造推定手段521が推定した皮下コラーゲン構造に関する評価値を算出する皮下コラーゲン構造評価手段64と、水分量算出手段53が算出した表皮の水分量に関する評価値を算出する水分量評価手段65と、を備える。 In the present embodiment, the evaluation means 6 includes the dermis viscoelasticity evaluation means 61 for calculating the evaluation value regarding the viscous elasticity of the dermis calculated by the dermis viscoelasticity calculation means 512 and the subcutaneous viscoelasticity calculated by the subcutaneous viscoelasticity calculation means 511. The subcutaneous viscoelasticity evaluation means 62 for calculating the evaluation value for the dermal collagen structure, the dermis collagen structure evaluation means 63 for calculating the evaluation value for the dermis collagen structure estimated by the dermis collagen structure estimation means 522, and the subcutaneous collagen structure estimation means 521 estimated for The subcutaneous collagen structure evaluation means 64 for calculating the evaluation value regarding the collagen structure and the water content evaluation means 65 for calculating the evaluation value regarding the water content of the dermis calculated by the water content calculation means 53 are provided.

図3は、本実施形態における肌解析方法を示すフローチャートである。なお、本実施形態において、図3におけるステップS11及びステップS12は、縦方向表情変化を含む動画及び横方向表情変化を含む動画のそれぞれに対して行われ、ステップS13からステップS16においては、2種類の動画から測定された複数の移動量に基づいて各工程の処理を行う。このように、肌を異なる方向に伸縮させる複数の表情変化について移動量を測定し、複数の移動量から測定された物理量に基づいて肌の粘弾性を算出することで、より詳細に肌の解析を行うことができる。 FIG. 3 is a flowchart showing the skin analysis method in the present embodiment. In the present embodiment, steps S11 and S12 in FIG. 3 are performed for each of a moving image including a vertical facial expression change and a moving image including a horizontal facial expression change, and there are two types in steps S13 to S16. Each step is processed based on a plurality of movement amounts measured from the moving image of. In this way, the amount of movement is measured for a plurality of facial changes that stretch and contract the skin in different directions, and the viscoelasticity of the skin is calculated based on the physical quantities measured from the plurality of movement amounts, thereby analyzing the skin in more detail. It can be performed.

<解析対象の抽出>
まず、ステップS11の動画取得工程において、動画の取得と解析対象の抽出を行う。図4に、動画取得工程における、処理のフローチャートを示す。本実施形態においては、縦方向表情変化を含む動画と、横方向表情変化を含む動画と、を取得し、それぞれに含まれる表情変化の各々について図4に示す処理を実行し、解析対象を抽出する。即ち、図4に示す処理は2種類の動画それぞれについて実行される。ここで、図4に示す各々の工程は全て、ひとつの動画全体への処理が完了してから次の工程に移る。即ち、例えば、ステップS24の表情動作評価工程は、ステップS23の距離算出工程において動画を構成する全てのフレームについて顔部品座標間の距離の算出が完了してから開始する。
<Extraction of analysis target>
First, in the moving image acquisition step of step S11, the moving image is acquired and the analysis target is extracted. FIG. 4 shows a flowchart of processing in the moving image acquisition process. In the present embodiment, a moving image including a vertical facial expression change and a moving image including a horizontal facial expression change are acquired, the processing shown in FIG. 4 is executed for each of the facial expression changes included in each, and the analysis target is extracted. To do. That is, the process shown in FIG. 4 is executed for each of the two types of moving images. Here, all the steps shown in FIG. 4 move to the next step after the processing for one entire moving image is completed. That is, for example, the facial expression motion evaluation step in step S24 starts after the calculation of the distances between the face component coordinates for all the frames constituting the moving image in the distance calculation step in step S23 is completed.

ステップS21においては、動画取得手段1が、動画の撮影を促す情報を端末装置20の表示部202に表示させ、撮影手段201が動画の撮影を行う。動画取得手段1は、撮影手段201によって撮影された動画の情報を取得し、記憶手段4に記録する。 In step S21, the moving image acquisition means 1 displays information prompting the shooting of the moving image on the display unit 202 of the terminal device 20, and the shooting means 201 shoots the moving image. The moving image acquisition means 1 acquires the information of the moving image taken by the shooting means 201 and records it in the storage means 4.

図5は、本実施形態における被験者の撮影方向を示す図である。本実施形態においては、動画取得手段1は、被験者の顔を通る鉛直方向の軸まわりに、正面を0度として25度回転した方向から撮影した顔の表情変化の過程を表す動画の情報を取得する。この時、撮影手段201が正面からの回転角度を取得し、回転角度が所定の範囲内である場合に撮影を許可する構成としてもよい。回転方向は被験者に向かって右回りでも左回りでもよく、またその両方について解析を行ってもよい。 FIG. 5 is a diagram showing the imaging direction of the subject in the present embodiment. In the present embodiment, the moving image acquisition means 1 acquires information on a moving image showing the process of facial expression change taken from a direction rotated by 25 degrees with the front as 0 degrees around a vertical axis passing through the subject's face. To do. At this time, the photographing means 201 may acquire the rotation angle from the front and allow photography when the rotation angle is within a predetermined range. The direction of rotation may be clockwise or counterclockwise toward the subject, or both may be analyzed.

このように、被験者の顔を通る鉛直方向の軸まわりに回転した方向から撮影することが望ましい。より詳細には、この時の回転角度は、正面を0度として20〜30度の範囲とすることがより好ましい。これにより、顔の印象を左右しやすい頬及び目の周辺部分の肌をより広く含む画像を取得することができるため、このような部分の肌について、肌の解析をより正確に行うことができる。 In this way, it is desirable to shoot from the direction rotated around the vertical axis passing through the subject's face. More specifically, the rotation angle at this time is more preferably in the range of 20 to 30 degrees with the front surface as 0 degrees. As a result, it is possible to acquire an image that includes the skin around the cheeks and eyes, which tends to affect the impression of the face, more accurately, so that the skin can be analyzed more accurately. ..

このとき、撮影画面において、目や輪郭等の顔部品の位置を合わせる為のガイドを表示してもよい。例えば、まず顔の位置を合わせる為のガイドを表示し、顔の位置合わせが完了すると、撮影手段201の角度に基づいて撮影角度を20〜30度とするようにガイド表示を行う構成としてもよい。 At this time, a guide for aligning the positions of facial parts such as eyes and contours may be displayed on the shooting screen. For example, a guide for aligning the face may be displayed first, and when the alignment of the face is completed, the guide may be displayed so that the shooting angle is 20 to 30 degrees based on the angle of the shooting means 201. ..

また、本実施形態では、肌解析装置10は、取得した動画における顔の位置のずれを補正する処理を実行する。具体的には、例えば鼻等の顔部品を基準として、表情動作による顔位置の移動や撮影時の手振れを補正することができる。この時、基準とする顔部品は、解析領域との相対的な位置変化が少ない部位であることが好ましい。 Further, in the present embodiment, the skin analysis device 10 executes a process of correcting the deviation of the position of the face in the acquired moving image. Specifically, it is possible to correct the movement of the face position due to the facial expression movement and the camera shake during shooting, for example, with the face component such as the nose as a reference. At this time, it is preferable that the reference face component is a portion where the relative position change with respect to the analysis region is small.

なお、動画の撮影を促す情報及びガイドの表示のための処理や、顔の位置のずれの補正等は、肌解析装置10と端末装置20のいずれにおいて実行されてもよい。例えば、動画の撮影処理については端末装置20において完結し、動画取得手段1は、端末装置20において撮影及び一時保存された動画を単に受信する手段として機能してもよい。 It should be noted that the processing for displaying the information and the guide for prompting the shooting of the moving image, the correction of the displacement of the face position, and the like may be executed by either the skin analysis device 10 or the terminal device 20. For example, the moving image shooting process is completed in the terminal device 20, and the moving image acquisition means 1 may function as a means for simply receiving the moving image taken and temporarily stored in the terminal device 20.

次に、ステップS22の顔部品座標検出工程において、解析対象抽出手段2が、ステップS21で取得した動画に含まれる顔における顔部品座標を、フレームごとに複数検出する。ここで、動画に含まれる表情変化に連動して距離が変化する2点の組を少なくとも1組検出する。このように、表情変化に連動して距離が変化する2点を組として検出することにより、その2点間の距離の変化に基づいて表情変化が開始する画像及び表情変化が終了する画像をより正確に特定することができる。 Next, in the face component coordinate detection step of step S22, the analysis target extraction means 2 detects a plurality of face component coordinates of the face included in the moving image acquired in step S21 for each frame. Here, at least one set of two points whose distance changes in conjunction with the change in facial expression included in the moving image is detected. In this way, by detecting as a set two points whose distance changes in conjunction with the facial expression change, the image in which the facial expression change starts and the image in which the facial expression change ends based on the change in the distance between the two points can be obtained. Can be identified accurately.

ステップS22の顔部品座標検出工程において動画全体について顔部品座標の検出が終了すると、ステップS23において、解析対象抽出手段2が、顔部品座標間の距離を算出する。距離の算出は動画全体の各フレームについて行われ、その算出結果が記憶手段4に記憶される。 When the detection of the face component coordinates for the entire moving image is completed in the face component coordinate detection step of step S22, the analysis target extraction means 2 calculates the distance between the face component coordinates in step S23. The calculation of the distance is performed for each frame of the entire moving image, and the calculation result is stored in the storage means 4.

図6は、本実施形態において用いる、顔部品座標を示す図である。図6(a)は縦方向表情変化における解析対象を抽出する際に用いられる顔部品座標を、図6(b)は横方向表情変化における解析対象を抽出する際に用いられる顔部品座標をそれぞれ示す。ここに示すように、本実施形態においては、縦方向表情変化における解析対象を抽出する際には唇の上下端の2点間に加え、左右の頬のそれぞれ複数の点及び顎部の点の座標を顔部品座標として検出する。そして、距離算出手段13が、唇輪郭の上下端の2点の距離及び左右の頬の各点と顎部の点との間の距離をそれぞれ算出して、その算出結果に基づいて解析対象が抽出される。 FIG. 6 is a diagram showing the coordinates of the face parts used in the present embodiment. FIG. 6 (a) shows the coordinates of the face parts used when extracting the analysis target in the vertical facial expression change, and FIG. 6 (b) shows the coordinates of the face parts used in extracting the analysis target in the horizontal facial expression change. Shown. As shown here, in the present embodiment, when extracting the analysis target in the vertical facial expression change, in addition to the two points between the upper and lower ends of the lips, a plurality of points on the left and right cheeks and a point on the chin, respectively. Detect the coordinates as face part coordinates. Then, the distance calculation means 13 calculates the distance between the upper and lower ends of the lip contour and the distance between each point on the left and right cheeks and the point on the chin, and the analysis target is based on the calculation result. Be extracted.

また、横方向表情変化における解析対象を抽出する際には唇輪郭の上下端の2点及び唇輪郭の左右端の2点を顔部品座標として検出し、距離算出手段13がそれぞれを組として唇輪郭の上下端の2点の距離及び唇輪郭の左右端の2点間の距離をそれぞれ算出する。このように、解析したい一連の表情変化に応じて、用いる顔部品座標を設定することにより、少ない情報で正確に表情変化の開始及び終了を特定することができる。 Further, when extracting the analysis target in the lateral facial expression change, two points at the upper and lower ends of the lip contour and two points at the left and right ends of the lip contour are detected as facial component coordinates, and the distance calculation means 13 sets each of the lips as a set. The distance between the two points at the upper and lower ends of the contour and the distance between the two points at the left and right ends of the lip contour are calculated. In this way, by setting the facial component coordinates to be used according to the series of facial expression changes to be analyzed, it is possible to accurately identify the start and end of the facial expression change with a small amount of information.

ここで、唇の上下端の2点と、頬部及びあごの2点と、は、いずれも頬部分の肌を縦方向に伸ばした時に距離が大きくなり、頬部分の肌を縦方向に縮めた時に距離が小さくなる。これにより、各種の縦方向表情変化のタイミングを特定できる。また、唇輪郭の左右端の2点は、頬部分の肌を横方向に伸ばした時に距離が小さくなり、頬部分の肌を横方向に縮めた時に距離が大きくなる。更に、唇輪郭の上下端の2点の距離を用いることで、例えば横方向表情変化の際に、唇輪郭の左右端の2点の距離変化が小さい「う」の表情から無表情への表情変化等についても、表情変化の開始する画像及び表情変化の終了する画像を特定することができ、各種の横方向表情変化のタイミングを特定できる。 Here, the two points on the upper and lower ends of the lips and the two points on the cheeks and chin both increase the distance when the skin on the cheeks is stretched in the vertical direction, and the skin on the cheeks is shortened in the vertical direction. The distance becomes smaller when Thereby, the timing of various vertical facial expression changes can be specified. In addition, the distance between the two points at the left and right ends of the lip contour decreases when the skin on the cheek portion is stretched laterally, and the distance increases when the skin on the cheek portion is contracted laterally. Furthermore, by using the distance between the upper and lower ends of the lip contour, for example, when the facial expression changes in the lateral direction, the facial expression from the "U" expression to the expressionless expression where the distance change between the two points at the left and right ends of the lip contour is small. As for the change, the image at which the facial expression change starts and the image at which the facial expression change ends can be specified, and the timing of various lateral facial expression changes can be specified.

このように、顔部品座標検出工程においては、頬部分の肌の伸縮に連動して距離が変化する2点の組を複数検出することが好ましい。これにより、複数種類の表情変化を含む動画に対して、種類ごとに解析対象抽出処理を行わずとも、その各種の表情変化の開始するフレーム及び表情変化の終了するフレームを一連の処理によって特定することができる。 As described above, in the face component coordinate detection step, it is preferable to detect a plurality of pairs of two points whose distance changes in conjunction with the expansion and contraction of the skin on the cheek portion. As a result, for a moving image containing a plurality of types of facial expression changes, the frame at which the various facial expression changes start and the frame at which the facial expression changes end are specified by a series of processes without performing analysis target extraction processing for each type. be able to.

なお、顔部品座標の検出には、一般に知られている任意の方法を用いることができる。例えば、一般に販売されている開発キットを利用して開発したアプリケーションソフトを用いてもよい。開発キットとしては、例えば、Face Sensing Engine(登録商標)(https://www.oki.com/jp/fse/function/#fp,最終閲覧日:平成30年12月19日)等を利用することができる。 Any generally known method can be used to detect the coordinates of the face component. For example, application software developed using a development kit that is generally sold may be used. As a development kit, for example, Face Sensing Engine (registered trademark) (https://www.oki.com/jp/fse/function/#fp, last viewed date: December 19, 2018) is used. be able to.

また、本実施形態では、距離算出工程S23において、顔部品座標間の距離を標準化する為の基準距離を算出する基準距離算出工程が実行される。そして、後述する表情動作評価工程S24〜解析対象抽出工程S26においては、顔部品座標間の距離を基準距離によって標準化した値を用いて、解析対象の抽出が行われる。このようにすることで、顔の個人差や撮影時の倍率等の影響を低減してより精度よく解析対象を抽出することができる。 Further, in the present embodiment, in the distance calculation step S23, a reference distance calculation step for calculating the reference distance for standardizing the distance between the face component coordinates is executed. Then, in the facial expression motion evaluation step S24 to the analysis target extraction step S26, which will be described later, the analysis target is extracted using the value obtained by standardizing the distance between the facial component coordinates by the reference distance. By doing so, it is possible to reduce the influence of individual differences in the face and the magnification at the time of shooting, and to extract the analysis target more accurately.

図7は、本実施形態において用いることができる、基準距離の例を示す図である。本実施形態では、左右の目の距離(図示例における「A」の距離)を基準距離として用いて、顔部品座標間の距離を標準化する。具体的には、例えば、Aの距離を算出し、顔部品座標間の距離を全てAで除算する等の方法で、顔部品座標間の距離を標準化することができる。 FIG. 7 is a diagram showing an example of a reference distance that can be used in the present embodiment. In the present embodiment, the distance between the left and right eye (distance of "A" in the illustrated example) is used as a reference distance to standardize the distance between the coordinates of the face parts. Specifically, for example, the distance between the face component coordinates can be standardized by calculating the distance of A and dividing all the distances between the face component coordinates by A.

この他、左右の目を結ぶ線分から顎先に降ろした垂線の長さ(図示例における「B」の距離)等、個人差や撮影時の倍率等による影響を是正できると考えられる任意の距離を、基準距離として用いることが好ましい。また、基準距離を複数組み合わせて、顔部品座標間の距離を標準化する構成としてもよい。なお、基準距離としては、顔上の任意の特徴を示す点に関する距離を用いればよく、特に制限はない。 In addition, any distance that can correct the influence of individual differences and magnification at the time of shooting, such as the length of the perpendicular line drawn from the line connecting the left and right eyes to the chin (distance of "B" in the illustrated example). Is preferably used as the reference distance. Further, a plurality of reference distances may be combined to standardize the distance between the coordinates of the face parts. As the reference distance, a distance related to a point showing an arbitrary feature on the face may be used, and there is no particular limitation.

ステップS24の表情動作評価工程においては、ステップS23において算出された顔部品座標間の距離の変化に基づいて表情変化の大きさを評価する。具体的には、例えば、被験者が無表情を再現した時の顔部品座標間の距離と、無表情以外の表情(「あ」の表情、「い」の表情、「う」の表情)を再現した時の顔部品座標間の距離と、の比を表情変化の評価値として算出することができる。このように比を用いることで、顔の大きさ等の個人差や撮影時の倍率等の影響を小さくすることができる。 In the facial expression motion evaluation step of step S24, the magnitude of the facial expression change is evaluated based on the change in the distance between the facial component coordinates calculated in step S23. Specifically, for example, the distance between the facial component coordinates when the subject reproduces the expressionlessness and the facial expressions other than the expressionlessness ("a" expression, "i" expression, "u" expression) are reproduced. The ratio between the distance between the facial component coordinates and the facial expression change can be calculated as the evaluation value of the facial expression change. By using the ratio in this way, it is possible to reduce the influence of individual differences such as the size of the face and the magnification at the time of shooting.

次に、ステップS25において、ステップS24で算出した評価値を基準値と比較し、基準値を上回った場合にはステップS26の解析対象抽出工程に進む。基準値に満たない場合には、ステップS27に進み、動画取得手段1が、再度動画の撮影を促す為の情報を端末装置20に送信する。ステップS27が終了するとステップS21に戻り、再度動画の取得を行う。再度取得した動画については、ステップS22〜ステップS25において、顔部品座標検出工程と、距離算出工程と、表情動作評価工程と、のそれぞれの処理が行われる。 Next, in step S25, the evaluation value calculated in step S24 is compared with the reference value, and if it exceeds the reference value, the process proceeds to the analysis target extraction step of step S26. If the value does not reach the reference value, the process proceeds to step S27, and the moving image acquisition means 1 transmits information for prompting the shooting of the moving image to the terminal device 20 again. When step S27 is completed, the process returns to step S21, and the moving image is acquired again. For the video acquired again, in steps S22 to S25, each process of the face component coordinate detection step, the distance calculation step, and the facial expression motion evaluation step is performed.

なお、本実施形態においては、取得する動画には複数の表情変化が含まれるため、表情動作評価工程においては、動画に含まれる全ての表情変化について基準値との比較を行い、全ての表情変化の評価値が基準値を上回った場合に解析対象抽出工程に進む。 In the present embodiment, since the acquired moving image includes a plurality of facial expression changes, in the facial expression motion evaluation process, all the facial expression changes included in the moving image are compared with the reference values, and all the facial expression changes. When the evaluation value of is higher than the reference value, the process proceeds to the analysis target extraction step.

このように、表情変化の大きさを評価し、所定の基準に満たない場合には再撮影を行わせて再度動画を取得することで、表情変化の大きさが肌解析を行う為に十分な動画に対して肌解析を実行することができる。これにより、肌の粘弾性の算出の精度を向上させることができる。 In this way, by evaluating the magnitude of the facial expression change, and if it does not meet the predetermined criteria, re-shooting is performed and the moving image is acquired again, the magnitude of the facial expression change is sufficient for skin analysis. You can perform skin analysis on the video. This makes it possible to improve the accuracy of calculating the viscoelasticity of the skin.

ステップS26においては、解析対象抽出手段2が解析対象の抽出を行う。図8は、解析対象抽出工程における処理の一例を示すフローチャートである。ここで、ステップS26においては、動画に含まれる各種の表情変化における解析対象のそれぞれについて図8に示す処理を実行し、解析対象を抽出する。本実施形態においては、縦方向表情変化を含む動画の4種類の縦方向表情変化、及び横方向表情変化を含む動画の4種類の横方向表情変化の、合計8種類の表情変化についてそれぞれ解析対象を抽出する。 In step S26, the analysis target extraction means 2 extracts the analysis target. FIG. 8 is a flowchart showing an example of processing in the analysis target extraction process. Here, in step S26, the processing shown in FIG. 8 is executed for each of the analysis targets in various facial expression changes included in the moving image, and the analysis target is extracted. In the present embodiment, a total of eight types of facial expression changes, four types of vertical facial expression changes of a moving image including a vertical facial expression change and four types of horizontal facial expression changes of a moving image including a horizontal facial expression change, are analyzed. Is extracted.

なお、図8に示す処理は、組として検出された2点の顔部品座標間の距離それぞれについて行われる処理である。本実施形態においては、顔部品座標間の距離を複数用いて解析対象の抽出を行うため、組として検出された2点の顔部品座標間の距離それぞれについてこの処理を行い、その結果の組み合わせによって解析対象を抽出する。具体的には、組として検出されたある2点の顔部品座標間の距離を用いて解析対象を抽出し、その際に抽出できなかった表情変化に対して他の2点の顔部品座標間の距離を用いて図8に示す処理を行うことで解析対象を抽出することができる。 The process shown in FIG. 8 is a process performed for each of the distances between the coordinates of the two face parts detected as a set. In the present embodiment, in order to extract the analysis target by using a plurality of distances between the coordinates of the face parts, this processing is performed for each of the distances between the coordinates of the two face parts detected as a set, and the combination of the results is used. Extract the analysis target. Specifically, the analysis target is extracted using the distance between the coordinates of two face parts detected as a set, and the distance between the coordinates of the other two points for the facial expression change that could not be extracted at that time. The analysis target can be extracted by performing the process shown in FIG. 8 using the distance of.

解析対象抽出手段2は、まず、ステップS31において、連続するフレーム間の顔部品座標間の距離の差分(変化量)の絶対値を算出する。次に、ステップS32において、顔部品座標間の距離の差分が基準値より大きい頂点(極大点)を検出する。すなわち、動画に含まれる複数の表情変化の各々の過程において、最も大きく顔部品座標間の距離が変化した点を検出する。 First, in step S31, the analysis target extraction means 2 calculates the absolute value of the difference (change amount) of the distance between the face component coordinates between consecutive frames. Next, in step S32, a vertex (maximum point) in which the difference in distance between the face component coordinates is larger than the reference value is detected. That is, in each process of the plurality of facial expression changes included in the moving image, the point where the distance between the coordinates of the face parts changes most is detected.

ステップS33においては、ステップS32で検出した頂点の前後で顔部品座標間の距離の差分が基準値を下回るフレームを特定する。これにより、ステップS32で検出した頂点の直前に顔部品座標間の距離の差分が基準値を下回ったフレームを表情変化が開始したフレームとして特定し、同様にして頂点の直後に顔部品座標間の距離の差分が基準値を下回ったフレームを表情変化が終了したフレームとして特定し、記憶手段4に記録する。これにより、解析対象抽出手段2は、表情変化の開始したフレームと、終了したフレームと、の間に含まれるフレームを解析対象として抽出する。 In step S33, a frame in which the difference in distance between the face component coordinates is less than the reference value before and after the vertex detected in step S32 is specified. As a result, the frame in which the difference in the distance between the face component coordinates is less than the reference value immediately before the vertex detected in step S32 is specified as the frame in which the facial expression change has started, and similarly, the frame between the face component coordinates immediately after the vertex is specified. A frame in which the difference in distance is less than the reference value is specified as a frame in which the facial expression change is completed, and is recorded in the storage means 4. As a result, the analysis target extraction means 2 extracts the frame included between the frame at which the facial expression change has started and the frame at which the facial expression change has ended as the analysis target.

なお、図8に示した処理を行う際には、適宜フィルタリング等を行ってもよい。例えば、ステップS31において、顔部品座標間の距離の時間変化(各フレーム間における顔部品座標間の距離の変化)に対して低域通過フィルタ(LPF:Low Pass Filter)を適用してノイズ除去を行った上で、フレーム間の差分を算出してもよい。この他には、ノイズ除去のために、ステップS31において算出されたフレーム間の顔部品座標間の距離の差分の絶対値について、所定の値に満たない部分を0とする処理等を行うことができる。 When performing the process shown in FIG. 8, filtering or the like may be appropriately performed. For example, in step S31, a low-pass filter (LPF: Low Pass Filter) is applied to remove noise by applying a low-pass filter (LPF: Low Pass Filter) to the time change of the distance between the face component coordinates (change in the distance between the face component coordinates between each frame). After that, the difference between the frames may be calculated. In addition to this, in order to remove noise, the absolute value of the difference in the distance between the face component coordinates between the frames calculated in step S31 may be set to 0 for a portion less than a predetermined value. it can.

以上のように、複数の画像から顔部品座標を検出し、顔部品座標間の距離に基づいて表情変化が開始する画像及び表情変化が終了する画像を特定して、その間に含まれる画像を解析対象として抽出することにより、所定の表情変化を含むフレームを精度よく特定できる。これにより、所定の表情変化の際の肌の運動特性をより正確に解析することができ、肌解析の精度を上げることができる。 As described above, the facial component coordinates are detected from a plurality of images, the image in which the facial expression change starts and the image in which the facial expression change ends are specified based on the distance between the facial component coordinates, and the images included in the interval are analyzed. By extracting as a target, it is possible to accurately identify a frame containing a predetermined facial expression change. As a result, the movement characteristics of the skin when a predetermined facial expression changes can be analyzed more accurately, and the accuracy of the skin analysis can be improved.

<物理量の測定>
上記のようにして図3におけるステップS11が終了すると、ステップS12の移動量測定工程が開始する。図9は、移動量測定工程における処理の流れを示すフローチャートである。ここで、ステップS12においては、ステップS11において抽出された各種の表情変化における解析対象のそれぞれについて図9に示す処理を実行し、移動量を測定する。本実施形態においては、4種類の縦方向表情変化と4種類の横方向表情変化、即ち8種類の表情変化における解析対象についてそれぞれ移動量を測定する。
<Measurement of physical quantity>
When the step S11 in FIG. 3 is completed as described above, the movement amount measuring step of the step S12 is started. FIG. 9 is a flowchart showing a processing flow in the movement amount measuring process. Here, in step S12, the processing shown in FIG. 9 is executed for each of the analysis targets in the various facial expression changes extracted in step S11, and the movement amount is measured. In the present embodiment, the amount of movement is measured for each of the analysis targets in the four types of vertical facial expression changes and the four types of horizontal facial expression changes, that is, the eight types of facial expression changes.

まず、ステップS41では、解析対象の中の各フレームより、特徴点の抽出を行う。ここでは、フレーム中の各画素の輝度値などから皮膚の凹凸を判別して特徴点を設定する方法や、動画中にグリッド状に特徴点を設定する方法、すなわち、格子状に特徴点を配置する方法など、任意の方法を用いてよい。 First, in step S41, feature points are extracted from each frame in the analysis target. Here, a method of determining the unevenness of the skin from the brightness value of each pixel in the frame and setting the feature points, or a method of setting the feature points in a grid shape in the moving image, that is, arranging the feature points in a grid pattern. Any method may be used, such as a method of

本実施形態では、オプティカルフロー法により移動量の測定を行う。具体的には、頬部の解析領域の1辺を所定の数に分割して、分割された正方形の領域を基本解析単位として、各基本解析単位における中心点を特徴点とみなし、移動量を測定する。図10は、本実施形態における解析領域の分画パターンの一例を示す図である。図10における斜線の領域が各分画パターンにおける1つの基本解析単位である。本実施形態では、まず1辺を12に分割し、各種の大きさの解析単位における動きベクトルの特定を行う(ステップS42)。動きベクトルは、フレーム間における輝度の変化等によって求めることができる。 In this embodiment, the amount of movement is measured by the optical flow method. Specifically, one side of the analysis area of the cheek is divided into a predetermined number, the divided square area is regarded as the basic analysis unit, the central point in each basic analysis unit is regarded as the feature point, and the amount of movement is calculated. Measure. FIG. 10 is a diagram showing an example of a fractionation pattern of the analysis region in the present embodiment. The shaded area in FIG. 10 is one basic analysis unit in each fractionation pattern. In the present embodiment, one side is first divided into 12, and motion vectors in analysis units of various sizes are specified (step S42). The motion vector can be obtained by the change in brightness between frames and the like.

その後、ステップS43で、動きベクトルの解析を行い、移動量の測定を行う。ここでの移動量の例としては、先述した特徴点の座標の変位量、移動速度、加速度、移動方向などや、平面の運動の波動性パラメータ、例えば周期、周長など、顔の皮膚の運動に関する量が挙げられる。 After that, in step S43, the motion vector is analyzed and the movement amount is measured. Examples of the amount of movement here include the amount of displacement of the coordinates of the feature points mentioned above, the movement speed, acceleration, the movement direction, and the wave motion parameters of the plane movement, such as the period and the circumference, and the movement of the skin of the face. The amount of is mentioned.

なお、このようなそれぞれの移動量は、各フレームにおける値として求めてもよいし、また、ひとつの表情変化を通しての平均値として求めてもよい。あるいは、頬部、顎部といったように領域を設定し、その領域内における値の積算値や平均値などを求めてもよい。 In addition, each such movement amount may be obtained as a value in each frame, or may be obtained as an average value through one facial expression change. Alternatively, a region such as a cheek or a chin may be set, and an integrated value or an average value of values in the region may be obtained.

ステップS43において、本実施形態では、まず解析領域を12×12の144の基本解析単位に分ける。次に、各基本解析単位の移動量を測定し、隣り合う基本解析単位同士の平均値をとることで、6×6、4×4、3×3、2×2、1×1、のそれぞれの分画パターンにおける各基本解析単位の移動量を特定できる。これにより、本実施形態では、フレームごとに合計210個のベクトルデータを移動量として用いることができる。 In step S43, in the present embodiment, the analysis area is first divided into 12 × 12 144 basic analysis units. Next, by measuring the amount of movement of each basic analysis unit and taking the average value between adjacent basic analysis units, 6 × 6, 4 × 4, 3 × 3, 2 × 2, 1 × 1, respectively. The amount of movement of each basic analysis unit in the fractionation pattern of can be specified. As a result, in the present embodiment, a total of 210 vector data can be used as the movement amount for each frame.

また、本実施形態では、更に、各分画パターン内における基本解析単位間の移動量の比較に基づく値と、異なる分画パターン間の同一の領域における移動量の比較(大きさの異なる基本解析単位同士の比較)に基づく値と、を各フレームについて算出して、上記のベクトルデータに加えてこれらを移動量として用いる。より具体的には、各分画パターン内の基本解析単位間の移動量の差を総当たりで算術し、また、異なる分画パターン間の対応する領域(同じ位置を示す基本解析単位)の移動量の差を総当たりで算術して、これらを各フレームの移動量として用いることができる。 Further, in the present embodiment, a value based on the comparison of the movement amount between the basic analysis units in each fractionation pattern and a comparison of the movement amount in the same region between different fractionation patterns (basic analysis of different sizes) are further performed. A value based on (comparison between units) and a value are calculated for each frame, and these are used as the movement amount in addition to the above vector data. More specifically, the difference in the amount of movement between the basic analysis units in each fractionation pattern is brute-forced, and the movement of the corresponding region (basic analysis unit indicating the same position) between different fractionation patterns is performed. The difference in quantity can be brute-forced and used as the amount of movement for each frame.

このように、解析領域内の位置(基本解析単位)ごとに様々な観点で移動量を解析することで、領域ごとの運動特性の変化の観測や、個人差の低減等の効果が期待できる。 In this way, by analyzing the amount of movement from various viewpoints for each position (basic analysis unit) in the analysis region, effects such as observing changes in motor characteristics in each region and reducing individual differences can be expected.

以上のように、ステップS11において抽出された各種の表情変化における解析対象のそれぞれについて、ステップS12で図9に示す処理を実行することで、4種類の縦方向表情変化と4種類の横方向表情変化、即ち8種類の表情変化における解析対象についてそれぞれ移動量を得ることができる。 As described above, by executing the process shown in FIG. 9 in step S12 for each of the analysis targets in the various facial expression changes extracted in step S11, four types of vertical facial expression changes and four types of horizontal facial expressions The amount of movement can be obtained for each of the changes, that is, the analysis targets in the eight types of facial expression changes.

ステップS13の物理量測定工程においては、これら8つの表情変化に対応した移動量に基づいて物理量を測定する。本実施形態では、上記のような「フレームごと」の移動方向及び速さ等を含む種々の移動量、即ち時間の次元を持つ2次元の波形を、任意の方法でスカラー量に変換する。例えば、周波数解析や自己回帰モデル解析、ウェーブレット解析等の解析方法を用いることで変換が可能である。これにより、変換されたスカラー量を物理量として用いることができる。なお、この時、莫大な物理量が得られることが予想されるが、主成分分析等の任意の方法で、物理量の縮約を行ってもよい。 In the physical quantity measuring step of step S13, the physical quantity is measured based on the movement amount corresponding to these eight facial expression changes. In the present embodiment, various movement amounts including the movement direction and speed "for each frame" as described above, that is, a two-dimensional waveform having a time dimension is converted into a scalar amount by an arbitrary method. For example, conversion is possible by using analysis methods such as frequency analysis, autoregressive model analysis, and wavelet analysis. As a result, the converted scalar quantity can be used as a physical quantity. At this time, it is expected that a huge physical quantity can be obtained, but the physical quantity may be reduced by any method such as principal component analysis.

また、各表情変化における移動量や物理量の平均値、合計、各移動量に重みづけして算出された値等、移動量から導かれる任意の値を物理量として用いてもよい。 Further, any value derived from the movement amount may be used as the physical quantity, such as the average value and total of the movement amount and the physical quantity in each facial expression change, and the value calculated by weighting each movement amount.

<粘弾性の算出>
ステップS14の粘弾性算出工程においては、物理量と皮膚の粘弾性との相関関係に基づいて、ステップS13で測定された被験者についての物理量から被験者の皮膚の粘弾性を算出する。
<Calculation of viscoelasticity>
In the viscoelasticity calculation step of step S14, the viscoelasticity of the skin of the subject is calculated from the physical quantity of the subject measured in step S13 based on the correlation between the physical quantity and the viscoelasticity of the skin.

図11は、粘弾性算出工程における処理の流れを示すフローチャートである。なお、本実施形態においては、ステップS14において、真皮の粘弾性及び評価値と、皮下の粘弾性及び評価値と、をそれぞれ算出する。 FIG. 11 is a flowchart showing a processing flow in the viscoelasticity calculation process. In this embodiment, in step S14, the viscoelasticity and evaluation value of the dermis and the viscoelasticity and evaluation value of the subcutaneous skin are calculated, respectively.

まず、ステップS51において、記憶手段4が記憶する物理量―粘弾性相関関係データを取得する。本実施形態において、物理量―粘弾性相関関係データは、物理量と皮下の粘弾性の相関関係及び物理量と真皮の粘弾性の相関関係を含む。 First, in step S51, the physical quantity-viscoelastic correlation data stored in the storage means 4 is acquired. In the present embodiment, the physical quantity-viscoelasticity correlation data includes the correlation between the physical quantity and the subcutaneous viscoelasticity and the correlation between the physical quantity and the viscoelasticity of the dermis.

次に、ステップS52において、ステップS51で取得した相関関係と、物理量測定手段3が測定した物理量と、に基づいて、皮膚の粘弾性を算出する。具体的には、例えば、物理量と皮膚の粘弾性との間の関係を表す関数を、粘弾性算出モデルとして記憶手段4に予め登録しておき、その関数に物理量測定手段3が測定した物理量を代入することによって皮膚の粘弾性を算出する等の方法がある。 Next, in step S52, the viscoelasticity of the skin is calculated based on the correlation acquired in step S51 and the physical quantity measured by the physical quantity measuring means 3. Specifically, for example, a function representing the relationship between the physical quantity and the viscoelasticity of the skin is registered in advance in the storage means 4 as a viscoelasticity calculation model, and the physical quantity measured by the physical quantity measuring means 3 is stored in the function. There is a method such as calculating the viscoelasticity of the skin by substituting.

物理量と皮膚の粘弾性との間の関係を表す関数は、物理量及び粘弾性の測定値の組のデータから、統計的手法により求めることができる。より具体的には、上述の方法で被験者について測定された物理量と、同一の被験者について測定された皮膚の粘弾性と、の測定値の組をコンピュータに複数入力し、例えば線形回帰や決定木回帰、サポートベクター回帰、ガウス過程回帰等の回帰分析によって関数(回帰モデル)を得ることができる。また、後述の、物理量と水分量の関係を表す関数や、粘弾性とコラーゲン構造の関係を表す関数についても、同様にして求めることができる。本実施形態では、このような粘弾性算出モデルを、真皮の粘弾性及び皮下の粘弾性のそれぞれについて作成しておき、ステップS52でそれぞれの粘弾性を算出する。 The function representing the relationship between the physical quantity and the viscoelasticity of the skin can be obtained by a statistical method from the data of the set of the measured values of the physical quantity and the viscoelasticity. More specifically, a plurality of sets of measured values of the physical quantity measured for the subject by the above method and the viscoelasticity of the skin measured for the same subject are input to the computer, for example, linear regression or decision tree regression. , Support vector regression, Gaussian process regression, etc. can be used to obtain functions (regression models). Further, the function representing the relationship between the physical quantity and the water content and the function expressing the relationship between the viscoelasticity and the collagen structure, which will be described later, can be obtained in the same manner. In the present embodiment, such a viscoelasticity calculation model is created for each of the dermis viscoelasticity and the subcutaneous viscoelasticity, and each viscoelasticity is calculated in step S52.

粘弾性の算出が完了すると、ステップS53において粘弾性の評価値を算出する。評価値の算出においては、ステップS52で算出した粘弾性を用いて、真皮及び皮下のそれぞれの粘弾性の評価値を算出する。例えば、算出された粘弾性に所定の処理を施して、被験者が感覚的に理解しやすいよう標準化した値等を評価値として用いることができる。 When the calculation of viscoelasticity is completed, the evaluation value of viscoelasticity is calculated in step S53. In the calculation of the evaluation value, the viscoelasticity calculated in step S52 is used to calculate the evaluation value of each of the dermis and the subcutaneous viscoelasticity. For example, the calculated viscoelasticity can be subjected to a predetermined process, and a standardized value or the like can be used as the evaluation value so that the subject can easily understand it sensuously.

ここで、ステップS51及びステップS52は、皮下の粘弾性の算出の際には皮下粘弾性算出手段511が、真皮の粘弾性の算出の際には真皮粘弾性算出手段512がそれぞれ行う。また、ステップS53は、皮下の粘弾性の評価値を算出するときは皮下粘弾性評価手段62が、真皮の粘弾性の評価値を算出するときは真皮粘弾性評価手段61がそれぞれ行う。 Here, steps S51 and S52 are performed by the subcutaneous viscoelasticity calculating means 511 when calculating the subcutaneous viscoelasticity, and by the dermis viscoelasticity calculating means 512 when calculating the dermal viscoelasticity. Further, step S53 is performed by the subcutaneous viscoelasticity evaluation means 62 when calculating the evaluation value of the subcutaneous viscoelasticity, and by the dermis viscoelasticity evaluation means 61 when calculating the evaluation value of the dermis viscoelasticity.

<水分量の算出>
ステップS14が終了すると、ステップS15において水分量算出工程が開始する。ステップS15においては、物理量と表皮の水分量との相関関係に基づいて、ステップS13で測定した被験者についての物理量から被験者の表皮の水分量を算出する。
<Calculation of water content>
When the step S14 is completed, the water content calculation step is started in the step S15. In step S15, the water content of the epidermis of the subject is calculated from the physical quantity of the subject measured in step S13 based on the correlation between the physical quantity and the water content of the epidermis.

図12は、水分量算出工程における処理の流れを示すフローチャートである。まず、ステップS61において、水分量算出手段53は、記憶手段4が記憶する物理量―水分量相関関係データを取得する。次に、ステップS62において、ステップS61で取得した相関関係と、ステップS13で測定した物理量と、に基づいて、水分量算出手段53が表皮の水分量を算出する。具体的には、例えば、物理量と表皮の水分量との間の関係を表す関数を、水分量算出モデルとして記憶手段4に登録しておき、その関数に物理量測定手段3が測定した物理量を代入することによって表皮の水分量を算出する等の方法がある。物理量と表皮の水分量との間の関係を表す関数は、物理量と粘弾性との間の関係を表す関数と同様に、物理量及び水分量の測定値の組のデータから、統計的手法により求めることができる。 FIG. 12 is a flowchart showing the flow of processing in the water content calculation process. First, in step S61, the water content calculating means 53 acquires the physical quantity-water content correlation data stored in the storage means 4. Next, in step S62, the water content calculating means 53 calculates the water content of the epidermis based on the correlation acquired in step S61 and the physical quantity measured in step S13. Specifically, for example, a function representing the relationship between the physical quantity and the water content of the epidermis is registered in the storage means 4 as a water content calculation model, and the physical quantity measured by the physical quantity measuring means 3 is substituted into the function. There is a method such as calculating the water content of the epidermis by doing so. The function that expresses the relationship between the physical quantity and the water content of the epidermis is obtained by a statistical method from the data of the set of the measured values of the physical quantity and the water content, like the function that expresses the relationship between the physical quantity and the viscoelasticity. be able to.

水分量の算出が完了すると、ステップS63において、ステップS62で算出した水分量を用いて、水分量評価手段65が表皮の水分量の評価値を算出する。評価値としては、例えば、ステップS62で算出した水分量に所定の処理を施して標準化した値等を用いることができる。 When the calculation of the water content is completed, in step S63, the water content evaluation means 65 calculates the evaluation value of the water content of the epidermis using the water content calculated in step S62. As the evaluation value, for example, a value obtained by subjecting the water content calculated in step S62 to a predetermined treatment and standardized can be used.

<コラーゲン構造の推定>
ステップS16のコラーゲン構造推定工程においては、粘弾性と肌のコラーゲン構造との相関関係に基づいて、被験者について算出された粘弾性から被験者の肌のコラーゲン構造を推定する。なお、本実施形態においては、ステップS16において、真皮コラーゲン構造及び評価値と、皮下コラーゲン構造及び評価値と、をそれぞれ算出する。図13は、コラーゲン構造推定工程における処理の流れを示すフローチャートである。
<Estimation of collagen structure>
In the collagen structure estimation step of step S16, the collagen structure of the skin of the subject is estimated from the viscoelasticity calculated for the subject based on the correlation between the viscoelasticity and the collagen structure of the skin. In the present embodiment, in step S16, the dermis collagen structure and the evaluation value and the subcutaneous collagen structure and the evaluation value are calculated, respectively. FIG. 13 is a flowchart showing a processing flow in the collagen structure estimation step.

なお、本実施形態において、コラーゲン構造推定工程では、皮下コラーゲン構造については、皮下コラーゲン構造推定手段521が皮下脂肪細胞の超音波画像を解析して導かれるヒストグラムの歪度を皮下コラーゲン構造として推定し、皮下コラーゲン構造評価手段64が歪度を複数段階に分けて評価値を決定することでコラーゲン構造を推定する。即ち、コラーゲン構造として、歪度の評価値が推定される。 In the collagen structure estimation step of the present embodiment, for the subcutaneous collagen structure, the skewness of the histogram derived by the subcutaneous collagen structure estimation means 521 analyzing the ultrasonic image of the subcutaneous adipocyte is estimated as the subcutaneous collagen structure. , Subcutaneous collagen structure evaluation means 64 estimates the collagen structure by dividing the skewness into a plurality of stages and determining the evaluation value. That is, the evaluation value of skewness is estimated as the collagen structure.

ここで用いられるヒストグラムは、被験者の超音波画像から皮下脂肪部分を切り出し、これを解析用画像として画像解析ソフトを使用した結果得られるものである。このヒストグラムについて解析を行い、歪度を算出すると、線維化の程度が低いほど歪度が大きく、線維化の程度が高いほど歪度が小さくなり、歪度によって皮下脂肪を包むコラーゲン線維構造の線維化レベルを評価できる。従って本実施形態では、上記のようにして得られるヒストグラムの歪度を、皮下のコラーゲン構造の指標として用いる。 The histogram used here is obtained as a result of cutting out the subcutaneous fat portion from the ultrasonic image of the subject and using the image analysis software as an image for analysis. When this histogram is analyzed and the skewness is calculated, the lower the degree of fibrosis, the higher the skewness, and the higher the degree of fibrosis, the lower the skewness. Depending on the skewness, the fibers of the collagen fiber structure that wraps the subcutaneous fat You can evaluate the level of conversion. Therefore, in the present embodiment, the skewness of the histogram obtained as described above is used as an index of the collagen structure under the skin.

また、真皮コラーゲン構造については、真皮コラーゲン線維の顕微鏡撮影画像に対して画像処理を施し、コラーゲン線維の結束度を定量化した値を「真皮コラーゲン構造」として推定する。 As for the dermal collagen structure, the microscopic image of the dermal collagen fibers is subjected to image processing, and the value obtained by quantifying the degree of cohesion of the collagen fibers is estimated as the "dermis collagen structure".

まず、ステップS71において、皮下粘弾性算出手段511が算出した皮下の粘弾性を取得する。次に、ステップS72において、記憶手段4が記憶する粘弾性―コラーゲン構造相関関係データを取得する。本実施形態において、粘弾性―コラーゲン構造相関関係データは、真皮粘弾性と真皮コラーゲン構造との相関関係及び皮下粘弾性と皮下コラーゲン構造との相関関係を含む。 First, in step S71, the subcutaneous viscoelasticity calculated by the subcutaneous viscoelasticity calculating means 511 is acquired. Next, in step S72, the viscoelasticity-collagen structure correlation data stored by the storage means 4 is acquired. In this embodiment, the viscoelasticity-collagen structure correlation data includes the correlation between dermal viscoelasticity and dermal collagen structure and the correlation between subcutaneous viscoelasticity and subcutaneous collagen structure.

本実施形態では、皮下の粘弾性と、皮下脂肪層の超音波画像を解析して得られるヒストグラムの歪度と、の間の関係を表す関数を、皮下コラーゲン構造推定モデルとして記憶手段4に登録しておき、その関数に皮下粘弾性算出手段511が算出した粘弾性を代入することによって、歪度を求める。皮下粘弾性と歪度の関係を表す関数は、粘弾性及び歪度の測定値の組のデータから、統計的手法により求めることができる。 In the present embodiment, a function representing the relationship between the subcutaneous viscoelasticity and the skewness of the histogram obtained by analyzing the ultrasonic image of the subcutaneous fat layer is registered in the storage means 4 as a subcutaneous collagen structure estimation model. The skewness is obtained by substituting the viscoelasticity calculated by the subcutaneous viscoelasticity calculation means 511 into the function. The function representing the relationship between the subcutaneous viscoelasticity and the skewness can be obtained by a statistical method from the data of the set of the measured values of the viscoelasticity and the skewness.

また、真皮の粘弾性と、真皮コラーゲン線維の顕微鏡撮影画像に対して画像処理を施すことで得られるコラーゲン線維の結束度を定量化した値と、の間の関係を表す関数を、真皮コラーゲン構造推定モデルとして記憶手段4に登録しておき、その関数に真皮粘弾性算出手段512が算出した粘弾性を代入することによって真皮コラーゲン線維の結束度を求める。真皮粘弾性と結束度の関係を表す関数は、粘弾性及び結束度の測定値の組のデータから、統計的手法により求めることができる。 In addition, the dermis collagen structure is a function that expresses the relationship between the viscoelasticity of the dermis and the quantified value of the degree of cohesion of the collagen fibers obtained by performing image processing on the microscopic image of the dermis collagen fibers. The degree of cohesion of the dermal collagen fibers is obtained by registering it in the storage means 4 as an estimation model and substituting the viscoelasticity calculated by the dermal viscoelasticity calculation means 512 into the function. The function representing the relationship between the dermal viscoelasticity and the degree of cohesion can be obtained by a statistical method from the data of the set of the measured values of the viscoelasticity and the degree of cohesion.

なお、ステップS71及びステップS72の順序は任意に変更してよい。また、相関関係データとしては、粘弾性とコラーゲン構造(歪度又は結束度)の測定値との組によって学習させた算出モデルを用いてもよい。 The order of steps S71 and S72 may be arbitrarily changed. Further, as the correlation data, a calculation model trained by the combination of the viscoelasticity and the measured value of the collagen structure (skewness or cohesion) may be used.

ステップS73においては、ステップS71及びステップS72で取得した皮膚の粘弾性及び粘弾性―コラーゲン構造相関関係データに基づいて、コラーゲン構造推定手段52が、被験者の真皮コラーゲン構造及び皮下コラーゲン構造を推定する。この時、記憶手段4が解析結果を記憶してもよい。 In step S73, the collagen structure estimating means 52 estimates the dermal collagen structure and the subcutaneous collagen structure of the subject based on the viscoelasticity and viscoelasticity-collagen structure correlation data of the skin acquired in steps S71 and S72. At this time, the storage means 4 may store the analysis result.

コラーゲン構造の推定が完了すると、ステップS74においてコラーゲン構造の評価値を算出する。評価値の算出においては、ステップS73で算出したコラーゲン構造を用いて、真皮及び皮下のそれぞれのコラーゲン構造の評価値を算出する。例えば、算出されたコラーゲン構造(歪度又は結束度)に所定の処理を施して標準化した値や、コラーゲン構造の値を複数段階に分けて評価する値等を、評価値として用いることができる。 When the estimation of the collagen structure is completed, the evaluation value of the collagen structure is calculated in step S74. In the calculation of the evaluation value, the evaluation value of each of the dermis and subcutaneous collagen structures is calculated using the collagen structure calculated in step S73. For example, a value obtained by subjecting the calculated collagen structure (skewness or cohesion) to a standardized value, a value for evaluating the value of the collagen structure in a plurality of stages, and the like can be used as the evaluation value.

以上のように、本実施形態によれば、被験者に特定の表情を順番に再現させ、その様子を撮影した動画を解析することで、簡易的に非侵襲な肌の解析を行うことができる。具体的には、表情変化によって生じる皮膚変化の物理量を動画から測定し、物理量と皮膚の粘弾性との相関関係に基づいて、被験者についての物理量の測定値から被験者の皮膚の粘弾性を算出することができる。 As described above, according to the present embodiment, it is possible to easily analyze non-invasive skin by having the subject reproduce specific facial expressions in order and analyzing a moving image of the state. Specifically, the physical quantity of the skin change caused by the change in facial expression is measured from the moving image, and the viscoelasticity of the subject's skin is calculated from the measured value of the physical quantity for the subject based on the correlation between the physical quantity and the viscoelasticity of the skin. be able to.

また、皮膚の粘弾性として、真皮の粘弾性及び皮下の粘弾性をそれぞれ算出し、その評価値を算出することができる。更に表皮の水分量及びその評価値を算出することができる。また、皮膚の粘弾性に基づいて肌のコラーゲン構造を推定し、その評価値を算出することができる。これにより、これらの評価値の組み合わせによって詳細な結果を提示することができる。 Further, as the viscoelasticity of the skin, the viscoelasticity of the dermis and the viscoelasticity of the subcutaneous skin can be calculated, respectively, and the evaluation values thereof can be calculated. Further, the water content of the epidermis and its evaluation value can be calculated. In addition, the collagen structure of the skin can be estimated based on the viscoelasticity of the skin, and the evaluation value thereof can be calculated. Thereby, detailed results can be presented by the combination of these evaluation values.

なお、本実施形態では、記憶手段4が、各種の測定値の組のデータから統計的手法によって得られる、それぞれの関係を表す関数を記憶し、この関数に従って、皮膚の粘弾性や水分量、コラーゲン構造を推定する形態を示した。ただしこの他にも、例えば物理量と粘弾性(又は水分量)の測定値の組を教師データとして与え、ニューラルネットワークに学習させることで、粘弾性算出モデルや水分量算出モデル、コラーゲン構造推定モデルを作成する構成としてもよい。また、各種処理の順序を変更する等、この他にも、本発明の趣旨を逸脱しない範囲で、任意に構成を変更してよい。 In the present embodiment, the storage means 4 stores a function representing each relationship obtained by a statistical method from the data of a set of various measured values, and according to this function, the viscoelasticity and water content of the skin. The morphology for estimating the collagen structure is shown. However, in addition to this, for example, by giving a set of measured values of physical quantity and viscoelasticity (or water content) as teacher data and training it in a neural network, a viscoelasticity calculation model, a water content calculation model, and a collagen structure estimation model can be obtained. It may be a configuration to be created. In addition, the configuration may be arbitrarily changed without departing from the spirit of the present invention, such as changing the order of various processes.

以下、本発明者らによって行われた、物理量の測定値に基づく皮膚の粘弾性等の算出実験結果、及び粘弾性に基づくコラーゲン構造の推定結果について説明する。なお、本発明は以下のような実験結果に基づいてなされたものであるが、本発明において用いられる値や相関関係は、以下の内容に限られない。 Hereinafter, the results of calculation experiments on the viscoelasticity of the skin based on the measured values of physical quantities and the estimation results of the collagen structure based on the viscoelasticity will be described by the present inventors. Although the present invention has been made based on the following experimental results, the values and correlations used in the present invention are not limited to the following contents.

<実験結果1>
(1)物理量測定
上記の実施形態と同様の手法で、20〜60代の100名を対象に、表情変化の過程を表す動画像を取得して、物理量を測定した。具体的には、頬部の解析領域を複数の分画パターンによって基本解析単位に分け、各領域の移動量を測定した。そして、このような移動量を更に各分画パターン内の基本解析単位の移動量の比較、及び分画パターン間の対応する領域の移動量の比較によってフレームごとに解析し、時間の次元を持つ移動量をスカラー量に変換することで物理量を測定した。このような物理量の測定は、各表情変化に対してそれぞれ行われた。
<Experimental result 1>
(1) Measurement of physical quantity The physical quantity was measured by acquiring moving images showing the process of facial expression change for 100 people in their 20s and 60s by the same method as in the above embodiment. Specifically, the analysis region of the cheek was divided into basic analysis units according to a plurality of fractionation patterns, and the amount of movement of each region was measured. Then, such a movement amount is further analyzed for each frame by comparing the movement amount of the basic analysis unit in each fractionation pattern and the movement amount of the corresponding region between the fractionation patterns, and has a time dimension. The physical quantity was measured by converting the amount of movement into a scalar quantity. Measurement of such physical quantities was performed for each facial expression change.

(2)粘弾性及び水分量の測定
(1)と同一の対象者について、粘弾性及び水分量を測定した。真皮の粘弾性については、陰圧によって皮膚表面を吸引し、開放した時の皮膚の変位をモニタリングすることにより粘弾性を測定可能な装置を用いて測定した。また、皮下の粘弾性については、エラストグラフィを用いて皮膚内部のエラストグラフィ画像を取得して測定した。表皮の水分量については、高周波正弦電流によって皮表の角層の水分を測定する機器を用いて測定した。
(2) Measurement of viscoelasticity and water content The same subjects as in (1) were measured for viscoelasticity and water content. The viscoelasticity of the dermis was measured using a device capable of measuring the viscoelasticity by sucking the skin surface by negative pressure and monitoring the displacement of the skin when it was opened. The subcutaneous viscoelasticity was measured by acquiring an elastographic image of the inside of the skin using elastography. The water content of the epidermis was measured using a device that measures the water content of the stratum corneum of the epidermis by a high-frequency sinusoidal current.

(3)各種モデルの構築
対象者ごとに(1)及び(2)の結果を組として統計解析を行い、真皮及び皮下それぞれの粘弾性算出モデルと、表皮の水分量算出モデルと、を作成した。具体的には、任意の手法で回帰分析を行い、物理量と、粘弾性及び水分量と、の間の関係を記述する関数を求め、粘弾性算出モデル及び水分量算出モデルとして用いた。
(3) Construction of various models Statistical analysis was performed using the results of (1) and (2) as a set for each subject, and a viscoelasticity calculation model for each of the dermis and subcutaneous and a water content calculation model for the epidermis were created. .. Specifically, regression analysis was performed by an arbitrary method to obtain a function that describes the relationship between the physical quantity, viscoelasticity, and water content, and used as a viscoelasticity calculation model and a water content calculation model.

(4)精度の検証
(1)〜(3)とは別の対象者について、同様に物理量、粘弾性及び水分量を測定し、モデルの精度を検証した。具体的には、(3)のモデルを用いて、物理量から粘弾性及び水分量を算出し、実際の測定結果と比較を行った。なお、粘弾性及び水分量は、その値に基づいてそれぞれ複数段階の評価値を決定し、評価値が一致するか否かを確認した。その結果、評価値の1段階のずれを許容した場合の推定精度は以下の通りになった。
表皮水分量:95%
真皮粘弾性:90%
皮下粘弾性:90%
(4) Verification of accuracy The physical quantity, viscoelasticity, and water content of subjects other than those in (1) to (3) were measured in the same manner, and the accuracy of the model was verified. Specifically, using the model (3), viscoelasticity and water content were calculated from physical quantities and compared with actual measurement results. For viscoelasticity and water content, evaluation values in a plurality of stages were determined based on the values, and it was confirmed whether or not the evaluation values match. As a result, the estimation accuracy when a one-step deviation of the evaluation value is allowed is as follows.
Epidermis water content: 95%
Dermal viscoelasticity: 90%
Subcutaneous viscoelasticity: 90%

(4)の結果から、表情変化の過程を表す動画に基づいて取得される皮膚変化の物理量の測定値により、粘弾性及び水分量を高い精度で推定できることが示された。 From the result of (4), it was shown that the viscoelasticity and the water content can be estimated with high accuracy by the measured value of the physical quantity of the skin change acquired based on the moving image showing the process of the facial expression change.

<実験結果2>
(1)粘弾性の測定及びコラーゲン構造の評価
<実験結果1>における(2)と同様の方法で、皮下の粘弾性を測定した。そして、同一被験者の超音波画像から皮下脂肪部分を切り出し、これを解析用画像として画像解析ソフトを使用してヒストグラムを作成した。このヒストグラムについて解析を行い、歪度を算出すると、線維化の程度が低いほど歪度が大きく、線維化の程度が高いほど歪度が小さくなった。即ち、歪度によって皮下脂肪を包むコラーゲン線維構造の線維化レベルを評価できる。
<Experimental result 2>
(1) Measurement of viscoelasticity and evaluation of collagen structure Subcutaneous viscoelasticity was measured by the same method as in (2) in <Experimental Result 1>. Then, a subcutaneous fat portion was cut out from the ultrasonic image of the same subject, and a histogram was created using this as an image for analysis using image analysis software. When this histogram was analyzed and the skewness was calculated, the skewness increased as the degree of fibrosis decreased, and the skewness decreased as the degree of fibrosis increased. That is, the fibrosis level of the collagen fiber structure surrounding the subcutaneous fat can be evaluated by the skewness.

(2)回帰分析
(1)の粘弾性の測定結果及び皮下脂肪細胞の線維化レベルを表す歪度について回帰分析を行った。すると、皮下の粘弾性と、皮下脂肪層の超音波画像のヒストグラムの歪度の間に、正の相関関係が成立することが見出された。
(2) Regression analysis A regression analysis was performed on the measurement results of viscoelasticity in (1) and the skewness indicating the fibrosis level of subcutaneous adipocytes. Then, it was found that a positive correlation was established between the viscoelasticity under the skin and the skewness of the histogram of the ultrasonic image of the subcutaneous fat layer.

(2)の結果から、皮下の粘弾性により、皮下脂肪細胞の線維化レベル(皮下のコラーゲン構造)を推定できることが示された。更に、皮下の粘弾性は、表情変化の過程を表す動画に基づいて取得される皮膚変化の物理量の測定値によって推定可能であることから、物理量の測定値に基づいて間接的に皮下のコラーゲン構造を推定できる可能性が示された。 From the result of (2), it was shown that the fibrosis level (subcutaneous collagen structure) of subcutaneous adipocytes can be estimated from the subcutaneous viscoelasticity. Furthermore, since the subcutaneous viscoelasticity can be estimated from the measured value of the physical quantity of the skin change acquired based on the moving image showing the process of facial expression change, the collagen structure under the skin is indirectly based on the measured value of the physical quantity. It was shown that it is possible to estimate.

以下、動画の撮影や解析結果の出力に係る詳細な実施形態の一例を示す。 The following is an example of a detailed embodiment relating to the shooting of moving images and the output of analysis results.

<動画の撮影>
上述の通り、動画の撮影に際しては、撮影画面において、目や輪郭等の顔部品の位置を合わせるためのガイドを表示することができる。即ち、肌解析装置10又は端末装置20が、被験者の顔における顔部品の位置を合わせるためのガイドを表示処理する手段を備える。ここでは、端末装置20を撮影装置として用いた、より好適な動画の撮影方法について詳細に説明する。なお、以下ではタブレット端末を端末装置20として用いる場合について説明するが、他にも、カメラやジャイロセンサ、加速度センサ等を備えた任意のコンピュータ装置を端末装置として利用できる。
<Video shooting>
As described above, when shooting a moving image, a guide for aligning the positions of facial parts such as eyes and contours can be displayed on the shooting screen. That is, the skin analysis device 10 or the terminal device 20 includes means for displaying and processing a guide for aligning the positions of facial parts on the subject's face. Here, a more suitable method for shooting a moving image using the terminal device 20 as a shooting device will be described in detail. Although the case where the tablet terminal is used as the terminal device 20 will be described below, any computer device including a camera, a gyro sensor, an acceleration sensor and the like can be used as the terminal device.

図14は、端末装置20の外観を示す図である。図14(a)は、端末装置20の背面側を示す図である。ここに示すように、端末装置20の背面側には、カメラCが設けられており、撮影手段201はこれを利用して動画像を撮影する。図14(b)は、端末装置20の正面側を示す図である。ここに示すように、端末装置20の正面側には、撮影者に対する各種の表示や、操作者からの操作の受付等を行うタッチパネルTなどが設けられている。 FIG. 14 is a diagram showing the appearance of the terminal device 20. FIG. 14A is a diagram showing the back side of the terminal device 20. As shown here, a camera C is provided on the back side of the terminal device 20, and the photographing means 201 uses this to photograph a moving image. FIG. 14B is a diagram showing the front side of the terminal device 20. As shown here, on the front side of the terminal device 20, various displays for the photographer, a touch panel T for receiving operations from the operator, and the like are provided.

本実施形態においては、図14に示すように、正面側、あるいは背面側から見た際に略長方形であるタブレット型端末の、長辺方向にx軸を、短辺方向にy軸を、そして正面側から背面側に向かう方向にz軸をそれぞれとり、端末装置20の保持される角度や回転した角度を表現する。ただし、本発明はこれに限るものではなく、他の態様で軸をとるような構成や、端末装置20ではなく被験者を基準として軸をとるような構成としてもよい。 In the present embodiment, as shown in FIG. 14, a tablet-type terminal which is substantially rectangular when viewed from the front side or the back side has an x-axis in the long side direction, a y-axis in the short side direction, and The z-axis is taken in the direction from the front side to the back side, respectively, and the holding angle and the rotation angle of the terminal device 20 are expressed. However, the present invention is not limited to this, and may be configured to take an axis in another manner, or may have a configuration in which the axis is taken with respect to the subject instead of the terminal device 20.

図15は、本実施形態における動画の撮影の流れを示すフローチャートである。これは、撮影者が端末装置20を使用し、被験者の顔の表情変化を含む動画を撮影する場合の例を示すものである。被験者には、ここに示す各処理を行う前に、予め、撮影中にどのような表情変化をするかの説明をしておくことが好ましい。なお、この説明は、端末装置20がタッチパネルTに撮影内容を説明するための動画を表示する手段を備えるような構成とし、それを撮影者又は被験者に見せる、といった方法で行ってもよい。 FIG. 15 is a flowchart showing the flow of shooting a moving image in the present embodiment. This is an example of a case where the photographer uses the terminal device 20 to shoot a moving image including a change in the facial expression of the subject's face. Before performing each of the processes shown here, it is preferable for the subject to explain in advance what kind of facial expression changes during imaging. In this explanation, the terminal device 20 may be configured to include a means for displaying a moving image for explaining the photographed content on the touch panel T, and may be shown to the photographer or the subject.

まず、ステップS81では、角度のリセットを行う。これは、端末装置20の初期位置を決定するための処理である。本実施形態においては、y軸が鉛直方向と平行になり、x軸が被験者の顔面と略平行状態に、z軸が被験者の顔面に対して略垂直状態となる状態を、端末装置20の初期位置とする。これはすなわち、上から見た場合に、図16(a)に示すような状態となるものである。より具体的には、図17に示すような画面で、端末装置20のタッチパネルTに位置合わせのためのガイドとして被験者の目の高さ、あごの高さ、鼻の位置を合わせるためのガイドラインを、カメラCによって撮影された被験者の顔に重畳表示することで、撮影者に端末装置20の位置合わせを促す。更にz軸の傾きに応じて移動するポインターPを表示することにより、より位置合わせがしやすくなる。そして、タッチパネルTによる操作の受付等(図17における「基準値セット」ボタンの選択)によっての角度のリセットを行い、端末装置20の初期位置を決定する。 First, in step S81, the angle is reset. This is a process for determining the initial position of the terminal device 20. In the present embodiment, the initial state of the terminal device 20 is that the y-axis is parallel to the vertical direction, the x-axis is substantially parallel to the subject's face, and the z-axis is substantially perpendicular to the subject's face. The position. That is, when viewed from above, it is in a state as shown in FIG. 16A. More specifically, on the screen as shown in FIG. 17, a guideline for aligning the subject's eye height, chin height, and nose position is provided as a guide for alignment on the touch panel T of the terminal device 20. By superimposing and displaying on the face of the subject photographed by the camera C, the photographer is urged to align the terminal device 20. Further, by displaying the pointer P that moves according to the inclination of the z-axis, the alignment becomes easier. Then, the angle is reset by accepting an operation by the touch panel T (selection of the "reference value set" button in FIG. 17), and the initial position of the terminal device 20 is determined.

なお、ここで、端末装置20のx軸まわりの回転、すなわち、前後方向の傾きや、z軸まわりの回転、すなわち、左右方向の傾きについても、小さくすることができるよう構成されることが好ましい。このためには、例えば、端末装置20が備えるジャイロセンサや加速度センサ等によって重力加速度等から鉛直方向、及びそれに直交する水平方向を特定し、x軸とz軸のそれぞれについて水平方向との角度の差をそれぞれの軸まわりの傾きとして表示し、これらを0に近づけ、所定の許容範囲に収まるように端末装置20の角度の調整を撮影者へ促す、といったようにすればよい。 Here, it is preferable that the rotation of the terminal device 20 around the x-axis, that is, the inclination in the front-rear direction and the rotation around the z-axis, that is, the inclination in the left-right direction can be reduced. .. For this purpose, for example, the vertical direction and the horizontal direction orthogonal to the gravitational acceleration are specified by a gyro sensor, an acceleration sensor, or the like provided in the terminal device 20, and the angle between the x-axis and the z-axis is the horizontal direction. The difference may be displayed as an inclination around each axis, these may be brought close to 0, and the photographer may be prompted to adjust the angle of the terminal device 20 so as to be within a predetermined allowable range.

このようにして角度のリセットを行い、端末装置20の初期位置を確定した後、ステップS82で、端末装置20の移動を行う。本実施形態においては、端末装置20を25度回転し、左斜め前方25度の角度より被験者の顔を撮影する。ここでは、上から見た場合に図16(b)に示すような状態となるように、端末装置20を被験者に向かって右側に移動することで、被験者の顔を左斜め前方から撮影するよう、位置調整を行う。これはすなわち、被験者に端末装置20のカメラCを向けた状態を保ちながら、被験者を中心として中心角を25度とする円弧を描くように端末装置20を移動させればよい。このような移動を行った場合、図16(b)に示すように、端末装置20はy軸を中心として、反時計回りに25度回転することになる。なお、撮影方向は左右どちらであってもよく、また左右両方からそれぞれ撮影してもよい。 After resetting the angle in this way and determining the initial position of the terminal device 20, the terminal device 20 is moved in step S82. In the present embodiment, the terminal device 20 is rotated 25 degrees, and the face of the subject is photographed from an angle of 25 degrees diagonally forward to the left. Here, by moving the terminal device 20 to the right toward the subject so as to be in the state shown in FIG. 16B when viewed from above, the face of the subject is photographed diagonally from the front left. , Adjust the position. That is, the terminal device 20 may be moved so as to draw an arc centered on the subject and having a central angle of 25 degrees while keeping the state in which the camera C of the terminal device 20 is directed at the subject. When such a movement is performed, as shown in FIG. 16B, the terminal device 20 rotates 25 degrees counterclockwise around the y-axis. The shooting direction may be either left or right, or both left and right may be shot.

ここでのより具体的な調整方法は、図18(a)に示すように、被験者の目の高さ、あごの高さ、左目の位置を合わせるためのガイドラインをタッチパネルTに表示し、撮影者に位置合わせを促すものである。この際、タッチパネルTに端末装置20のy軸まわりの回転に併せて移動し、25度回転すると中心のガイドラインと重なるポインターPを更に表示し、これが中心のガイドラインと重なり、端末装置20によって回転角度が適切であると判定された場合に、ガイドライン及びポインターの色等、表示形態を変化させる。 As a more specific adjustment method here, as shown in FIG. 18A, a guideline for aligning the subject's eye height, chin height, and left eye position is displayed on the touch panel T, and the photographer. It encourages alignment. At this time, the touch panel T moves in accordance with the rotation of the terminal device 20 around the y-axis, and when it is rotated 25 degrees, a pointer P that overlaps with the center guideline is further displayed. When it is determined that is appropriate, the display form such as the guideline and the color of the pointer is changed.

なお、端末装置20は撮影者によって保持された状態であるため、ここでは正確に25度である場合のみを許容するような構成でなく、例えば25度±5度、といったように、予め許容する角度範囲を定めておくような構成とすることが好ましい。 Since the terminal device 20 is in a state of being held by the photographer, the terminal device 20 is not configured to allow only the case where the temperature is exactly 25 degrees, but is allowed in advance, for example, 25 degrees ± 5 degrees. It is preferable that the configuration is such that the angle range is defined.

このように、ガイドラインを表示し、それに従って端末装置20の位置合わせを行うことにより、端末装置20が上述した円弧を描くような移動を正確にしない場合でも、被験者が向きを変えていない限りは、所定の角度からの撮影を確実に行うことができる。これにより、端末装置20(あるいは被験者)を器具によって固定し、移動させる、といった構成とせず、端末装置20を保持した撮影者が移動するという構成でも、撮影角度を簡単かつ確実に合わせることができる。 In this way, by displaying the guideline and aligning the terminal device 20 according to the guideline, even if the terminal device 20 does not accurately move in the above-mentioned arc drawing, as long as the subject does not change the direction. , It is possible to reliably shoot from a predetermined angle. As a result, the shooting angle can be easily and surely adjusted even in a configuration in which the photographer holding the terminal device 20 moves instead of fixing the terminal device 20 (or the subject) with an instrument and moving it. ..

なお、本実施形態では、上述したように被験者の目の高さ、あごの高さ、左目の位置に合わせるための3本のガイドラインを表示する構成を示したが、本発明はこれに限るものではない。被験者の顔部品の位置を合わせるための点や線をガイドとして表示し、それに合わせて端末装置20の位置を調整することで、適切な距離から、被験者を適切な位置に収めての画像撮影が可能となる。 In the present embodiment, as described above, a configuration is shown in which three guidelines for adjusting the eye height, the chin height, and the left eye position of the subject are displayed, but the present invention is limited to this. is not. By displaying points and lines for aligning the position of the subject's face parts as guides and adjusting the position of the terminal device 20 accordingly, it is possible to take an image of the subject in an appropriate position from an appropriate distance. It will be possible.

なお、この時点においては、回転角度が許容範囲に含まれ、適切であると判定された場合にも、焦点、露出の調整が完了していない状態であるため、録画は開始できない状態である。そのため、録画の開始のためのボタンを押下不可能な状態で表示する、あるいは、表示しないといったように、まだ録画が開始できる状態でないことを撮影者に示すことが好ましい。 At this point, even if the rotation angle is included in the permissible range and it is determined to be appropriate, the focus and exposure adjustments have not been completed, so recording cannot be started. Therefore, it is preferable to show the photographer that the recording cannot be started yet, such as displaying or not displaying the button for starting recording in a state in which the button cannot be pressed.

ステップS82における端末装置20の移動の結果、ステップS83において端末装置20の回転角度が所定範囲内であると判定された場合、ステップS84へと進み、焦点及び露出の自動調整が行われる。これらの調整は任意の方法で行われればよく、特に本実施形態に係る端末装置20のようにタブレット型端末を用いる場合には、端末上で動作するOS(Operating System)のベンダ等から提供される、カメラの制御に関するAPI(Application Programming Interface)を利用して行うような構成とすればよい。また、自動調整のみでなく、手動での調整が可能な構成としてもよい。ここで、焦点、露出のみでなくISO感度などの画像撮影に関連する他のパラメータについても自動調整する手段を備える構成や、撮影環境の照度を検出し、照度が低い場合にLED(Light Emitting Diode)等によって被験者を照らすような手段を備えるような構成としてもよい。 If it is determined in step S83 that the rotation angle of the terminal device 20 is within a predetermined range as a result of the movement of the terminal device 20 in step S82, the process proceeds to step S84, and the focus and exposure are automatically adjusted. These adjustments may be performed by any method, and particularly when a tablet terminal is used as in the terminal device 20 according to the present embodiment, the adjustment is provided by an OS (Operating System) vendor or the like running on the terminal. The configuration may be such that the API (Application Programming Interface) related to the control of the camera is used. Further, not only the automatic adjustment but also the manual adjustment may be possible. Here, there is a configuration provided with means for automatically adjusting not only focus and exposure but also other parameters related to image shooting such as ISO sensitivity, and an LED (Light Emitting Diode) that detects the illuminance of the shooting environment and when the illuminance is low. ) Or the like to provide a means for illuminating the subject.

ステップS84において焦点及び露出の自動調整が完了した後には、焦点、露出のロック(AFAEロック)が行われる。そして、ステップS85で、焦点、露出の調整が完了したと判定された場合には、ステップS86へ進み、撮影者による録画開始ボタンの押下を受け付ける状態とする。 After the automatic focus and exposure adjustment is completed in step S84, the focus and exposure lock (AFAE lock) is performed. Then, when it is determined in step S85 that the adjustment of focus and exposure is completed, the process proceeds to step S86, and the state is such that the photographer can press the recording start button.

そして、録画を開始する指示を撮影者から受けた後、ステップS87でカメラCによる録画を開始する。なお、録画の開始後にも、端末装置20の回転角度の測定を続け、図18(c)に示すように、撮影者へと表示することが好ましい。録画中に回転角度がステップS86で調整した許容範囲から外れた場合には、直ちに録画を中止するような構成としてもよいし、撮影者に回転角度の調整を促し、録画を続行するような構成としてもよい。 Then, after receiving the instruction to start recording from the photographer, recording by the camera C is started in step S87. Even after the start of recording, it is preferable to continue measuring the rotation angle of the terminal device 20 and display it to the photographer as shown in FIG. 18 (c). If the rotation angle deviates from the allowable range adjusted in step S86 during recording, the recording may be stopped immediately, or the photographer may be prompted to adjust the rotation angle and the recording may be continued. May be.

なお、本実施形態においては、被験者の顔の表情変化を含む動画像を撮影するため、例えば図18(c)に示すように、動画像の録画中に被験者が口を大きく開いた場合にあごの位置がガイドラインよりも下になる、といったように、ステップS82において位置合わせを行った状態からずれるような場合がある。このような場合においても、AFAEロックを行っている状態であるため、被験者の位置と端末装置20の位置が動いていなければ問題ない。あるいは、左目の位置についてはガイドラインに合った状態を維持するように、撮影者が端末装置20の位置を調整する、といったように、表情変化による移動が少ないと考えられる点について、録画中にも合わせ続けるような方法をとってもよい。 In this embodiment, since a moving image including a change in the facial expression of the subject's face is taken, for example, as shown in FIG. 18C, when the subject opens his / her mouth wide during recording of the moving image, the chin In some cases, the position of is below the guideline, and the position is deviated from the state in which the alignment was performed in step S82. Even in such a case, since the AFAE lock is performed, there is no problem as long as the position of the subject and the position of the terminal device 20 do not move. Alternatively, during recording, the photographer adjusts the position of the terminal device 20 so as to maintain the position of the left eye in accordance with the guideline, and it is considered that there is little movement due to changes in facial expressions. You may take a method that keeps matching.

また、録画中の端末装置20の回転角度の測定は、y軸まわりの回転のみでなく、x軸まわり、z軸まわりの回転、すなわち、端末装置20の前後方向、左右方向の傾きについても行うことが好ましい。ここでも、端末装置20の傾きが所定の許容範囲を超えた場合に、直ちに録画を中止するような構成としてもよいし、撮影者に回転角度の調整を促し、録画を続行するような構成としてもよい。あるいは、端末装置20において、端末装置20の傾きに合わせた補正を行う構成や、録画中の各時点における端末装置20の傾きを記録しておき、後の肌解析装置10での解析時に補正を行うことができるような構成としてもよい。ここでの補正の方法としては、例えば、左右方向の傾きに対するものであれば録画した動画中の各フレーム画像の回転を行えばよいし、前後方向の傾きに対するものであれば、各フレーム画像に台形補正を適用する、といった方法が挙げられる。 Further, the measurement of the rotation angle of the terminal device 20 during recording is performed not only for the rotation around the y-axis but also for the rotation around the x-axis and the z-axis, that is, the inclination of the terminal device 20 in the front-rear direction and the left-right direction. Is preferable. Here, too, the recording may be stopped immediately when the inclination of the terminal device 20 exceeds a predetermined allowable range, or the photographer may be prompted to adjust the rotation angle and the recording may be continued. May be good. Alternatively, the terminal device 20 may be configured to perform correction according to the inclination of the terminal device 20, or the inclination of the terminal device 20 at each time point during recording may be recorded, and the correction may be made at the time of later analysis by the skin analysis device 10. It may be configured so that it can be performed. As a correction method here, for example, if it is for tilting in the left-right direction, each frame image in the recorded moving image may be rotated, and if it is for tilting in the front-back direction, each frame image may be rotated. A method such as applying keystone correction can be mentioned.

そして、ステップS88において、録画を終了すると判定された場合、録画を終了し、ステップS89で動画ファイルとして記録する。ここで、録画の終了の判定は、撮影者の操作に基づくものであってもよいし、所定時間の経過後に録画を終了するような構成としてもよい。このようにして保存された動画ファイルは、肌解析装置10に送信される。 Then, when it is determined in step S88 that the recording is finished, the recording is finished and the video file is recorded in step S89. Here, the determination of the end of recording may be based on the operation of the photographer, or the recording may be terminated after a predetermined time has elapsed. The moving image file saved in this way is transmitted to the skin analysis device 10.

以上のように、本実施形態に係る端末装置20は、特殊な設備や器具を用意せずとも、ジャイロセンサや加速度センサといったセンサ、カメラCを備えるような汎用的なタブレット型端末に専用のプログラムの配備を行うことによって、実現できる。これにより、解析のために、撮影角度などの条件を特定しての動画の撮影を手軽に行うことができる。 As described above, the terminal device 20 according to the present embodiment is a program dedicated to a general-purpose tablet terminal provided with a sensor such as a gyro sensor or an acceleration sensor and a camera C without preparing special equipment or equipment. It can be realized by deploying. As a result, it is possible to easily shoot a moving image by specifying conditions such as a shooting angle for analysis.

なお、上記の形態においては、被験者の左斜め前方から撮影する例について説明したが、例えば、左右両方の同じ回転角度からそれぞれ動画を撮影し、それらの動画を合成した結果により、物理量を算出してもよい。左右両方向から被験者を撮影する場合、本実施形態では左右両方においてそれぞれ8種類の表情変化、即ち合計16種類の表情変化における解析対象について、移動量を得ることができる。図3のステップS13において、これら16種類の表情変化における解析対象から得られた移動量を用いて、物理量を算出することにより、左右の表情変化から得られる皮膚変化を総合的に考慮した物理量から、皮膚の物性を解析することができる。 In the above embodiment, an example of shooting from diagonally left front of the subject has been described. For example, moving images are shot from the same rotation angle on both the left and right sides, and the physical quantity is calculated from the result of synthesizing the moving images. You may. When the subject is photographed from both the left and right directions, in the present embodiment, the amount of movement can be obtained for the analysis target of eight types of facial expression changes, that is, a total of 16 types of facial expression changes on both the left and right sides. In step S13 of FIG. 3, by calculating the physical quantity using the movement amount obtained from the analysis target in these 16 types of facial expression changes, from the physical quantity that comprehensively considers the skin changes obtained from the left and right facial expression changes. , The physical properties of the skin can be analyzed.

<物理量の具体例>
解析に用いる物理量としては、例えば、肌の追従性、伸縮性、変形性等が挙げられる。ここで「表情変化における顔の肌の追従性」とは、表情変化に追従して変化する顔の肌の動きの遅れの程度のことである。表情変化が起こる際に、顔の肌はその動きに遅れて変化することになるが、その遅れの程度が小さいほど「追従性に優れる」という。
<Specific examples of physical quantities>
Examples of the physical quantity used in the analysis include skin followability, elasticity, and deformability. Here, the "followability of the facial skin in the facial expression change" is the degree of delay in the movement of the facial skin that changes in accordance with the facial expression change. When a change in facial expression occurs, the skin on the face changes with a delay in the movement, but the smaller the degree of the delay, the better the followability.

追従性は、表情変化の際の顔の任意の2つの点を観察し、この2つの点の運動のタイミングのズレの程度を測定することにより定量的に評価することができる。例えば、移動量に基づいて、特定の解析領域における運動速度を特定し、解析領域間で運動速度が最大となる時間の差分として定量的に測定する等の方法が考えられる。このとき、表情変化において最も顕著に動く顔の位置に対応した解析領域と、それ以外の顔の位置に対応した解析領域と、を用いて、それらの間で運動速度が最大となる時間の差分を測定することが好ましい。 The followability can be quantitatively evaluated by observing any two points on the face when the facial expression changes and measuring the degree of deviation in the timing of movement of these two points. For example, a method is conceivable in which the motion velocity in a specific analysis region is specified based on the amount of movement, and the difference in time at which the motion velocity is maximized between the analysis regions is quantitatively measured. At this time, using the analysis area corresponding to the position of the face that moves most remarkably in the facial expression change and the analysis area corresponding to the position of the other face, the difference in the time at which the movement speed is maximized between them. It is preferable to measure.

また、「表情変化における顔の肌の伸縮性」とは、表情変化が起こったときの肌の伸縮のしやすさのことをいう。例えば、顔の肌が伸びる表情変化があったときに、その伸長方向全体の距離の増加分に対する、ある任意の領域における伸長方向の距離の増加分の割合が高いほど「伸縮性に優れる」と評価することができる。例えば、表情変化時の肌の伸長方向に沿った特徴点の座標の変位量等の移動量から、特定の解析領域における、伸長方向の距離の増加分の割合を、伸縮性として評価することができる。 Further, "the elasticity of the skin of the face due to the change of facial expression" refers to the ease of expansion and contraction of the skin when the change of facial expression occurs. For example, when there is a change in facial expression that stretches the skin of the face, the higher the ratio of the increase in the distance in the extension direction to the increase in the distance in the entire extension direction, the more "excellent in elasticity". Can be evaluated. For example, it is possible to evaluate the rate of increase in the distance in the stretching direction in a specific analysis region as elasticity from the amount of movement such as the displacement of the coordinates of the feature points along the stretching direction of the skin when the facial expression changes. it can.

また変形性としては、顔の任意の位置に対応する解析領域の変形の仕方(歪み方)を測定することが考えられる。変形性の測定方法は限定されないが、例えば、特徴点の変位量、移動方向等の移動量を用いて算出してもよい。 Further, as the deformability, it is conceivable to measure the deformation method (distortion method) of the analysis region corresponding to an arbitrary position of the face. The method for measuring the deformability is not limited, but for example, it may be calculated using the displacement amount of the feature point, the movement amount such as the movement direction, and the like.

特に、追従性及び伸縮性は、それぞれ年齢と負の相関関係を有し、いずれも加齢によって低下する傾向があることが知られている。また、追従性と皮下の粘弾性との間にも正の相関関係が成立することが知られており、追従性と粘弾性との相関関係に基づいて、粘弾性の算出が可能であると考えられる。 In particular, it is known that followability and elasticity each have a negative correlation with age, and both tend to decrease with aging. It is also known that a positive correlation is established between followability and subcutaneous viscoelasticity, and it is possible to calculate viscoelasticity based on the correlation between followability and viscoelasticity. Conceivable.

<解析結果の出力>
肌解析装置10は、解析結果を出力する出力手段を更に備えていてもよい。出力手段は、解析結果として、真皮及び皮下の粘弾性、表皮の水分量、真皮及び皮下のコラーゲン構造の算出結果、またそれらの評価値等に基づく情報を出力する。出力の形態は限定されず、端末装置20において静的又は動的画像として表示してもよいし、音や振動、文字として出力してもよい。
<Output of analysis result>
The skin analysis device 10 may further include an output means for outputting the analysis result. As an analysis result, the output means outputs information based on the viscoelasticity of the dermis and the subcutaneous, the water content of the epidermis, the calculation result of the collagen structure of the dermis and the subcutaneous, and their evaluation values. The form of output is not limited, and the terminal device 20 may display it as a static or dynamic image, or may output it as sound, vibration, or characters.

更に、粘弾性及び水分量の算出結果やコラーゲン構造の推定結果だけでなく、解析に用いられる物理量、即ち、粘弾性、水分量及びコラーゲン構造の何れかと相関関係を有する物理量に基づく情報を、出力してもよい。これにより、測定した値や撮影された動画により得られた値がどのように解析結果に影響するのかをわかりやすく示すことができる。 Furthermore, not only the calculation result of viscoelasticity and water content and the estimation result of collagen structure, but also the physical quantity used for the analysis, that is, the information based on the physical quantity having a correlation with any of viscoelasticity, water content and collagen structure is output. You may. This makes it possible to clearly show how the measured values and the values obtained from the captured moving images affect the analysis results.

<コラーゲン構造の推定に係る変形例>
上記の実施形態においては、コラーゲン構造推定手段52が、粘弾性算出手段51による算出結果及び粘弾性―コラーゲン構造相関関係データを用いてコラーゲン構造を推定する形態を示したが、本発明はこれに限られない。上述の通り、物理量及び粘弾性の間の相関関係が認められ、更に粘弾性及びコラーゲン構造の間の相関関係が認められることから、物理量及びコラーゲン構造の間にも、直接の相関関係が存在する蓋然性が高い。
<Example of modification related to estimation of collagen structure>
In the above embodiment, the collagen structure estimating means 52 shows a form in which the collagen structure is estimated by using the calculation result by the viscoelasticity calculating means 51 and the viscoelasticity-collagen structure correlation data. Not limited. As described above, since the correlation between the physical quantity and the viscoelasticity is recognized, and further the correlation between the viscoelasticity and the collagen structure is recognized, there is a direct correlation between the physical quantity and the collagen structure. Probability is high.

従って、例えば、コラーゲン構造推定手段52が、物理量と皮膚のコラーゲン構造との相関関係に基づいて、被験者についての物理量の測定値から被験者の皮膚のコラーゲン構造を直接推定してもよい。 Therefore, for example, the collagen structure estimating means 52 may directly estimate the collagen structure of the skin of the subject from the measured value of the physical quantity of the subject based on the correlation between the physical quantity and the collagen structure of the skin.

この場合には、記憶手段4は、物理量―コラーゲン構造相関関係データとして、物理量とコラーゲン構造に関する指標との間の関係を表す関数を記憶しており、この関数に物理量測定手段3が測定した物理量を代入することで、コラーゲン構造の指標を算出できる。 In this case, the storage means 4 stores a function representing the relationship between the physical quantity and the index related to the collagen structure as the physical quantity-collagen structure correlation data, and the physical quantity measured by the physical quantity measuring means 3 is stored in this function. By substituting, the index of collagen structure can be calculated.

なお、粘弾性の算出を介さずに、物理量から直接コラーゲン構造を推定する場合にも、既述した実施形態と同様に、皮下のコラーゲン構造及び真皮のコラーゲン構造、並びにその評価値を推定することが好ましい。即ち、記憶手段4は、物理量と皮下のコラーゲン構造(例えば皮下脂肪層の超音波画像を解析して得られるヒストグラムの歪度)との相関関係、及び、物理量と真皮のコラーゲン構造(例えば真皮コラーゲン線維の顕微鏡撮影画像から得られるコラーゲン線維の結束度を定量化した値)との相関関係を、それぞれ記憶する。 Even when the collagen structure is estimated directly from the physical quantity without calculating the viscoelasticity, the subcutaneous collagen structure, the collagen structure of the dermis, and the evaluation value thereof should be estimated as in the above-described embodiment. Is preferable. That is, the storage means 4 has a correlation between the physical quantity and the collagen structure under the skin (for example, the skewness of the histogram obtained by analyzing the ultrasonic image of the subcutaneous fat layer), and the physical quantity and the collagen structure of the dermis (for example, dermis collagen). The correlation with (a value obtained by quantifying the degree of cohesion of collagen fibers obtained from the histogram image of the fibers) is memorized.

このように、物理量とコラーゲン構造との相関関係に基づいてコラーゲン構造を推定することにより、粘弾性を介してコラーゲン構造を推定する場合に比べて、推定精度の向上効果が期待できる。 By estimating the collagen structure based on the correlation between the physical quantity and the collagen structure in this way, an effect of improving the estimation accuracy can be expected as compared with the case of estimating the collagen structure via viscoelasticity.

10 肌解析装置
1 動画取得手段
2 解析対象抽出手段
3 物理量測定手段
31 特徴点抽出手段
32 移動量測定手段
33 移動量解析手段
4 記憶手段
5 解析部
51 粘弾性算出手段
511 皮下粘弾性算出手段
512 真皮粘弾性算出手段
52 コラーゲン構造推定手段
521 皮下コラーゲン構造推定手段
522 真皮コラーゲン構造推定手段
53 水分量算出手段
6 評価手段
61 真皮粘弾性評価手段
62 皮下粘弾性評価手段
63 真皮コラーゲン構造評価手段
64 皮下コラーゲン構造評価手段
65 水分量評価手段
20 端末装置
201 撮影手段
202 表示部
C カメラ
T タッチパネル
P ポインター
10 Skin analysis device 1 Video acquisition means 2 Analysis target extraction means 3 Physical quantity measurement means 31 Feature point extraction means 32 Movement amount measurement means 33 Movement amount analysis means 4 Storage means 5 Analysis unit 51 Viscoelasticity calculation means 511 Subcutaneous viscoelasticity calculation means 512 Dermal Viscoelasticity Estimating Means 52 Collagen Structure Estimating Means 521 Subcutaneous Collagen Structure Estimating Means 522 Dermal Collagen Structure Estimating Means 53 Moisture Amount Calculation Means 6 Evaluation Means 61 Dermal Viscoelasticity Evaluating Means 62 Subcutaneous Viscoelasticity Evaluation Means 63 Dermal Collagen Structure Evaluating Means 64 Subcutaneous Collagen structure evaluation means 65 Moisture content evaluation means 20 Terminal device 201 Imaging means 202 Display unit C Camera T Touch panel P Pointer

Claims (42)

顔の表情変化によって生じる皮膚変化の物理量と皮膚の粘弾性との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚の粘弾性を算出することを特徴とする、肌解析方法。 A skin analysis method characterized in that the viscoelasticity of a subject's skin is calculated from the measured value of the physical quantity of the subject based on the correlation between the physical quantity of the skin change caused by the change in facial expression and the viscoelasticity of the skin. .. 前記粘弾性は、真皮の粘弾性及び皮下の粘弾性の内、少なくとも何れかを含むことを特徴とする、請求項1に記載の肌解析方法。 The skin analysis method according to claim 1, wherein the viscoelasticity includes at least one of dermis viscoelasticity and subcutaneous viscoelasticity. 前記物理量及び粘弾性の測定値の組を複数入力することによって作成された粘弾性算出モデルを用いて、被験者についての前記物理量の測定値から被験者の皮膚の粘弾性を算出することを特徴とする、請求項1又は請求項2に記載の肌解析方法。 It is characterized in that the viscoelasticity of the subject's skin is calculated from the measured values of the physical quantity for the subject by using the viscoelasticity calculation model created by inputting a plurality of sets of the measured values of the physical quantity and the viscoelasticity. , The skin analysis method according to claim 1 or 2. 前記粘弾性と肌のコラーゲン構造との相関関係に基づいて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定することを特徴とする、請求項1〜3の何れかに記載の肌解析方法。 The invention according to any one of claims 1 to 3, wherein the collagen structure of the skin of the subject is estimated from the viscoelasticity calculated for the subject based on the correlation between the viscoelasticity and the collagen structure of the skin. Skin analysis method. 前記粘弾性及び肌のコラーゲン構造の測定値の組を複数入力することによって作成されたコラーゲン構造推定モデルを用いて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定することを特徴とする、請求項4に記載の肌解析方法。 Using a collagen structure estimation model created by inputting a plurality of sets of measured values of viscoelasticity and skin collagen structure, it is possible to estimate the skin collagen structure of a subject from the viscoelasticity calculated for the subject. The skin analysis method according to claim 4, which is characterized. 前記粘弾性に基づいて、肌の評価値を1又は複数算出することを特徴とする、請求項1〜5の何れかに記載の肌解析方法。 The skin analysis method according to any one of claims 1 to 5, wherein one or a plurality of evaluation values of the skin are calculated based on the viscoelasticity. 前記粘弾性の算出結果に基づく情報を含む解析結果を出力することを特徴とする、請求項1〜6の何れかに記載の肌解析方法。 The skin analysis method according to any one of claims 1 to 6, wherein an analysis result including information based on the calculation result of viscoelasticity is output. 前記粘弾性の算出結果に基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力することを特徴とする、請求項7に記載の肌解析方法。 The skin analysis method according to claim 7, wherein an analysis result including information based on the measured value of the physical quantity is output together with information based on the calculation result of viscoelasticity. 顔の表情変化によって生じる皮膚変化の物理量と皮膚のコラーゲン構造との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚のコラーゲン構造を推定することを特徴とする、肌解析方法。 A skin analysis method, which comprises estimating the collagen structure of a subject's skin from the measured value of the physical quantity of the subject based on the correlation between the physical quantity of the skin change caused by the change of facial expression and the collagen structure of the skin. .. 前記コラーゲン構造の推定結果に基づく情報を含む解析結果を出力することを特徴とする、請求項9に記載の肌解析方法。 The skin analysis method according to claim 9, wherein an analysis result including information based on the estimation result of the collagen structure is output. 前記コラーゲン構造の推定結果に基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力することを特徴とする、請求項10に記載の肌解析方法。 The skin analysis method according to claim 10, wherein an analysis result including information based on the measured value of the physical quantity is output together with information based on the estimation result of the collagen structure. 前記物理量は、前記表情変化の過程を含む動画に基づいて測定されることを特徴とする、請求項1〜11の何れかに記載の肌解析方法。 The skin analysis method according to any one of claims 1 to 11, wherein the physical quantity is measured based on a moving image including the process of changing the facial expression. 前記動画を撮影するための画面において、被験者の顔における顔部品の位置を合わせるためのガイドを表示することを特徴とする、請求項12に記載の肌解析方法。 The skin analysis method according to claim 12, wherein a guide for aligning the positions of facial parts on the face of the subject is displayed on the screen for capturing the moving image. 前記動画は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20〜30度の範囲で回転させた方向から撮影されることを特徴とする、請求項12又は請求項13に記載の肌解析方法。 The moving image according to claim 12 or 13, wherein the moving image is taken from a direction rotated in a range of 20 to 30 degrees with the front surface as 0 degrees around a vertical axis passing through the subject's face. Skin analysis method. 前記動画として、被験者の顔を通る鉛直方向の軸まわりに正面を0度として時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、被験者の顔を通る鉛直方向の軸まわりに正面を0度として反時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、の両方を用いることを特徴とする、請求項14に記載の肌解析方法。 The moving images include a moving image taken from a direction in which the front is rotated clockwise in the range of 20 to 30 degrees with the front as 0 degrees around a vertical axis passing through the subject's face, and a vertical axis passing through the subject's face. The skin analysis method according to claim 14, wherein both a moving image taken from a direction in which the front surface is rotated counterclockwise in the range of 20 to 30 degrees and a moving image taken are used. 前記動画は、
被験者を正面から捉えた状態を初期位置とし、前記初期位置からの撮影装置の回転角度を取得し、
前記回転角度が20〜30度の範囲内である場合に前記動画の撮影を許可し、
前記許可に基づいて撮影されることを特徴とする、請求項14又は請求項15に記載の肌解析方法。
The video is
The initial position is the state in which the subject is captured from the front, and the rotation angle of the imaging device from the initial position is acquired.
When the rotation angle is within the range of 20 to 30 degrees, shooting of the moving image is permitted.
The skin analysis method according to claim 14 or 15, wherein the image is taken based on the permission.
前記物理量は、前記顔に含まれる特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向の内、少なくとも1つに基づいて測定されることを特徴とする、請求項1〜16の何れかに記載の肌解析方法。 The physical quantity is measured based on at least one of the magnitude, direction of velocity, magnitude of acceleration, and direction of acceleration of the feature points contained in the face. Item 4. The skin analysis method according to any one of Items 1 to 16. 前記物理量は、肌の追従性、伸縮性及び変形性から選ばれることを特徴とする、請求項1〜17の何れかに記載の肌解析方法。 The skin analysis method according to any one of claims 1 to 17, wherein the physical quantity is selected from the followability, elasticity, and deformability of the skin. 前記物理量と、表皮の水分量との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の表皮の水分量を算出することを特徴とする、請求項1〜18の何れかに記載の肌解析方法。 The method according to any one of claims 1 to 18, wherein the water content of the epidermis of the subject is calculated from the measured value of the physical quantity of the subject based on the correlation between the physical quantity and the water content of the epidermis. Skin analysis method. 前記物理量及び水分量の測定値の組を複数入力することによって作成された水分量算出モデルを用いて、被験者についての前記物理量の測定値から被験者の前記水分量を算出することを特徴とする、請求項19に記載の肌解析方法。 It is characterized in that the water content of a subject is calculated from the measured value of the physical quantity for the subject by using a water content calculation model created by inputting a plurality of sets of the measured values of the physical quantity and the water content. The skin analysis method according to claim 19. 顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析する、肌解析システムであって、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚の粘弾性との相関関係を記憶する記憶手段と、
前記物理量と皮膚の粘弾性との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚の粘弾性を算出する粘弾性算出手段と、を備えることを特徴とする肌解析システム。
A skin analysis system that analyzes the subject's skin based on the movement of the skin when the facial expression changes.
A physical quantity measuring means for measuring the physical quantity of skin changes caused by the facial expression change,
A memory means for storing the correlation between the physical quantity and the viscoelasticity of the skin,
A skin analysis system comprising: a viscoelasticity calculating means for calculating the viscoelasticity of a subject's skin from the measured value of the physical quantity of the subject based on the correlation between the physical quantity and the viscoelasticity of the skin.
前記粘弾性算出手段は、真皮の粘弾性及び皮下の粘弾性の内、少なくとも何れかを算出することを特徴とする、請求項21に記載の肌解析システム。 The skin analysis system according to claim 21, wherein the viscoelasticity calculating means calculates at least one of dermis viscoelasticity and subcutaneous viscoelasticity. 前記記憶手段は、前記物理量及び粘弾性の測定値の組を複数入力することによって作成された粘弾性算出モデルを記憶し、
前記粘弾性算出手段は、前記粘弾性算出モデルを用いて、被験者について測定された前記物理量から前記粘弾性を算出することを特徴とする、請求項21又は請求項22に記載の肌解析システム。
The storage means stores a viscoelasticity calculation model created by inputting a plurality of sets of the measured values of the physical quantity and the viscoelasticity.
The skin analysis system according to claim 21 or 22, wherein the viscoelasticity calculation means calculates the viscoelasticity from the physical quantity measured for a subject using the viscoelasticity calculation model.
前記記憶手段が、前記粘弾性と肌のコラーゲン構造との相関関係を記憶し、
前記粘弾性と肌のコラーゲン構造との相関関係に基づいて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定するコラーゲン構造推定手段を更に備えることを特徴とする、請求項21〜23の何れかに記載の肌解析システム。
The storage means memorizes the correlation between the viscoelasticity and the collagen structure of the skin.
21. Claim 21 is further provided with a collagen structure estimating means for estimating the collagen structure of the skin of the subject from the viscoelasticity calculated for the subject based on the correlation between the viscoelasticity and the collagen structure of the skin. The skin analysis system according to any one of ~ 23.
前記記憶手段は、前記粘弾性及び肌のコラーゲン構造の測定値の組を複数入力することによって作成されたコラーゲン構造推定モデルを記憶し、
前記コラーゲン構造推定手段は、前記コラーゲン構造推定モデルを用いて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定することを特徴とする、請求項24に記載の肌解析システム。
The storage means stores a collagen structure estimation model created by inputting a plurality of sets of measured values of viscoelasticity and skin collagen structure.
The skin analysis system according to claim 24, wherein the collagen structure estimation means estimates the collagen structure of the subject's skin from the viscoelasticity calculated for the subject using the collagen structure estimation model.
前記被験者の皮膚の粘弾性に基づいて、肌の評価値を1又は複数算出する評価手段を更に備えることを特徴とする、請求項21〜25の何れかに記載の肌解析システム。 The skin analysis system according to any one of claims 21 to 25, further comprising an evaluation means for calculating one or a plurality of evaluation values of the skin based on the viscoelasticity of the skin of the subject. 前記粘弾性の算出結果に基づく情報を含む解析結果を出力する出力手段を更に備えることを特徴とする、請求項21〜26の何れかに記載の肌解析システム。 The skin analysis system according to any one of claims 21 to 26, further comprising an output means for outputting an analysis result including information based on the calculation result of viscoelasticity. 前記出力手段は、前記粘弾性の算出結果に基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力することを特徴とする、請求項27に記載の肌解析システム。 The skin analysis system according to claim 27, wherein the output means outputs an analysis result including information based on the measured value of the physical quantity together with information based on the calculation result of viscoelasticity. 顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析する、肌解析システムであって、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚のコラーゲン構造との相関関係を記憶する記憶手段と、
前記物理量と皮膚のコラーゲン構造との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚のコラーゲン構造を推定するコラーゲン構造推定手段と、を備えることを特徴とする肌解析システム。
A skin analysis system that analyzes the subject's skin based on the movement of the skin when the facial expression changes.
A physical quantity measuring means for measuring the physical quantity of skin changes caused by the facial expression change,
A memory means for storing the correlation between the physical quantity and the collagen structure of the skin,
A skin analysis system comprising: a collagen structure estimating means for estimating a collagen structure of a subject's skin from a measured value of the physical quantity of the subject based on a correlation between the physical quantity and a collagen structure of the skin.
前記コラーゲン構造の推定結果に基づく情報を出力する出力手段を更に備えることを特徴とする、請求項29に記載の肌解析システム。 The skin analysis system according to claim 29, further comprising an output means for outputting information based on the estimation result of the collagen structure. 前記出力手段は、前記コラーゲン構造の推定結果に基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力することを特徴とする、請求項30に記載の肌解析システム。 The skin analysis system according to claim 30, wherein the output means outputs an analysis result including information based on the measurement value of the physical quantity together with information based on the estimation result of the collagen structure. 前記表情変化の過程を含む動画を取得する動画取得手段を更に備え、
前記物理量測定手段は、前記動画に基づいて前記物理量を測定することを特徴とする、請求項21〜31の何れかに記載の肌解析システム。
Further provided with a moving image acquisition means for acquiring a moving image including the process of the facial expression change,
The skin analysis system according to any one of claims 21 to 31, wherein the physical quantity measuring means measures the physical quantity based on the moving image.
前記動画を撮影するための画面において、被験者の顔における顔部品の位置を合わせるためのガイドを表示処理する手段を更に備えることを特徴とする、請求項32に記載の肌解析システム。 The skin analysis system according to claim 32, further comprising means for displaying and processing a guide for aligning the positions of facial parts on the face of the subject on the screen for capturing the moving image. 前記動画取得手段は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20〜30度の範囲で回転させた方向から、被験者の顔を撮影した動画を取得することを特徴とする、請求項32又は請求項33に記載の肌解析システム。 The moving image acquisition means is characterized in that a moving image of a subject's face is acquired from a direction rotated in a range of 20 to 30 degrees with the front surface as 0 degrees around a vertical axis passing through the subject's face. The skin analysis system according to claim 32 or 33. 前記動画取得手段は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、被験者の顔を通る鉛直方向の軸まわりに正面を0度として反時計回りに20〜30度の範囲で回転させた方向から撮影された動画と、を取得することを特徴とする、請求項34に記載の肌解析システム。 The moving image acquisition means includes a moving image taken from a direction in which the front is rotated clockwise in the range of 20 to 30 degrees with the front as 0 degrees around an axis in the vertical direction passing through the subject's face, and a vertical direction passing through the subject's face. 34. The skin analysis system according to claim 34, wherein a moving image taken from a direction in which the front surface is rotated counterclockwise in a range of 20 to 30 degrees with the front surface as 0 degrees is acquired. 前記動画取得手段は、被験者を所定の条件で撮影するための端末装置によって撮影された前記動画を取得し、
前記端末装置は、
被験者を正面から捉えた状態を初期位置とし、前記初期位置からの前記端末装置の回転角度を取得する手段と、
前記回転角度が20〜30度の範囲内である場合に前記動画の撮影を許可する手段と、
前記許可に基づいて前記動画を撮影する手段と、を備えることを特徴とする、請求項34又は請求項35に記載の肌解析システム。
The moving image acquisition means acquires the moving image taken by a terminal device for taking a picture of a subject under a predetermined condition, and obtains the moving image.
The terminal device is
A means for acquiring the rotation angle of the terminal device from the initial position, with the state in which the subject is captured from the front as the initial position, and
A means for permitting the shooting of the moving image when the rotation angle is within the range of 20 to 30 degrees, and
The skin analysis system according to claim 34 or 35, which comprises means for photographing the moving image based on the permission.
前記物理量測定手段は、前記顔に含まれる特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向の内、少なくとも1つに基づいて前記物理量を測定することを特徴とする、請求項21〜36の何れかに記載の肌解析システム。 The physical quantity measuring means measures the physical quantity based on at least one of the magnitude, direction of velocity, magnitude of acceleration, and direction of acceleration of feature points included in the face. The skin analysis system according to any one of claims 21 to 36. 前記物理量測定手段は、前記物理量として、肌の追従性、伸縮性及び変形性のうち何れかを測定することを特徴とする、請求項21〜37の何れかに記載の肌解析システム。 The skin analysis system according to any one of claims 21 to 37, wherein the physical quantity measuring means measures any of skin followability, elasticity, and deformability as the physical quantity. 前記記憶手段が、前記物理量と表皮の水分量との相関関係を記憶し、
前記物理量と表皮の水分量との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の表皮の水分量を算出する水分量算出手段を更に備えることを特徴とする、請求項21〜38の何れかに記載の肌解析システム。
The storage means stores the correlation between the physical quantity and the water content of the epidermis.
21 to 21 to claim, further comprising a water content calculating means for calculating the water content of the skin of the subject from the measured value of the physical quantity of the subject based on the correlation between the physical quantity and the water content of the epidermis. The skin analysis system according to any one of 38.
前記記憶手段は、前記物理量及び水分量の測定値の組を複数入力することによって作成された水分量算出モデルを記憶し、
前記水分量算出手段は、前記水分量算出モデルを用いて、被験者について測定された前記物理量から前記水分量を算出することを特徴とする、請求項39に記載の肌解析システム。
The storage means stores a water content calculation model created by inputting a plurality of sets of the measured values of the physical quantity and the water content.
The skin analysis system according to claim 39, wherein the water content calculation means calculates the water content from the physical quantity measured for a subject by using the water content calculation model.
顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析するための肌解析プログラムであって、コンピュータを、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚の粘弾性との相関関係を記憶する記憶手段と、
前記物理量と皮膚の粘弾性との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚の粘弾性を算出する粘弾性算出手段と、として機能させることを特徴とする肌解析プログラム。
A skin analysis program for analyzing the subject's skin based on the movement of the skin when the facial expression changes.
A physical quantity measuring means for measuring the physical quantity of skin changes caused by the facial expression change,
A memory means for storing the correlation between the physical quantity and the viscoelasticity of the skin,
A skin analysis program characterized by functioning as a viscoelasticity calculation means for calculating the viscoelasticity of a subject's skin from the measured value of the physical quantity of the subject based on the correlation between the physical quantity and the viscoelasticity of the skin. ..
顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析するための肌解析プログラムであって、コンピュータを、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚のコラーゲン構造との相関関係を記憶する記憶手段と、
前記物理量と皮膚のコラーゲン構造との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚のコラーゲン構造を推定するコラーゲン構造推定手段と、として機能させることを特徴とする肌解析プログラム。
A skin analysis program for analyzing the subject's skin based on the movement of the skin when the facial expression changes.
A physical quantity measuring means for measuring the physical quantity of skin changes caused by the facial expression change,
A memory means for storing the correlation between the physical quantity and the collagen structure of the skin,
A skin analysis program characterized by functioning as a collagen structure estimating means for estimating the collagen structure of the skin of a subject from the measured value of the physical quantity of the subject based on the correlation between the physical quantity and the collagen structure of the skin. ..
JP2020021669A 2019-02-12 2020-02-12 Skin analysis method, skin analysis system and skin analysis program Active JP7356927B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019022986 2019-02-12
JP2019022986 2019-02-12

Publications (2)

Publication Number Publication Date
JP2020131026A true JP2020131026A (en) 2020-08-31
JP7356927B2 JP7356927B2 (en) 2023-10-05

Family

ID=72277209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020021669A Active JP7356927B2 (en) 2019-02-12 2020-02-12 Skin analysis method, skin analysis system and skin analysis program

Country Status (1)

Country Link
JP (1) JP7356927B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115946150A (en) * 2022-12-13 2023-04-11 深圳无芯科技有限公司 Head structure with facial expression and robot with head structure

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001052724A1 (en) * 2000-01-19 2001-07-26 Pola Chemical Industries Inc. Device for measuring physical properties of elastic bodies
JP2002034930A (en) * 2000-06-21 2002-02-05 Koraaji & Hazaka Elektronik Gmbh Measuring device for measuring elastic characteristic of surface structure
JP2009518125A (en) * 2005-12-07 2009-05-07 イーエルシー マネージメント エルエルシー Method for evaluating the effects of exogenous and intrinsic factors on the skin
US20160174878A1 (en) * 2014-12-22 2016-06-23 Avon Products, Inc. System and Method for Measuring Skin Firmness
WO2017221798A1 (en) * 2016-06-20 2017-12-28 公立大学法人大阪市立大学 Skin diagnosing device, skin condition output method, program and recording medium
JP2018034644A (en) * 2016-08-31 2018-03-08 本田技研工業株式会社 Pull-out-of-parking support device
CN108056759A (en) * 2018-01-12 2018-05-22 苏州玺氏贸易有限公司 A kind of facial-care system
JP2018108038A (en) * 2016-12-28 2018-07-12 クアーズテック株式会社 Cell culture carrier
JP2018115913A (en) * 2017-01-17 2018-07-26 花王株式会社 Skin distortion measuring method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001052724A1 (en) * 2000-01-19 2001-07-26 Pola Chemical Industries Inc. Device for measuring physical properties of elastic bodies
JP2002034930A (en) * 2000-06-21 2002-02-05 Koraaji & Hazaka Elektronik Gmbh Measuring device for measuring elastic characteristic of surface structure
JP2009518125A (en) * 2005-12-07 2009-05-07 イーエルシー マネージメント エルエルシー Method for evaluating the effects of exogenous and intrinsic factors on the skin
US20160174878A1 (en) * 2014-12-22 2016-06-23 Avon Products, Inc. System and Method for Measuring Skin Firmness
WO2017221798A1 (en) * 2016-06-20 2017-12-28 公立大学法人大阪市立大学 Skin diagnosing device, skin condition output method, program and recording medium
JP2018034644A (en) * 2016-08-31 2018-03-08 本田技研工業株式会社 Pull-out-of-parking support device
JP2018108038A (en) * 2016-12-28 2018-07-12 クアーズテック株式会社 Cell culture carrier
JP2018115913A (en) * 2017-01-17 2018-07-26 花王株式会社 Skin distortion measuring method
CN108056759A (en) * 2018-01-12 2018-05-22 苏州玺氏贸易有限公司 A kind of facial-care system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115946150A (en) * 2022-12-13 2023-04-11 深圳无芯科技有限公司 Head structure with facial expression and robot with head structure
CN115946150B (en) * 2022-12-13 2023-11-14 深圳无芯科技有限公司 Head structure with facial expression and robot with same

Also Published As

Publication number Publication date
JP7356927B2 (en) 2023-10-05

Similar Documents

Publication Publication Date Title
US20170007137A1 (en) Method of estimating blood pressure based on image
EP2945372A1 (en) Electronic mirror device
JP2013101633A5 (en) Program and makeup simulation device
Wang et al. Home monitoring musculo-skeletal disorders with a single 3d sensor
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP6908743B2 (en) How to extract the part that determines the appearance of the face, how to extract the determinants of the appearance of the face, how to distinguish the appearance of the face
US11945125B2 (en) Auxiliary photographing device for dyskinesia analysis, and control method and apparatus for auxiliary photographing device for dyskinesia analysis
CN111881838B (en) Dyskinesia assessment video analysis method and equipment with privacy protection function
CN111933275A (en) Depression evaluation system based on eye movement and facial expression
Zhu et al. A computer vision-based system for stride length estimation using a mobile phone camera
CN108875469A (en) In vivo detection and identity authentication method, device and computer storage medium
JP7356927B2 (en) Skin analysis method, skin analysis system and skin analysis program
JP7321951B2 (en) SKIN ANALYSIS METHOD, SKIN ANALYSIS SYSTEM AND SKIN ANALYSIS PROGRAM
WO2021192906A1 (en) Calculation method
KR102175481B1 (en) Biometric device and method
JP6817782B2 (en) Pulse detection device and pulse detection method
JP6786098B2 (en) Gait analyzer
WO2021192908A1 (en) Tracking method
JP2015123262A (en) Sight line measurement method using corneal surface reflection image, and device for the same
JP2002373340A (en) Method for extracting motion characteristic, and device and program for recognizing motion
JP7183005B2 (en) Skin analysis method and skin analysis system
JP6661882B2 (en) Information processing apparatus, tremor information display method, information processing system, and program
Yang et al. Gaze angle estimate and correction in iris recognition
KR102502420B1 (en) Method and apparatus for measuring eye movement
KR101269175B1 (en) Method for detecting an area and area detecting apparatus applying the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230810

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230925

R150 Certificate of patent or registration of utility model

Ref document number: 7356927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150