JP7165003B2 - Skin animation correction system, skin animation correction program, and skin animation correction method - Google Patents

Skin animation correction system, skin animation correction program, and skin animation correction method Download PDF

Info

Publication number
JP7165003B2
JP7165003B2 JP2018170785A JP2018170785A JP7165003B2 JP 7165003 B2 JP7165003 B2 JP 7165003B2 JP 2018170785 A JP2018170785 A JP 2018170785A JP 2018170785 A JP2018170785 A JP 2018170785A JP 7165003 B2 JP7165003 B2 JP 7165003B2
Authority
JP
Japan
Prior art keywords
moving image
point
motion
movement
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018170785A
Other languages
Japanese (ja)
Other versions
JP2020043516A (en
Inventor
興治 水越
元紀 黒住
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pola Chemical Industries Inc
Original Assignee
Pola Chemical Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pola Chemical Industries Inc filed Critical Pola Chemical Industries Inc
Priority to JP2018170785A priority Critical patent/JP7165003B2/en
Publication of JP2020043516A publication Critical patent/JP2020043516A/en
Application granted granted Critical
Publication of JP7165003B2 publication Critical patent/JP7165003B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Description

本発明は、人の顔を撮影した肌動画を補正する、肌動画補正システム、肌動画補正プログラム及び肌動画補正方法に関する。 The present invention relates to a skin moving image correction system, a skin moving image correction program, and a skin moving image correction method for correcting a skin moving image obtained by photographing a person's face.

人の顔を撮影した画像に対して補正処理を施し、印象を向上させることが従来から行われている。特に近年では、このような補正処理を動画に対して行うことができる技術が知られている。 2. Description of the Related Art Conventionally, correction processing is performed on an image of a person's face to improve its impression. In recent years, in particular, a technique has been known that can perform such correction processing on a moving image.

例えば、特許文献1に記載の装置では、補正を行う対象領域を代表する色である代表色に基づいて補正を行うことによって、動画を構成するフレームごとに代表色が変動する場合であっても、自然な補正結果を得ることができる。 For example, in the apparatus described in Patent Document 1, by performing correction based on a representative color that is a color that represents the target area to be corrected, even if the representative color changes for each frame that constitutes a moving image, , natural correction results can be obtained.

特開2016-171445号公報JP 2016-171445 A

ところで、人の顔に対する老化印象は、肌の色やシミ、しわ等の静的な特徴のみでなく、表情が変化した時の皮膚の動きという動的な特徴からも影響を受けることが知られている。また、顔の部位ごとの皮膚の運動特性は、被験者の年齢に応じて変化することがわかっており、これらの事実から、老化に伴う皮膚の運動特性の変化が老化印象を与えることが推測される。 By the way, it is known that the impression of aging on a person's face is affected not only by static features such as skin color, age spots, and wrinkles, but also by dynamic features such as movement of the skin when facial expressions change. ing. In addition, it is known that the skin motility characteristics of each part of the face change according to the age of the subject. be.

従って、本発明では、顔や肌の動きについて補正を行うことで、老化印象を改善できる動画補正システムを提供することを課題とする。 Accordingly, an object of the present invention is to provide a moving image correction system capable of improving the impression of aging by correcting movements of the face and skin.

上記課題を解決する為に、本発明は、表情表出に対する人の顔上の特徴点の運動に関する運動情報に基づいて、人の顔を撮影した動画像の補正を行う肌動画補正システムであって、
前記運動情報は、補正目標となる目標運動情報を含み、
人の顔を撮影した動画像を取得する動画像取得手段と、
前記動画像における顔上の1又は複数の前記特徴点を特定する特徴点特定手段と、
前記目標運動情報に基づいて、前記動画像における前記特徴点の運動を変化させ、顔の動きを補正した補正動画を生成する補正手段と、を備えることを特徴とする。
In order to solve the above problems, the present invention is a skin moving image correction system that corrects a moving image of a person's face based on motion information related to movement of feature points on the person's face with respect to facial expressions. hand,
The motion information includes target motion information as a correction target,
a moving image acquiring means for acquiring a moving image of a person's face;
feature point specifying means for specifying one or more of the feature points on the face in the moving image;
and correction means for generating a corrected moving image in which movement of the face is corrected by changing the movement of the feature points in the moving image based on the desired movement information.

このように、好ましい特徴点の運動の情報(補正目標)として目標運動情報を用いて、特徴点の運動について補正を行うことで、例えば、顔の動きについて印象を改善できる補正動画の生成が可能になる。 In this way, by correcting the motion of the feature points using the desired motion information as the information (correction target) of the motion of the desired feature points, it is possible to generate a corrected moving image that can improve the impression of the motion of the face, for example. become.

本発明の好ましい形態では、前記運動情報は、前記動画像における前記特徴点の運動に関する補正前運動情報を含み、
前記動画像から、前記補正前運動情報を測定する測定手段と、
複数の前記目標運動情報を記憶する記憶手段と、を更に備え、
前記補正手段は、前記測定手段によって測定された前記補正前運動情報に基づいて、複数の前記目標運動情報の中から、前記補正動画の生成に用いる前記目標運動情報を決定することを特徴とする。
このような構成とすることで、取得した動画像における被撮影者の顔の動きに応じて、どのような補正を行うかを決定することができるため、より適切に補正を行うことができるようになる。
In a preferred embodiment of the present invention, the motion information includes pre-correction motion information regarding motion of the feature points in the moving image,
measuring means for measuring the motion information before correction from the moving image;
storage means for storing a plurality of the desired exercise information,
The correcting means is characterized in that, based on the pre-correction motion information measured by the measuring means, the desired motion information to be used for generating the corrected moving image is determined from among a plurality of the desired motion information. .
With such a configuration, it is possible to determine what kind of correction is to be performed according to the movement of the subject's face in the acquired moving image, so that more appropriate correction can be performed. become.

本発明の好ましい形態では、前記動画像から、ある表情から別の表情表出までの部分を補正対象となる単位表情として設定する単位表情設定手段を更に備え、
前記補正手段は、前記単位表情ごとに顔の動きを補正して前記補正動画を生成することを特徴とする。
このように、連続して表情が変化する動画において、そのそれぞれの表情変化を単位表情として設定し、単位表情ごとに補正を行うことで、各単位表情の動きを個別に補正できるため、表情に応じてより適切に動きの補正を行うことができる。
In a preferred embodiment of the present invention, the apparatus further comprises unit facial expression setting means for setting a portion from one facial expression to another facial expression as a unit facial expression to be corrected,
The correcting means is characterized in that the corrected moving image is generated by correcting the movement of the face for each of the unit facial expressions.
In this way, in a video in which facial expressions change continuously, by setting each facial expression change as a unit facial expression and performing correction for each unit facial expression, the movement of each unit facial expression can be corrected individually. Accordingly, motion correction can be performed more appropriately.

本発明の好ましい形態では、前記運動情報は、前記特徴点の運動速度又は加速度のうち少なくとも何れかを含むことを特徴とする。
このような構成とすることで、例えば、各点の運動速度が最大になるタイミングや加速度が最大になるタイミングから、運動開始または終了のタイミングや運動の中心のタイミングを特定でき、これらをもとに補正を行うことができる。
In a preferred embodiment of the present invention, the motion information includes at least one of motion velocity and acceleration of the feature point.
With such a configuration, for example, from the timing at which the motion speed of each point reaches its maximum and the timing at which the acceleration reaches its maximum, it is possible to specify the timing of the start or end of the motion and the timing of the center of the motion. can be corrected.

本発明の好ましい形態では、前記特徴点は、頬部の点を含むことを特徴とする。
このような構成とすることで、特に人の印象に大きな影響を与える頬部の動きを補正することができるため、より効果的に動画像の補正を行うことができる。
A preferred form of the present invention is characterized in that the feature points include cheek points.
By adopting such a configuration, it is possible to correct the movement of the cheeks, which has a particularly large effect on the impression of a person, so that it is possible to correct moving images more effectively.

本発明の好ましい形態では、前記補正手段は、前記動画像取得手段による前記動画像の取得と並行して、取得された前記動画像を順次補正して前記補正動画を生成し、
前記補正手段による前記補正動画の生成と並行して、生成された前記補正動画を順次表示処理して処理結果を送信する表示手段を更に備えることを特徴とする。
このような構成とすることで、例えば、動画像を撮影しながらほぼ同時に補正動画を確認することができる。また、撮影と並行してほぼリアルタイムで補正動画を通信相手に送信し、ビデオ通話に補正動画を用いることもできるようになる。
In a preferred embodiment of the present invention, the correction means sequentially corrects the acquired moving images to generate the corrected moving images in parallel with acquisition of the moving images by the moving image acquisition means,
In parallel with the generation of the corrected moving image by the correcting means, the apparatus further comprises display means for sequentially displaying the generated corrected moving image and transmitting the processing result.
With such a configuration, for example, it is possible to check the corrected moving image almost simultaneously while shooting the moving image. In addition, it is possible to transmit the corrected moving image to the communication partner almost in real time in parallel with the shooting, and use the corrected moving image in the video call.

本発明の好ましい形態では、前記特徴点は、表情表出の際の顔の動きの基準となる顔上の基準点と、表情表出の際に、顔上の他の部分の動きに追従して動く皮膚上の点である追従点と、を含み、
前記特徴点特定手段として、前記追従点を特定する追従点特定手段と、前記基準点を特定する基準点特定手段と、を備え、
前記補正手段は、前記追従点の運動を変化させて前記補正動画を生成することを特徴とする。
このような構成とすることで、顔の動きに伴う皮膚の運動の追従性について補正を行うことができ、例えば、老化印象を改善する効果が期待できる。
In a preferred embodiment of the present invention, the feature points include a reference point on the face that serves as a reference for movement of the face when expressing an expression, and a reference point that follows movement of other parts of the face when expressing an expression. a tracking point, which is a point on the skin that moves with
The feature point identifying means includes tracking point identifying means for identifying the following point and reference point identifying means for identifying the reference point,
The correcting means is characterized in that the motion of the tracking point is changed to generate the corrected moving image.
By adopting such a configuration, it is possible to correct the followability of the skin movement accompanying the movement of the face, and for example, an effect of improving the impression of aging can be expected.

本発明の好ましい形態では、前記運動情報は、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分に関する情報を含むことを特徴とする。
このように、運動情報として基準点の運動のタイミングと追従点の運動のタイミングとの差分に関する情報を用いることにより、顔の部位ごとの皮膚の運動の追従性を補正することができる。
A preferred embodiment of the present invention is characterized in that the movement information includes information on the difference between the movement timing of the reference point and the movement timing of the following point.
In this way, by using information about the difference between the timing of movement of the reference point and the timing of movement of the tracking point as movement information, it is possible to correct the followability of skin movement for each part of the face.

本発明の好ましい形態では、前記補正手段は、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分が小さくなるように、前記追従点の運動を変化させて前記補正動画を生成することを特徴とする。
このような構成とすることで、基準点の運動に合わせて追従点の運動を調整した補正動画を生成することができる。
In a preferred embodiment of the present invention, the correcting means changes the motion of the tracking point so as to reduce the difference between the timing of the motion of the reference point and the timing of the motion of the tracking point, thereby producing the corrected moving image. is characterized by generating
With such a configuration, it is possible to generate a corrected moving image in which the motion of the tracking point is adjusted in accordance with the motion of the reference point.

本発明の好ましい形態では、前記補正手段は、前記追従点の運動のタイミングを早めることで、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分を小さくした前記補正動画を生成することを特徴とする。
このような構成とすることで、基準点の運動に対する追従点の運動の遅れを補正することができ、皮膚運動の追従性を向上できるため、老化印象を改善する効果が期待できる。
In a preferred embodiment of the present invention, the correction means shortens the difference between the timing of the motion of the reference point and the timing of the motion of the tracking point by advancing the timing of the motion of the tracking point. is characterized by generating
By adopting such a configuration, it is possible to correct the delay in the motion of the follow-up point with respect to the motion of the reference point, and improve the followability of the skin motion, so an effect of improving the impression of aging can be expected.

本発明の好ましい形態では、前記追従点は、複数定義され、
前記補正手段は、各追従点と前記基準点との距離が小さいほど、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分が小さくなるように各追従点の動きを補正して、前記補正動画を生成することを特徴とする。
このような構成とすることで、基準点との距離に応じて段階的に追従点の運動を補正することができ、より滑らかで自然な補正動画を生成できる。
In a preferred embodiment of the present invention, a plurality of tracking points are defined,
The correction means adjusts the movement of each tracking point such that the smaller the distance between each tracking point and the reference point, the smaller the difference between the timing of the movement of the reference point and the timing of the movement of the tracking point. It is characterized by correcting and generating the corrected moving image.
By adopting such a configuration, it is possible to correct the movement of the tracking point step by step according to the distance from the reference point, thereby generating a smoother and more natural corrected moving image.

本発明は、表情表出に対する人の顔上の特徴点の運動に関する運動情報に基づいて、人の顔を撮影した動画像の補正を行うための肌動画補正プログラムであって、
前記運動情報は、補正目標となる目標運動情報を含み、
コンピュータを、人の顔を撮影した動画像を取得する動画像取得手段と、
前記動画像における顔上の1又は複数の前記特徴点を特定する特徴点特定手段と、
前記目標運動情報に基づいて、前記動画像における前記特徴点の運動を変化させ、顔の動きを補正した補正動画を生成する補正手段と、として機能させることを特徴とする。
The present invention is a skin moving image correction program for correcting a moving image of a person's face based on motion information relating to movement of feature points on the person's face with respect to facial expressions,
The motion information includes target motion information as a correction target,
a moving image acquiring means for acquiring a moving image of a person's face, and
feature point specifying means for specifying one or more of the feature points on the face in the moving image;
and correction means for generating a corrected moving image in which the movement of the face is corrected by changing the movement of the feature points in the moving image based on the desired movement information.

本発明は、表情表出に対する人の顔上の特徴点の運動に関する運動情報に基づいて、人の顔を撮影した動画像の補正を行う肌動画補正方法であって、
前記運動情報は、補正目標となる目標運動情報を含み、
人の顔を撮影した動画像を取得する動画像取得ステップと、
前記動画像における顔上の1又は複数の前記特徴点を特定する特徴点特定ステップと、
前記目標運動情報に基づいて、前記動画像における前記特徴点の運動を変化させ、顔の動きを補正した補正動画を生成する補正ステップと、を備えることを特徴とする。
The present invention is a skin moving image correction method for correcting a moving image of a person's face based on motion information related to movement of feature points on the person's face with respect to facial expression, comprising:
The motion information includes target motion information as a correction target,
a moving image acquiring step of acquiring a moving image of a person's face;
a feature point identifying step of identifying one or more of the feature points on the face in the moving image;
and a correction step of changing the motion of the feature points in the moving image based on the target motion information to generate a corrected moving image in which the movement of the face is corrected.

本発明によれば、顔の動きについて補正を行うことで、老化印象を改善できる動画補正システムを提供することができる。 According to the present invention, it is possible to provide a moving image correction system capable of improving the impression of aging by correcting facial movements.

本発明の実施形態1及び実施形態2における特徴点の一例を示す図である。It is a figure which shows an example of the feature point in Embodiment 1 and Embodiment 2 of this invention. 表情表出に対する人の顔上の追従点の運動において生じる遅れの年齢層ごとの傾向を示す概念図である。FIG. 10 is a conceptual diagram showing the tendency of each age group of delay in movement of a follow-up point on a person's face with respect to facial expressions. 本発明の実施形態1及び実施形態2における肌動画補正システムの構成を示す図である。1 is a diagram showing the configuration of a skin moving image correction system according to Embodiments 1 and 2 of the present invention; FIG. 本発明の実施形態1及び実施形態2における肌動画補正システムの機能ブロック図である。1 is a functional block diagram of a skin moving image correction system according to Embodiments 1 and 2 of the present invention; FIG. 本発明の実施形態1及び実施形態2における目標運動情報の一例を示す図である。It is a figure which shows an example of the desired motion information in Embodiment 1 and Embodiment 2 of this invention. 本発明の実施形態1における動画像の取得から補正動画の生成までの処理の一例を示すフローチャートである。4 is a flow chart showing an example of processing from acquiring a moving image to generating a corrected moving image in Embodiment 1 of the present invention. 本発明の実施形態1及び実施形態2における補正動画の生成に係る処理の一例を示すフローチャートである。5 is a flowchart showing an example of processing related to generation of a corrected moving image according to Embodiments 1 and 2 of the present invention; 本発明の実施形態2における動画像の取得から補正動画の生成までの処理の一例を示すフローチャートである。10 is a flow chart showing an example of processing from acquiring a moving image to generating a corrected moving image in Embodiment 2 of the present invention.

以下、本発明の実施形態について、図面を用いて詳細に説明する。なお、以下に示す実施形態は本発明の一例であり、本発明を以下の実施形態に限定するものではなく、様々な構成を採用することもできる。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The embodiments shown below are examples of the present invention, and the present invention is not limited to the following embodiments, and various configurations can be adopted.

例えば、以下では肌動画補正システムの構成、動作等について説明するが、同様の構成の方法、サーバ装置、コンピュータプログラム、記録媒体等も、同様の作用効果を奏することができる。また、プログラムは、記録媒体に記憶させてもよい。この記録媒体を用いれば、例えばコンピュータに前記プログラムをインストールすることができる。ここで、前記プログラムを記憶した記録媒体は、例えばCD-ROM等の非一過性の記録媒体であっても良い。 For example, although the configuration, operation, etc. of the moving image correction system for skin will be described below, a method, a server device, a computer program, a recording medium, etc. having the same configuration can also achieve the same effect. Also, the program may be stored in a recording medium. Using this recording medium, the program can be installed in a computer, for example. Here, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM.

本発明では、人の顔を撮影した動画像における、皮膚の動きを補正した補正動画を生成する。ここで、後述の実施形態においては、連続的に表情が変化する様子を撮影した動画像を取得して補正を行う。このような場合、取得する動画像には複数の表情表出(表情変化)が含まれる。その各々に対して適切に補正を行う為に、本発明では、各表情表出の過程を「単位表情」として定義する。即ち、本発明において単位表情とは、例えば真顔の状態から笑顔への表情表出までの過程や、発声に伴う口の動きの開始から終了までの過程など、表情表出における顔の動きが開始する時点から終了する時点までの一つの動きのまとまりのことを指す。 In the present invention, a corrected moving image is generated by correcting skin movement in a moving image of a person's face. Here, in an embodiment described later, a moving image obtained by photographing a state in which facial expressions change continuously is acquired and corrected. In such a case, the moving image to be acquired includes a plurality of facial expression expressions (facial expression changes). In order to appropriately correct each of them, in the present invention, the process of expressing each facial expression is defined as a "unit facial expression". That is, in the present invention, a unit facial expression refers to the start of the facial movement in facial expression, such as the process from a straight face to a smiling expression, or the process from the start to the end of mouth movement accompanying utterance. It refers to a group of movements from the time of starting to the time of finishing.

本発明において、特徴点とは、表情表出に伴って動く顔上の点のことを指し、後述の実施形態においては、特徴点として基準点及び追従点を含む。本発明では特徴点の運動特性について補正を行い、補正動画を生成する。 In the present invention, a feature point refers to a point on the face that moves along with expression of an expression, and in the embodiments described later, the feature point includes a reference point and a follow-up point. In the present invention, motion characteristics of feature points are corrected to generate a corrected moving image.

また、運動情報とは、特徴点の運動に関する情報のことを示す。後述の実施形態においては、好ましい特徴点の運動に関する目標運動情報と、取得した動画像における追従点の運動に関する補正前運動情報と、を含む。運動情報としては、特徴点の運動速度や加速度、また基準点との運動のタイミングの差分等、特徴点の運動に関する様々な情報を任意で用いることができる。 Also, motion information indicates information about the motion of the feature point. In the embodiments described later, the target motion information about the motion of the preferred feature point and the pre-correction motion information about the motion of the tracking point in the acquired moving image are included. As the motion information, various information related to the motion of the feature points, such as the motion velocity and acceleration of the feature points, and the timing difference of the motion from the reference point, can be arbitrarily used.

運動情報としては、表情変化に伴う肌の表面の運動特性を示す情報を用いることができる。運動特性の具体例としては、表情変化における顔の皮膚運動の追従性(以下、単に追従性ともいう)や、表情変化における顔の肌の伸縮性(以下、単に伸縮性ともいう)が挙げられる。また、運動特性として表情変化における顔の肌の変形性(以下、単に変形性ともいう)を採用することもできる。 As the motion information, information indicating motion characteristics of the skin surface accompanying changes in facial expression can be used. Specific examples of movement characteristics include followability of facial skin movement when facial expressions change (hereinafter simply referred to as followability), and elasticity of facial skin when facial expressions change (hereinafter simply referred to as stretchability). . In addition, the deformability of facial skin (hereinafter simply referred to as "deformability") in response to changes in facial expression can also be used as the motion characteristic.

皮膚運動の追従性とは、表情変化に追従して変化する顔の肌の動きの遅れの程度のことである。表情変化が起こる際に、顔の肌はその動きに遅れて変化することになるが、その遅れの程度が小さいほど「追従性に優れる」という。 The followability of skin movement is the degree of delay in the movement of facial skin that changes following changes in facial expression. When facial expression changes occur, the skin on the face changes with a delay, and the smaller the degree of delay, the better the followability.

追従性は、表情変化の際の顔の任意の2つの特徴点を観察し、この2つの特徴点の運動のタイミングのズレの程度を測定することにより定量的に評価することができる。より具体的には、追従性は、表情変化における、顔の任意の位置に設定された少なくとも2つの特徴点の運動速度が最大となる時間の差分として定量的に測定できる。 Followability can be evaluated quantitatively by observing any two feature points on the face when the facial expression changes and measuring the degree of deviation in the timing of movement of these two feature points. More specifically, the followability can be quantitatively measured as the difference in the time at which the movement speed of at least two feature points set at arbitrary positions on the face reaches its maximum in changes in facial expression.

また、肌の伸縮性とは、表情変化が起こったときの肌の伸縮のしやすさのことをいう。例えば、顔の肌が伸びる表情変化があったときに、その伸長方向全体の距離の増加分に対する、ある任意の領域における伸長方向の距離の増加分の割合が高いほど「伸縮性に優れる」と評価することができる。 In addition, the stretchability of the skin refers to the ease with which the skin stretches and contracts when the facial expression changes. For example, when there is a facial expression change that stretches the skin of the face, the higher the ratio of the increase in the distance in the stretching direction in an arbitrary area to the increase in the distance in the entire stretching direction, the higher the stretchability is. can be evaluated.

伸縮性は、表情変化における特徴点と特徴点との間の距離を計算することにより定量化することができる。例えば、まず顔に設定した全ての特徴点に関して、表情変化によって増加した、互いに隣接する特徴点と特徴点の距離の総和を計算する。同時に、顔の特定領域に存在する一部の特徴点に関して、表情変化によって増加した、互いに隣接する特徴点と特徴点の距離の総和を計算する。そして、後者の数値を前者の数値により除することにより、伸縮性を定量的に測定することができる。 Elasticity can be quantified by calculating the distance between feature points in facial expression changes. For example, first, for all the feature points set on the face, the sum of the distances between adjacent feature points increased due to changes in facial expression is calculated. At the same time, for some feature points existing in a specific region of the face, the sum of the distances between adjacent feature points increased due to changes in facial expression is calculated. By dividing the latter numerical value by the former numerical value, the stretchability can be quantitatively measured.

また、表情変化において変化する、特徴点に基づいて顔の任意の位置に設定された領域の変形の仕方(歪み方)等を定量化して運動情報として用いることで、表情変化における顔の肌の変形性を補正する形態とすることもできる。変形性の具体的な測定方法は特に限定されない。例えば、表情変化の前後における、顔の肌上に設定した任意の領域の形状に対する情報を、撮影された動画を用いてオプティカルフロー法やモーションキャプチャ法などにより取得し、当該形状について歪み解析・変形解析を行う方法が例示できる。 In addition, by quantifying the deformation method (distortion method) of an area set at an arbitrary position on the face based on the feature points, which changes when the facial expression changes, and using it as motion information, it is possible to determine the shape of the facial skin when the facial expression changes. It can also be in the form of correcting deformability. A specific method for measuring deformability is not particularly limited. For example, information on the shape of an arbitrary area set on the skin of the face before and after the change in facial expression is acquired using the optical flow method or motion capture method using the captured video, and distortion analysis and deformation of the shape are obtained. A method of analysis can be exemplified.

本発明では、上述のように追従性や伸縮性、変形性等を定量化した値を運動情報として用い、これらの情報に基づいて補正を行うことで、顔の動きを補正して印象を向上した補正動画を生成することができる。なお、以下では、追従性を補正する場合について、具体例を挙げて詳細に説明する。 In the present invention, the values obtained by quantifying the followability, stretchability, deformability, etc. as described above are used as motion information, and correction is performed based on this information, thereby correcting the movement of the face and improving the impression. It is possible to generate a corrected moving image. In addition, below, the case where followability is corrected will be described in detail with a specific example.

<実施形態1>
本実施形態においては、本発明に係る肌動画補正システムをビデオ通話に用いる例について説明する。即ち、本実施形態においては、動画像の取得及び補正動画の生成を並行して実行し、ほぼリアルタイムで補正動画を通話相手に対して表示する。
<Embodiment 1>
In this embodiment, an example of using the skin moving image correction system according to the present invention for a video call will be described. That is, in the present embodiment, acquisition of a moving image and generation of a corrected moving image are executed in parallel, and the corrected moving image is displayed to the other party of the call almost in real time.

本発明において、基準点とは、表情表出に伴って動く顔上の点のことであり、本実施形態においては顎部の点を例示する。このように、表情が変化するのとほぼ同時に動く点を基準点とすることが好ましい。この他、複数の基準点を設定して単位表情ごとに用いる基準点を異ならせてもよいし、予め特定の基準点を設定せず、動画像から顔の動きを検出して、最も早く運動を開始した点等をその単位表情における基準点としてもよい。 In the present invention, the reference point is a point on the face that moves along with expression of facial expressions, and in this embodiment, the point on the chin is exemplified. In this way, it is preferable to use a point that moves almost at the same time as the facial expression changes as the reference point. In addition, a plurality of reference points may be set so that different reference points are used for each unit facial expression. may be used as a reference point in the unit facial expression.

また、追従点とは、表情表出の際に、顔上の他の部分、特に基準点等の動きに引っ張られるようにして動く皮膚上の点のことであり、本実施形態においては頬部の複数の点を例示する。 The follow-up point is a point on the skin that moves as if it is pulled by the movements of other parts of the face, especially a reference point, etc., when an expression is expressed. exemplify a plurality of points of

図1は、本実施形態における基準点及び追従点(特徴点)の一例を示す図である。このように、本例では顎部の点を基準点Rとし、頬部の3点を、基準点Rに近い順に追従点A~Cとする。なお、図1では左側の顔を示すが、本実施形態では右側の頬にも対称に追従点A~Cを設定し、同様に扱う。 FIG. 1 is a diagram showing an example of reference points and tracking points (feature points) in this embodiment. Thus, in this example, the point on the chin is defined as the reference point R, and the three points on the cheeks are defined as the follow-up points A to C in order of proximity to the reference point R. Although FIG. 1 shows the left side of the face, in the present embodiment, the following points A to C are set symmetrically on the right side of the cheek and treated in the same way.

図2は、表情表出の際の顔上の基準点の運動と追従点の運動との間において生じる遅れの、年齢層ごとの傾向を示す概念図である。横軸は基準点Rからの距離を示し、縦軸は表情表出において基準点Rの運動速度が最大になる時点と、各追従点の運動速度が最大になる時点と、の差分を示す。即ち、図2は基準点Rからの距離に応じた、基準点Rの運動に対する各追従点の運動の遅れの大きさの傾向を年齢層別に模式的に示す図である。 FIG. 2 is a conceptual diagram showing tendencies of age group-specific delays occurring between movement of a reference point and movement of a follow-up point on the face when expression is expressed. The horizontal axis indicates the distance from the reference point R, and the vertical axis indicates the difference between the time when the movement speed of the reference point R reaches its maximum and the time when the movement speed of each following point reaches its maximum. That is, FIG. 2 is a diagram schematically showing the tendency of the magnitude of the delay in the movement of each following point with respect to the movement of the reference point R according to the distance from the reference point R for each age group.

このように、表情表出における追従点の運動は、基準点の運動に対して遅れが生じ、その遅れは年齢が上がるにつれて大きくなる傾向がある。また、被撮影者の種々の表情を示す静止画を見た場合に比べ、表情変化の過程を示す動画像を見た場合、被撮影者に対してもつ老化印象が変化することがわかっている。 In this way, the motion of the follow-up point in expression of facial expressions lags behind the motion of the reference point, and the lag tends to increase with age. In addition, it is known that the impression of aging on the person to be photographed changes when he or she sees a moving image showing the process of facial expression changes, compared to when he or she sees still images showing various expressions of the person. .

以上のことから、人の顔の表情表出における基準点の運動に対する追従点の運動の遅れによって、見る人に対して老化印象を与えていると推測することができる。本実施形態においては、追従性を向上させることで、老化印象を改善できる補正動画を生成する構成を示す。 From the above, it can be inferred that the delay in the motion of the follow-up point with respect to the motion of the reference point in expressing facial expressions gives the viewer an aged impression. In this embodiment, a configuration for generating a corrected moving image that can improve the impression of aging by improving followability will be described.

図3は、実施形態1における肌動画補正システムの構成を示す図である。このように、本実施形態における肌動画補正システムは、サーバ装置1と表示装置2a及び2bとがネットワークを介して通信可能に構成される。なお、説明の簡略化のためにここではサーバ装置1を1台、表示装置2を2台示すが、サーバ装置1を複数のコンピュータ装置を協働させて実現してもよいし、表示装置2を3台以上備えていてもよい。また、表示装置2に肌動画補正プログラムを記憶させてサーバ装置1が備える各手段として機能させる構成としてもよい。 FIG. 3 is a diagram showing the configuration of the skin moving image correction system according to the first embodiment. As described above, the skin moving image correction system according to the present embodiment is configured such that the server device 1 and the display devices 2a and 2b can communicate with each other via the network. To simplify the explanation, one server device 1 and two display devices 2 are shown here. may be provided with three or more. Further, the display device 2 may be configured to store the skin moving image correction program and function as each unit included in the server device 1 .

図4は、実施形態1における肌動画補正システムの機能ブロック図である。ここに示すように、サーバ装置1は、動画像取得手段11と、追従点特定手段12と、基準点特定手段13と、測定手段14と、単位表情設定手段15と、補正手段16と、表示手段17と、記憶手段18と、を備える。 FIG. 4 is a functional block diagram of the skin moving image correction system according to the first embodiment. As shown here, the server device 1 includes moving image acquisition means 11, tracking point identification means 12, reference point identification means 13, measurement means 14, unit facial expression setting means 15, correction means 16, display Means 17 and storage means 18 are provided.

動画像取得手段11は、人の顔における表情表出の過程を含む動画像を取得し、追従点特定手段12と基準点特定手段13はそれぞれ動画像に含まれる人の顔に対して追従点及び基準点を特定する。 A moving image acquiring means 11 acquires a moving image including a process of expression expression in a person's face, and a tracking point specifying means 12 and a reference point specifying means 13 each acquire a following point for the human face included in the moving image. and identify a reference point.

本実施形態では、予め追従点及び基準点となる顔の部分を決めておき、動画像からその点を検出することによって追従点及び基準点を特定するが、顔全体の動きを解析して、顔の各部の動きに基づいて追従点及び基準点を特定する構成としてもよい。例えば、表情表出に伴う顔の動きを検出し、その際に最も早く動いた点を基準点とし、その後追従するように動いた点を追従点とするように特定する方法等が考えられる。また、基準点については顔の動きによって単位表情ごとに特定し、追従点については常に頬部の点とする等、基準点と追従点とで特定の方法を異ならせてもよい。この他にも、追従点及び基準点の特定は任意の方法で行ってよい。 In this embodiment, the parts of the face that serve as the tracking points and the reference points are determined in advance, and the tracking points and the reference points are specified by detecting the points from the moving image. The configuration may be such that the tracking point and the reference point are specified based on the movement of each part of the face. For example, a method is conceivable in which the movement of the face associated with the expression of an expression is detected, the point that moves the fastest at that time is set as the reference point, and the point that moves after that is set as the follow point. Also, the method of specifying the reference point and the follow-up point may be different, such as specifying the reference point for each unit expression according to the movement of the face, and always using the point of the cheek as the follow-up point. Any other method may be used to identify the tracking point and the reference point.

測定手段14は、動画像取得手段11が取得した動画像に含まれる追従点の運動について、補正前運動情報を測定する。本実施形態においては、追従点特定手段12が特定した追従点について、運動速度を時系列に測定する。また、本実施形態では、基準点特定手段13が特定した基準点についても同様に運動速度を時系列に測定し、それに基づいて基準点の運動のタイミングと追従点の運動のタイミングとの差分を測定する。 The measuring unit 14 measures pre-correction motion information regarding the motion of the tracking point included in the moving image acquired by the moving image acquisition unit 11 . In this embodiment, the motion speed is measured in chronological order for the tracking points specified by the tracking point specifying means 12 . Further, in this embodiment, the motion speed of the reference point specified by the reference point specifying means 13 is similarly measured in time series, and based on this, the difference between the motion timing of the reference point and the motion timing of the following point is calculated. Measure.

ここで、本実施形態においては、頭部全体の動きの影響を受けないよう、表情の動きの基準となる参照点として額の点を特定し、額の点に対する相対的な運動速度を測定する。参照点としては頭部の動きに伴って運動し、かつ表情の動きの影響を受けない(表情表出に伴った運動をしない)点が好ましい。なお、参照点の特定は必須ではなく、単純に基準点及び追従点の絶対的な運動速度を測定してもよい。 Here, in the present embodiment, the forehead point is specified as a reference point that serves as a reference for facial expression movement so as not to be affected by the movement of the entire head, and the relative motion speed with respect to the forehead point is measured. . As a reference point, a point that moves with the movement of the head and is not affected by the movement of the facial expression (does not move with the expression of the facial expression) is preferable. It should be noted that specifying the reference point is not essential, and the absolute motion speed of the reference point and the follow-up point may simply be measured.

単位表情設定手段15は、動画像取得手段11が取得した動画像における単位表情を設定する。本実施形態では、顔の動きを解析し、各表情表出における顔の動きが開始する時点から終了する時点までの顔の動きを単位表情として設定する。 A unit facial expression setting means 15 sets a unit facial expression in the moving image acquired by the moving image acquiring means 11 . In this embodiment, facial movements are analyzed, and the facial movements from the start to the end of each facial expression are set as a unit facial expression.

補正手段16は、後述の記憶手段18が記憶する目標運動情報に基づいて、動画像における追従点の運動を補正した補正動画を生成する。本実施形態では、単位表情設定手段15によって設定された単位表情ごとに補正を行う。 The correction means 16 generates a corrected moving image by correcting the motion of the tracking point in the moving image based on the desired motion information stored in the storage means 18, which will be described later. In this embodiment, correction is performed for each unit facial expression set by the unit facial expression setting means 15 .

表示手段17は、補正手段が生成した補正動画を表示処理し、処理結果を送信する。本実施形態においては、表示装置2aにおいて撮影された動画像から生成された補正動画は、表示手段17によって表示処理され、通話相手側の表示装置2bに処理結果が送信される。 The display unit 17 performs display processing on the corrected moving image generated by the correction unit, and transmits the processing result. In this embodiment, the corrected moving image generated from the moving image shot on the display device 2a is processed for display by the display means 17, and the processing result is transmitted to the display device 2b on the other party's side.

記憶手段18は、動画像の補正を行うための追従点の運動の目安となる、目標運動情報を記憶する。図5は、目標運動情報の一例を示す図である。ここに示すように、本実施形態では、各追従点について年代ごとの運動特性を示す情報を記憶している。ここでは、記憶手段18は基準点の運動のタイミングに対する各追従点の運動のタイミングの遅れの大きさの目安を年代別に記憶し、これを目標運動情報として用いる。 The storage unit 18 stores target motion information that serves as a guideline for the motion of the tracking point for correcting the moving image. FIG. 5 is a diagram showing an example of desired motion information. As shown here, in this embodiment, information indicating motion characteristics for each age is stored for each tracking point. In this case, the storage means 18 stores a measure of the magnitude of the delay in the motion timing of each follow-up point with respect to the motion timing of the reference point for each age, and uses it as the desired motion information.

つまり、顔の動きを20代に補正したい場合には20代の各追従点の運動特性を示す情報を目標運動情報として用いることができ、30代に補正したい場合には30代の各追従点の運動特性を示す情報を目標運動情報として用いることができる。本例の場合、例えば20代の追従点Cにおける遅れの目安が30ms、50代の追従点Cにおける遅れの目安が100msとして記憶されている。 In other words, if the facial movement is to be corrected to the twenties, the information indicating the motion characteristics of each tracking point in the twenties can be used as the target motion information. can be used as the desired motion information. In the case of this example, for example, the estimated delay at the follow-up point C for people in their twenties is stored as 30 ms, and the estimated delay at the follow-up point C for people in their fifties is stored as 100 ms.

なお、ここでは各追従点における遅れの大きさの目安を年代ごとに数値として記憶し、これを目標運動情報として用いる構成を示すが、例えば、基準点と追従点の間の距離に対して遅れの大きさをあらわす関数を、年代ごとに複数記憶する構成としてもよい。 In this example, a numerical value indicating the size of the delay at each tracking point is stored for each age and used as desired motion information. It is also possible to store a plurality of functions representing the magnitude of .

また、本実施形態においては、各単位表情において運動速度が最大になるタイミングの基準点と追従点との差分(基準点に対する追従点の遅れ)を「遅れの大きさ」とするが、この他任意の方法で遅れを表現してよい。例えば、各単位表情において基準点と追従点それぞれの加速度が最大になるタイミング(動き始め又は動き終わり)の差分によって、遅れの大きさを表現して用いてもよい。 In addition, in this embodiment, the difference between the reference point and the tracking point at the timing when the movement speed becomes maximum in each unit facial expression (the delay of the tracking point with respect to the reference point) is defined as the "magnitude of delay". You may express the delay in any way. For example, the magnitude of the delay may be expressed by the difference in the timing (beginning of movement or end of movement) at which the acceleration of each of the reference point and the following point is maximized in each unit facial expression.

なお、追従性以外の各種の運動特性について補正を行う場合にも、同様にして年代ごとの目安となる値を記憶しておき、目標運動情報として用いることができる。この場合にも、運動特性を示す関数として運動情報を記憶していてもよい。 In the case of correcting various motion characteristics other than followability, it is also possible to similarly store reference values for each age group and use them as desired motion information. Also in this case, motion information may be stored as a function indicating motion characteristics.

表示装置2a及び2bは、それぞれ入力手段21及び出力手段22を備える。表示装置2としては、PC(Personal Computer)やスマートフォンなどの一般的なコンピュータを用いることができる。表示装置2a及び2bは、本実施形態に係る肌動画補正システムにおける表示装置2として機能するための専用のアプリケーションや、ウェブページを利用するためのウェブブラウザアプリケーションを記憶している。 The display devices 2a and 2b are provided with input means 21 and output means 22, respectively. As the display device 2, a general computer such as a PC (Personal Computer) or a smart phone can be used. The display devices 2a and 2b store a dedicated application for functioning as the display device 2 in the skin moving image correction system according to this embodiment and a web browser application for using web pages.

入力手段21としては、少なくとも動画像を撮影可能な一般的なカメラ等の撮影装置を採用することができ、出力手段22としては、少なくとも補正動画を表示可能な一般的なディスプレイ装置等を採用することができる。本実施形態においては、入力手段21として更に音声を取得可能なマイク等の集音装置を備え、取得した音声を補正動画と共に通話相手の表示装置2に送信することでビデオ通話を行う。 As the input means 21, a photographing device such as a general camera capable of photographing at least moving images can be adopted, and as the output means 22, a general display device capable of displaying at least corrected moving images, etc., can be adopted. be able to. In the present embodiment, a sound collecting device such as a microphone capable of acquiring sound is further provided as the input means 21, and a video call is performed by transmitting the acquired sound together with the corrected moving image to the display device 2 of the other party.

図6は、本実施形態における動画像の取得から補正動画の生成までの処理の流れを示すフローチャートである。入力手段21を介して動画像の撮影及び送信が開始されると、図6の処理が開始され、ステップS11において動画像取得手段11が動画像を取得する。ここでは、入力手段21による動画像の撮影と並行して、撮影された動画像が順次サーバ装置1に送信され、送信された動画像を動画像取得手段11が順次取得する。 FIG. 6 is a flow chart showing the flow of processing from acquiring a moving image to generating a corrected moving image in this embodiment. When shooting and transmission of a moving image are started via the input means 21, the process of FIG. 6 is started, and the moving image acquisition means 11 acquires a moving image in step S11. Here, the captured moving images are sequentially transmitted to the server device 1 in parallel with the capturing of the moving images by the input means 21, and the moving image acquisition means 11 sequentially acquires the transmitted moving images.

次に、ステップS12において、単位表情設定手段15が、ステップS11で取得した動画像について単位表情を設定する。本実施形態では、顔の動きを解析し、表情の変化が開始する時点から表情の変化が終了する時点までをひとつの単位表情として設定する。単位表情の設定は任意の方法で行われてよい。 Next, in step S12, the unit facial expression setting means 15 sets a unit facial expression for the moving image acquired in step S11. In this embodiment, the movement of the face is analyzed, and one unit facial expression is set from the time when the facial expression starts changing to the time when the facial expression ends. The unit facial expression may be set by any method.

具体的には、例えば、種々の表情表出の際の顔の動きのモデルを記憶手段18又は外部のデータベース等に記憶しておき、取得した動画像を顔の動きのモデルに照らして分析することで、単位表情を設定する方法が考えられる。また、この他には、ステップS12の前に追従点や基準点の特定及び運動情報の測定を行い、その測定結果に基づいて単位表情を設定する構成としてもよい。 Specifically, for example, facial movement models for expressing various expressions are stored in the storage means 18 or an external database, etc., and the acquired moving image is analyzed in light of the facial movement models. Therefore, a method of setting a unit facial expression can be considered. In addition, it is also possible to specify the tracking points and reference points and measure the motion information before step S12, and set the unit facial expression based on the measurement results.

単位表情の設定が完了すると、ステップS13に進み、単位表情ごとに補正手段16が補正動画の生成を行う。図7は、本実施形態における補正動画の生成に係る処理の一例を示すフローチャートである。 When the setting of the unit facial expression is completed, the process proceeds to step S13, and the correction means 16 generates a corrected moving image for each unit facial expression. FIG. 7 is a flowchart showing an example of processing related to generation of a corrected moving image in this embodiment.

まず、ステップS21において、追従点特定手段12及び基準点特定手段13が、動画像にふくまれる人の顔における基準点及び追従点を特定する。上述の通り、本実施形態では、予め顎部の点を基準点として、頬部の3つの点を追従点A~Cとして設定し、動画像からこれらの点を検出することで基準点及び追従点を特定するが、動画像における顔の動き等に基づいて追従点を特定する構成としてもよい。 First, in step S21, the tracking point specifying means 12 and the reference point specifying means 13 specify the reference point and the following point on the human face included in the moving image. As described above, in this embodiment, the chin point is set as a reference point, and the three cheek points are set as tracking points A to C in advance. Although the point is specified, the configuration may be such that the tracking point is specified based on the movement of the face in the moving image.

基準点及び追従点の特定が完了すると、ステップS22~ステップS24において、測定手段14が補正前運動情報を測定する。本実施形態では、まずステップS22において動画を構成するフレーム間の基準点及び各追従点の移動量から各点の運動速度を測定する。 After the reference point and the tracking point have been specified, the measurement means 14 measures pre-correction motion information in steps S22 to S24. In this embodiment, first, in step S22, the movement speed of each point is measured from the amount of movement of the reference point and each follow-up point between frames constituting the moving image.

続くステップS23では、ステップS22で測定した基準点及び各追従点の運動速度に基づいて、対象となる単位表情において基準点及び各追従点の運動のタイミングを特定する。本実施形態においては、基準点及び各追従点の運動速度が最大になるタイミングを特定する。 In the following step S23, based on the motion velocities of the reference point and each following point measured in step S22, the timing of movement of the reference point and each following point in the target unit facial expression is specified. In this embodiment, the timing at which the motion speed of the reference point and each tracking point reaches its maximum is specified.

そして、ステップS24において、ステップS23で特定した基準点及び各追従点の運動のタイミングから、基準点に対する各追従点の運動の遅れの大きさを算出する。本実施形態ではここで算出した各追従点の運動の遅れの大きさを補正前運動情報として、補正動画の生成に用いる。 Then, in step S24, the magnitude of the motion delay of each tracking point with respect to the reference point is calculated from the timing of the motion of each tracking point and the reference point specified in step S23. In the present embodiment, the magnitude of the motion delay of each tracking point calculated here is used as pre-correction motion information to generate a corrected moving image.

ステップS25では、補正手段16が各追従点の運動のタイミングを調整する。ここで本実施形態では、ステップS24で算出された各追従点の運動の遅れの大きさ(補正前運動情報)を、記憶手段18に記憶された各追従点についての年代ごとの運動特性を示す情報と照らし合わせて、補正前運動情報がどの年代の動きの特徴に近いかを特定する。 In step S25, the correcting means 16 adjusts the timing of movement of each tracking point. Here, in the present embodiment, the magnitude of the motion delay (pre-correction motion information) of each tracking point calculated in step S24 indicates the motion characteristics for each age for each tracking point stored in the storage means 18. In comparison with the information, it is specified in which age the pre-correction motion information is close to the motion characteristics.

そして、補正前運動情報から特定された年代よりも1段階若い年代における、年代ごとの運動特性を示す情報を目標運動情報として用い、補正手段16が各追従点における補正後の運動のタイミングを決定する。ただし目標運動情報の選択はこれに限るものではなく、例えば、表示装置2を介して、補正強度の指定を受け付け、それに基づいた度合いで補正を行うように、目標運動情報を選択してもよい。 Then, the correcting means 16 determines the timing of the post-correction motion at each tracking point using the information indicating the motion characteristics for each age in the age one step younger than the age specified from the pre-correction motion information as the desired motion information. do. However, the selection of the desired motion information is not limited to this. For example, the desired motion information may be selected so as to accept designation of the correction strength via the display device 2 and perform correction at a degree based on the designation. .

ここで、本実施形態においては、追従点が基準点に近いほど運動のタイミングの遅れが小さくなるように目標運動情報を定義し、これに基づいて補正動画の生成を行う。このように、各追従点の基準点までの距離に応じて各追従点の運動のタイミングを調整することによって、より自然な補正動画を生成することができる。 Here, in the present embodiment, the target motion information is defined such that the closer the tracking point is to the reference point, the smaller the motion timing delay, and based on this, the corrected moving image is generated. In this way, by adjusting the timing of the motion of each tracking point according to the distance of each tracking point to the reference point, a more natural corrected moving image can be generated.

ステップS25における追従点の運動のタイミングの調整が完了すると、ステップS26において、これに基づいて補正手段16が各追従点の時系列の運動速度を決定する。本実施形態では、ステップS25で最大速度になるタイミングを調整し、ステップS26では線形補完によって時系列の運動速度を決定する。この他、加速度によって調整するように変更してもよい。 When the adjustment of the motion timing of the tracking points in step S25 is completed, in step S26, based on this, the correction means 16 determines the time-series motion speed of each tracking point. In this embodiment, the timing at which the maximum speed is reached is adjusted in step S25, and the motion speed in time series is determined by linear interpolation in step S26. In addition, it may be changed so as to be adjusted by acceleration.

ステップS27では、各追従点の運動速度に基づいて動画像を構成する各フレームの画像を調整し、補正動画を生成する。各フレームの画像の調整には一般的な画像編集技術を用いればよく、例えば、画像にメッシュ状の領域を設定し、各追従点の運動に応じて各領域を引き伸ばしたり縮めたりすることによって各フレームの画像を調整することができる。この際、前後のフレームとの連続性を考慮して、各フレームの調整を行うことが好ましい。 In step S27, the image of each frame constituting the moving image is adjusted based on the motion speed of each tracking point to generate a corrected moving image. A general image editing technique may be used to adjust the image of each frame. Frame images can be adjusted. At this time, it is preferable to adjust each frame in consideration of the continuity with the preceding and succeeding frames.

このようにして単位表情について補正動画の生成が完了すると、図6のフローチャートに戻り、ステップS14において表示手段17が補正動画を表示処理して処理結果を表示装置2に送信する。ここで、本実施形態においては、表示装置2aによって撮影された動画像から生成された補正動画は、表示手段17によって表示処理されると、処理結果が通話相手側の表示装置2bに送信され、表示装置2bの出力手段22を介して通話相手に表示される。なお、表示装置2aにおいても同様に補正動画を表示してもよい。 When the generation of the corrected moving image for the unit facial expression is completed in this way, returning to the flow chart of FIG. Here, in the present embodiment, when the corrected moving image generated from the moving image shot by the display device 2a is processed for display by the display means 17, the processing result is transmitted to the display device 2b on the other party's side, It is displayed to the other party via the output means 22 of the display device 2b. Note that the display device 2a may similarly display the corrected moving image.

このようにして、ステップS15で表示装置2を介して撮影終了指示を受け付けるまで、順次入力される動画像を取得して単位表情ごとに補正を行って補正動画を生成し、通話相手側の表示装置2において連続して表示する。このように連続して順次処理を行うことにより、ほぼリアルタイムで補正動画を表示することができる。 In this way, sequentially input moving images are acquired, correction is performed for each unit facial expression to generate a corrected moving image, and displayed on the other party's side of the call until an instruction to end shooting is received via the display device 2 in step S15. Displayed continuously in device 2 . By continuously performing the sequential processing in this way, it is possible to display the corrected moving image almost in real time.

なお、図6及び図7で示した処理の流れは一例であり、任意に順番や処理内容の詳細を変更してよい。また、本例ではステップS11における動画像の取得後、ステップS12において単位表情を設定し、単位表情ごとに補正動画を生成する流れを説明したが、必ずしも動画の全範囲について補正動画を生成しなくてもよい。例えば、表情の変化がない部分については単位表情を含まないものとし、ステップS13、S14における補正動画の生成及び表示処理をスキップする構成としてもよい。 The flow of processing shown in FIGS. 6 and 7 is an example, and the order and details of processing may be changed arbitrarily. Also, in this example, after acquiring the moving image in step S11, in step S12, the unit facial expression is set and the corrected moving image is generated for each unit facial expression. may For example, a configuration may be adopted in which a unit facial expression is not included in a portion where the facial expression does not change, and the corrected moving image generation and display processing in steps S13 and S14 are skipped.

<実施形態2>
以下、本発明の別の実施形態について説明する。なお、実施形態1と同様の構成については同じ符号を付して説明を省略する。
<Embodiment 2>
Another embodiment of the present invention will be described below. In addition, the same code|symbol is attached|subjected about the structure similar to Embodiment 1, and description is abbreviate|omitted.

本実施形態においては、表示装置2を介して動画像を取得し、補正動画を記憶手段18に記憶する構成について説明する。本実施形態においては、撮影と同時に補正動画の生成を行う必要はなく、動画像の撮影後に加工を行って補正動画を生成する構成を示す。 In this embodiment, a configuration will be described in which moving images are acquired via the display device 2 and corrected moving images are stored in the storage means 18 . In this embodiment, it is not necessary to generate a corrected moving image at the same time as shooting, and a configuration is shown in which a corrected moving image is generated by performing processing after shooting a moving image.

図8は、本実施形態における動画像の取得から補正動画の生成までの処理の流れを示すフローチャートである。まず、ステップS31において、動画像取得手段11が表示装置2を介して動画像を取得する。ここでの動画像の取得は、撮影と同時に行われる必要はなく、例えば表示装置2が備える記憶装置に記憶された動画像のデータを取得すればよい。 FIG. 8 is a flow chart showing the flow of processing from acquiring a moving image to generating a corrected moving image in this embodiment. First, in step S<b>31 , the moving image acquiring means 11 acquires moving images via the display device 2 . Acquisition of the moving image here does not need to be performed at the same time as the shooting.

次にステップS32において、取得した動画像に対して単位表情設定手段15が単位表情を設定する。ここでは、実施形態1と同様にして単位表情を設定してもよいが、表示装置2を介して単位表情の開始点や終了点に関する入力を受け付け、これに基づいて設定してもよい。あるいは、実施形態1と同様にして単位表情を設定した上で、単位表情の範囲を調整する入力を受け付けてもよい。 Next, in step S32, the unit facial expression setting means 15 sets a unit facial expression for the acquired moving image. Here, the unit facial expression may be set in the same manner as in the first embodiment, or an input regarding the start point and the end point of the unit facial expression may be received via the display device 2 and set based on this. Alternatively, after setting the unit facial expression in the same manner as in the first embodiment, an input for adjusting the range of the unit facial expression may be received.

ステップS33においては、実施形態1と同様に補正動画を生成する。即ち、単位表情ごとに、運動情報に基づいて補正動画を生成する。ここでは、例えば「1段階若く見えるように動きを補正する」、「20代の動きになるように動きを補正する」等の入力を受け付けて、それに基づいて目標運動情報を選択するようにしてもよい。また、逆に「1段階老けて見えるように補正する」等のような入力を受け付けることも可能である。 In step S33, a corrected moving image is generated as in the first embodiment. That is, for each unit facial expression, a corrected moving image is generated based on the motion information. Here, for example, input such as "correct the movement so that the user looks one step younger" or "correct the movement so that the movement becomes the one in their twenties" is received, and the desired exercise information is selected based on the input. good too. Conversely, it is also possible to accept an input such as "correction to look one step older".

動画像全体について単位表情ごとの補正動画の生成が完了すると、ステップS34において、これらの補正動画を合成して全体の補正動画を生成する。ここで、単位表情ごとの補正動画同士のつながりが自然になるように、追従点の運動を調整してもよい。 When the generation of the corrected moving image for each unit facial expression is completed for the entire moving image, in step S34, these corrected moving images are synthesized to generate the entire corrected moving image. Here, the motion of the tracking point may be adjusted so that the corrected moving images for each unit facial expression are connected naturally.

そして、ステップS35において、生成された補正動画を記憶手段18に記憶して処理を終了する。表示手段17は、表示装置2の表示要求に従って、記憶手段18に記憶された補正動画を表示処理して処理結果を送信する。また、補正動画は、表示装置2にダウンロードして確認できるようにしてもよい。 Then, in step S35, the generated corrected moving image is stored in the storage means 18, and the process ends. The display means 17 displays the corrected moving image stored in the storage means 18 according to the display request of the display device 2 and transmits the processing result. Further, the corrected moving image may be downloaded to the display device 2 so that it can be confirmed.

以上のように、本発明に係る肌動画補正システムによれば、表情表出の際の皮膚の動きを補正して、印象を向上させた補正動画を生成することができる。また、本実施形態のように、補正前運動情報に応じて目標運動情報を決定することで、顔の動きに対して自然な補正を行えるようになる効果が期待できる。 As described above, according to the skin moving image correction system according to the present invention, it is possible to generate a corrected moving image with an improved impression by correcting the movement of the skin when expressing an expression. Further, by determining the target motion information according to the pre-correction motion information as in the present embodiment, it is expected that the motion of the face can be naturally corrected.

なお、本実施形態においては、特徴点として基準点及び追従点を特定し、その運動のタイミングの差分を運動情報として用いて補正動画を生成することによって、追従性を補正する構成を示したが、本発明はこれに限るものではない。この他、上述の伸縮性や変形性を補正する為に、特徴点間の距離や複数の特徴点によって定義される領域の面積の変化等の情報を運動情報として用いる構成としてもよい。また、これらを組み合わせて複合的な運動特性について補正を行う構成としてもよい。 In the present embodiment, a configuration is shown in which the followability is corrected by specifying a reference point and a follow-up point as feature points and generating a corrected moving image using the difference in motion timing as motion information. , the present invention is not limited to this. In addition, in order to correct the stretchability and deformability described above, information such as distances between feature points and changes in areas defined by a plurality of feature points may be used as motion information. Moreover, it is good also as a structure which correct|amends with respect to a compound exercise|movement characteristic by combining these.

1 サーバ装置
11 動画像取得手段
12 追従点特定手段
13 基準点特定手段
14 測定手段
15 単位表情設定手段
16 補正手段
17 表示手段
18 記憶手段
2 表示装置
21 入力手段
22 出力手段
R 基準点
1 Server Device 11 Moving Image Acquisition Means 12 Tracking Point Identification Means 13 Reference Point Identification Means 14 Measurement Means 15 Unit Facial Expression Setting Means 16 Correction Means 17 Display Means 18 Storage Means 2 Display Device 21 Input Means 22 Output Means R Reference Points

Claims (11)

表情表出に対する人の顔上の特徴点の運動に関する運動情報に基づいて、人の顔を撮影
した動画像の補正を行う肌動画補正システムであって、
前記運動情報は、補正目標となる目標運動情報を含み、
人の顔を撮影した動画像を取得する動画像取得手段と、
前記動画像における顔上の1又は複数の前記特徴点を特定する特徴点特定手段と、
前記目標運動情報に基づいて、前記動画像における前記特徴点の運動を変化させ、顔の動きを補正した補正動画を生成する補正手段と、を備え
前記特徴点は、表情表出の際の動きの基準となる顔上の基準点と、表情表出の際に、顔上の他の部分の動きに追従して動く皮膚上の点である追従点と、を含み、
前記特徴点特定手段として、前記追従点を特定する追従点特定手段と、前記基準点を特定する基準点特定手段と、を備え、
前記運動情報は、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分に関する情報を含み、
前記補正手段は、前記追従点の運動を変化させて前記補正動画を生成することを特徴とする、肌動画補正システム。
A skin moving image correction system for correcting a moving image of a person's face based on motion information related to movement of feature points on the person's face with respect to facial expressions,
The motion information includes target motion information as a correction target,
a moving image acquiring means for acquiring a moving image of a person's face;
feature point specifying means for specifying one or more of the feature points on the face in the moving image;
a correcting means for changing the motion of the feature points in the moving image based on the target motion information to generate a corrected moving image in which the movement of the face is corrected ;
The feature points are a reference point on the face that serves as a reference for movement when expressing an expression, and a point on the skin that moves following the movement of other parts of the face when expressing an expression. including a point and
The feature point identifying means includes tracking point identifying means for identifying the following point and reference point identifying means for identifying the reference point,
the motion information includes information about a difference between the motion timing of the reference point and the motion timing of the tracking point;
The skin moving image correction system, wherein the correcting means generates the corrected moving image by changing the motion of the tracking point.
前記運動情報は、前記動画像における前記特徴点の運動に関する補正前運動情報を含み、
前記動画像から、前記補正前運動情報を測定する測定手段と、
複数の前記目標運動情報を記憶する記憶手段と、を更に備え、
前記補正手段は、前記測定手段によって測定された前記補正前運動情報に基づいて、複数の前記目標運動情報の中から、前記補正動画の生成に用いる前記目標運動情報を決定することを特徴とする、請求項1に記載の肌動画補正システム。
the motion information includes pre-correction motion information relating to motion of the feature points in the moving image;
measuring means for measuring the motion information before correction from the moving image;
storage means for storing a plurality of the desired exercise information,
The correcting means is characterized in that, based on the pre-correction motion information measured by the measuring means, the desired motion information to be used for generating the corrected moving image is determined from among a plurality of the desired motion information. , The skin animation correction system according to claim 1.
前記動画像から、ある表情から別の表情表出までの部分を補正対象となる単位表情として設定する単位表情設定手段を更に備え、
前記補正手段は、前記単位表情ごとに顔の動きを補正して前記補正動画を生成することを特徴とする、請求項1又は請求項2に記載の肌動画補正システム。
further comprising unit facial expression setting means for setting a portion from one facial expression to another facial expression in the moving image as a unit facial expression to be corrected;
3. The skin moving image correction system according to claim 1, wherein said correction means generates said corrected moving image by correcting facial movements for each said unit expression.
前記運動情報は、前記特徴点の運動速度又は加速度のうち少なくとも何れかを含むことを特徴とする、請求項1~3の何れかに記載の肌動画補正システム。 4. The skin moving image correction system according to claim 1, wherein said motion information includes at least one of motion velocity and acceleration of said feature point. 前記特徴点は、頬部の点を含むことを特徴とする、請求項1~4の何れかに記載の肌動画補正システム。 5. The skin moving image correction system according to claim 1, wherein said feature points include cheek points. 前記補正手段は、前記動画像取得手段による前記動画像の取得と並行して、取得された前記動画像を順次補正して前記補正動画を生成し、
前記補正手段による前記補正動画の生成と並行して、生成された前記補正動画を順次表示処理して処理結果を送信する表示手段を更に備えることを特徴とする、請求項1~5の何れかに記載の肌動画補正システム。
The correction means sequentially corrects the acquired moving images in parallel with acquisition of the moving images by the moving image acquisition means to generate the corrected moving images,
6. The apparatus according to any one of claims 1 to 5, further comprising display means for sequentially performing display processing of the generated corrected moving images and transmitting processing results in parallel with generation of the corrected moving images by the correcting means. The skin moving image correction system described in .
前記補正手段は、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分が小さくなるように、前記追従点の運動を変化させて前記補正動画を生成することを特徴とする、請求項に記載の肌動画補正システム。 The correcting means generates the corrected moving image by changing the motion of the tracking point so that the difference between the timing of the motion of the reference point and the timing of the motion of the tracking point is reduced. The skin moving image correction system according to claim 1 , wherein 前記補正手段は、前記追従点の運動のタイミングを早めることで、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分を小さくした前記補正動画を生成することを特徴とする、請求項に記載の肌動画補正システム。 The correcting means generates the corrected moving image in which the difference between the timing of the movement of the reference point and the timing of the movement of the tracking point is reduced by advancing the timing of the movement of the tracking point. 8. The skin moving image correction system according to claim 7 . 前記追従点は、複数定義され、
前記補正手段は、各追従点と前記基準点との距離が小さいほど、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分が小さくなるように各追従点の動きを補正して、前記補正動画を生成することを特徴とする、請求項1、7又は8の何れかに記載の肌動画補正システム。
A plurality of said tracking points are defined,
The correction means adjusts the movement of each tracking point such that the smaller the distance between each tracking point and the reference point, the smaller the difference between the timing of the movement of the reference point and the timing of the movement of the tracking point. 9. The skin moving image correction system according to any one of claims 1, 7 and 8 , wherein correction is performed to generate the corrected moving image.
表情表出に対する人の顔上の特徴点の運動に関する運動情報に基づいて、人の顔を撮影した動画像の補正を行うための肌動画補正プログラムであって、
前記運動情報は、補正目標となる目標運動情報を含み、
コンピュータを、人の顔を撮影した動画像を取得する動画像取得手段と、
前記動画像における顔上の1又は複数の前記特徴点を特定する特徴点特定手段と、
前記目標運動情報に基づいて、前記動画像における前記特徴点の運動を変化させ、顔の動きを補正した補正動画を生成する補正手段と、として機能させ
前記特徴点は、表情表出の際の顔の動きの基準となる顔上の基準点と、表情表出の際に、顔上の他の部分の動きに追従して動く皮膚上の点である追従点と、を含み、
前記特徴点特定手段として、前記追従点を特定する追従点特定手段と、前記基準点を特定する基準点特定手段と、を備え、
前記運動情報は、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分に関する情報を含み、
前記補正手段は、前記追従点の運動を変化させて前記補正動画を生成することを特徴とする、肌動画補正プログラム。
A skin moving image correction program for correcting a moving image of a person's face based on motion information related to movement of feature points on the person's face with respect to facial expressions,
The motion information includes target motion information as a correction target,
a moving image acquiring means for acquiring a moving image of a person's face, and
feature point specifying means for specifying one or more of the feature points on the face in the moving image;
functioning as correction means for generating a corrected moving image in which the motion of the face is corrected by changing the motion of the feature points in the moving image based on the target motion information ;
The feature points are a reference point on the face that serves as a reference for facial movement when expressing an expression, and a point on the skin that moves following the movement of other parts of the face when expressing an expression. including a tracking point and
The feature point identifying means includes tracking point identifying means for identifying the following point and reference point identifying means for identifying the reference point,
the motion information includes information about a difference between the motion timing of the reference point and the motion timing of the tracking point;
The skin moving image correction program, wherein the correcting means generates the corrected moving image by changing the movement of the following point.
表情表出に対する人の顔上の特徴点の運動に関する運動情報に基づいて、人の顔を撮影した動画像の補正を行う肌動画補正方法であって、
前記運動情報は、補正目標となる目標運動情報を含み、
人の顔を撮影した動画像を取得する動画像取得ステップと、
前記動画像における顔上の1又は複数の前記特徴点を特定する特徴点特定ステップと、
前記目標運動情報に基づいて、前記動画像における前記特徴点の運動を変化させ、顔の動きを補正した補正動画を生成する補正ステップと、を備え
前記特徴点は、表情表出の際の顔の動きの基準となる顔上の基準点と、表情表出の際に、顔上の他の部分の動きに追従して動く皮膚上の点である追従点と、を含み、
前記特徴点特定ステップは、前記追従点を特定する追従点特定ステップと、前記基準点を特定する基準点特定ステップと、を含み、
前記運動情報は、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分に関する情報を含み、
前記補正ステップは、前記追従点の運動を変化させて前記補正動画を生成するステップであることを特徴とする、肌動画補正方法。
A skin moving image correction method for correcting a moving image of a person's face based on motion information relating to movement of feature points on the person's face with respect to facial expressions, comprising:
The motion information includes target motion information as a correction target,
a moving image acquiring step of acquiring a moving image of a person's face;
a feature point identifying step of identifying one or more of the feature points on the face in the moving image;
a correction step of generating a corrected moving image in which the movement of the face is corrected by changing the movement of the feature points in the moving image based on the target movement information ;
The feature points are a reference point on the face that serves as a reference for facial movement when expressing an expression, and a point on the skin that moves following the movement of other parts of the face when expressing an expression. including a tracking point and
The feature point identification step includes a tracking point identification step of identifying the tracking point and a reference point identification step of identifying the reference point,
the motion information includes information about a difference between the motion timing of the reference point and the motion timing of the tracking point;
A skin moving image correcting method, wherein the correcting step is a step of generating the corrected moving image by changing the motion of the tracking point.
JP2018170785A 2018-09-12 2018-09-12 Skin animation correction system, skin animation correction program, and skin animation correction method Active JP7165003B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018170785A JP7165003B2 (en) 2018-09-12 2018-09-12 Skin animation correction system, skin animation correction program, and skin animation correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018170785A JP7165003B2 (en) 2018-09-12 2018-09-12 Skin animation correction system, skin animation correction program, and skin animation correction method

Publications (2)

Publication Number Publication Date
JP2020043516A JP2020043516A (en) 2020-03-19
JP7165003B2 true JP7165003B2 (en) 2022-11-02

Family

ID=69798848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018170785A Active JP7165003B2 (en) 2018-09-12 2018-09-12 Skin animation correction system, skin animation correction program, and skin animation correction method

Country Status (1)

Country Link
JP (1) JP7165003B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115022541B (en) * 2022-05-30 2024-05-03 Oppo广东移动通信有限公司 Video distortion correction method and device, computer readable medium and electronic equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133573A (en) 2005-11-09 2007-05-31 Oki Electric Ind Co Ltd Animation creation method and system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133573A (en) 2005-11-09 2007-05-31 Oki Electric Ind Co Ltd Animation creation method and system

Also Published As

Publication number Publication date
JP2020043516A (en) 2020-03-19

Similar Documents

Publication Publication Date Title
US10297076B2 (en) Apparatus and method for generating 3D face model using mobile device
JP5843751B2 (en) Information processing apparatus, information processing system, and information processing method
KR101547780B1 (en) Method and arrangement for image model construction
JP7278724B2 (en) Information processing device, information processing method, and information processing program
JP2019012965A (en) Video control method, video control device, and video control program
CN112069863B (en) Face feature validity determination method and electronic equipment
JP5874626B2 (en) Display control apparatus, display control system, display control method, and program
GB2541073B (en) Information processing apparatus, method for controlling information processing apparatus, image processing system and storage medium
JP7165003B2 (en) Skin animation correction system, skin animation correction program, and skin animation correction method
WO2015152028A1 (en) Makeup assistance device and recording medium
US20200267372A1 (en) Apparatus, apparatus control method, and recording medium, for synchronizing a plurality of imaging devices
US11803231B2 (en) Expression prediction using image-based movement metric
US11869150B1 (en) Avatar modeling and generation
JP4953770B2 (en) Imaging device
JP7273752B2 (en) Expression control program, recording medium, expression control device, expression control method
JP2020108119A5 (en) Notification device, image pickup device, notification method, imaging method, program, and storage medium
KR102126370B1 (en) Apparatus and method for analyzing motion
JP5759439B2 (en) Video communication system and video communication method
CN113992885B (en) Data synchronization method and device
JP6740109B2 (en) Image processing apparatus, image processing method, and program
JP4760947B2 (en) Image processing apparatus and program
JP2020096280A (en) Imaging apparatus, control method of imaging apparatus, and program
WO2021187093A1 (en) Image processing device and moving-image data generation method
JP6128928B2 (en) Imaging device, control method thereof, and control program
JP2020142061A (en) Skin analysis method, skin analysis system and skin analysis program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221021

R150 Certificate of patent or registration of utility model

Ref document number: 7165003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150