JP2020043516A - Skin moving image correction system, skin moving image correction program, and skin moving image correction method - Google Patents

Skin moving image correction system, skin moving image correction program, and skin moving image correction method Download PDF

Info

Publication number
JP2020043516A
JP2020043516A JP2018170785A JP2018170785A JP2020043516A JP 2020043516 A JP2020043516 A JP 2020043516A JP 2018170785 A JP2018170785 A JP 2018170785A JP 2018170785 A JP2018170785 A JP 2018170785A JP 2020043516 A JP2020043516 A JP 2020043516A
Authority
JP
Japan
Prior art keywords
moving image
movement
point
correction
corrected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018170785A
Other languages
Japanese (ja)
Other versions
JP7165003B2 (en
Inventor
興治 水越
Koji Mizukoshi
興治 水越
元紀 黒住
Motoki Kurozumi
元紀 黒住
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pola Chemical Industries Inc
Original Assignee
Pola Chemical Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pola Chemical Industries Inc filed Critical Pola Chemical Industries Inc
Priority to JP2018170785A priority Critical patent/JP7165003B2/en
Publication of JP2020043516A publication Critical patent/JP2020043516A/en
Application granted granted Critical
Publication of JP7165003B2 publication Critical patent/JP7165003B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide a moving image correction system capable of improving an aging impression by correcting movement of a face or skin in a moving image.SOLUTION: The skin moving image correction system for correcting a photographed moving image of a human face on the basis of movement information on movements of feature points on the human face for an expression of a facial expression, the movement information including target movement information for a correction target, includes: moving image acquisition means for acquiring a photographed moving image of a human face; feature point specifying means for specifying one or more feature points on the face in the moving image; and correction means for generating a corrected moving image in which the movement of the face has been corrected by changing the movements of the feature points in the moving image on the basis of the target movement information.SELECTED DRAWING: Figure 4

Description

本発明は、人の顔を撮影した肌動画を補正する、肌動画補正システム、肌動画補正プログラム及び肌動画補正方法に関する。   The present invention relates to a skin moving image correction system, a skin moving image correction program, and a skin moving image correction method for correcting a skin moving image obtained by capturing a human face.

人の顔を撮影した画像に対して補正処理を施し、印象を向上させることが従来から行われている。特に近年では、このような補正処理を動画に対して行うことができる技術が知られている。   2. Description of the Related Art Conventionally, a correction process is performed on an image of a human face to improve an impression. In particular, in recent years, a technique capable of performing such a correction process on a moving image has been known.

例えば、特許文献1に記載の装置では、補正を行う対象領域を代表する色である代表色に基づいて補正を行うことによって、動画を構成するフレームごとに代表色が変動する場合であっても、自然な補正結果を得ることができる。   For example, in the device described in Patent Literature 1, by performing correction based on a representative color that is a color representing a target area to be corrected, even if the representative color fluctuates for each frame constituting a moving image. Thus, a natural correction result can be obtained.

特開2016−171445号公報JP-A-2006-171445

ところで、人の顔に対する老化印象は、肌の色やシミ、しわ等の静的な特徴のみでなく、表情が変化した時の皮膚の動きという動的な特徴からも影響を受けることが知られている。また、顔の部位ごとの皮膚の運動特性は、被験者の年齢に応じて変化することがわかっており、これらの事実から、老化に伴う皮膚の運動特性の変化が老化印象を与えることが推測される。   By the way, it is known that the aging impression on a human face is affected not only by static characteristics such as skin color, spots and wrinkles, but also by dynamic characteristics such as movement of the skin when the facial expression changes. ing. In addition, it is known that the skin movement characteristics of each part of the face change according to the age of the subject, and from these facts, it is inferred that the change in the skin movement characteristics due to aging gives an aging impression. You.

従って、本発明では、顔や肌の動きについて補正を行うことで、老化印象を改善できる動画補正システムを提供することを課題とする。   Accordingly, an object of the present invention is to provide a moving image correction system that can improve the aging impression by correcting the movement of the face and skin.

上記課題を解決する為に、本発明は、表情表出に対する人の顔上の特徴点の運動に関する運動情報に基づいて、人の顔を撮影した動画像の補正を行う肌動画補正システムであって、
前記運動情報は、補正目標となる目標運動情報を含み、
人の顔を撮影した動画像を取得する動画像取得手段と、
前記動画像における顔上の1又は複数の前記特徴点を特定する特徴点特定手段と、
前記目標運動情報に基づいて、前記動画像における前記特徴点の運動を変化させ、顔の動きを補正した補正動画を生成する補正手段と、を備えることを特徴とする。
In order to solve the above problems, the present invention is a skin moving image correction system that corrects a moving image obtained by photographing a human face, based on motion information on the motion of a feature point on the human face with respect to expression of an expression. hand,
The exercise information includes target exercise information to be a correction target,
Moving image acquisition means for acquiring a moving image of a human face,
Feature point specifying means for specifying one or more feature points on the face in the moving image;
And correcting means for changing a motion of the feature point in the moving image based on the target motion information to generate a corrected moving image in which a face motion is corrected.

このように、好ましい特徴点の運動の情報(補正目標)として目標運動情報を用いて、特徴点の運動について補正を行うことで、例えば、顔の動きについて印象を改善できる補正動画の生成が可能になる。   As described above, by correcting the motion of the feature point using the target motion information as the preferable motion information of the feature point (correction target), it is possible to generate a corrected moving image that can improve the impression of the face motion, for example. become.

本発明の好ましい形態では、前記運動情報は、前記動画像における前記特徴点の運動に関する補正前運動情報を含み、
前記動画像から、前記補正前運動情報を測定する測定手段と、
複数の前記目標運動情報を記憶する記憶手段と、を更に備え、
前記補正手段は、前記測定手段によって測定された前記補正前運動情報に基づいて、複数の前記目標運動情報の中から、前記補正動画の生成に用いる前記目標運動情報を決定することを特徴とする。
このような構成とすることで、取得した動画像における被撮影者の顔の動きに応じて、どのような補正を行うかを決定することができるため、より適切に補正を行うことができるようになる。
In a preferred embodiment of the present invention, the motion information includes pre-correction motion information regarding the motion of the feature point in the moving image,
From the moving image, measuring means for measuring the pre-correction motion information,
Storage means for storing a plurality of the target exercise information,
The correction means determines the target motion information used for generating the corrected moving image from a plurality of the target motion information based on the pre-correction motion information measured by the measurement means. .
With such a configuration, it is possible to determine what correction should be performed according to the movement of the face of the subject in the acquired moving image, so that the correction can be performed more appropriately. become.

本発明の好ましい形態では、前記動画像から、ある表情から別の表情表出までの部分を補正対象となる単位表情として設定する単位表情設定手段を更に備え、
前記補正手段は、前記単位表情ごとに顔の動きを補正して前記補正動画を生成することを特徴とする。
このように、連続して表情が変化する動画において、そのそれぞれの表情変化を単位表情として設定し、単位表情ごとに補正を行うことで、各単位表情の動きを個別に補正できるため、表情に応じてより適切に動きの補正を行うことができる。
In a preferred embodiment of the present invention, the moving image further comprises a unit expression setting unit that sets a portion from a certain expression to another expression as a unit expression to be corrected,
The correction means may correct the face movement for each unit expression to generate the corrected moving image.
As described above, in a moving image in which facial expressions change continuously, each facial expression change is set as a unit facial expression, and by correcting each facial expression, the movement of each facial expression can be individually corrected. Accordingly, the motion can be corrected more appropriately.

本発明の好ましい形態では、前記運動情報は、前記特徴点の運動速度又は加速度のうち少なくとも何れかを含むことを特徴とする。
このような構成とすることで、例えば、各点の運動速度が最大になるタイミングや加速度が最大になるタイミングから、運動開始または終了のタイミングや運動の中心のタイミングを特定でき、これらをもとに補正を行うことができる。
In a preferred aspect of the present invention, the motion information includes at least one of a motion speed and an acceleration of the feature point.
With such a configuration, for example, the timing of the start or end of the movement or the timing of the center of the movement can be specified from the timing at which the movement speed of each point is maximized or the timing at which the acceleration is maximized. Can be corrected.

本発明の好ましい形態では、前記特徴点は、頬部の点を含むことを特徴とする。
このような構成とすることで、特に人の印象に大きな影響を与える頬部の動きを補正することができるため、より効果的に動画像の補正を行うことができる。
In a preferred aspect of the present invention, the feature points include a cheek point.
By adopting such a configuration, it is possible to correct the movement of the cheek, which greatly affects the impression of a person, and therefore, it is possible to more effectively correct the moving image.

本発明の好ましい形態では、前記補正手段は、前記動画像取得手段による前記動画像の取得と並行して、取得された前記動画像を順次補正して前記補正動画を生成し、
前記補正手段による前記補正動画の生成と並行して、生成された前記補正動画を順次表示処理して処理結果を送信する表示手段を更に備えることを特徴とする。
このような構成とすることで、例えば、動画像を撮影しながらほぼ同時に補正動画を確認することができる。また、撮影と並行してほぼリアルタイムで補正動画を通信相手に送信し、ビデオ通話に補正動画を用いることもできるようになる。
In a preferred embodiment of the present invention, the correction unit, in parallel with the acquisition of the moving image by the moving image acquisition unit, to sequentially correct the acquired moving image to generate the corrected moving image,
In parallel with the generation of the corrected moving image by the correction unit, a display unit for sequentially displaying the generated corrected moving image and transmitting a processing result is further provided.
With such a configuration, for example, a corrected moving image can be checked almost simultaneously with capturing a moving image. In addition, the corrected moving image can be transmitted to the communication partner almost in real time in parallel with the shooting, so that the corrected moving image can be used for a video call.

本発明の好ましい形態では、前記特徴点は、表情表出の際の顔の動きの基準となる顔上の基準点と、表情表出の際に、顔上の他の部分の動きに追従して動く皮膚上の点である追従点と、を含み、
前記特徴点特定手段として、前記追従点を特定する追従点特定手段と、前記基準点を特定する基準点特定手段と、を備え、
前記補正手段は、前記追従点の運動を変化させて前記補正動画を生成することを特徴とする。
このような構成とすることで、顔の動きに伴う皮膚の運動の追従性について補正を行うことができ、例えば、老化印象を改善する効果が期待できる。
In a preferred embodiment of the present invention, the feature points follow a reference point on the face, which is a reference for the movement of the face when expressing an expression, and follow the movement of other parts on the face when expressing the expression. A tracking point, which is a point on the skin that moves
As the characteristic point identifying means, a tracking point identifying means for identifying the tracking point, and a reference point identifying means for identifying the reference point,
The correction means may generate the corrected moving image by changing the movement of the follow-up point.
With such a configuration, it is possible to correct the followability of the movement of the skin caused by the movement of the face, and for example, an effect of improving the aging impression can be expected.

本発明の好ましい形態では、前記運動情報は、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分に関する情報を含むことを特徴とする。
このように、運動情報として基準点の運動のタイミングと追従点の運動のタイミングとの差分に関する情報を用いることにより、顔の部位ごとの皮膚の運動の追従性を補正することができる。
In a preferred aspect of the present invention, the movement information includes information on a difference between the movement timing of the reference point and the movement timing of the following point.
In this way, by using information on the difference between the timing of the movement of the reference point and the timing of the movement of the follow-up point as the movement information, it is possible to correct the followability of the movement of the skin for each part of the face.

本発明の好ましい形態では、前記補正手段は、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分が小さくなるように、前記追従点の運動を変化させて前記補正動画を生成することを特徴とする。
このような構成とすることで、基準点の運動に合わせて追従点の運動を調整した補正動画を生成することができる。
In a preferred aspect of the present invention, the correction means changes the motion of the tracking point so that a difference between the timing of the motion of the reference point and the timing of the motion of the tracking point is reduced, and Is generated.
With such a configuration, it is possible to generate a corrected moving image in which the movement of the following point is adjusted in accordance with the movement of the reference point.

本発明の好ましい形態では、前記補正手段は、前記追従点の運動のタイミングを早めることで、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分を小さくした前記補正動画を生成することを特徴とする。
このような構成とすることで、基準点の運動に対する追従点の運動の遅れを補正することができ、皮膚運動の追従性を向上できるため、老化印象を改善する効果が期待できる。
In a preferred embodiment of the present invention, the correction means reduces the difference between the timing of the movement of the reference point and the timing of the movement of the tracking point by advancing the timing of the movement of the tracking point. Is generated.
With such a configuration, it is possible to correct the delay of the movement of the follow-up point with respect to the movement of the reference point, and it is possible to improve the followability of the skin movement, so that an effect of improving the aging impression can be expected.

本発明の好ましい形態では、前記追従点は、複数定義され、
前記補正手段は、各追従点と前記基準点との距離が小さいほど、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分が小さくなるように各追従点の動きを補正して、前記補正動画を生成することを特徴とする。
このような構成とすることで、基準点との距離に応じて段階的に追従点の運動を補正することができ、より滑らかで自然な補正動画を生成できる。
In a preferred embodiment of the present invention, a plurality of the following points are defined,
The correction means reduces the difference between the timing of the movement of the reference point and the timing of the movement of the tracking point as the distance between each of the tracking points and the reference point is smaller. The correction is performed to generate the corrected moving image.
With such a configuration, the movement of the following point can be corrected stepwise according to the distance from the reference point, and a smoother and more natural corrected moving image can be generated.

本発明は、表情表出に対する人の顔上の特徴点の運動に関する運動情報に基づいて、人の顔を撮影した動画像の補正を行うための肌動画補正プログラムであって、
前記運動情報は、補正目標となる目標運動情報を含み、
コンピュータを、人の顔を撮影した動画像を取得する動画像取得手段と、
前記動画像における顔上の1又は複数の前記特徴点を特定する特徴点特定手段と、
前記目標運動情報に基づいて、前記動画像における前記特徴点の運動を変化させ、顔の動きを補正した補正動画を生成する補正手段と、として機能させることを特徴とする。
The present invention is a skin moving image correction program for correcting a moving image obtained by photographing a human face, based on motion information on motion of a feature point on a human face for expression of an expression,
The exercise information includes target exercise information to be a correction target,
A computer, a moving image acquisition unit that acquires a moving image of a human face,
Feature point specifying means for specifying one or more feature points on the face in the moving image;
Based on the target motion information, the motion of the feature point in the moving image is changed to function as a correction unit that generates a corrected moving image in which the motion of the face is corrected.

本発明は、表情表出に対する人の顔上の特徴点の運動に関する運動情報に基づいて、人の顔を撮影した動画像の補正を行う肌動画補正方法であって、
前記運動情報は、補正目標となる目標運動情報を含み、
人の顔を撮影した動画像を取得する動画像取得ステップと、
前記動画像における顔上の1又は複数の前記特徴点を特定する特徴点特定ステップと、
前記目標運動情報に基づいて、前記動画像における前記特徴点の運動を変化させ、顔の動きを補正した補正動画を生成する補正ステップと、を備えることを特徴とする。
The present invention is a skin moving image correction method for correcting a moving image obtained by photographing a human face, based on motion information on motion of a feature point on the human face with respect to expression of expression,
The exercise information includes target exercise information to be a correction target,
A moving image acquiring step of acquiring a moving image of a human face,
A feature point specifying step of specifying one or a plurality of the feature points on the face in the moving image;
A correcting step of changing a motion of the feature point in the moving image based on the target motion information to generate a corrected moving image in which a motion of the face is corrected.

本発明によれば、顔の動きについて補正を行うことで、老化印象を改善できる動画補正システムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the moving image correction system which can improve an aging impression can be provided by performing correction about a face movement.

本発明の実施形態1及び実施形態2における特徴点の一例を示す図である。It is a figure showing an example of the feature point in Embodiment 1 and Embodiment 2 of the present invention. 表情表出に対する人の顔上の追従点の運動において生じる遅れの年齢層ごとの傾向を示す概念図である。It is a conceptual diagram which shows the tendency for the delay which arises in the movement of the follow-up point on the human face with respect to expression of expression for every age group. 本発明の実施形態1及び実施形態2における肌動画補正システムの構成を示す図である。It is a figure showing composition of a skin moving picture correction system in Embodiment 1 and Embodiment 2 of the present invention. 本発明の実施形態1及び実施形態2における肌動画補正システムの機能ブロック図である。It is a functional block diagram of the skin moving image correction system in Embodiment 1 and Embodiment 2 of the present invention. 本発明の実施形態1及び実施形態2における目標運動情報の一例を示す図である。It is a figure showing an example of target exercise information in Embodiment 1 and Embodiment 2 of the present invention. 本発明の実施形態1における動画像の取得から補正動画の生成までの処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of processing from acquisition of a moving image to generation of a corrected moving image according to the first embodiment of the present invention. 本発明の実施形態1及び実施形態2における補正動画の生成に係る処理の一例を示すフローチャートである。9 is a flowchart illustrating an example of processing related to generation of a corrected moving image according to the first and second embodiments of the present invention. 本発明の実施形態2における動画像の取得から補正動画の生成までの処理の一例を示すフローチャートである。9 is a flowchart illustrating an example of processing from acquisition of a moving image to generation of a corrected moving image according to the second embodiment of the present invention.

以下、本発明の実施形態について、図面を用いて詳細に説明する。なお、以下に示す実施形態は本発明の一例であり、本発明を以下の実施形態に限定するものではなく、様々な構成を採用することもできる。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The embodiment described below is an example of the present invention, and the present invention is not limited to the following embodiment, and various configurations can be adopted.

例えば、以下では肌動画補正システムの構成、動作等について説明するが、同様の構成の方法、サーバ装置、コンピュータプログラム、記録媒体等も、同様の作用効果を奏することができる。また、プログラムは、記録媒体に記憶させてもよい。この記録媒体を用いれば、例えばコンピュータに前記プログラムをインストールすることができる。ここで、前記プログラムを記憶した記録媒体は、例えばCD−ROM等の非一過性の記録媒体であっても良い。   For example, a configuration, an operation, and the like of the skin moving image correction system will be described below. However, a method, a server device, a computer program, a recording medium, and the like having the same configuration can also provide the same operation and effect. Further, the program may be stored in a recording medium. By using this recording medium, for example, the program can be installed in a computer. Here, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM.

本発明では、人の顔を撮影した動画像における、皮膚の動きを補正した補正動画を生成する。ここで、後述の実施形態においては、連続的に表情が変化する様子を撮影した動画像を取得して補正を行う。このような場合、取得する動画像には複数の表情表出(表情変化)が含まれる。その各々に対して適切に補正を行う為に、本発明では、各表情表出の過程を「単位表情」として定義する。即ち、本発明において単位表情とは、例えば真顔の状態から笑顔への表情表出までの過程や、発声に伴う口の動きの開始から終了までの過程など、表情表出における顔の動きが開始する時点から終了する時点までの一つの動きのまとまりのことを指す。   According to the present invention, a corrected moving image is generated by correcting the movement of the skin in a moving image obtained by capturing a human face. Here, in an embodiment to be described later, correction is performed by acquiring a moving image that captures a continuously changing expression. In such a case, the moving image to be acquired includes a plurality of expression expressions (expression changes). In order to appropriately correct each of them, in the present invention, each expression expression process is defined as "unit expression". That is, in the present invention, the unit facial expression is the start of the facial movement in the facial expression, such as the process from the state of a true face to the expression of a smile to a smiling face, or the process from the start to the end of the movement of the mouth accompanying vocalization. It refers to a group of movements from the point in time to the point in time when it ends.

本発明において、特徴点とは、表情表出に伴って動く顔上の点のことを指し、後述の実施形態においては、特徴点として基準点及び追従点を含む。本発明では特徴点の運動特性について補正を行い、補正動画を生成する。   In the present invention, a feature point refers to a point on a face that moves with the expression of an expression, and in a later-described embodiment, includes a reference point and a follow-up point as the feature points. In the present invention, the motion characteristics of the feature points are corrected, and a corrected moving image is generated.

また、運動情報とは、特徴点の運動に関する情報のことを示す。後述の実施形態においては、好ましい特徴点の運動に関する目標運動情報と、取得した動画像における追従点の運動に関する補正前運動情報と、を含む。運動情報としては、特徴点の運動速度や加速度、また基準点との運動のタイミングの差分等、特徴点の運動に関する様々な情報を任意で用いることができる。   In addition, the motion information indicates information regarding the motion of the feature point. In an embodiment described later, target motion information regarding the motion of the preferable feature point and pre-correction motion information regarding the motion of the follow-up point in the acquired moving image are included. As the motion information, various information on the motion of the feature point, such as the motion speed and acceleration of the feature point, the difference in the motion timing with respect to the reference point, and the like can be arbitrarily used.

運動情報としては、表情変化に伴う肌の表面の運動特性を示す情報を用いることができる。運動特性の具体例としては、表情変化における顔の皮膚運動の追従性(以下、単に追従性ともいう)や、表情変化における顔の肌の伸縮性(以下、単に伸縮性ともいう)が挙げられる。また、運動特性として表情変化における顔の肌の変形性(以下、単に変形性ともいう)を採用することもできる。   As the motion information, information indicating the motion characteristics of the skin surface due to the change in facial expression can be used. Specific examples of the movement characteristics include the followability of the skin movement of the face in a change in facial expression (hereinafter, also simply referred to as followability) and the elasticity of the skin of the face in the change of facial expression (hereinafter, also simply referred to as elasticity). . In addition, as the motion characteristic, the deformability of the skin of the face due to a change in the expression (hereinafter, also simply referred to as deformability) can be adopted.

皮膚運動の追従性とは、表情変化に追従して変化する顔の肌の動きの遅れの程度のことである。表情変化が起こる際に、顔の肌はその動きに遅れて変化することになるが、その遅れの程度が小さいほど「追従性に優れる」という。   The ability to follow the skin movement refers to the degree of delay in the movement of the skin of the face that changes following the change in facial expression. When the facial expression changes, the skin of the face changes with a delay from the movement, but the smaller the degree of the delay, the better the tracking ability.

追従性は、表情変化の際の顔の任意の2つの特徴点を観察し、この2つの特徴点の運動のタイミングのズレの程度を測定することにより定量的に評価することができる。より具体的には、追従性は、表情変化における、顔の任意の位置に設定された少なくとも2つの特徴点の運動速度が最大となる時間の差分として定量的に測定できる。   The followability can be quantitatively evaluated by observing any two feature points of the face when the facial expression changes, and measuring the degree of deviation of the movement timing of the two feature points. More specifically, the following ability can be quantitatively measured as a difference in time when the movement speed of at least two feature points set at arbitrary positions of the face in the facial expression change becomes maximum.

また、肌の伸縮性とは、表情変化が起こったときの肌の伸縮のしやすさのことをいう。例えば、顔の肌が伸びる表情変化があったときに、その伸長方向全体の距離の増加分に対する、ある任意の領域における伸長方向の距離の増加分の割合が高いほど「伸縮性に優れる」と評価することができる。   The skin elasticity refers to the ease with which the skin expands and contracts when the facial expression changes. For example, when there is a facial expression change in which the skin of the face extends, the higher the ratio of the increase in the distance in the extension direction in a given area to the increase in the distance in the entire extension direction, the higher the “excellent elasticity”. Can be evaluated.

伸縮性は、表情変化における特徴点と特徴点との間の距離を計算することにより定量化することができる。例えば、まず顔に設定した全ての特徴点に関して、表情変化によって増加した、互いに隣接する特徴点と特徴点の距離の総和を計算する。同時に、顔の特定領域に存在する一部の特徴点に関して、表情変化によって増加した、互いに隣接する特徴点と特徴点の距離の総和を計算する。そして、後者の数値を前者の数値により除することにより、伸縮性を定量的に測定することができる。   The elasticity can be quantified by calculating the distance between feature points in a facial expression change. For example, first, for all the feature points set on the face, the sum of the distances between the feature points adjacent to each other, which has been increased due to the change in the expression, is calculated. At the same time, with respect to some feature points existing in a specific area of the face, the sum of distances between feature points adjacent to each other, which is increased due to a change in expression, is calculated. The elasticity can be quantitatively measured by dividing the latter value by the former value.

また、表情変化において変化する、特徴点に基づいて顔の任意の位置に設定された領域の変形の仕方(歪み方)等を定量化して運動情報として用いることで、表情変化における顔の肌の変形性を補正する形態とすることもできる。変形性の具体的な測定方法は特に限定されない。例えば、表情変化の前後における、顔の肌上に設定した任意の領域の形状に対する情報を、撮影された動画を用いてオプティカルフロー法やモーションキャプチャ法などにより取得し、当該形状について歪み解析・変形解析を行う方法が例示できる。   In addition, by quantifying a deformation method (distortion method) of a region set at an arbitrary position of the face based on a feature point, which changes in a facial expression change, and using the information as motion information, the facial skin in the facial expression change is quantified. A form in which the deformability is corrected may be adopted. The specific method for measuring the deformability is not particularly limited. For example, information on the shape of an arbitrary region set on the skin of the face before and after the facial expression change is obtained by using an optical flow method or a motion capture method using a shot moving image, and distortion analysis and deformation of the shape are performed. A method for performing the analysis can be exemplified.

本発明では、上述のように追従性や伸縮性、変形性等を定量化した値を運動情報として用い、これらの情報に基づいて補正を行うことで、顔の動きを補正して印象を向上した補正動画を生成することができる。なお、以下では、追従性を補正する場合について、具体例を挙げて詳細に説明する。   According to the present invention, the value obtained by quantifying the followability, elasticity, deformability, and the like as described above is used as motion information, and correction is performed based on the information, thereby correcting the face motion and improving the impression. It is possible to generate a corrected moving image. In the following, a case where the followability is corrected will be described in detail with a specific example.

<実施形態1>
本実施形態においては、本発明に係る肌動画補正システムをビデオ通話に用いる例について説明する。即ち、本実施形態においては、動画像の取得及び補正動画の生成を並行して実行し、ほぼリアルタイムで補正動画を通話相手に対して表示する。
<First embodiment>
In the present embodiment, an example in which the skin moving image correction system according to the present invention is used for a video call will be described. That is, in the present embodiment, acquisition of a moving image and generation of a corrected moving image are performed in parallel, and the corrected moving image is displayed to the other party in near real time.

本発明において、基準点とは、表情表出に伴って動く顔上の点のことであり、本実施形態においては顎部の点を例示する。このように、表情が変化するのとほぼ同時に動く点を基準点とすることが好ましい。この他、複数の基準点を設定して単位表情ごとに用いる基準点を異ならせてもよいし、予め特定の基準点を設定せず、動画像から顔の動きを検出して、最も早く運動を開始した点等をその単位表情における基準点としてもよい。   In the present invention, the reference point is a point on the face that moves with the expression of an expression, and in the present embodiment, a point on the jaw is exemplified. As described above, it is preferable that a point that moves almost simultaneously with the change of the expression be set as the reference point. In addition, a plurality of reference points may be set to use different reference points for each unit facial expression, or a specific reference point may not be set in advance, and a face motion may be detected from a moving image to achieve the fastest movement. May be used as a reference point in the unit expression.

また、追従点とは、表情表出の際に、顔上の他の部分、特に基準点等の動きに引っ張られるようにして動く皮膚上の点のことであり、本実施形態においては頬部の複数の点を例示する。   Further, the follow-up point is a point on the skin that moves as it is pulled by the movement of another part on the face, especially the reference point, etc., when the facial expression is expressed. Are exemplified.

図1は、本実施形態における基準点及び追従点(特徴点)の一例を示す図である。このように、本例では顎部の点を基準点Rとし、頬部の3点を、基準点Rに近い順に追従点A〜Cとする。なお、図1では左側の顔を示すが、本実施形態では右側の頬にも対称に追従点A〜Cを設定し、同様に扱う。   FIG. 1 is a diagram illustrating an example of a reference point and a follow-up point (feature point) according to the present embodiment. As described above, in this example, the points on the jaw are set as the reference points R, and the three points on the cheeks are set as the follow-up points A to C in order of proximity to the reference points R. Although the left face is shown in FIG. 1, in the present embodiment, the following points A to C are set symmetrically on the right cheek, and they are handled similarly.

図2は、表情表出の際の顔上の基準点の運動と追従点の運動との間において生じる遅れの、年齢層ごとの傾向を示す概念図である。横軸は基準点Rからの距離を示し、縦軸は表情表出において基準点Rの運動速度が最大になる時点と、各追従点の運動速度が最大になる時点と、の差分を示す。即ち、図2は基準点Rからの距離に応じた、基準点Rの運動に対する各追従点の運動の遅れの大きさの傾向を年齢層別に模式的に示す図である。   FIG. 2 is a conceptual diagram showing the tendency of the delay occurring for each age group between the movement of the reference point and the movement of the follow-up point on the face when expressing an expression. The abscissa indicates the distance from the reference point R, and the ordinate indicates the difference between the time when the movement speed of the reference point R becomes maximum and the time when the movement speed of each of the following points becomes maximum in the expression. That is, FIG. 2 is a diagram schematically showing the tendency of the magnitude of the delay of the movement of each following point with respect to the movement of the reference point R according to the distance from the reference point R for each age group.

このように、表情表出における追従点の運動は、基準点の運動に対して遅れが生じ、その遅れは年齢が上がるにつれて大きくなる傾向がある。また、被撮影者の種々の表情を示す静止画を見た場合に比べ、表情変化の過程を示す動画像を見た場合、被撮影者に対してもつ老化印象が変化することがわかっている。   As described above, the movement of the follow-up point in the expression of the facial expression is delayed with respect to the movement of the reference point, and the delay tends to increase as the age increases. In addition, it is known that when a moving image showing a process of a facial expression change is viewed, an aging impression with respect to the subject changes as compared with a case where a still image showing various facial expressions of the subject is viewed. .

以上のことから、人の顔の表情表出における基準点の運動に対する追従点の運動の遅れによって、見る人に対して老化印象を与えていると推測することができる。本実施形態においては、追従性を向上させることで、老化印象を改善できる補正動画を生成する構成を示す。   From the above, it can be inferred that the aging impression is given to the viewer due to the delay of the movement of the follow-up point with respect to the movement of the reference point in the expression of the facial expression of the person. In the present embodiment, a configuration for generating a corrected moving image that can improve the aging impression by improving the followability will be described.

図3は、実施形態1における肌動画補正システムの構成を示す図である。このように、本実施形態における肌動画補正システムは、サーバ装置1と表示装置2a及び2bとがネットワークを介して通信可能に構成される。なお、説明の簡略化のためにここではサーバ装置1を1台、表示装置2を2台示すが、サーバ装置1を複数のコンピュータ装置を協働させて実現してもよいし、表示装置2を3台以上備えていてもよい。また、表示装置2に肌動画補正プログラムを記憶させてサーバ装置1が備える各手段として機能させる構成としてもよい。   FIG. 3 is a diagram illustrating a configuration of the skin moving image correction system according to the first embodiment. As described above, the skin moving image correction system according to the present embodiment is configured so that the server device 1 and the display devices 2a and 2b can communicate with each other via the network. Although one server device 1 and two display devices 2 are shown here for simplicity of explanation, the server device 1 may be realized by cooperating a plurality of computer devices. May be provided three or more. Further, a configuration may be adopted in which a skin moving image correction program is stored in the display device 2 so as to function as each unit included in the server device 1.

図4は、実施形態1における肌動画補正システムの機能ブロック図である。ここに示すように、サーバ装置1は、動画像取得手段11と、追従点特定手段12と、基準点特定手段13と、測定手段14と、単位表情設定手段15と、補正手段16と、表示手段17と、記憶手段18と、を備える。   FIG. 4 is a functional block diagram of the skin moving image correction system according to the first embodiment. As shown here, the server device 1 includes a moving image acquisition unit 11, a following point identification unit 12, a reference point identification unit 13, a measurement unit 14, a unit expression setting unit 15, a correction unit 16, a display unit Means 17 and storage means 18.

動画像取得手段11は、人の顔における表情表出の過程を含む動画像を取得し、追従点特定手段12と基準点特定手段13はそれぞれ動画像に含まれる人の顔に対して追従点及び基準点を特定する。   The moving image obtaining means 11 obtains a moving image including a process of expressing a facial expression on a human face, and the tracking point specifying means 12 and the reference point specifying means 13 respectively determine a tracking point for the human face included in the moving image. And a reference point.

本実施形態では、予め追従点及び基準点となる顔の部分を決めておき、動画像からその点を検出することによって追従点及び基準点を特定するが、顔全体の動きを解析して、顔の各部の動きに基づいて追従点及び基準点を特定する構成としてもよい。例えば、表情表出に伴う顔の動きを検出し、その際に最も早く動いた点を基準点とし、その後追従するように動いた点を追従点とするように特定する方法等が考えられる。また、基準点については顔の動きによって単位表情ごとに特定し、追従点については常に頬部の点とする等、基準点と追従点とで特定の方法を異ならせてもよい。この他にも、追従点及び基準点の特定は任意の方法で行ってよい。   In the present embodiment, a face portion to be a tracking point and a reference point is determined in advance, and the tracking point and the reference point are specified by detecting the point from the moving image. A configuration in which the following point and the reference point are specified based on the movement of each part of the face may be adopted. For example, a method of detecting the movement of the face accompanying the expression of the facial expression, specifying the point that moves fastest at that time as the reference point, and specifying the point that moves so as to follow up as the following point, or the like can be considered. The reference point and the follow-up point may be specified differently, for example, the reference point is specified for each unit expression by the movement of the face, and the follow-up point is always a cheek point. In addition, the tracking point and the reference point may be specified by an arbitrary method.

測定手段14は、動画像取得手段11が取得した動画像に含まれる追従点の運動について、補正前運動情報を測定する。本実施形態においては、追従点特定手段12が特定した追従点について、運動速度を時系列に測定する。また、本実施形態では、基準点特定手段13が特定した基準点についても同様に運動速度を時系列に測定し、それに基づいて基準点の運動のタイミングと追従点の運動のタイミングとの差分を測定する。   The measuring unit 14 measures pre-correction motion information on the motion of the following point included in the moving image acquired by the moving image acquiring unit 11. In the present embodiment, the movement speed is measured in a time series for the tracking point specified by the tracking point specifying unit 12. In the present embodiment, the movement speed of the reference point identified by the reference point identification unit 13 is similarly measured in time series, and the difference between the timing of the movement of the reference point and the timing of the movement of the following point is determined based on the measurement. Measure.

ここで、本実施形態においては、頭部全体の動きの影響を受けないよう、表情の動きの基準となる参照点として額の点を特定し、額の点に対する相対的な運動速度を測定する。参照点としては頭部の動きに伴って運動し、かつ表情の動きの影響を受けない(表情表出に伴った運動をしない)点が好ましい。なお、参照点の特定は必須ではなく、単純に基準点及び追従点の絶対的な運動速度を測定してもよい。   Here, in the present embodiment, the point of the forehead is specified as a reference point that is a reference of the movement of the facial expression, and the relative movement speed with respect to the point of the forehead is measured so as not to be affected by the movement of the entire head. . The reference point is preferably a point that moves with the movement of the head and is not affected by the movement of the facial expression (does not move with the expression of the facial expression). The specification of the reference point is not essential, and the absolute movement speeds of the reference point and the following point may be simply measured.

単位表情設定手段15は、動画像取得手段11が取得した動画像における単位表情を設定する。本実施形態では、顔の動きを解析し、各表情表出における顔の動きが開始する時点から終了する時点までの顔の動きを単位表情として設定する。   The unit facial expression setting unit 15 sets a unit facial expression in the moving image acquired by the moving image acquiring unit 11. In the present embodiment, the motion of the face is analyzed, and the motion of the face from the start to the end of the facial expression in each expression is set as a unit expression.

補正手段16は、後述の記憶手段18が記憶する目標運動情報に基づいて、動画像における追従点の運動を補正した補正動画を生成する。本実施形態では、単位表情設定手段15によって設定された単位表情ごとに補正を行う。   The correction unit 16 generates a corrected moving image in which the motion of the following point in the moving image is corrected based on the target motion information stored in the storage unit 18 described below. In the present embodiment, the correction is performed for each unit expression set by the unit expression setting unit 15.

表示手段17は、補正手段が生成した補正動画を表示処理し、処理結果を送信する。本実施形態においては、表示装置2aにおいて撮影された動画像から生成された補正動画は、表示手段17によって表示処理され、通話相手側の表示装置2bに処理結果が送信される。   The display unit 17 performs display processing of the corrected moving image generated by the correction unit, and transmits a processing result. In the present embodiment, the corrected moving image generated from the moving image captured by the display device 2a is subjected to display processing by the display unit 17, and the processing result is transmitted to the display device 2b on the other side of the call.

記憶手段18は、動画像の補正を行うための追従点の運動の目安となる、目標運動情報を記憶する。図5は、目標運動情報の一例を示す図である。ここに示すように、本実施形態では、各追従点について年代ごとの運動特性を示す情報を記憶している。ここでは、記憶手段18は基準点の運動のタイミングに対する各追従点の運動のタイミングの遅れの大きさの目安を年代別に記憶し、これを目標運動情報として用いる。   The storage unit 18 stores target motion information, which is a measure of the motion of a follow-up point for correcting a moving image. FIG. 5 is a diagram illustrating an example of the target exercise information. As shown here, in the present embodiment, information indicating the movement characteristics of each follow-up point for each age is stored. Here, the storage means 18 stores, by age, a measure of the magnitude of the delay in the timing of the movement of each follow-up point with respect to the timing of the movement of the reference point, and uses this as target movement information.

つまり、顔の動きを20代に補正したい場合には20代の各追従点の運動特性を示す情報を目標運動情報として用いることができ、30代に補正したい場合には30代の各追従点の運動特性を示す情報を目標運動情報として用いることができる。本例の場合、例えば20代の追従点Cにおける遅れの目安が30ms、50代の追従点Cにおける遅れの目安が100msとして記憶されている。   That is, when the movement of the face is to be corrected in the twenties, information indicating the motion characteristics of each of the following points in the twenties can be used as the target movement information. The information indicating the motion characteristics of the target can be used as the target motion information. In the case of this example, for example, the estimated delay at the tracking point C in the 20's is stored as 30 ms, and the estimated delay at the tracking point C in the 50's is 100 ms.

なお、ここでは各追従点における遅れの大きさの目安を年代ごとに数値として記憶し、これを目標運動情報として用いる構成を示すが、例えば、基準点と追従点の間の距離に対して遅れの大きさをあらわす関数を、年代ごとに複数記憶する構成としてもよい。   In addition, here, a configuration is shown in which a standard of the magnitude of the delay at each tracking point is stored as a numerical value for each age, and this is used as target motion information. It is good also as composition which stores a plurality of functions showing the size of each for every age.

また、本実施形態においては、各単位表情において運動速度が最大になるタイミングの基準点と追従点との差分(基準点に対する追従点の遅れ)を「遅れの大きさ」とするが、この他任意の方法で遅れを表現してよい。例えば、各単位表情において基準点と追従点それぞれの加速度が最大になるタイミング(動き始め又は動き終わり)の差分によって、遅れの大きさを表現して用いてもよい。   Further, in the present embodiment, the difference between the reference point and the follow-up point (the delay of the follow-up point with respect to the reference point) of the timing at which the movement speed is maximized in each unit expression is defined as “the magnitude of the delay”. The delay may be expressed in any manner. For example, the magnitude of the delay may be expressed by the difference between the timing (the start or end of movement) at which the acceleration of each of the reference point and the following point in each unit expression is maximized.

なお、追従性以外の各種の運動特性について補正を行う場合にも、同様にして年代ごとの目安となる値を記憶しておき、目標運動情報として用いることができる。この場合にも、運動特性を示す関数として運動情報を記憶していてもよい。   In the case where various motion characteristics other than the followability are corrected, similarly, a value serving as a guide for each age can be stored and used as target motion information. Also in this case, the motion information may be stored as a function indicating the motion characteristics.

表示装置2a及び2bは、それぞれ入力手段21及び出力手段22を備える。表示装置2としては、PC(Personal Computer)やスマートフォンなどの一般的なコンピュータを用いることができる。表示装置2a及び2bは、本実施形態に係る肌動画補正システムにおける表示装置2として機能するための専用のアプリケーションや、ウェブページを利用するためのウェブブラウザアプリケーションを記憶している。   The display devices 2a and 2b include an input unit 21 and an output unit 22, respectively. As the display device 2, a general computer such as a PC (Personal Computer) or a smartphone can be used. The display devices 2a and 2b store a dedicated application that functions as the display device 2 in the skin moving image correction system according to the present embodiment and a web browser application that uses a web page.

入力手段21としては、少なくとも動画像を撮影可能な一般的なカメラ等の撮影装置を採用することができ、出力手段22としては、少なくとも補正動画を表示可能な一般的なディスプレイ装置等を採用することができる。本実施形態においては、入力手段21として更に音声を取得可能なマイク等の集音装置を備え、取得した音声を補正動画と共に通話相手の表示装置2に送信することでビデオ通話を行う。   As the input unit 21, a photographing device such as a general camera capable of capturing at least a moving image can be employed, and as the output unit 22, a general display device capable of displaying at least a corrected moving image is employed. be able to. In the present embodiment, a sound collecting device such as a microphone capable of acquiring sound is further provided as the input means 21, and a video call is performed by transmitting the acquired sound to the display device 2 of the other party together with the corrected moving image.

図6は、本実施形態における動画像の取得から補正動画の生成までの処理の流れを示すフローチャートである。入力手段21を介して動画像の撮影及び送信が開始されると、図6の処理が開始され、ステップS11において動画像取得手段11が動画像を取得する。ここでは、入力手段21による動画像の撮影と並行して、撮影された動画像が順次サーバ装置1に送信され、送信された動画像を動画像取得手段11が順次取得する。   FIG. 6 is a flowchart illustrating a flow of processing from acquisition of a moving image to generation of a corrected moving image in the present embodiment. When shooting and transmission of a moving image are started via the input unit 21, the processing in FIG. 6 is started, and the moving image obtaining unit 11 obtains a moving image in step S11. Here, in parallel with the shooting of the moving image by the input unit 21, the shot moving images are sequentially transmitted to the server device 1, and the transmitted moving images are sequentially obtained by the moving image obtaining unit 11.

次に、ステップS12において、単位表情設定手段15が、ステップS11で取得した動画像について単位表情を設定する。本実施形態では、顔の動きを解析し、表情の変化が開始する時点から表情の変化が終了する時点までをひとつの単位表情として設定する。単位表情の設定は任意の方法で行われてよい。   Next, in step S12, the unit facial expression setting unit 15 sets a unit facial expression for the moving image acquired in step S11. In this embodiment, the movement of the face is analyzed, and the time from when the change of the expression starts to when the change of the expression ends is set as one unit expression. The setting of the unit expression may be performed by any method.

具体的には、例えば、種々の表情表出の際の顔の動きのモデルを記憶手段18又は外部のデータベース等に記憶しておき、取得した動画像を顔の動きのモデルに照らして分析することで、単位表情を設定する方法が考えられる。また、この他には、ステップS12の前に追従点や基準点の特定及び運動情報の測定を行い、その測定結果に基づいて単位表情を設定する構成としてもよい。   More specifically, for example, models of facial movements at the time of expressing various facial expressions are stored in the storage unit 18 or an external database or the like, and the obtained moving images are analyzed with reference to the facial movement models. Thus, a method of setting a unit expression can be considered. Alternatively, before step S12, the tracking point or the reference point may be specified and the motion information may be measured, and the unit expression may be set based on the measurement result.

単位表情の設定が完了すると、ステップS13に進み、単位表情ごとに補正手段16が補正動画の生成を行う。図7は、本実施形態における補正動画の生成に係る処理の一例を示すフローチャートである。   When the setting of the unit expression is completed, the process proceeds to step S13, and the correcting unit 16 generates a corrected moving image for each unit expression. FIG. 7 is a flowchart illustrating an example of processing related to generation of a corrected moving image according to the present embodiment.

まず、ステップS21において、追従点特定手段12及び基準点特定手段13が、動画像にふくまれる人の顔における基準点及び追従点を特定する。上述の通り、本実施形態では、予め顎部の点を基準点として、頬部の3つの点を追従点A〜Cとして設定し、動画像からこれらの点を検出することで基準点及び追従点を特定するが、動画像における顔の動き等に基づいて追従点を特定する構成としてもよい。   First, in step S21, the tracking point specifying means 12 and the reference point specifying means 13 specify a reference point and a tracking point on a human face included in the moving image. As described above, in the present embodiment, three points on the cheek are set as tracking points A to C in advance with the points on the jaw as the reference points, and these points are detected from the moving image to thereby determine the reference points and the tracking points. Although the points are specified, a configuration may be employed in which the following points are specified based on the movement of the face in the moving image.

基準点及び追従点の特定が完了すると、ステップS22〜ステップS24において、測定手段14が補正前運動情報を測定する。本実施形態では、まずステップS22において動画を構成するフレーム間の基準点及び各追従点の移動量から各点の運動速度を測定する。   When the specification of the reference point and the following point is completed, in steps S22 to S24, the measuring means 14 measures the pre-correction motion information. In the present embodiment, first, in step S22, the movement speed of each point is measured from the movement amount of the reference point between the frames constituting the moving image and each of the following points.

続くステップS23では、ステップS22で測定した基準点及び各追従点の運動速度に基づいて、対象となる単位表情において基準点及び各追従点の運動のタイミングを特定する。本実施形態においては、基準点及び各追従点の運動速度が最大になるタイミングを特定する。   In the following step S23, the timing of movement of the reference point and each of the following points in the target unit expression is specified based on the movement speed of the reference point and each of the following points measured in step S22. In the present embodiment, the timing at which the movement speed of the reference point and each of the following points becomes maximum is specified.

そして、ステップS24において、ステップS23で特定した基準点及び各追従点の運動のタイミングから、基準点に対する各追従点の運動の遅れの大きさを算出する。本実施形態ではここで算出した各追従点の運動の遅れの大きさを補正前運動情報として、補正動画の生成に用いる。   Then, in step S24, the magnitude of the delay in the movement of each tracking point with respect to the reference point is calculated from the movement timing of the reference point and each tracking point specified in step S23. In the present embodiment, the calculated magnitude of the movement delay of each following point is used as pre-correction motion information for generating a corrected moving image.

ステップS25では、補正手段16が各追従点の運動のタイミングを調整する。ここで本実施形態では、ステップS24で算出された各追従点の運動の遅れの大きさ(補正前運動情報)を、記憶手段18に記憶された各追従点についての年代ごとの運動特性を示す情報と照らし合わせて、補正前運動情報がどの年代の動きの特徴に近いかを特定する。   In step S25, the correction means 16 adjusts the timing of the movement of each following point. Here, in the present embodiment, the magnitude of the motion delay (the motion information before correction) of each tracking point calculated in step S <b> 24 indicates the motion characteristic of each tracking point stored in the storage unit 18 for each age. In comparison with the information, the movement information before correction is specified which movement characteristic is closer to the movement.

そして、補正前運動情報から特定された年代よりも1段階若い年代における、年代ごとの運動特性を示す情報を目標運動情報として用い、補正手段16が各追従点における補正後の運動のタイミングを決定する。ただし目標運動情報の選択はこれに限るものではなく、例えば、表示装置2を介して、補正強度の指定を受け付け、それに基づいた度合いで補正を行うように、目標運動情報を選択してもよい。   Then, the correction means 16 determines the corrected motion timing at each of the following points by using, as target motion information, information indicating the motion characteristics of each age in the age one stage younger than the age specified from the pre-correction motion information. I do. However, the selection of the target exercise information is not limited to this. For example, the target exercise information may be selected such that the designation of the correction strength is received via the display device 2 and the correction is performed to a degree based on the correction strength. .

ここで、本実施形態においては、追従点が基準点に近いほど運動のタイミングの遅れが小さくなるように目標運動情報を定義し、これに基づいて補正動画の生成を行う。このように、各追従点の基準点までの距離に応じて各追従点の運動のタイミングを調整することによって、より自然な補正動画を生成することができる。   Here, in the present embodiment, the target motion information is defined such that the delay of the motion timing is smaller as the follow-up point is closer to the reference point, and a corrected moving image is generated based on the target motion information. As described above, by adjusting the timing of the movement of each tracking point according to the distance of each tracking point to the reference point, a more natural corrected moving image can be generated.

ステップS25における追従点の運動のタイミングの調整が完了すると、ステップS26において、これに基づいて補正手段16が各追従点の時系列の運動速度を決定する。本実施形態では、ステップS25で最大速度になるタイミングを調整し、ステップS26では線形補完によって時系列の運動速度を決定する。この他、加速度によって調整するように変更してもよい。   When the adjustment of the timing of the movement of the following point in step S25 is completed, in step S26, the correction means 16 determines the time-series movement speed of each following point based on the adjustment. In the present embodiment, the timing at which the maximum speed is reached is adjusted in step S25, and the time-series motion speed is determined by linear interpolation in step S26. In addition, you may change so that it may adjust by acceleration.

ステップS27では、各追従点の運動速度に基づいて動画像を構成する各フレームの画像を調整し、補正動画を生成する。各フレームの画像の調整には一般的な画像編集技術を用いればよく、例えば、画像にメッシュ状の領域を設定し、各追従点の運動に応じて各領域を引き伸ばしたり縮めたりすることによって各フレームの画像を調整することができる。この際、前後のフレームとの連続性を考慮して、各フレームの調整を行うことが好ましい。   In step S27, the image of each frame constituting the moving image is adjusted based on the moving speed of each following point, and a corrected moving image is generated. For adjusting the image of each frame, a general image editing technique may be used.For example, a mesh-like area is set in the image, and each area is stretched or shrunk in accordance with the movement of each following point to thereby adjust each area. You can adjust the image of the frame. At this time, it is preferable to adjust each frame in consideration of continuity with the preceding and following frames.

このようにして単位表情について補正動画の生成が完了すると、図6のフローチャートに戻り、ステップS14において表示手段17が補正動画を表示処理して処理結果を表示装置2に送信する。ここで、本実施形態においては、表示装置2aによって撮影された動画像から生成された補正動画は、表示手段17によって表示処理されると、処理結果が通話相手側の表示装置2bに送信され、表示装置2bの出力手段22を介して通話相手に表示される。なお、表示装置2aにおいても同様に補正動画を表示してもよい。   When the generation of the corrected moving image for the unit expression is completed in this way, the process returns to the flowchart of FIG. 6, and the display unit 17 displays the corrected moving image and transmits the processing result to the display device 2 in step S14. Here, in the present embodiment, when the corrected moving image generated from the moving image captured by the display device 2a is subjected to display processing by the display unit 17, the processing result is transmitted to the display device 2b of the other party, It is displayed to the other party via the output means 22 of the display device 2b. The corrected moving image may be displayed on the display device 2a in the same manner.

このようにして、ステップS15で表示装置2を介して撮影終了指示を受け付けるまで、順次入力される動画像を取得して単位表情ごとに補正を行って補正動画を生成し、通話相手側の表示装置2において連続して表示する。このように連続して順次処理を行うことにより、ほぼリアルタイムで補正動画を表示することができる。   In this manner, until a shooting end instruction is received via the display device 2 in step S15, sequentially input moving images are obtained, corrected for each unit expression, and a corrected moving image is generated. It is displayed continuously in the device 2. As described above, by sequentially performing the processing, the corrected moving image can be displayed almost in real time.

なお、図6及び図7で示した処理の流れは一例であり、任意に順番や処理内容の詳細を変更してよい。また、本例ではステップS11における動画像の取得後、ステップS12において単位表情を設定し、単位表情ごとに補正動画を生成する流れを説明したが、必ずしも動画の全範囲について補正動画を生成しなくてもよい。例えば、表情の変化がない部分については単位表情を含まないものとし、ステップS13、S14における補正動画の生成及び表示処理をスキップする構成としてもよい。   Note that the processing flow shown in FIGS. 6 and 7 is an example, and the order and details of the processing contents may be arbitrarily changed. Also, in this example, after the moving image is acquired in step S11, the unit expression is set in step S12, and the flow of generating the corrected moving image for each unit expression has been described. However, the corrected moving image is not necessarily generated for the entire range of the moving image. You may. For example, it is possible to adopt a configuration in which the unit expression is not included in a portion where the expression does not change, and the generation and display processing of the corrected moving image in steps S13 and S14 are skipped.

<実施形態2>
以下、本発明の別の実施形態について説明する。なお、実施形態1と同様の構成については同じ符号を付して説明を省略する。
<Embodiment 2>
Hereinafter, another embodiment of the present invention will be described. Note that the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

本実施形態においては、表示装置2を介して動画像を取得し、補正動画を記憶手段18に記憶する構成について説明する。本実施形態においては、撮影と同時に補正動画の生成を行う必要はなく、動画像の撮影後に加工を行って補正動画を生成する構成を示す。   In the present embodiment, a configuration in which a moving image is obtained via the display device 2 and the corrected moving image is stored in the storage unit 18 will be described. In the present embodiment, it is not necessary to generate a corrected moving image at the same time as shooting, and a configuration is shown in which processing is performed after shooting a moving image to generate a corrected moving image.

図8は、本実施形態における動画像の取得から補正動画の生成までの処理の流れを示すフローチャートである。まず、ステップS31において、動画像取得手段11が表示装置2を介して動画像を取得する。ここでの動画像の取得は、撮影と同時に行われる必要はなく、例えば表示装置2が備える記憶装置に記憶された動画像のデータを取得すればよい。   FIG. 8 is a flowchart illustrating a flow of processing from acquisition of a moving image to generation of a corrected moving image in the present embodiment. First, in step S31, the moving image acquisition unit 11 acquires a moving image via the display device 2. The acquisition of the moving image here does not need to be performed at the same time as the photographing. For example, the moving image data stored in the storage device included in the display device 2 may be acquired.

次にステップS32において、取得した動画像に対して単位表情設定手段15が単位表情を設定する。ここでは、実施形態1と同様にして単位表情を設定してもよいが、表示装置2を介して単位表情の開始点や終了点に関する入力を受け付け、これに基づいて設定してもよい。あるいは、実施形態1と同様にして単位表情を設定した上で、単位表情の範囲を調整する入力を受け付けてもよい。   Next, in step S32, the unit facial expression setting unit 15 sets a unit facial expression for the obtained moving image. Here, the unit expression may be set in the same manner as in the first embodiment. Alternatively, an input regarding the start point and the end point of the unit expression may be received via the display device 2 and set based on the input. Alternatively, after setting a unit expression in the same manner as in the first embodiment, an input for adjusting the range of the unit expression may be received.

ステップS33においては、実施形態1と同様に補正動画を生成する。即ち、単位表情ごとに、運動情報に基づいて補正動画を生成する。ここでは、例えば「1段階若く見えるように動きを補正する」、「20代の動きになるように動きを補正する」等の入力を受け付けて、それに基づいて目標運動情報を選択するようにしてもよい。また、逆に「1段階老けて見えるように補正する」等のような入力を受け付けることも可能である。   In step S33, a corrected moving image is generated as in the first embodiment. That is, a corrected moving image is generated for each unit expression based on the exercise information. Here, for example, an input such as "correct the motion so as to look one step younger" or "correct the motion so as to be in the twenties" is received, and the target motion information is selected based on the input. Is also good. Conversely, it is also possible to accept an input such as "correct so that it looks one step older".

動画像全体について単位表情ごとの補正動画の生成が完了すると、ステップS34において、これらの補正動画を合成して全体の補正動画を生成する。ここで、単位表情ごとの補正動画同士のつながりが自然になるように、追従点の運動を調整してもよい。   When the generation of the corrected moving image for each unit expression for the entire moving image is completed, in step S34, the corrected moving images are combined to generate the entire corrected moving image. Here, the movement of the following point may be adjusted so that the connection between the corrected moving images for each unit expression becomes natural.

そして、ステップS35において、生成された補正動画を記憶手段18に記憶して処理を終了する。表示手段17は、表示装置2の表示要求に従って、記憶手段18に記憶された補正動画を表示処理して処理結果を送信する。また、補正動画は、表示装置2にダウンロードして確認できるようにしてもよい。   Then, in step S35, the generated corrected moving image is stored in the storage unit 18, and the process ends. The display unit 17 performs display processing of the corrected moving image stored in the storage unit 18 according to a display request of the display device 2, and transmits a processing result. Further, the corrected moving image may be downloaded to the display device 2 and can be checked.

以上のように、本発明に係る肌動画補正システムによれば、表情表出の際の皮膚の動きを補正して、印象を向上させた補正動画を生成することができる。また、本実施形態のように、補正前運動情報に応じて目標運動情報を決定することで、顔の動きに対して自然な補正を行えるようになる効果が期待できる。   As described above, according to the skin moving image correction system of the present invention, it is possible to generate a corrected moving image with an improved impression by correcting the movement of the skin when expressing a facial expression. Further, by determining the target motion information according to the pre-correction motion information as in the present embodiment, an effect that natural correction can be performed on the face motion can be expected.

なお、本実施形態においては、特徴点として基準点及び追従点を特定し、その運動のタイミングの差分を運動情報として用いて補正動画を生成することによって、追従性を補正する構成を示したが、本発明はこれに限るものではない。この他、上述の伸縮性や変形性を補正する為に、特徴点間の距離や複数の特徴点によって定義される領域の面積の変化等の情報を運動情報として用いる構成としてもよい。また、これらを組み合わせて複合的な運動特性について補正を行う構成としてもよい。   In the present embodiment, a configuration in which the reference point and the following point are specified as the feature points, and the difference in the timing of the movement is used as the movement information to generate the corrected moving image, thereby correcting the following property has been described. However, the present invention is not limited to this. In addition, in order to correct the above-described elasticity and deformability, a configuration may be used in which information such as a distance between feature points or a change in the area of a region defined by a plurality of feature points is used as motion information. In addition, a configuration in which these are combined to perform correction on a composite motion characteristic may be adopted.

1 サーバ装置
11 動画像取得手段
12 追従点特定手段
13 基準点特定手段
14 測定手段
15 単位表情設定手段
16 補正手段
17 表示手段
18 記憶手段
2 表示装置
21 入力手段
22 出力手段
R 基準点
DESCRIPTION OF SYMBOLS 1 Server apparatus 11 Moving image acquisition means 12 Tracking point specification means 13 Reference point specification means 14 Measurement means 15 Unit expression setting means 16 Correction means 17 Display means 18 Storage means 2 Display device 21 Input means 22 Output means R Reference point

Claims (13)

表情表出に対する人の顔上の特徴点の運動に関する運動情報に基づいて、人の顔を撮影した動画像の補正を行う肌動画補正システムであって、
前記運動情報は、補正目標となる目標運動情報を含み、
人の顔を撮影した動画像を取得する動画像取得手段と、
前記動画像における顔上の1又は複数の前記特徴点を特定する特徴点特定手段と、
前記目標運動情報に基づいて、前記動画像における前記特徴点の運動を変化させ、顔の動きを補正した補正動画を生成する補正手段と、を備えることを特徴とする肌動画補正システム。
A skin moving image correction system that corrects a moving image obtained by photographing a human face, based on motion information on motion of a feature point on the human face with respect to expression of facial expression,
The exercise information includes target exercise information to be a correction target,
Moving image acquisition means for acquiring a moving image of a human face,
Feature point specifying means for specifying one or more feature points on the face in the moving image;
Correction means for changing the movement of the feature point in the moving image based on the target movement information to generate a corrected moving image in which the movement of the face is corrected.
前記運動情報は、前記動画像における前記特徴点の運動に関する補正前運動情報を含み、
前記動画像から、前記補正前運動情報を測定する測定手段と、
複数の前記目標運動情報を記憶する記憶手段と、を更に備え、
前記補正手段は、前記測定手段によって測定された前記補正前運動情報に基づいて、複数の前記目標運動情報の中から、前記補正動画の生成に用いる前記目標運動情報を決定することを特徴とする、請求項1に記載の肌動画補正システム。
The motion information includes motion information before correction related to the motion of the feature point in the moving image,
From the moving image, measuring means for measuring the pre-correction motion information,
Storage means for storing a plurality of the target exercise information,
The correction means determines the target motion information used for generating the corrected moving image from a plurality of the target motion information based on the pre-correction motion information measured by the measurement means. The skin moving image correction system according to claim 1.
前記動画像から、ある表情から別の表情表出までの部分を補正対象となる単位表情として設定する単位表情設定手段を更に備え、
前記補正手段は、前記単位表情ごとに顔の動きを補正して前記補正動画を生成することを特徴とする、請求項1又は請求項2に記載の肌動画補正システム。
The moving image further includes a unit expression setting unit that sets a portion from a certain expression to another expression as a unit expression to be corrected,
The skin moving image correction system according to claim 1, wherein the correction unit generates the corrected moving image by correcting a face movement for each unit expression.
前記運動情報は、前記特徴点の運動速度又は加速度のうち少なくとも何れかを含むことを特徴とする、請求項1〜3の何れかに記載の肌動画補正システム。   The skin moving image correction system according to claim 1, wherein the movement information includes at least one of a movement speed and an acceleration of the feature point. 前記特徴点は、頬部の点を含むことを特徴とする、請求項1〜4の何れかに記載の肌動画補正システム。   The skin moving image correction system according to claim 1, wherein the feature point includes a cheek point. 前記補正手段は、前記動画像取得手段による前記動画像の取得と並行して、取得された前記動画像を順次補正して前記補正動画を生成し、
前記補正手段による前記補正動画の生成と並行して、生成された前記補正動画を順次表示処理して処理結果を送信する表示手段を更に備えることを特徴とする、請求項1〜5の何れかに記載の肌動画補正システム。
The correction unit, in parallel with the acquisition of the moving image by the moving image acquisition unit, sequentially correcting the acquired moving image to generate the corrected moving image,
The display device according to claim 1, further comprising a display unit configured to sequentially display the generated corrected moving image and transmit a processing result in parallel with the generation of the corrected moving image by the correction unit. The skin video correction system described in 1.
前記特徴点は、表情表出の際の顔の動きの基準となる顔上の基準点と、表情表出の際に、顔上の他の部分の動きに追従して動く皮膚上の点である追従点と、を含み、
前記特徴点特定手段として、前記追従点を特定する追従点特定手段と、前記基準点を特定する基準点特定手段と、を備え、
前記補正手段は、前記追従点の運動を変化させて前記補正動画を生成することを特徴とする、請求項1〜6の何れかに記載の肌動画補正システム。
The feature point is a reference point on the face that serves as a reference for the movement of the face when expressing an expression, and a point on the skin that moves following the movement of other parts on the face when expressing the expression. A tracking point, and
As the characteristic point identifying means, a tracking point identifying means for identifying the tracking point, and a reference point identifying means for identifying the reference point,
The skin moving image correction system according to claim 1, wherein the correction unit changes the movement of the follow-up point to generate the corrected moving image.
前記運動情報は、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分に関する情報を含むことを特徴とする、請求項7に記載の肌動画補正システム。   The skin moving image correction system according to claim 7, wherein the movement information includes information on a difference between the movement timing of the reference point and the movement timing of the following point. 前記補正手段は、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分が小さくなるように、前記追従点の運動を変化させて前記補正動画を生成することを特徴とする、請求項7又は請求項8に記載の肌動画補正システム。   The correction means generates the corrected moving image by changing the movement of the tracking point so that a difference between the timing of the movement of the reference point and the timing of the movement of the tracking point is reduced. The skin moving image correction system according to claim 7 or 8, wherein 前記補正手段は、前記追従点の運動のタイミングを早めることで、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分を小さくした前記補正動画を生成することを特徴とする、請求項9に記載の肌動画補正システム。   The correction means generates the corrected moving image in which the difference between the timing of the movement of the reference point and the timing of the movement of the tracking point is reduced by advancing the timing of the movement of the tracking point. The skin moving image correction system according to claim 9, wherein 前記追従点は、複数定義され、
前記補正手段は、各追従点と前記基準点との距離が小さいほど、前記基準点の運動のタイミングと、前記追従点の運動のタイミングと、の差分が小さくなるように各追従点の動きを補正して、前記補正動画を生成することを特徴とする、請求項7〜10の何れかに記載の肌動画補正システム。
A plurality of the following points are defined,
The correction means reduces the difference between the timing of the movement of the reference point and the timing of the movement of the tracking point as the distance between each of the tracking points and the reference point is smaller. The skin moving image correction system according to any one of claims 7 to 10, wherein the correction is performed to generate the corrected moving image.
表情表出に対する人の顔上の特徴点の運動に関する運動情報に基づいて、人の顔を撮影した動画像の補正を行うための肌動画補正プログラムであって、
前記運動情報は、補正目標となる目標運動情報を含み、
コンピュータを、人の顔を撮影した動画像を取得する動画像取得手段と、
前記動画像における顔上の1又は複数の前記特徴点を特定する特徴点特定手段と、
前記目標運動情報に基づいて、前記動画像における前記特徴点の運動を変化させ、顔の動きを補正した補正動画を生成する補正手段と、として機能させることを特徴とする肌動画補正プログラム。
A skin moving image correction program for performing correction of a moving image obtained by photographing a human face, based on motion information about a motion of a feature point on the human face with respect to expression of facial expression,
The exercise information includes target exercise information to be a correction target,
A computer, a moving image acquisition unit that acquires a moving image of a human face,
Feature point specifying means for specifying one or more feature points on the face in the moving image;
A skin moving image correction program that functions as a correction unit that changes a motion of the feature point in the moving image based on the target motion information to generate a corrected moving image in which a face motion is corrected.
表情表出に対する人の顔上の特徴点の運動に関する運動情報に基づいて、人の顔を撮影した動画像の補正を行う肌動画補正方法であって、
前記運動情報は、補正目標となる目標運動情報を含み、
人の顔を撮影した動画像を取得する動画像取得ステップと、
前記動画像における顔上の1又は複数の前記特徴点を特定する特徴点特定ステップと、
前記目標運動情報に基づいて、前記動画像における前記特徴点の運動を変化させ、顔の動きを補正した補正動画を生成する補正ステップと、を備えることを特徴とする肌動画補正方法。

A skin moving image correction method for correcting a moving image obtained by photographing a human face, based on motion information on motion of a feature point on the human face for expression of an expression,
The exercise information includes target exercise information to be a correction target,
A moving image acquiring step of acquiring a moving image of a human face,
A feature point specifying step of specifying one or a plurality of the feature points on the face in the moving image;
Correcting the movement of the feature point in the moving image based on the target movement information to generate a corrected moving image in which the motion of the face is corrected.

JP2018170785A 2018-09-12 2018-09-12 Skin animation correction system, skin animation correction program, and skin animation correction method Active JP7165003B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018170785A JP7165003B2 (en) 2018-09-12 2018-09-12 Skin animation correction system, skin animation correction program, and skin animation correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018170785A JP7165003B2 (en) 2018-09-12 2018-09-12 Skin animation correction system, skin animation correction program, and skin animation correction method

Publications (2)

Publication Number Publication Date
JP2020043516A true JP2020043516A (en) 2020-03-19
JP7165003B2 JP7165003B2 (en) 2022-11-02

Family

ID=69798848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018170785A Active JP7165003B2 (en) 2018-09-12 2018-09-12 Skin animation correction system, skin animation correction program, and skin animation correction method

Country Status (1)

Country Link
JP (1) JP7165003B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115022541A (en) * 2022-05-30 2022-09-06 Oppo广东移动通信有限公司 Video distortion correction method and device, computer readable medium and electronic equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133573A (en) * 2005-11-09 2007-05-31 Oki Electric Ind Co Ltd Animation creation method and system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133573A (en) * 2005-11-09 2007-05-31 Oki Electric Ind Co Ltd Animation creation method and system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115022541A (en) * 2022-05-30 2022-09-06 Oppo广东移动通信有限公司 Video distortion correction method and device, computer readable medium and electronic equipment
CN115022541B (en) * 2022-05-30 2024-05-03 Oppo广东移动通信有限公司 Video distortion correction method and device, computer readable medium and electronic equipment

Also Published As

Publication number Publication date
JP7165003B2 (en) 2022-11-02

Similar Documents

Publication Publication Date Title
JP7188527B2 (en) Fish length measurement system, fish length measurement method and fish length measurement program
JP5843751B2 (en) Information processing apparatus, information processing system, and information processing method
JP4778306B2 (en) Matching asynchronous image parts
US20180268207A1 (en) Method for automatic facial impression transformation, recording medium and device for performing the method
KR20170047167A (en) Method and apparatus for converting an impression of a face in video
CN113973190A (en) Video virtual background image processing method and device and computer equipment
JP2012222743A (en) Imaging apparatus
US11546570B2 (en) Apparatus, apparatus control method, and recording medium, for synchronizing a plurality of imaging devices
US20220078338A1 (en) Information processing apparatus, information processing method, and information processing program
WO2018061927A1 (en) Information processing device, information processing method, and program storage medium
JP2020043516A (en) Skin moving image correction system, skin moving image correction program, and skin moving image correction method
US11803231B2 (en) Expression prediction using image-based movement metric
JP4953770B2 (en) Imaging device
KR102126370B1 (en) Apparatus and method for analyzing motion
JP2017121373A (en) Information processing device, information processing method, and program
JP6327892B2 (en) Imaging apparatus and control method thereof
JP5759439B2 (en) Video communication system and video communication method
JP6740109B2 (en) Image processing apparatus, image processing method, and program
WO2021192908A1 (en) Tracking method
JP7183005B2 (en) Skin analysis method and skin analysis system
WO2023042432A1 (en) Imaging system, processing device, and machine learning device
JP2013132011A (en) Imaging device, imaging method, and program
US11869150B1 (en) Avatar modeling and generation
WO2021192907A1 (en) Output method
WO2021192905A1 (en) Guide method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221021

R150 Certificate of patent or registration of utility model

Ref document number: 7165003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150