JP2007257508A - Animation generation system and method - Google Patents
Animation generation system and method Download PDFInfo
- Publication number
- JP2007257508A JP2007257508A JP2006083548A JP2006083548A JP2007257508A JP 2007257508 A JP2007257508 A JP 2007257508A JP 2006083548 A JP2006083548 A JP 2006083548A JP 2006083548 A JP2006083548 A JP 2006083548A JP 2007257508 A JP2007257508 A JP 2007257508A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- frame
- feature points
- feature
- animation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、入力された映像から抽出された特徴点を基にして、アニメーションを生成するシステムおよび方法に関する。 The present invention relates to a system and method for generating animation based on feature points extracted from an input video.
近年では、例えばテレビ、映画、ゲーム等においてコンピュータグラフィクス(Computer Graphics : CG)によるアニメーションがよく用いられるようになった。またこのようなアニメーションは、コミュニケーション分野において、例えばアバタ等のキャラクタに応用されることが増えており、とくに顔の動きを表現するアニメーションのニーズが高まりつつある。 In recent years, for example, animation using computer graphics (CG) has been frequently used in television, movies, games, and the like. In addition, such animations are increasingly applied to characters such as avatars in the communication field, and in particular, there is an increasing need for animations that express facial movements.
しかし、アニメーションの作成には、多大な費用と時間が必要である。よって、より容易なやり方で、自然な動きに見えるアニメーションを作成する方法およびシステムが求められていた。 However, creating an animation requires a great deal of money and time. Therefore, there has been a need for a method and system for creating an animation that looks natural in an easier way.
特許文献1には、入力映像から人物の頭部、目、口等を検出し、その情報を元にCG を用いてキャラクタの動きを制御したアニメーションを作成する方法が開示されている。しかし特許文献1では、例えばテレビ電話等の通信システムでの利用を想定しているため、例えば人物の頭部や目や口等の検出に失敗した場合や、誤って他の部分を頭部や目や口等として検出してしまった場合等に、これらの検出結果を修正する修正手段がなく、その結果、緻密なアニメーションを作成できないという問題を有していた。
また特許文献2には、マーカが付された被写体を複数の方向から撮影して、被写体が動いている映像を得、この映像から特徴点を抽出し、抽出した特徴点を基にしてアニメーションを作成する際に、抽出した特徴点の位置を補正したり、何かの陰に隠れて抽出されなかった特徴点を補間したりする等の、編集を行う方法が開示されている。しかし特許文献2では、これらの編集作業を補助する手段を含まないため、実際には作業量が膨大となってしまうという問題を有していた。
本発明はこのような従来技術の欠点を解消し、アニメーションを作成するために抽出した特徴点の編集作業を効率よく行うことが可能であり、またキャラクタの自然な動きを表現することが可能なアニメーション生成方法およびシステムを提供することを目的とする。 The present invention eliminates the drawbacks of the prior art, can efficiently edit the feature points extracted to create an animation, and can express the natural movement of the character. An object of the present invention is to provide an animation generation method and system.
上述の課題を解決するために本発明では、抽出した特徴点を、対応する画像に重畳した重畳画像を作成してディスプレイ等の表示部に表示する。よって、この重畳画像を見ながら編集作業を行うことが可能になるため、例えばどの特徴点が被写体のどの部分から抽出されたのかを把握することが可能になり、特徴点の編集作業を効率よく行うことが可能になる。 In order to solve the above-described problem, in the present invention, a superimposed image in which the extracted feature points are superimposed on a corresponding image is created and displayed on a display unit such as a display. Therefore, it is possible to perform editing work while viewing this superimposed image. For example, it is possible to grasp which feature point is extracted from which part of the subject, and the feature point editing work can be performed efficiently. It becomes possible to do.
また特徴点の抽出はフレーム毎に行うことが可能であり、あるフレームの画像と対応する特徴点を重畳するだけではなく、他のフレームにおける特徴点や、この特徴点と対応する画像も重畳した重畳画像を作成することが可能である。さらに、他のフレームと対応する特徴点を重畳した場合は、特徴点同士を線で繋いでもよい。このように重畳画像に他のフレームにおける特徴点も重畳することより、特徴点の時間的な変化、すなわち特徴点から生成されるキャラクタの動きを把握することが可能になるため、キャラクタの自然な動きを表現することが可能になる。 Also, feature points can be extracted for each frame, not only the feature points corresponding to the image of a certain frame are superimposed, but also the feature points in other frames and the images corresponding to this feature point are also superimposed. It is possible to create a superimposed image. Further, when feature points corresponding to other frames are superimposed, the feature points may be connected by a line. By superimposing the feature points in other frames on the superimposed image in this way, it becomes possible to grasp the temporal change of the feature points, that is, the movement of the character generated from the feature points. It becomes possible to express movement.
また本発明では、時間的な経過と共に特徴点がどのように変化したかを把握することにより、その変化が適切なものか否かを判断する。具体的には、時間的に隣り合う特徴点間で距離を算出し、その後、この距離が通常考えられる範囲内であるか否かを判断する。このようにすることによって、例えば抽出ミス等により本来であれば存在しない位置に特徴点が存在しているフレーム等を容易に特定することが可能になり、特徴点の編集作業を効率よく行うことが可能になる。さらに本発明では、距離が通常考えられる範囲内にない特徴点を、予め設定された補正式を用いて補正する。よって、編集作業を自動的に行うことが可能になり、また一度に複数の編集作業を行うことが可能になる。 In the present invention, it is determined whether or not the change is appropriate by grasping how the feature point has changed with time. Specifically, a distance is calculated between temporally adjacent feature points, and then it is determined whether or not this distance is within a normally conceivable range. In this way, for example, it is possible to easily identify a frame in which a feature point exists in a position that does not exist originally due to an extraction mistake or the like, and the feature point editing work can be performed efficiently. Is possible. Furthermore, in the present invention, a feature point whose distance is not within the normally conceivable range is corrected using a preset correction formula. Therefore, editing work can be automatically performed, and a plurality of editing work can be performed at a time.
本発明によれば、効率よく特徴点を編集することが可能になる。また、キャラクタの自然な動きを表現することが可能になる。 According to the present invention, feature points can be edited efficiently. Further, it becomes possible to express the natural movement of the character.
次に添付図面を参照して本発明の実施例を詳細に説明する。図1は、本発明によるアニメーション作成システムの実施例の構成を概念的に示すブロック図である。図1において、アニメーション作成システム1は、映像入力部3、特徴点抽出部5、特徴点記憶部7、合成部9、特徴点編集部11、動作データ作成部13、アニメーション作成部15、および出力部17を含んでおり、動いている被写体を撮影した映像19から特徴点を抽出し、抽出された特徴点に基づいてアニメーションを作成し、出力部17にするシステムである。
Embodiments of the present invention will now be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram conceptually showing the structure of an embodiment of an animation creating system according to the present invention. In FIG. 1, an
より具体的に説明すると、映像入力部3にはアニメーションで表現したい動きをしている被写体を撮影した映像19が入力される。映像入力部3にこのような映像19が入力されると、特徴点抽出部5がこの映像19からフレーム毎に特徴点を抽出する。特徴点は、アニメーションによりキャラクタの動きを制御する際に必要となる点、すなわち、動きを表現するのに必要となる主要な点である。
More specifically, the
抽出された特徴点は、特徴点記憶部7に記憶される。特徴点記憶部7に特徴点が記憶されると、特徴点編集部11が特徴点を編集する。その後、編集された特徴点を動作データ作成部13、アニメーション作成部15で用いてアニメーションが作成される。本発明の理解に直接関係のない部分は、図示を省略し冗長な説明を避ける。なお、本発明は各部の構成を本実施例に限定するわけではなく、アニメーション作成システム1に応じて任意の構成を採用することが可能である。
The extracted feature points are stored in the feature
図1において、映像入力部3には、動いている被写体を撮影した映像19が入力される。この被写体の動きは、アニメーションで表現したい動き、すなわち、アニメーションで表現されるキャラクタにさせたい動きである。本実施例では、顔の動き、すなわち表情の変化をアニメーションで表現したいため、顔の各部、例えば、目、鼻、口、眉等を動かして、表情を変えている人間の顔の映像19が入力される。
In FIG. 1, the
映像入力部3は、このような映像19が入力されると、入力された映像19を特徴点抽出部5へ供給する。特徴点抽出部5は、入力された映像19から特徴点をフレーム毎に抽出し、抽出した特徴点の位置を算出する。なお本実施例ではフレーム毎に特徴点を抽出しているが、本発明はこれに限定するわけではない。
When such a
ここで特徴点とは、上述したようにアニメーションによりキャラクタの動きを制御する際に必要となる点であって、動きを表現するのに必要となる主要な点である。なお動きに応じて任意の点を特徴点とすることが可能であり、例えば本実施例では、キャラクタの顔の表情が変化するアニメーションを作成するため、顔の動きを表現する際に必要な点を特徴点としている。具体的には図2に四角で示すように、右の眉毛の実質的に右端を特徴点A、右の眉毛の実質的に左端を特徴点B、左の眉毛の実質的に右端を特徴点C、左の眉毛の実質的に左端を特徴点D、右目の瞳を特徴点E、左眼の瞳を特徴点F、口の実質的に右端を特徴点G、口の実質的に左端を特徴点H、上唇の実質的に中央を特徴点I、および下唇の実質的に中央を特徴点Jとしている。 Here, the feature point is a point necessary for controlling the movement of the character by animation as described above, and is a main point necessary for expressing the movement. An arbitrary point can be used as a feature point in accordance with the movement. For example, in this embodiment, an animation in which the facial expression of the character changes is created. Is a feature point. Specifically, as shown by a square in FIG. 2, the right eyebrow has a substantially right end point, feature point A, the right eyebrow substantially left end feature point B, and the left eyebrow substantially right end feature point. C, feature point D at the substantially left end of the left eyebrows, feature point E at the pupil of the right eye, feature point F at the pupil of the left eye, feature point G at the substantially right end of the mouth, and feature point G at the substantially right end of the mouth The feature point H, the feature point I is the substantial center of the upper lip, and the feature point J is the substantial center of the lower lip.
図2は、特徴点を抽出する処理を概念的に示した図であり、アニメーション作成システム1に入力される映像19におけるあるフレーム25を概念的に示した図である。なお図2では1つのフレーム25のみを図示しているが、これは説明をわかりやすくするためであり、映像19には任意の数のフレームを含めることが可能である。また本発明は、顔の表情を撮影した映像19に限定するわけではなく、キャラクタにさせたい動きに応じて、任意の動きを撮影した映像19を採用することが可能であり、また被写体もアニメーションで表現するキャラクタに応じて任意の被写体を採用することが可能である。
FIG. 2 is a diagram conceptually showing the process of extracting feature points, and is a diagram conceptually showing a
図2においてこれらの特徴点A〜Jは、任意のやり方を採用して抽出することが可能である。例えば、映像19を図2に示すようにフレーム毎に分け、各フレームの静止画像を画像処理することにより抽出してもよいし、または、特徴点として抽出すると定めた部分に予めマーカを付して、このようなマーカが付された被写体を撮影し、特徴点A〜Jを抽出する際は、対応するマーカの部分をフレーム毎に抽出するようにしてもよい。なお本発明はこれらに限定するわけではない。このようにして特徴点A〜Jを抽出すると、特徴点抽出部5は、抽出された特徴点A〜Jの位置をそれぞれ算出する。
In FIG. 2, these feature points A to J can be extracted by adopting an arbitrary method. For example, the
本実施例では図2に示すように、フレームの左下の端点51を原点、水平方向をx軸、および垂直方向をy軸とし、各特徴点A〜Jの位置を、フレーム毎に座標として算出する。算出された各特徴点の位置を示す座標、すなわち位置座標の一例を図3に示す。図3において、n は正の整数である。なお本実施例では、映像19のすべてのフレームから特徴点A〜Jを抽出し、位置座標を算出している。これは後段の動作データ作成部13で、映像19に含まれているすべてのフレームにおける特徴点A〜Jから動作データを作成するためである。しかし本発明はこれに限定するわけではなく、後段の動作データ作成部13で必要となる分、特徴点を抽出して位置座標を算出すればよい。また本実施例では説明を分かりやすくするために2次元にしているが、本発明はこれに限定するわけではなく、例えばx軸、およびy軸と直行するz軸をさらに設定して3次元にすることも可能である。
In this embodiment, as shown in FIG. 2, the lower
特徴点抽出部5で算出された特徴点A〜Jの位置座標は、特徴点記憶部7へ送られる。特徴点記憶部7は、例えばメモリ等の記憶手段を含んでおり、送られてきた特徴点A〜Jの位置座標を記憶する。なお記憶には、任意のやり方を採用して記憶することが可能であり、例えば図3に示すように特徴点A〜J毎の表を作成して記憶することが可能である。また特徴点記憶部7には、特徴点以外に、任意のものを記憶しておくことが可能であり、例えば本実施例では、特徴点記憶部7に、特徴点A〜Jを抽出した際に用いた画像、すなわち各フレームの画像も記憶している。
The position coordinates of the feature points A to J calculated by the feature
特徴点記憶部7に特徴点A〜Jの位置座標が保存されると、動作データ作成部13がこの保存された特徴点A〜Jの位置座標から、公知の手法を用いてキャラクタの動きの時間的変化を定義したデータである動作データを作成する。動作データは、アニメーション作成部15へと供給され、アニメーション作成部15で、公知の手法を用いてキャラクタが動作データに従った動きをするアニメーションが作成される。作成されたアニメーションは、出力部17へと供給される。出力部17は、例えばディスプレイやプリンタ等の出力手段を含み、アニメーション作成部15から供給されたアニメーションを例えばディスプレイ等に表示したり、プリンタから紙へと出力する。
When the position coordinates of the feature points A to J are stored in the feature
以上のようにして動いている被写体を撮影した映像19から動きを抽出し、この抽出した動きに基づいた動きをするキャラクタのアニメーションが作成される。しかし、特徴点抽出部5で抽出された特徴点A〜Jの位置座標をそのまま用いて動作データを作成すると、被写体の動きそのものがおかしかったり、映像がうまく撮影されていなかったり、特徴点A〜Jの抽出を誤っていたり等の場合があり、キャラクタの動きが自然な動きにならない動作データが作成され、キャラクタの動きがおかしいアニメーションが作成されてしまうため、位置座標を変更したり、抽出されていなかった特徴点を補完する等の編集作業を特徴点編集部11で行う。
A motion is extracted from the
特徴点編集部11は、特徴点記憶部7と接続し、特徴点記憶部7に保存された各特徴点A〜Jの位置座標を補正したり、何かの影になって抽出されなかった特徴点を補完する等の編集作業を行うものである。編集作業は、例えば図示しない操作部、例えばマウスやキーボード等から入力されるユーザの操作信号により行われたり、または予め設定された編集用のプログラム等により自動的に行われる。編集後の位置座標は再び特徴点記憶部7に供給され、特徴点記憶部7に記憶される。その後、動作データ作成部13が、補正や補間が行われた後の特徴点A〜Jの位置座標から動作データを作成し、アニメーション作成部15が、動作データ作成部13で作成された動作データを基にしてアニメーションを作成する。
The feature
従来では、編集作業をユーザが図示しない操作部を操作して行う場合は、例えば特徴点のみを見ながら抽出した特徴点の位置を補正したり、何かの陰に隠れて抽出されなかった特徴点を補間したりするものであったため、例えば各特徴点が被写体のどの部分を示しているのかが不明となってしまい、作業量が膨大となってしまうという問題を有していた。 Conventionally, when an editing operation is performed by a user operating an operation unit (not shown), for example, the feature points extracted by looking only at the feature points are corrected, or the features that are hidden behind something are not extracted. Since the points are interpolated, for example, it is unclear which part of the subject each feature point represents, and there is a problem that the amount of work becomes enormous.
そこで本実施例では、アニメーション作成システム1は合成部9を含んでおり、この合成部9で、特徴点記憶部7に記憶された特徴点を、対応するフレームの画像に重畳し、重畳画像を作成する。その後作成した重畳画像を出力部17へと供給して、出力部17に含まれている例えばディスプレイ等に出力する。よって、特徴点編集部7における編集作業を、出力部17に出力された重畳画像を見ながら行うことが可能になるため、編集作業を効率よく行うことが可能になる。以下、詳細に説明する。
Therefore, in the present embodiment, the
図1において合成部9は、特徴点記憶部5、および出力部17と接続し、特徴点記憶部5に記憶されている位置座標を基にして、各特徴点を、この特徴点に対応する画像に重畳した重畳画像を作成するものである。
In FIG. 1, the
図4は合成部9で作成される重畳画像の一例を概念的に示した図である。図4において図2と同じ参照番号は同様の構成要素を示す。また図4において、各フレームは、図3に示す各フレームと対応しているものとする。例えば、図4に示す第1フレームの特徴点A1 の位置座標は、図3に示す第1フレーム61の特徴点A の位置座標、すなわち、(XA1,YA1)である。他の特徴点も同様である。なお図4では、3つのフレーム分の重畳画像61、63、65を示しているが、これは説明を分かりやすくするためであって、合成部は重畳画像を任意のフレーム分作成することが可能である。
FIG. 4 is a diagram conceptually illustrating an example of the superimposed image created by the
合成部9は、図4に示すような重畳画像61、63、65を作成するために、特徴点記憶部7に特徴点A〜Jの位置座標が記憶されると、これを読み出す。また、読み出した位置座標と対応する画像67、69、71を、例えば画像が記憶されている場所、例えば本実施例のように特徴点記憶部7に特徴点と一緒に記憶されている場合は特徴点記憶部7から、また例えば映像入力部3に記憶されている場合は映像入力部3等から読み出す。その後、読み出した位置座標と、この位置座標と対応する画像67、69、71とを重畳して重畳画像61、63、65を作成する。
When the position coordinates of the feature points A to J are stored in the feature
例えば図4における重畳画像61の場合では、特徴点記憶部7から第1フレームにおける各特徴点A1〜J1の位置座標と、特徴点A1〜J1と対応する第1フレームの画像67とを読み出し、第1フレームの画像67における各位置座標で特定される位置に、特徴点A〜Jを描画、すなわち重畳して、重畳画像61を作成している。なお本発明は、本実施例のように抽出したすべての特徴点A〜Jを重畳する事に限定するわけではなく、ある特徴点のみ、例えば口の特徴点G〜Jというようにある特徴点のみを重畳することも可能である。なおこの場合用いる画像は、1つのフレーム全体の画像であってもよいし、ある特徴点と対応する画像、例えば、口の特徴点G〜Jならば対応する口のみの画像であってもよく、任意に設定することが可能である。
In the case of the superimposed
特徴点の重畳には、任意のやり方を採用することが可能である。例えば対応する画像における特徴点が重なる部分の画素値に、特徴点の画素値を加算することによって、画像と特徴点とを重畳してもよいし、また例えば、対応する画像の層と特徴点の層とを形成し、これらを重ね合わせることによって重畳してもよい。なお本発明はこれに限定するわけではない。 Arbitrary methods can be adopted for superimposing feature points. For example, the image and the feature point may be superimposed by adding the pixel value of the feature point to the pixel value of the portion where the feature point in the corresponding image overlaps, or for example, the layer and the feature point of the corresponding image These layers may be formed and overlapped by overlapping them. Note that the present invention is not limited to this.
このようにして合成部9で作成された重畳画像61、63、65は出力部17に供給され、例えば出力部17に含まれているディスプレイに出力されたり、また例えば出力部17に含まれているプリンタで印刷されて紙に出力される。よって特徴点編集部11における編集作業を、この重畳画像61、63、65を用いながら、具体的には出力部17に出力された重畳映像61、63、65を見ながら行うことが可能であるため、特徴点A〜Jが、画像61、63、65におけるどこの部分と対応しているのかを一目で把握することが可能になり、編集作業を効率よく行うことが可能になる。また特徴点A〜Jが重畳されているため、後段のアニメーション作成部15で作成されるキャラクタの動きを想定することが可能になり、キャラクタが自然な動きをするアニメーションを効率よく作成することが可能になる。なお本発明は、図4に示す例に限定するわけではなく、合成部9は、例えば図5、図6、図7、図8、および図9に示すように、特徴点A〜Jの時間的変化も把握可能になるように重畳画像を作成してもよい。
The superimposed
図5は、合成部9で作成される重畳画像の別の一例を概念的に示した図である。図5において、図4と同じ参照番号は同様の構成要素を示すため説明を省略する。図5に示す例では、合成部9は、1つのフレームの画像に、この画像と対応する特徴点を重畳すると共に、別のフレームにおける特徴点も重畳して重畳画像を作成している。この別のフレームは、重畳される画像のフレームの前や後ろに位置するフレームにすることが可能である。
FIG. 5 is a diagram conceptually illustrating another example of the superimposed image created by the
例えば図5に示す例では、図4に示す第1フレームの画像67に、第1フレームにおける特徴点A1〜J1、および第2フレームにおける特徴点A2〜J2を重畳して重畳画像91を作成している。なお本発明はこれに限定するわけではなく、任意のフレームにおける特徴点重畳することが可能であり、また重畳する数も任意に設定することが可能である。例えば、あるフレームを中心として前、および後ろに位置する100フレームの中から、10フレーム毎に20個のフレームを選択し、選択された各フレームの特徴点を、あるフレームの画像に重畳して重畳画像を作成してもよい。なお本発明はこれに限定するわけではない。
For example, in the example shown in FIG. 5, the feature point A 1 to J 1 in the first frame and the feature point A 2 to J 2 in the second frame are superimposed on the
なおあるフレームの重畳画像に、別のフレームの特徴点を重畳する際は、例えば図5に示すように、表示される特徴点の形態、例えば特徴点の色や模様や形状等をフレーム毎に変えたほうが、フレームが変わることにより特徴点がどのように変化するのか、すなわち、特徴点の時間的な変化を把握することが可能になるため、好ましいが、本発明はこれに限定するわけではない。また図5に示す例では、他のフレームにおけるすべての特徴点を重畳しているが、本発明はこれに限定するわけではなく、例えば他のフレームの特徴点を重畳するのは、任意に設定した特徴点のみにすることも可能である。 When superimposing a feature point of another frame on a superimposed image of a frame, for example, as shown in FIG. 5, the form of the feature point to be displayed, for example, the color, pattern, or shape of the feature point is displayed for each frame. Although it is preferable to change how the feature points change by changing the frame, that is, it is possible to grasp the temporal change of the feature points, the present invention is not limited to this. Absent. In the example shown in FIG. 5, all feature points in other frames are superimposed, but the present invention is not limited to this, and for example, it is arbitrarily set to superimpose feature points in other frames. It is also possible to use only the feature points.
このように別のフレームの特徴点も重畳することにより、特徴点の時間的な変化を把握することが可能になるため、キャラクタの動きがより自然な動きとなるよう、特徴点を編集することが容易になる。その結果、キャラクタのより自然な動きを表現することが可能になる。 By superimposing the feature points of other frames in this way, it is possible to grasp the temporal change of the feature points, so edit the feature points so that the character moves more naturally. Becomes easier. As a result, it is possible to express more natural movement of the character.
図6は、合成部9で作成される重畳画像の別の一例を概念的に示した図である。図6において、図4、図5と同じ参照番号は同様の構成要素を示すため説明を省略する。図6に示す例では、合成部9は、1つのフレームの画像に、この画像と対応する特徴点、および別のフレームにおける特徴点を重畳し、さらに同じ種類の特徴点同士を線で繋いで重畳画像95を作成している。
FIG. 6 is a diagram conceptually illustrating another example of the superimposed image created by the
ここで同じ種類の特徴点とは、画像における同じ部分から抽出された特徴点である。例えば、第1フレームの特徴点H1と、第2フレームの特徴点H2とが同じ種類の特徴点の関係にある。よって合成部は、特徴点H1と特徴点H2とを線97で繋いでいる。他の特徴点も同様である。なお、例えば特徴点A1と特徴点A2のように、第1フレームと第2フレームとでほとんど位置が変化しない場合は、線で繋いでもよいし、逆に本実施例ように線で繋がないようにしてもよい。
Here, the same type of feature points are feature points extracted from the same portion of the image. For example, the feature point H1 of the first frame and the feature point H2 of the second frame have the same kind of feature point relationship. Therefore, the synthesis unit connects the feature point H1 and the feature point H2 with a
また、フレームにおける特徴点の種類が多い場合は、例えば、本実施例のように特徴点の種類毎に線の種類を変えるようにしてどの特徴点がどのように変化するのかを一目で把握することが可能になるようにしてもよい。例えば、本実施例では、線で繋いでいる特徴点G、H、I、J毎に繋ぐ線の種類を変更している。なお本発明はこれに限定するわけではなく、繋ぐ線の種類は同じであってもよい。 When there are many types of feature points in the frame, for example, as in this embodiment, it is possible to grasp at a glance which feature points change by changing the type of line for each type of feature points. It may be possible to do this. For example, in this embodiment, the type of line to be connected is changed for each of the feature points G, H, I, and J connected by a line. In addition, this invention is not necessarily limited to this, The kind of line to connect may be the same.
このように同じ種類の特徴点同士を線で繋ぐことによって、特徴点の時間的な変化をより把握することが可能になる。なお本発明は、線で繋ぐことに限定するわけではなく、例えば図7に示すように、矢印で繋ぐことも可能であるし、また例えば図8に示すように同じ種類の特徴点の形態を同じにするようにして、特徴点の時間的な変化の把握を可能にしてもよい。図7、図8は、合成部9で作成される重畳画像の別の一例を概念的に示した図である。図7、図8において、図4、図5、図6と同じ参照番号は同様の構成要素を示すため説明を省略する。
By connecting the same kind of feature points with a line in this way, it becomes possible to further grasp the temporal change of the feature points. Note that the present invention is not limited to connecting with lines. For example, as shown in FIG. 7, it is possible to connect with arrows. For example, as shown in FIG. In the same manner, it may be possible to grasp temporal changes in feature points. 7 and 8 are diagrams conceptually illustrating another example of the superimposed image created by the synthesizing
図7に示す重畳画像101では、同じ種類の特徴点同士を矢印で繋いでいる。なお図7に示す例では、特徴点の種類毎に矢印の種類を変えていないが、本発明はこれに限定するわけではなく、例えば特徴点の種類毎に矢印の種類を変えるようにしてもよい。また図8に示す重畳画像103では、特徴点の種類毎に特徴点の形態、すなわち色や模様や形状等を変えて、特徴点の時間的な変化を示している。具体的に説明すると、図8では左目の特徴点Eを右斜めに斜線が入った模様の四角形で表現し、右目の特徴点Fを左斜めに斜線が入った模様の四角形で表現している。他の特徴点も同様である。よって、おなじ形態の特徴点をたどることにより、特徴点の時間的な変化を把握することが可能である。
In the
さらに図8では、時間的に前に位置するフレームの特徴点の大きさを、後ろに位置するフレームによりも特徴点の大きくすることによって、矢印で繋がなくても時間的な前後関係が一目でわかるようにしている。具体的には、図8では、第1フレームにおける特徴点A1〜J1の大きさを、第2フレームにおけるA2〜J2の大きさよりも大きくして、どちらが時間的に前のフレームにおける特徴点なのかを、矢印で繋がなくても把握できるようにしている。 Further, in FIG. 8, the size of the feature point of the frame positioned in front of the time is made larger than that of the frame positioned behind, so that the temporal context can be seen at a glance even if they are not connected by arrows. I understand it. Specifically, in FIG. 8, the size of the feature points A 1 to J 1 in the first frame is made larger than the size of A 2 to J 2 in the second frame, and which is the time in the previous frame in time. The feature points can be grasped without being connected with arrows.
なお本発明は、図5〜図8に示す例に限定するわけではなく特徴点の時間的な変化を把握することが可能であれば任意のやり方を採用することが可能である。例えば、特徴点、線、および矢印を、例えば時間的に前に位置するフレームから時間的に後ろに位置するフレームに向かって点滅するものにしたり、色が薄く、または濃くなるようにして、特徴点が変化してゆく方向を示すようにすることも可能である。 Note that the present invention is not limited to the examples shown in FIGS. 5 to 8, and any method can be adopted as long as it is possible to grasp temporal changes in feature points. For example, feature points, lines, and arrows, for example, blink from a frame that is temporally forward to a frame that is temporally backward, or have a lighter or darker color It is also possible to indicate the direction in which the points change.
また例えば図5〜図8に示すやり方を組み合わせて用いることも可能である。例えば、特徴点の種類も多く、また、重畳する数も多い場合等では、同じ種類の特徴点毎に形態を変更するようにし、さらに同じ種類の特徴点同士を線または矢印で繋ぐようにすると、特徴点の時間的な変化をより把握しやすくすることが可能になる。なお本発明はこれらに限定するわけではない。 For example, the methods shown in FIGS. 5 to 8 can be used in combination. For example, when there are many types of feature points and when the number of superimposed features is large, the form is changed for each feature point of the same type, and the feature points of the same type are connected with lines or arrows. It becomes possible to make it easier to grasp temporal changes of feature points. The present invention is not limited to these.
このように、あるフレームの画像に、この画像と対応する特徴点および別のフレームの特徴点を重畳し、さらに同じ種類の特徴点同士を線や矢印で繋いだり、同じ種類の特徴点の形状を統一することによって、特徴点の時間的な変化をより把握し易くすることが可能になるため、編集作業を円滑に行うことが可能になり、また自然な動きを形成することが可能になる。なお合成部9で作成される重畳画像は図5〜図8に示す例に限定するわけではなく、例えば図9に示すように、合成部は、重畳した他のフレームの特徴点と対応する画像も重畳した重畳画像を作成することも可能である。
In this way, the feature point corresponding to this image and the feature point of another frame are superimposed on the image of a certain frame, and the feature points of the same type are connected by lines and arrows, or the shape of the feature point of the same type By unifying, it becomes possible to make it easier to grasp temporal changes in feature points, so that editing work can be performed smoothly and natural movements can be formed. . Note that the superimposed image created by the combining
図9は、合成部で作成された重畳画像の別の一例を概念的に示した図である。図9において、図4〜図8と同じ参照番号は同様の構成要素を示すため説明を省略する。図9に示す例では合成部9は、あるフレームの画像、このフレームと対応する特徴点、他のフレームの特徴点、および他のフレームと対応する画像を重畳して重畳画像111を作成する。
FIG. 9 is a diagram conceptually illustrating another example of the superimposed image created by the synthesis unit. In FIG. 9, the same reference numerals as those in FIGS. In the example illustrated in FIG. 9, the
具体的に説明すると、合成部9は、第1フレームの画像67を基準とし、この第1フレームの画像67に、第1フレームの特徴点A1〜J1、第2フレームの画像69、第2フレームの特徴点A2〜J2、および第3フレームの画像71、第3フレームの特徴点A3〜J3を重畳して重畳画像111を作成している。ここで基準とするフレーム、例えば本実施例では第1のフレームは、時間的変化を把握する際の開始の点となるフレームである。つまり、本実施例では、第1フレームを開始点として、第2フレーム、第3フレームにおける動きを把握している。なお基準とするフレームは把握したい動きに合わせて任意に設定することが可能である。
Specifically, the synthesizing
なお本実施例では、各フレームにおけるすべての特徴点A〜J、および特徴点A〜Jと対応する画像が重畳されているが、本発明はこれに限定するわけではなく、任意の特徴点のみ重畳することが可能であり、重畳した特徴点に応じた画像のみを重畳することも可能である。 In this embodiment, all feature points A to J in each frame and images corresponding to the feature points A to J are superimposed. However, the present invention is not limited to this, and only arbitrary feature points are included. It is possible to superimpose, and it is also possible to superimpose only images corresponding to the superimposed feature points.
例えば本実施例を用いて説明すれば、各フレームにおける口の特徴点のみ変化するため、この口の特徴点、すなわち特徴点G、H、I、J を重畳し、この口の特徴点G、H、I、J と対応する部分、すなわち口のみの画像を3つのフレーム分重畳することも可能である。このようにある部分のみ他のフレームの画像を重畳する場合は、基準とするフレームの画像、例えば本実施例では第1フレームの画像は、例えば口だけというような部分ではなく、画像全体を用いた方が、総合的な判断を行うことが可能になるため好ましいが本発明はこれに限定するわけではない。 For example, using the present embodiment, since only the mouth feature point in each frame changes, this mouth feature point, i.e., feature points G, H, I, J are superimposed, and this mouth feature point G, It is also possible to superimpose a portion corresponding to H, I, and J, that is, an image of the mouth only for three frames. When superimposing an image of another frame only on a certain part in this way, the image of the reference frame, for example, the image of the first frame in this embodiment, for example, uses the entire image, not the part of the mouth alone. However, the present invention is not limited to this because it is possible to make a comprehensive judgment.
このように別のフレームの画像の重畳する際は、特徴点の重畳と同様に任意のやり方を採用して重畳することが可能である。例えば、画素値を加算するようにしてもよいし、別のフレームの画像を別の層として形成し、この層を重ね合わせることで重畳してもよい。また重畳する際、基準とするフレーム以外のフレームの画像は、元のままでもよいし、例えば色を薄くしたり、半透明にしたり、点線にしたり、さらに例えば1色の濃淡のみで表した画像にする等、表示される形態を変えてもよい。例えば重畳する画像が多い場合に、このように色を薄くする等を行って重畳画像を見易くすることで、編集作業を円滑に行うことが可能になるが、本発明はこれに限定するわけではなく、任意のやり方を採用することが可能である。 As described above, when superimposing images of different frames, it is possible to superimpose by adopting an arbitrary method in the same manner as superimposing feature points. For example, pixel values may be added, or an image of another frame may be formed as another layer, and the layers may be overlapped to overlap. When superimposing, the image of the frame other than the reference frame may be the original, for example, the color is made light, semi-transparent, dotted, or an image represented by only one color shade, for example For example, the displayed form may be changed. For example, when there are a large number of images to be superimposed, it is possible to perform editing work smoothly by making the superimposed images easy to see by thinning the color in this way, but the present invention is not limited to this. It is possible to adopt any method.
以上のようにして別のフレームの画像も重畳したため、特徴点の時間的な変化の把握と共に、各特徴点が各フレームにおける所望の位置と対応しているか否かを一目で判断することが可能になり、編集作業を円滑に行うことが可能になり、また自然な動きになるよう特徴点を編集することが可能になる。なお他のフレームの画像を重畳した際も、図6、図7に示すように、同じ種類の特徴点を線や矢印で繋いでもよいし、また図8に示すように同じ種類の特徴点毎に形態をわけてもよく、任意に選択することが可能である。 Since the image of another frame is also superimposed as described above, it is possible to determine at a glance whether each feature point corresponds to a desired position in each frame while grasping the temporal change of the feature point. Thus, the editing operation can be performed smoothly, and the feature points can be edited so that the movement becomes natural. Even when images of other frames are superimposed, the same kind of feature points may be connected by lines or arrows as shown in FIGS. 6 and 7, or the same kind of feature points as shown in FIG. The form may be divided into any of these, and can be arbitrarily selected.
図10は、本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。図10において図1と同じ参照番号は同様の構成要素を示す。図10において、アニメーション作成システム201では、距離演算部203および判断部205を含み、距離演算部203で、時間的に隣り合う、すなわち前後の関係にある特徴点間の距離を算出して特徴点の時間的な変化量を得る。その後、判断部205でこの変化量が正常であるか否かを判断して変化量が多い特徴点を抽出し、特徴点編集部11でこの変化量が多い特徴点を編集する。よって変化量が多い特徴点、すなわち、自然な動きを形成しない特徴点を自動的に抽出することが可能であり、このような特徴点の編集を容易に行うことが可能になる。以下具体的に説明する。
FIG. 10 is a block diagram conceptually showing the structure of another embodiment of the animation creating system according to the present invention. 10, the same reference numerals as those in FIG. 1 indicate the same components. In FIG. 10, the
図10において、距離演算部203は、特徴点記憶部7と接続し、特徴点記憶部7に特徴点の位置座標が記憶されると、この位置座標を用いて時間的に隣り合う、すなわち時間的に前後の関係にあり、かつ同じ種類の特徴点間の距離を算出するものである。例えは本実施例では、特徴点をフレーム毎に算出しているため、隣り合うフレーム間の、同じ種類の特徴点の距離を算出する。
In FIG. 10, the
また判断部205は、距離演算部203と接続し、距離演算部203が算出した距離を用いて、特徴点の位置が正常であるか否かを判断するものである。本実施例では、判断部205には予め設定された値が記憶されており、判断部205はこの値を用いて算出した距離がこの値以上か否かを判断することにより、特徴点の位置が正常であるか否かを判断する。なお本発明はこれに限定するわけではなく、例えば判断部205において判断を行う毎に、図示しない操作部等から判断に用いる値が入力されるようにしてもよい。
The
このような距離演算部203、および判断部205は、アニメーション作成システム201における任意の部分に設けることが可能であり、例えば、本実施例のように特徴点編集部11とは別に設けてもよいし、また例えば特徴点編集部11内に設けることも可能である。なお本発明はこれに限定するわけではない。
Such a
このように図10に示す例では、距離演算部203、および判断部205を含むため、時間的な変化が大きい特徴点を容易に特定することが可能になり、その結果、例えば特徴点抽出部5において本来であれば特徴点ではない部分を特徴点として抽出してしまったフレームや、自然な動きとならない特徴点が存在するフレーム等を容易に検出することが可能になり、編集作業を円滑に行うことが可能になる。以下詳細に説明する。
As described above, in the example shown in FIG. 10, since the
図11は、図10に示すアニメーション作成システム201における編集処理の処理手順の一例を示した流れ図である。図11において、例えば図示しない操作部等から距離を算出する指示が入力されると、距離演算部203は、時間的に前後に関係にあり、かつ同じ種類の特徴点間の距離を算出するために、本実施例では隣り合う2つのフレームにおける特徴点の位置座標を特徴点記憶部7から読み出す(ステップS1)。
FIG. 11 is a flowchart showing an example of a processing procedure of editing processing in the
例えば図3に示す特徴点A1〜J1および特徴点A2〜J2間の各距離を算出する場合では、距離演出部203は、第1フレームにおける特徴点A1〜J1の位置座標、および第2フレームにおける特徴点A2〜J2の位置座標を特徴点記憶部7から読み出す。なお読み出す特徴点は任意に設定することが可能であり、例えばすべての特徴点の位置座標を読み出すことも可能であるし、また例えば任意に選択された特徴点にすることも可能である。読み出す範囲も任意に設定することが可能である。例えば本実施例では、図3に示す第1フレームから第nフレームまでのフレームにおける特徴点間の距離を算出する。なお本発明はこれに限定するわけではない。
For example, when each distance between the feature points A 1 to J 1 and the feature points A 2 to J 2 shown in FIG. 3 is calculated, the
距離演算部203は、隣り合う2つのフレームにおける各特徴点の位置座標を読み出すと、位置座標が算出されていない特徴点が存在するか否かを判断する(ステップS2)。このように判断を行うのは、特徴点として抽出すると設定した点が例えば何かの影になって抽出されていない場合は、位置座標が算出されていないために距離を算出することができなくなるからである。
When the
ステップS2における判断の結果、特徴点の位置座標が算出されている場合、距離演算部203はステップS3へ進み、位置座標を用いて隣り合うフレームにおける同じ種類の特徴点間の距離を算出する(ステップS3)。例えば、第1フレームにおける特徴点A1の位置座標と、第2フレームにおける特徴点A2の位置座標の距離を算出する。他の特徴点も同様である。
If the position coordinates of the feature points are calculated as a result of the determination in step S2, the
ここで距離の算出は、任意のやり方を採用して行うことが可能である。例えば本実施例のように特徴点の位置を、任意の点を原点とした座標平面で考えている場合では、例えば三平方の定理を用いて距離を算出してもよいし、また例えばある軸における変位量を距離とすることも可能である。具体的に特徴点A1と特徴点A2とを用いて説明すれば、特徴点A1の位置座標(XA1,YA1)、および特徴点A2の位置座標(XA2,YA2)とで三平方の定理を用いて距離を算出することも可能であるし、特徴点A1およびA2のx軸における変位、すなわちXA1からXA2を引いた値と、特徴点A1およびA2のy軸における変位、すなわちYA1からYA2を引いた値とを距離と考えることも可能である。なお本発明はこれらに限定するわけではなく、任意のやり方を採用することが可能である。 Here, the distance can be calculated by adopting an arbitrary method. For example, when the position of a feature point is considered on a coordinate plane with an arbitrary point as the origin as in the present embodiment, the distance may be calculated using, for example, the three-square theorem, or a certain axis, for example It is also possible to use the amount of displacement at as a distance. Specifically, using the feature point A 1 and the feature point A 2 , the position coordinates of the feature point A 1 (X A1 , Y A1 ) and the position coordinates of the feature point A 2 (X A2 , Y A2 ) It is also possible to calculate the distance using the three-square theorem, and the displacement of the feature points A 1 and A 2 on the x axis, that is, the value obtained by subtracting X A2 from X A1 and the feature points A 1 and It is possible to consider the displacement of A 2 in the y-axis, that is, the value obtained by subtracting Y A2 from Y A1 as the distance. In addition, this invention is not necessarily limited to these, It is possible to employ | adopt arbitrary methods.
距離が算出されると、算出された距離は判断部205へ供給される。本実施例では、判断部205には予め設定された設定値が記憶され、判断部205は、距離演算部203から距離が供給されると、この設定値と、供給された距離とを比較して、特徴点の時間的変化が適切なものか否かを判断する(ステップS4)。ここで設定値は任意の値を採用することが可能であり、例えば被写体の動き毎に設定した値であってもよいし、ユーザによって経験等により決められた値等にしてもよい。なお本発明はこれに限定するわけではない。
When the distance is calculated, the calculated distance is supplied to the
ステップS4における判断の結果、距離が設定された値よりも小さい場合は、ステップS6へ進み、距離を計算する残りのフレームがあるか否かを判断し、残りのフレームが無い場合は処理を終了する。逆に距離を計算するフレームがある場合はステップS1へ戻る。一方、ステップS4における判断の結果、距離が設定された値以上である場合は、ステップS5へ進み、合成部9に距離が設定された値以上の特徴点、すなわち時間的な変化がおかしい特徴点、および画像を用いて重畳画像を作成するよう伝える。
If the result of determination in step S4 is that the distance is smaller than the set value, the process proceeds to step S6 to determine whether there is a remaining frame for calculating the distance, and if there is no remaining frame, the process ends. To do. Conversely, if there is a frame for calculating the distance, the process returns to step S1. On the other hand, as a result of the determination in step S4, if the distance is equal to or greater than the set value, the process proceeds to step S5, where the feature point is equal to or greater than the value set for the distance in the combining
この合成部9へ伝える処理は、任意のやり方を採用することが可能である。例えば判断部205から合成部9に直接伝えてもよいし、また例えば特徴点格納部7を経由して伝えてもよい。例えば本実施例では、特徴点格納部7における、時間的な変化がおかしい特徴点の位置座標に、時間的な変化がおかしい旨を伝えるための予め設定された情報を付加することで、合成部9に時間的な変化がおかしい特徴点の存在を伝えている。なお本発明はこれに限定するわけではない。合成部9では重畳画像を作成して出力部17に出力させて、そのフレームに位置のおかしい特徴点が存在していることをユーザに知らせる(ステップS5)。
Any method can be adopted for the processing to be transmitted to the
なお2つのフレーム間の距離を計算しているため、正常ではない位置にある特徴点は、計算に用いたフレームのうちどちらか一方のフレームにおける特徴点である。よって判断部205は距離の計算に用いた2つのフレームうち、正常な位置にない特徴点は、どちらのフレームにおけるものなのかをさらに判断し、特定した1つのフレームのみを合成部9に知らせるようにしてもよいし、逆に判断せずに両方のフレームを位置がおかしいものとして合成部9に知らせるようにしてもよく、任意のやり方を採用することが可能である。
Since the distance between the two frames is calculated, the feature point at an abnormal position is a feature point in one of the frames used for the calculation. Therefore, the
具体的に説明すると、例えば、第1フレームと第2フレームとの間で距離を算出し判断部205で判断した結果、特徴点Hの距離が設定値よりも長いと判断された場合に、判断部は特徴点H1と特徴点H2のどちらがおかしいのかをさらに判断してもよいし、例えば本実施例のように、どちらも位置がおかしいものとし、ユーザに判断させるようにしてもよい。
Specifically, for example, when the distance between the first frame and the second frame is calculated and the
図12は、重畳画像の一例を概念的に示した図であって、出力部17における出力例を概念的に示した図である。図12において図4と同じ参照番号は同様の構成要素を示す。本実施例では図12に示すように、どちらも位置がおかしいものとして出力し、ユーザにどちらがおかしいのかを判断させ、おかしい方を修正させる。また本実施例では、位置がおかしいと判断された特徴点H1を含む第1フレーム、および特徴点H2を含む第2フレームの輪郭を太くしてユーザにフレームに位置がおかしい特徴点があることを知らせている。
FIG. 12 is a diagram conceptually illustrating an example of the superimposed image, and is a diagram conceptually illustrating an output example in the
なお本発明は図12に示す例に限定するわけではなく、例えば図示しないが重畳画像の背景の色を変えたり、位置がおかしい特徴点の形状を変えたり、輪郭や背景や位置がおかしい特徴点などを点滅させてユーザに知らせるようにしてもよい。また例えば、図12のように位置のおかしいと判断された特徴点が存在するフレーム以外のフレーム、すなわち図12でいうと第3フレームについても重畳画像を作成して出力するのではなく、位置のおかしい特徴点が存在するフレームのみ重畳画像を作成して出力することで、ユーザに知らせるようにしてもよい。 Note that the present invention is not limited to the example shown in FIG. 12. For example, although not shown, the background color of the superimposed image is changed, the shape of the feature point having a wrong position is changed, or the feature point having a strange outline, background, or position is used. Etc. may be notified to the user by blinking. Also, for example, instead of creating and outputting a superimposed image for a frame other than the frame in which the feature point determined to be out of position exists as shown in FIG. 12, that is, the third frame in FIG. The user may be notified by creating and outputting a superimposed image only for frames in which strange feature points exist.
さらに例えば図13に示すように、例えば第3フレームにおける特徴点も重畳した重畳画像209を作成してもよく、任意に選択することが可能である。なお本発明は図12、図13に示す例に限定するわけではなく、任意のやり方を採用し、ユーザに位置のおかしい特徴点の存在を知らせることが可能である。 Furthermore, for example, as shown in FIG. 13, a superimposed image 209 in which feature points in the third frame are also superimposed may be created, and can be arbitrarily selected. Note that the present invention is not limited to the examples shown in FIGS. 12 and 13, and any method can be adopted to notify the user of the presence of a feature point having a wrong position.
図13は、ユーザに知らせる際の出力部の出力画面の別の一例を概念的に示した図である。図13において図5〜図8と同じ参照番号は同様の構成要素を示す。図13では、第2フレームにおける画像67に第1〜第3のフレームにおける特徴点A〜Jを重畳し、重畳画像を作成している。なお図13に示す例では、第2フレームの画像67に特徴点A〜Jが重畳されているが、本発明はこれに限定するわけではなく、第1フレームと第2フレームとで距離を算出しているため、少なくともどちらか一方の画像に第1フレームおよび第2フレームの特徴点A〜Jが重畳されればよく、どちらを採用するかは任意に設定することが可能である。
FIG. 13 is a diagram conceptually illustrating another example of the output screen of the output unit when notifying the user. 13, the same reference numerals as those in FIGS. 5 to 8 denote the same components. In FIG. 13, the feature points A to J in the first to third frames are superimposed on the
ユーザへ知らせた後は、ステップS6へ進み、残りのフレームがあるか否かを判断する(ステップS6)。その結果、残りのフレームがある場合はステップS1へと戻る。逆に無い場合は処理を終了する。例えば本実施例の場合では、次のフレームである第3フレームにおける特徴点A3〜J3を読み出し、第2フレームと第3フレームとで距離を計算する。 After informing the user, the process proceeds to step S6, and it is determined whether there are any remaining frames (step S6). As a result, if there are remaining frames, the process returns to step S1. If not, the process ends. For example, in this embodiment, the feature points A 3 to J 3 in the third frame, which is the next frame, are read, and the distance is calculated between the second frame and the third frame.
一方ステップS2における判断の結果、位置座標が算出されていない特徴点が存在すると、距離演算部203はステップS5へ進み、合成部9に位置座標が存在しないフレームにおける特徴点、および画像を用いて重畳画像を作成するよう伝える。この合成部9へ伝える処理も、判断部205から合成部9へ伝える処理と同様、任意のやり方を採用することが可能である。合成部9は、このフレームにおける特徴点および画像を用いて重畳画像を作成して出力部17に出力させ、ユーザに抽出されていない特徴点が存在していることを知らせる。知らせた後は、ステップS6へ進み、残りのフレームがあるか否かを判断し、ある場合はステップS1へ戻り、無い場合は処理を終了する。
On the other hand, if there is a feature point whose position coordinates are not calculated as a result of the determination in step S2, the
このように図11に示す例では、距離を計算することによって位置がおかしい特徴点を検出するため、位置がおかしい特徴点を容易に発見することが可能になる。また、位置がおかしいと判断された場合は、その特徴点と、この特徴点と対応する画像とを重畳して重畳画像を作成するため、位置がおかしいと判断された特徴点を容易に正常な位置に補正することが可能であり、編集作業を円滑に進めることが可能になる。さらに距離を計算する際に、位置座標が存在するか否かを判断するため、正しく抽出されていなかった特徴点を容易に検出することが可能になる。 In this way, in the example shown in FIG. 11, since the feature point with the wrong position is detected by calculating the distance, the feature point with the wrong position can be easily found. If it is determined that the position is incorrect, the feature point and the image corresponding to the feature point are superimposed to create a superimposed image. The position can be corrected, and the editing operation can be performed smoothly. Further, when calculating the distance, since it is determined whether or not the position coordinates exist, it is possible to easily detect the feature points that have not been correctly extracted.
図14は、本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。図14において図1、および図10と同じ参照番号は同様の構成要素を示す。図14に示すアニメーション作成システムでは、特徴点編集部303は、補正式記憶部305を含んでいる。なお図14にでは、特徴点編集部303は補正式記憶部305を含むようになるだけであって、図1に示す特徴点編集部11と同様のものである。補正式記憶部305は、補正式が記憶されており、特徴点編集部303は、この補正式を用いて特徴点の位置座標を補正する。
FIG. 14 is a block diagram conceptually showing the structure of another embodiment of the animation creating system according to the present invention. In FIG. 14, the same reference numerals as those in FIGS. 1 and 10 denote the same components. In the animation creation system shown in FIG. 14, the feature
補正式は、距離算出部203で抽出されていない特徴点が見つかった場合や、判断部205において位置がおかしい特徴点が見つかった場合に、これらの特徴点の編集を自動的に行うために用いるものであって、本実施例では、抽出されていない特徴点や位置がおかしい特徴点をどのように編集したらよいかを定めた規則や、数式を補正式としている。
The correction formula is used to automatically edit these feature points when feature points that are not extracted by the
より具体的に説明すると、規則は、編集のやり方を定めたものである。例えば本実施例では、位置のおかしい特徴点の位置座標を、この特徴点が存在するフレームの前後のフレームの特徴点の中点にするという規則、および特徴点が抽出されていないフレームがある場合は、その前に位置するフレームにおける特徴点と同じ位置にするという規則等を用いている。なお本発明は上述した規則に限定するわけではなく、任意の規則を採用することが可能である。 More specifically, the rules define the way of editing. For example, in this embodiment, there is a rule that the position coordinates of a feature point having a strange position are set to the midpoints of feature points before and after the frame in which the feature point exists, and there is a frame from which no feature point has been extracted. Uses rules such as the same position as the feature point in the previous frame. In addition, this invention is not necessarily limited to the rule mentioned above, It is possible to employ | adopt arbitrary rules.
また数式は、特徴点の位置座標の時間的な変化を定義したものである。例えば本実施例では、数1のようにフレーム(t)を独立変数とし、従属変数を位置座標( x 、 y )とした関数等を用いている。なお本発明は本実施例に限定するわけではなく、任意の数式等を採用することが可能である。
The mathematical formula defines a temporal change in the position coordinates of the feature points. For example, in this embodiment, a function or the like using the frame (t) as an independent variable and the dependent variables as position coordinates (x, y) as shown in
y= - at2 + b ・・・・(数1)
このような補正式は任意のやり方を採用して作ることが可能であり、例えば経験に基づいて作成したり、滑らかな動きと認められる動きに用いられている特徴点の位置座標から作成することが可能である。また補正式は、任意の種類作成しておくことが可能であり、例えばよく出現する動き毎に作成しておくことも可能であるし、また例えば、特徴点の直線的な変動を示した数式と、曲線的な変動を示した数式とを数種類ずつ作成しておき、位置のおかしい特徴点が存在するフレームの前後のフレームから、特徴点が直線的に変動するものである場合は、その変動に合う直線的な変動を示した数式を用いて修正し、また特徴点が曲線的に変動するものである場合はその変動に合う曲線的な変動を示した数式を用いて修正するということも可能である。なお本発明はこれに限定するわけではない。
y =-at 2 + b (1)
Such a correction formula can be created by adopting an arbitrary method. For example, it can be created based on experience, or can be created from the position coordinates of feature points used for motion recognized as smooth motion. Is possible. In addition, the correction formula can be created in any kind, for example, it can be created for each frequently appearing motion, and for example, a formula showing a linear variation of a feature point And several formulas showing curved fluctuations are created, and if the feature points fluctuate linearly from the frame before and after the frame where the feature points with strange positions exist, the fluctuations It is also possible to correct using a mathematical expression that shows a linear variation that fits the curve. Is possible. The present invention is not limited to this.
このように補正式を作成し、補正式記憶部305に記憶することで、距離演算部203や判断部205において位置のおかしい特徴点が見つかった場合は、補正式を選択するだけで自動的に特徴点を編集することが可能になり、また自動的に自然な動きとなるよう特徴点を編集することが可能になる。また補正式を用いることで複数のフレームを一度に編集することが可能になるため、より円滑に編集作業を行うことが可能になる。
By creating a correction formula in this way and storing it in the correction
図15は、図14に示すアニメーション作成システムにおいて、補正式を用いて編集作業を行う処理手順の一例を示した流れ図である。図15に示す例では、距離演算部や判断部で、うまく抽出されていなかった特徴点や、隣り合うフレーム間での距離が長い特徴点、すなわち時間的な変化が大きい特徴点を、補正式を用いて自動的に補正する。 FIG. 15 is a flowchart showing an example of a processing procedure for performing an editing operation using a correction formula in the animation creating system shown in FIG. In the example shown in FIG. 15, a feature point that has not been successfully extracted by the distance calculation unit or the determination unit, or a feature point having a long distance between adjacent frames, that is, a feature point having a large temporal change is represented by a correction formula. Automatically correct using.
図14、15において、アニメーション作成システム301は、例えば図11に示す処理によって、距離演算部203や判断部205で、うまく抽出されていなかった特徴点や、時間的な変化が大きい特徴点を特定し、このような特徴点を含むフレームの重畳画像を作成して出力部に出力する(ステップS1)。
14 and 15, the
例えば、第2フレームの特徴点H2の位置が適切でないと判断され、図13に示すように出力部に重畳画像が出力されたとする。このように重畳画像が出力されると、特徴点編集部303は補正式記憶部305から補正式を選択する(ステップS2)。この選択は、例えば距離演算部203や判断部205から、うまく抽出されていなかった特徴点に関する情報が特徴点編集部303へ伝えられて、特徴点編集部303が自動的に行ってもよいし、また例えばユーサが出力部17に出力された重畳画像61、63、65を見ながら、図示しない操作部等を操作することによって選択してもよく、任意のやり方を採用することが可能である。例えば本実施例では、ユーザによって図示しない操作部等から、前後に位置するフレームの特徴点の中点を位置座標にするという上述した規則が選択される。
For example, the position of the feature point of H 2 second frame is determined to be inappropriate, the superimposed image is outputted to the output section as shown in FIG. 13. When the superimposed image is output in this way, the feature
このように補正式が選択されると、特徴点編集部303はこの補正式を用いて特徴点の位置座標を補正する(ステップS3)。具体的に説明すると、本実施例では、補正したいフレームの前後のフレームの中点にするという規則を用いて補正するため、第1フレームの特徴点H1の位置座標、および第3フレームの特徴点H3の位置座標から、これらの位置座標の中点309を求め、求められた中点309に第2フレームの特徴点H2を移動させる。なお中点309の算出は公知のやり方を採用して行うことが可能である。
When the correction formula is selected in this way, the feature
以上のようにして編集が終了すると、位置が適切でないと判断されたすべてのフレームに対して編集作業を行った否かを判断し(ステップS4)、残りのフレームが存在する場合は、ステップS1に戻って残りのフレームを同様に編集する。またすべてのフレームについて編集作業が終了した場合は、編集作業を終了する。 When editing is completed as described above, it is determined whether or not editing has been performed on all frames whose position is determined to be inappropriate (step S4). If there are remaining frames, step S1 is performed. Return to and edit the remaining frames in the same way. When the editing work is completed for all frames, the editing work is finished.
このようにして図14、図15に示す例では、補正式を用いて編集作業を行うため、誤って抽出された特徴点や、位置がおかしい特徴点等を自動的に編集することが可能になる。また補正式を用いるため、複数のフレームの編集作業を一度に行うことが可能になり、編集作業を効率よく行うことが可能になる。また自然な動きとなるように作成された補正式を用いることで、自然な動きとなるよう効率よく特徴点を編集することが可能になる。なお距離演算部203、判断部205で位置がおかしい特徴点等を特定した際に、図14、図15に示すように補正式を用いて編集するのか、それとも補正式を用いずに、例えば図示しない操作部等から直接、位置等を入力するのかは、必要に応じて任意に選択することが可能である。
In this way, in the examples shown in FIGS. 14 and 15, since the editing operation is performed using the correction formula, it is possible to automatically edit feature points extracted in error or feature points with incorrect positions. Become. Further, since the correction formula is used, it is possible to edit a plurality of frames at a time, and it is possible to efficiently perform the editing work. Further, by using a correction formula created so as to achieve natural movement, it becomes possible to efficiently edit feature points so as to achieve natural movement. In addition, when a feature point or the like whose position is strange is specified by the
1 アニメーション作成システム
3 映像入力部
5 特徴点抽出部
7 特徴点記憶部
9 合成部
1 Animation creation system
3 Video input section
5 Feature point extraction unit
7 Feature point storage
9 Synthesis section
Claims (20)
該特徴点を編集する特徴点編集手段と、
該編集された特徴点を基に前記キャラクタが動くアニメーションを作成するアニメーション作成手段とを含むアニメーション作成システムにおいて、該システムは、
前記第1の特徴点を、第1の特徴点と対応する第1の画像に重畳して重畳画像を作成する合成手段と、
該重畳画像を出力する出力部とを含むことを特徴とするアニメーション作成システム。 A feature point extracting means for inputting a video including at least two frames obtained by photographing a moving subject and extracting a feature point for controlling the movement of the character for each frame from the video;
A feature point editing means for editing the feature points;
An animation creating system including an animation creating means for creating an animation in which the character moves based on the edited feature point,
Combining means for superimposing the first feature point on a first image corresponding to the first feature point to create a superimposed image;
And an output unit for outputting the superimposed image.
時間的に隣り合う前記特徴点の距離を算出する距離演算手段と、
該距離を用いて該特徴点の時間的な変化が適切であるか否かを判断する判断手段とを含み、
前記合成手段は、該判断手段により時間的な変化が適切ではないと判断された前記特徴点、および該特徴点と対応する画像を重畳した前記重畳画像を作成し、
前記出力部は、該重畳画像を出力することを特徴とするアニメーション作成システム。 The system according to any of claims 1 to 7, further comprising:
Distance calculating means for calculating the distance between the feature points adjacent in time;
Judging means for judging whether the temporal change of the feature point is appropriate using the distance;
The synthesizing unit creates the superimposed image on which the feature point determined to be inappropriate by the determining unit and the image corresponding to the feature point are superimposed,
The animation creating system, wherein the output unit outputs the superimposed image.
前記特徴点編集手段は、前記判断手段により前記特徴点の時間的な変化が適切ではないと判断された前記特徴点を、該補正式を用いて編集することを特徴とするアニメーション作成システム。 9. The system according to claim 8, further comprising a correction formula storage means for storing a correction formula indicating the position of the feature point.
The animation creation system, wherein the feature point editing unit edits the feature point determined by the determining unit that the temporal change of the feature point is not appropriate using the correction formula.
該特徴点を編集する特徴点編集工程と、
該編集された特徴点を基に前記キャラクタが動くアニメーションを作成するアニメーション作成工程とを含むアニメーション作成方法において、該方法は、
前記第1の特徴点を、第1の特徴点と対応する第1の画像に重畳して重畳画像を作成する合成工程と、
該重畳画像を出力する出力工程とを含み、
前記編集工程は、該出力された前記重畳画像を見ながら変種作業を行うことを特徴とするアニメーション作成方法。 A feature point extracting step of inputting a video including at least two frames obtained by photographing a moving subject and extracting a feature point for controlling the movement of the character for each frame from the video;
A feature point editing step for editing the feature points;
An animation creating step including creating an animation in which the character moves based on the edited feature points, the method comprising:
A synthesis step of superimposing the first feature point on a first image corresponding to the first feature point to create a superimposed image;
An output step of outputting the superimposed image,
The animation creating method, wherein the editing step performs a variation work while viewing the outputted superimposed image.
時間的に隣り合う前記特徴点の距離を算出する距離演算工程と、
該距離を用いて該特徴点の時間的な変化が適切であるか否かを判断する判断工程とを含み、
前記合成工程は、該判断工程により時間的な変化が適切ではないと判断された前記特徴点、および該特徴点と対応する画像を重畳した前記重畳画像を作成し、
前記出力工程は、該重畳画像を出力し、
前記編集工程は、該出力された重畳画像を見ながら、前記時間的な変化が適切ではないと判断された特徴点を編集することを特徴とするアニメーション作成方法。 18. A method according to any of claims 11 to 17, further comprising:
A distance calculation step of calculating a distance between the feature points adjacent in time;
A determination step of determining whether the temporal change of the feature point is appropriate using the distance,
The synthesis step creates the superimposed image in which the feature point determined to be inappropriate in temporal change by the determination step and the image corresponding to the feature point are superimposed,
The output step outputs the superimposed image,
The animation creating method characterized in that the editing step edits a feature point that is determined to have an inappropriate temporal change while viewing the output superimposed image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006083548A JP2007257508A (en) | 2006-03-24 | 2006-03-24 | Animation generation system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006083548A JP2007257508A (en) | 2006-03-24 | 2006-03-24 | Animation generation system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007257508A true JP2007257508A (en) | 2007-10-04 |
Family
ID=38631659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006083548A Withdrawn JP2007257508A (en) | 2006-03-24 | 2006-03-24 | Animation generation system and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007257508A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101651979B1 (en) * | 2015-08-12 | 2016-08-29 | 동서대학교 산학협력단 | Method for inputting motion data by converting file format of moving image in Unity game engine |
-
2006
- 2006-03-24 JP JP2006083548A patent/JP2007257508A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101651979B1 (en) * | 2015-08-12 | 2016-08-29 | 동서대학교 산학협력단 | Method for inputting motion data by converting file format of moving image in Unity game engine |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9013483B2 (en) | Image processing apparatus and image processing method | |
US20100079491A1 (en) | Image compositing apparatus and method of controlling same | |
JP5032343B2 (en) | Method and apparatus for displaying a virtual object, and method and apparatus for overlaying a virtual object on an environmental image | |
JP4434890B2 (en) | Image composition method and apparatus | |
US20230206531A1 (en) | Avatar display device, avatar generating device, and program | |
US20040233224A1 (en) | Image processor, image processing method, recording medium, computer program and semiconductor device | |
EP1852828A2 (en) | Information processing apparatus and control method thereof, image processing apparatus, computer program, and storage medium | |
JP6178048B2 (en) | Image processing apparatus, image processing method, and program | |
JP2010186288A (en) | Image processing for changing predetermined texture characteristic amount of face image | |
WO2019163129A1 (en) | Virtual object display control device, virtual object display system, virtual object display control method, and virtual object display control program | |
KR20150119621A (en) | display apparatus and image composition method thereof | |
JP4871820B2 (en) | Video display system and parameter generation method for the system | |
US20090225099A1 (en) | Image processing apparatus and method | |
JP2010186216A (en) | Specifying position of characteristic portion of face image | |
KR100411760B1 (en) | Apparatus and method for an animation image synthesis | |
JP4702534B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4351023B2 (en) | Image processing method and apparatus | |
JP2010218533A (en) | Display picture design support device and program | |
EP2509321B1 (en) | Projection apparatus, control method thereof, and program | |
JP2008276299A (en) | Image composing apparatus, and image composing program | |
JP4328639B2 (en) | Method and apparatus for adjusting subject detection information | |
KR101874760B1 (en) | Information processing device, control method and recording medium | |
JP2007257508A (en) | Animation generation system and method | |
JP2008003673A (en) | Animation creation system and method | |
JP6893349B2 (en) | Animation production system, animation production method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090602 |