JP2008003673A - Animation creation system and method - Google Patents
Animation creation system and method Download PDFInfo
- Publication number
- JP2008003673A JP2008003673A JP2006169921A JP2006169921A JP2008003673A JP 2008003673 A JP2008003673 A JP 2008003673A JP 2006169921 A JP2006169921 A JP 2006169921A JP 2006169921 A JP2006169921 A JP 2006169921A JP 2008003673 A JP2008003673 A JP 2008003673A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- extracted
- feature
- unit
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、入力された映像から抽出された特徴点を基にして、アニメーションを作成するシステムおよび方法に関する。 The present invention relates to a system and method for creating an animation based on feature points extracted from an input video.
近年では、例えばテレビ、映画、ゲーム等においてコンピュータグラフィクス(Computer Graphics : CG)によるアニメーションがよく用いられるようになった。またこのようなアニメーションは、コミュニケーション分野において、例えばアバタ等のキャラクタに応用されることが増えているため、とくに顔の動きを表現するアニメーションのニーズが高まりつつある。しかし、アニメーションの作成には、多大な費用と時間が必要である。よって、より容易なやり方で、自然な動きに見えるアニメーションを作成する方法およびシステムが求められていた。 In recent years, for example, animation using computer graphics (CG) has been frequently used in television, movies, games, and the like. In addition, since such animations are increasingly applied to characters such as avatars in the communication field, the need for animations that express facial movements is increasing. However, creating an animation requires a great deal of money and time. Therefore, there has been a need for a method and system for creating an animation that looks natural in an easier way.
例えば特許文献1には、入力映像から人物の頭部、目、口等を抽出し、その情報を元にCGを用いてキャラクタの動きを制御したアニメーションを作成する方法が開示されている。また特許文献2には、マーカが付された被写体を複数の方向から撮影して、被写体が動いている映像を得、この映像から特徴点を抽出し、抽出した特徴点を基にしてアニメーションを作成する際に、抽出した特徴点の位置を補正したり、何かの陰に隠れて抽出されなかった特徴点を補間したりする等の編集を行う方法が開示されている。また特許文献3には、映像から顔が写っている部分を抽出し、この顔の画像から顔の各部、例えば目や鼻や口等と対応する部分を特徴点として抽出する装置が開示されている。
しかし特許文献1では、例えばテレビ電話等の通信システムでの利用を想定しているため、例えば人物の頭部や目や口等の抽出に失敗した場合や、誤って他の部分を頭部や目や口等として抽出してしまった場合等に、これらの抽出ミスを修正する修正手段がなく、その結果、緻密なアニメーションを作成できないという問題を有していた。また特許文献2、および特許文献3では、編集作業を補助する手段を含まないため、実際には作業量が膨大となってしまうという問題を有していた。
However, in
本発明はこのような従来技術の欠点を解消し、アニメーションを作成するために抽出した特徴点の編集作業を効率よく行うことが可能であり、またキャラクタの自然な動きを表現することが可能なアニメーション生成方法およびシステムを提供することを目的とする。 The present invention eliminates the drawbacks of the prior art, can efficiently edit the feature points extracted to create an animation, and can express the natural movement of the character. An object of the present invention is to provide an animation generation method and system.
上述の課題を解決するために本発明では、抽出されなかった特徴点や、このような特徴点を含むフレームを自動的に特定する。よって、抽出されていなかった特徴点を補う補完作業を効率よく行うことが可能になる。なおこの特定には任意のやり方を採用することが可能である。例えば顔の特徴点を抽出する場合では、顔の各部、例えば口や目や眉等を特定してから特徴点を抽出するため、抽出されなかった特徴点の特定は、顔の各部を特定できたか否かを判断することによって行うことが可能である。 In order to solve the above-described problems, the present invention automatically specifies feature points that have not been extracted and frames that include such feature points. Therefore, it is possible to efficiently perform a complementing operation that compensates for feature points that have not been extracted. It is possible to adopt an arbitrary method for this specification. For example, when extracting facial feature points, feature points are extracted after identifying each part of the face, such as the mouth, eyes, and eyebrows. Therefore, identifying feature points that have not been extracted can identify each part of the face. This can be done by determining whether or not.
また本発明では、予め設定された位置座標や、抽出された特徴点の位置座標を記憶しておき、これらを用いて抽出されていなかった特徴点を自動的に補完する。よって、編集者は特徴点の位置のみを変更すればよくなるため、特徴点の編集作業をより効率よく行うことが可能になる。 Further, in the present invention, preset position coordinates and position coordinates of extracted feature points are stored, and feature points that have not been extracted are automatically complemented using these. Therefore, since the editor only needs to change the position of the feature point, the editing operation of the feature point can be performed more efficiently.
本発明によれば、効率よく特徴点を編集することが可能になる。 According to the present invention, feature points can be edited efficiently.
次に添付図面を参照して本発明の実施例を詳細に説明する。図1は、本発明によるアニメーション作成システムの実施例の構成を概念的に示すブロック図である。図1において、アニメーション作成システム1は、映像入力部3、特徴点抽出部5、検索部7、特徴点記憶部9、合成部11、特徴点編集部13、動作データ作成部15、アニメーション作成部17、および出力部21を含み、動いている被写体を撮影した映像23から特徴点を抽出することで被写体の動きを抽出し、この抽出された特徴点に基づいてアニメーションを作成し、出力部21に出力するシステムである。
Embodiments of the present invention will now be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram conceptually showing the structure of an embodiment of an animation creating system according to the present invention. In FIG. 1, an
アニメーション作成システム1についてより具体的に説明すると、映像入力部3にはキャラクタにさせたい動きをしている被写体の映像23が入力される。映像入力部3にこのような映像23が入力されると、特徴点抽出部5がこの映像23からフレーム毎に特徴点を抽出する。特徴点は、アニメーションによりキャラクタの動きを制御する際に必要となる点、すなわち、動きを表現するのに必要となる主要な点である。抽出された特徴点は、特徴点記憶部9に記憶される。特徴点記憶部9に特徴点が記憶されると、特徴点編集部13がこれらの特徴点を編集し、その後、編集された特徴点が動作データ作成部15、アニメーション作成部17で用いられてアニメーションが作成される。本発明の理解に直接関係のない部分は、図示を省略し冗長な説明を避ける。
The
なお、本発明は各部の構成を本実施例に限定するわけではなく、アニメーション作成システム1に応じて任意の構成を採用することが可能である。またアニメーション作成システム1は、例えば1つの装置で実現してもよいし、複数の装置で実現してもよい。例えば、アニメーション作成システム1を複数の装置で実現する場合には、図1に点線で示すように、映像入力部3、および出力部21をアニメーション受信側の端末装置31に含ませ、また特徴点抽出部5、検索部7、特徴点記憶部9、合成部11、特徴点編集部13、動作データ作成部15、およびアニメーション作成部17をアニメーション提供側の端末装置33に含ませるようにしてもよい。
In the present invention, the configuration of each unit is not limited to the present embodiment, and any configuration can be adopted according to the
このように2つの端末装置31、33でアニメーション作成システム1を構成した場合では、端末装置31は映像23を端末装置33へ送り、また端末装置33から作成されたアニメーションを受信する。また端末装置33は、受信した映像23から特徴点を抽出して特徴点記憶部9に記憶し、この記憶した特徴点を編集してアニメーションを作成し、端末装置31に提供する。
When the
また例えば、図示しないがアニメーション提供側の端末装置33をさらに複数の端末装置で構成することも可能である。例えば特徴点抽出部5、検索部7および特徴点記憶部9をアニメーション提供側の第1の端末装置に含ませ、合成部11、特徴点編集部13、動作データ作成部15、およびアニメーション作成部17をアニメーション提供側の第2の端末装置に含ませるようにすることも可能である。なお複数の端末装置で実現することに限定するわけではなく、アニメーション作成システム1を1つの端末装置で実現してもよい。このような場合では、各部は図示しない制御部によって制御、統括される。なお本発明はこれらの例に限定するわけではない。
Further, for example, although not shown, the
図1を用いて各部をより詳細に説明する。映像入力部3は、映像23が入力される部分である。この映像23は、動いている被写体を撮影したものである。また本実施例では映像23は、少なくとも2つのフレームを含んでいる。この映像23における被写体の動きは、アニメーション作成システム1で作成されるアニメーションで表現したい動き、すなわちアニメーションで表現されるキャラクタにさせたい動きである。例えば本実施例では、顔の動き、すなわち表情の変化をアニメーションで表現したいため、映像23は、顔の各部、例えば、目、鼻、口、眉等を動かして、表情を変えている人間の顔の映像である。
Each part will be described in more detail with reference to FIG. The
映像入力部3は、このような映像23が入力されると、入力された映像23を特徴点抽出部5へ供給する。特徴点抽出部5は、入力された映像23から、フレーム毎に特徴点を抽出する部分である。例えば本実施例では特徴点抽出部5は、入力された映像をフレーム毎、すなわち静止画毎に分け、この静止画から特徴点として設定された点、例えば目の中央や口の上下左右端点等を特定し、次にこの特定した点の位置座標を算出して特徴点を抽出する。
When such a
特徴点は、上述したようにアニメーションによりキャラクタの動きを制御する際に必要となる点であって、動きを表現する際に主要となる点である。例えば本実施例では、キャラクタの顔の表情が変化するアニメーションを作成するため、図2に示すように顔の動きを表現する際に必要な点を特徴点としている。図2は、特徴点を抽出する処理を概念的に示した図であり、アニメーション作成装置1に入力される映像23におけるあるフレーム37を概念的に示した図である。なお図2では1つのフレーム37のみを図示しているが、これは説明をわかりやすくするためであり、映像23には任意の数のフレームを含めることが可能である。
As described above, the feature points are points that are necessary when controlling the movement of the character by animation, and are the main points when expressing the movement. For example, in this embodiment, in order to create an animation in which the facial expression of a character changes, points necessary for expressing facial movement are used as feature points as shown in FIG. FIG. 2 is a diagram conceptually showing a process of extracting feature points, and is a diagram conceptually showing a
本実施例では図2に四角で示すように、右の眉毛の実質的に右端を特徴点A、右の眉毛の実質的に左端を特徴点B、左の眉毛の実質的に右端を特徴点C、左の眉毛の実質的に左端を特徴点D、右目の瞳を特徴点E、左眼の瞳を特徴点F、口の実質的に右端を特徴点G、口の実質的に左端を特徴点H、上唇の実質的に中央を特徴点I、および下唇の実質的に中央を特徴点Jとしている。なお本発明は図2に示す例に限定するわけではなく、動きに応じて任意の点を特徴点とすることが可能である。 In the present embodiment, as shown by a square in FIG. 2, the right eyebrow has a substantially right end point, the right eyebrow has a substantially left end feature point B, and the left eyebrow has a substantially right end feature point. C, feature point D at the substantially left end of the left eyebrows, feature point E at the pupil of the right eye, feature point F at the pupil of the left eye, feature point G at the substantially right end of the mouth, and feature point G at the substantially right end of the mouth The feature point H, the feature point I is the substantial center of the upper lip, and the feature point J is the substantial center of the lower lip. Note that the present invention is not limited to the example shown in FIG. 2, and an arbitrary point can be used as a feature point in accordance with movement.
よって、特徴点抽出部5は、フレーム毎に分けた各静止画から、これらの特徴点として設定された点を特定し、この点の位置を示す位置情報、例えば位置座標やある所定の点からの変化量等を算出して、特徴点の抽出を行う。この特徴点の抽出には、任意のやり方を採用することが可能である。例えば本実施例では図2に示すように映像23をフレーム毎の静止画に分け、この静止画を画像処理することによって、特徴点として設定された点A〜Jを特定する。その後、左下の端点39を原点、水平方向をx軸、および垂直方向をy軸として、点A〜Jの位置を示す座標、すなわち位置座標を算出して、特徴点A〜Jを抽出している。
Therefore, the feature
なお本発明はこの例に限定するわけではなく、任意のやり方を採用することが可能である。例えば特徴点として定めた部分にマーカを付した被写体を撮影し、特徴点A〜Jを抽出する際は、対応するマーカの部分を特定して、この特定したマーカの位置座標を求めるようにすることも可能である。またフレーム毎に特徴点を抽出することに限定するわけではなく、最終的に各フレームの静止画像の所定の位置と対応する特徴点を得ることができれば、特徴点毎に抽出することも可能である。なお本発明はこれに限定するわけではない。 In addition, this invention is not necessarily limited to this example, It is possible to employ | adopt arbitrary methods. For example, when photographing a subject with a marker attached to a portion determined as a feature point and extracting feature points A to J, the corresponding marker portion is specified and the position coordinates of the specified marker are obtained. It is also possible. It is not limited to extracting feature points for each frame, and can be extracted for each feature point as long as a feature point corresponding to a predetermined position of a still image of each frame can be finally obtained. is there. The present invention is not limited to this.
図3に、算出された各特徴点の位置座標の一例を示す。図3において、n は正の整数である。なお本実施例では、映像23のすべてのフレームから特徴点A〜Jを抽出している。これは後段の動作データ作成部13で、映像23に含まれているすべてのフレームにおける特徴点A〜Jから動作データを作成するためである。しかし本発明はこれに限定するわけではなく、後段の動作データ作成部13で必要となる分だけ特徴点を抽出することが可能である。また本実施例では説明を分かりやすくするために2次元にしているが、本発明はこれに限定するわけではなく、例えば作成するアニメーションが3次元の場合等では、x軸、およびy軸と直行するz軸をさらに設定して、3次元にすることも可能である。
FIG. 3 shows an example of the calculated position coordinates of each feature point. In FIG. 3, n is a positive integer. In this embodiment, feature points A to J are extracted from all frames of the
特徴点抽出部5で算出された特徴点A〜Jの位置座標は、特徴点記憶部9へ送られる。特徴点記憶部9は、例えばメモリ等の記憶手段を含み、送られてきた特徴点A〜Jの位置座標を記憶する。記憶には、任意のやり方を採用して記憶することが可能であり、例えば図3に示すように特徴点A〜J毎の表を作成して記憶してもよい。なお本発明はこれに限定するわけではない。また特徴点記憶部9には、特徴点以外に、任意のものを記憶しておくことが可能であり、例えば本実施例では、特徴点記憶部9に、特徴点A〜Jを抽出した際に用いた画像、すなわち各フレームの静止画像も記憶されている。
The position coordinates of the feature points A to J calculated by the feature
特徴点記憶部9に特徴点A〜Jの位置座標が保存されると、合成部11が、特徴点記憶部9に格納された特徴点A〜Jの位置座標を用いて、例えば図4に示すように各特徴点を、これらを抽出した際に用いた画像に重ねた合成画像43、45、47を作成する。作成された合成画像43〜47は、出力部21に含まれているディスプレイ等に出力される。図4は合成画像を概念的に示した図である。なお図4には説明を分かり易くするために3つのフレーム分しか示していないが、合成部21は任意の数の合成画像を作成することが可能である。
When the position coordinates of the feature points A to J are stored in the feature
本実施例では特徴点抽出部5がフレーム毎に特徴点A〜Jを抽出したため、合成部はフレーム毎に合成画像43〜47を作成し、これを横方向に連続させて表示している。なお、本発明はこれに限定するわけではなく、例えば合成画像を連続させて表示して、もとの映像23に特徴点を合成した映像にすることも可能である。このように合成画像43〜47を作成することにより、抽出された特徴点A〜Jが、抽出すると設定された点から抽出されているか否かを判断することが可能になり、また、フレームが変わるごとに特徴点A〜Jがどのように動くかを把握することが可能になるため、後段のアニメーション作成部15で作成されるキャラクタの動きを想定することが可能になる。
In the present embodiment, since the feature
また特徴点記憶部9に特徴点A〜Jの位置座標が保存されると、動作データ作成部15が公知の手法を用いて、この保存された特徴点A〜Jの位置座標から、キャラクタにさせる動きの時間的変化を定義したデータである動作データを作成する。その後動作データは、アニメーション作成部17へと供給され、アニメーション作成部17で公知の手法を用いて、キャラクタが動作データに従った動きをするアニメーションが作成される。作成されたアニメーションは、出力部21へと供給される。出力部21は、例えばディスプレイやプリンタ等の出力手段を含み、アニメーション作成部17から供給されたアニメーションを例えばディスプレイ等に表示したり、プリンタから紙へと出力する。
Further, when the position coordinates of the feature points A to J are stored in the feature
以上のようにして動いている被写体を撮影した映像23から動きを抽出し、この抽出した動きに基づいた動きをするキャラクタのアニメーションが作成される。しかし、特徴点抽出部5で抽出された特徴点A〜Jの位置座標をそのまま用いて動作データを作成すると、被写体の動きそのものがおかしかったり、被写体をうまく撮影できていない映像であったり、特徴点抽出部5で特徴点を認識できずにこれらが抽出されなかった等の場合があり、キャラクタの動きが自然な動きにならない動作データが作成され、キャラクタの動きがおかしいアニメーションが作成されてしまう。よって自然な動きと認められるアニメーションを作成するために、特徴点編集部13で、特徴点の位置を変更したり、抽出されていなかった特徴点を補完する等の編集作業が行われる。
A motion is extracted from the
特徴点編集部13は、特徴点記憶部9と接続し、特徴点記憶部9に保存された各特徴点A〜Jの位置座標を補正したり、何かの影になって抽出されなかった特徴点を補完する等の編集作業を行うものである。編集作業は、例えば図示しないマウスやキーボード等の操作部から入力される編集者の操作信号により行われたり、または予め設定された位置変更用のプログラム等により自動的に行われる。編集後は、編集作業によって新たに形成された位置座標が、再び特徴点記憶部9に供給されて特徴点記憶部9に記憶される。その後、動作データ作成部15が、補正や補間が行われた後の特徴点A〜Jの位置座標から動作データを作成し、アニメーション作成部17が、動作データ作成部15で作成された動作データを基にしてアニメーションを作成する。
The feature
しかし従来では、抽出されなかった特徴点の補完作業は編集者による手作業で行われていたため、作業効率が悪いという問題を有していた。具体的に説明すると、従来では、編集者が出力部21に出力された合成映像を見ながら、特徴点が抽出されているか否かといった判断をし、その結果、抽出されていない特徴点がある場合は、例えばマウスやキーボード等を用いて特徴点を新たに形成したり、適当な位置座標を入力したりしていたため、作業効率が悪く、また抽出されていない特徴点が存在しても見落としてしまう等の問題があった。このような問題は、特徴点の数が増えれば増えるほど生じやすかった。そこで本実施例では検索部7を含み、この検索部7によって、特徴点抽出部5で抽出されなかった特徴点を自動的に特定し、その特徴点を補完するよう編集者に知らせる。以下、詳細に説明する。
Conventionally, however, feature points that have not been extracted have been supplemented manually by the editor, which has a problem of poor work efficiency. More specifically, in the past, the editor determines whether or not feature points have been extracted while viewing the composite video output to the
図1において検索部7は、抽出されなかった特徴点を特定する部分である。図1に示す例では、検索部7は特徴点抽出部5に設けられ、特徴点抽出部5における抽出処理の際に形成される情報を用いて抽出されなかった特徴点を特定する。この抽出処理の際に形成される情報とは、特徴点を抽出する処理中に作成される情報であって、例えば図1に示す例では、図5に示すように特徴点として設定されている点の特定を行うか否かを判断した際に形成される情報を用いている。なお本発明はこれに限定するわけではなく、特徴点を抽出する処理中に作成される任意の情報を用いて、特徴点が抽出されたか否かを判断することが可能である。
In FIG. 1, the
図5は図1に示す特徴点抽出部5における特徴点の抽出処理、および検索部7における抽出されなかった特徴点の特定処理の処理手順の一例を示した図である。図5において、特徴点抽出部5は、映像入力部3から映像23が送られてくると、この映像23をフレーム毎の静止画像に分ける(ステップS1)。その後、特徴点抽出部5は、この静止画像から顔の領域、すなわち顔領域を抜き出す(ステップS2)。この顔領域の抜き出しには公知のやり方を採用することが可能である。例えば静止画像がカラー画像の場合では、予め設定した肌色の部分を静止画像から抜き出し、抜き出した肌色の部分から顔らしさの判断、例えば抜き出した部分が実質的に円形であるか否か等を判断することにより顔領域を抜き出すことが可能である。なお本発明はこのやり方に限定するわけではない。
FIG. 5 is a diagram showing an example of the processing procedure of the feature point extraction process in the feature
次に特徴点抽出部5は、ステップS2の処理によって顔領域が抜き出されたか否かを、例えばその領域がどの程度円形であるかといった情報等から判断する(ステップS3)。この判断の結果、顔領域が抜き出されている場合はステップS4へ進み、顔領域から、例えば眉や、目や、鼻や、口等の、各部品毎のより小さい領域、すなわち顔部品領域をさらに抜き出す(ステップS4)。この顔部品領域の抜き出しにも公知のやり方を採用することが可能である。
Next, the feature
例えば、顔領域を白から黒へのグラデーションによるモノクロ画像で表現すると、眉や目や口は他の部分、例えば頬等と比べて濃いグレーになる。よって、濃度の高い部分を特定することで眉を含む領域や、目を含む領域や、口を含む領域を抜き出すことが可能になる。同様にして例えば小鼻と頬との境目を特定して、鼻を含む領域を抜き出すことが可能である。 For example, when the face area is expressed by a monochrome image with gradation from white to black, the eyebrows, eyes, and mouth become darker gray than other parts such as cheeks. Therefore, it is possible to extract a region including the eyebrows, a region including the eyes, and a region including the mouth by specifying a portion having a high density. Similarly, for example, it is possible to identify the boundary between the small nose and the cheek and extract the region including the nose.
その後、特徴点抽出部5はステップS5へ進み、ステップS4の処理によって顔部品領域が抜き出されたか否かを、例えば濃度が高い部分があったか否か等によって判断する(ステップS5)。その結果、顔部品領域が抜き出されている場合はステップS6へ進み、顔部品領域からその領域に含まれている顔部品をさらに抜き出し、抜き出した顔部品における特徴点として抽出するよう設定された点を特定し、この点の位置座標を算出する(ステップS6)。この顔部品の抜き出し、特徴点の特定、および位置座標の算出も公知のやり方を採用することが可能である。
Thereafter, the feature
例えば、各顔部品の標準的な画像、およびこの標準的な画像における特徴点として設定された点の位置を示したデータを予め用意しておき、この標準的な画像と、抽出した領域とを比較してこの領域に含まれている顔部品、例えば目や口等を抜き出す。その後、抜き出した顔部品において、標準的な画像で特徴点として設定された点と対応する点を特徴点と特定し、この特徴点のフレームにおける位置座標を算出して特徴点の特定、および特徴点の位置座標の算出が可能である。なお本発明はこれに限定するわけではない。 For example, a standard image of each face part and data indicating the position of a point set as a feature point in the standard image are prepared in advance, and the standard image and the extracted region are prepared. In comparison, facial parts, such as eyes and mouth, included in this area are extracted. After that, in the extracted face part, a point corresponding to the point set as the feature point in the standard image is specified as the feature point, and the position coordinates in the frame of the feature point are calculated to identify the feature point, and the feature The position coordinates of the points can be calculated. The present invention is not limited to this.
なおステップS3における判断の結果、顔領域の抜き出しができなかった場合や、ステップS5における判断の結果、顔部品領域の抜き出しができなかった場合は、ステップS7へ進み、検索部7が、抜き出されなかった顔領域や顔部品領域から、抽出されなかった特徴点の特定や、このような特徴点を含むフレームの特定を行う(ステップS7)。例えば顔領域が抽出できなかった場合では、検索部7はこのフレームを、抽出されなかった特徴点を含むフレームとして特定する。また、顔部品領域が抽出できなかった場合では、検索部7はこの領域が抽出できなかった顔部品と対応する特徴点を、抽出されなかった特徴点として特定する。
If the face area cannot be extracted as a result of the determination in step S3, or if the face part area cannot be extracted as a result of the determination in step S5, the process proceeds to step S7, and the
その後特徴点抽出部5は、ステップS6で算出した各特徴点の位置座標を特徴点記憶部9へ記憶させる。また検索部7は、ステップS7で特定した抽出されなかった特徴点や、抽出されなかった特徴点を含むフレームの番号に、抽出されなかった旨を示す情報を付加する(ステップS8)。このようにするのは、後段の合成部11に抽出されなかった特徴点やこのような特徴点を含むフレームの番号を伝えて、抽出されなかった特徴点や、抽出されなかった特徴点を含むフレームの合成画像を、抽出された特徴点や、抽出された特徴点のみを含むフレームの合成画像とは異なる表示形態で作成させるためである。なお合成部11に伝えることが可能であれば、特徴点記憶部9を介して知らせることに限定するわけではなく、例えば検索部7から合成部11に直接伝えるようにすることも可能である。
Thereafter, the feature
なお抽出されなかった旨を伝える情報は、任意に設定することが可能である。例えば本実施例では図6に示すように、抽出されなかった特徴点や、抽出されなかった特徴点を含むフレームの番号に、事前に設定された下線を付加している。なお本発明はこれに限定するわけではない。 Note that the information indicating that the information has not been extracted can be arbitrarily set. For example, in this embodiment, as shown in FIG. 6, a preset underline is added to a feature point that has not been extracted or a frame number that includes a feature point that has not been extracted. The present invention is not limited to this.
図6は、図3と同様に、各特徴点A〜Jの位置座標を概念的に示した図である。例えば第2フレーム51の口の特徴点、すなわち特徴点G2〜J2が抽出されなかったとすると、検索部は、第2フレーム51、およびこれらの特徴点の位置座標53、55、57、59に下線を引く。なお特徴点G2〜J2は、特徴点が抽出されていない、すなわち位置座標が算出されていないため、各位置座標53〜59にはデータが存在していない。
FIG. 6 is a diagram conceptually showing the position coordinates of the feature points A to J, as in FIG. 3. For example the feature point of the mouth of the
図5に戻って、その後特徴点抽出部5は、特徴点を抽出する残りのフレーム画あるか否かを判断し(ステップS9)、残りのフレームがある場合はステップS2へ戻り、また残りのフレームがない場合は特徴点を抽出する処理を終了する。以上のようにして特徴点抽出部5は特徴点を抽出し、また検索部7は特徴点抽出処理の際に形成される情報を基にして、特徴点が抽出されたか否かを判断する。よって、抽出されなかった特徴点の特定を簡単な構成で行うことが可能になり、また特徴点の抽出処理と、抽出されなかった特徴点の特定処理とを一度に行うことが可能になるため、処理を迅速に行うことが可能になる。
Returning to FIG. 5, the feature
なお本発明はこれに限定するわけではなく、任意のやり方を採用することが可能である。例えば検索部7は、特徴点記憶部9に位置座標が記憶されるか否かを判断し、判断の結果、位置座標が記憶されない特徴点を、抽出されなかった特徴点として特定するようにしてもよい。なお本発明はこれに限定するわけではない。
Note that the present invention is not limited to this, and any method can be adopted. For example, the
図1に戻って、以上のようにして検索部7によって、特徴点が抽出されたか否かの判断が行われると、どのフレームの特徴点が抽出されなかったのかという情報、すなわち検索結果を編集者に伝えるために、合成部11が検索結果を反映させた合成画像を作成する。図7は、合成部11によって作成された、検索結果が反映された合成画像の一例を概念的に示した図であって、出力部21における出力例を概念的に示した図である。図7において図4と同じ参照番号は同様の構成要素を示す。
Returning to FIG. 1, when it is determined whether or not feature points have been extracted by the
図7において、本実施例では第2フレームの特徴点G2〜J2が抽出されなかったため、合成部11は、第2フレームの輪郭を他のフレームよりも太くして合成画像45を作成し、この第2フレームに抽出されなかった特徴点が存在することを編集者に知らせている。なお本発明は図12に示す例に限定するわけではなく、任意のやり方を採用し、抽出されなかった特徴点の存在を知らせることが可能である。例えば図示しないが、検索結果を反映させた合成画像を作成するのではなく、検索結果のみを示した一覧表等を作成して編集者に知らせてもよい。また例えば図示しないが合成画像の背景の色を変えたり、枠や背景を点滅させたりして、編集者に知らせるようにしてもよい。また例えば図8に示すように、合成画像の外側に検索結果を示す欄を追加し、そこに検索結果を記載するようにしてもよい。なお本発明はこれらの例に限定するわけではない。
In FIG. 7, since the feature points G 2 to J 2 of the second frame are not extracted in this embodiment, the
図8は合成部によって作成された、検索結果が反映された合成画像の別の一例を概念的に示した図であって、出力部21における別の出力例を概念的に示した図である。図8に示す例では、合成画像を示す欄の他に、検索結果が示される欄71、73が別途設けられ、欄71にそのフレームに抽出されていない特徴点が存在するか否か表示され、欄73には、抽出されなかった特徴点が表示されている。
FIG. 8 is a diagram conceptually showing another example of a composite image created by the synthesis unit and reflecting the search result, and is a diagram conceptually showing another output example in the
このようにして本実施例では、抽出されなかった特徴点を自動的に特定し、その結果を、例えば合成画像に反映したり、結果を示す欄等に示して編集者に知らせる。よって、編集者が抽出されなかった特徴点や、このような特徴点を含むフレームをすぐに見付けることが可能になり、このような特徴点を補完する作業を円滑に行うことが可能になる。 In this way, in the present embodiment, feature points that have not been extracted are automatically specified, and the result is reflected in, for example, a composite image or displayed in a column indicating the result to notify the editor. Therefore, it is possible to immediately find a feature point that has not been extracted by the editor or a frame including such a feature point, and it is possible to smoothly perform a work for complementing such a feature point.
なお本発明は図1に示すように、検索部7を特徴点抽出部5に設けることに限定するわけではなく、アニメーション作成システム1に応じて任意の部分に設けることが可能である。例えば、図9に示すように、特徴点編集部83に設けることも可能である。図9は、本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。図9において図1と同じ参照番号は同様の構成要素を示す。
As shown in FIG. 1, the present invention is not limited to providing the
図9に示すアニメーション作成システム81では、特徴点編集部83が検索部85を含んでいる。なお特徴点編集部83は、検索部85を含むだけであって、特徴点編集部13と同様のものである。検索部85は特徴点編集部83に存在し、特徴点記憶部9に記憶された特徴点の数や、特徴点の位置座標を用いて、抽出されなかった特徴点や、このような特徴点を含むフレームを特定する。
In the
図9に示す検索部85には、特徴点A〜Jの数、および各特徴点A〜Jの位置を定義した、例えば図10に示すような規則91が予め記憶され、検索部85は、この規則90を用いて、抽出されなかった特徴点や、このような特徴点を含むフレームを特定する。また検索部85は抽出されなかった特徴点を特定すると、図1に示す検索部と同様に、特徴点記憶部7を介して合成部11にその旨を知らせる。
In the
図10は、検索部85で用いる規則の一例を概念的に示した図である。図10においてmは正の整数である。図10において第1規則93は、「1つのフレームにおける特徴点は10個である。」という、特徴点A〜Jの数について規定したものであり、抽出されなかった特徴点を含むフレームを特定するための規則である。よって検索部85は、この第1規則93を用いて、特徴点記憶部に記憶されている各特徴点の位置座標の数が第1規則93に従っているか否か、すなわち位置座標が算出された特徴点が10個存在するか否かを判断し、第1規則93に従わないフレームを、抽出されなかった特徴点を含むフレームとして特定する。
FIG. 10 is a diagram conceptually illustrating an example of rules used in the
また図10において、第2規則95は「右目の特徴点Eは左眼の特徴点Fよりも右側である。」という特徴点EとFの位置関係について定めたものである。同様にして第3規則97は、特徴点E〜Hの位置関係について定めたものである。図9に示す例では、第2規則95や第3規則97ように位置関係を定義した規則を用いることによって、抽出されなかった特徴点の特定、および抽出されていてもその位置が所望する位置にない特徴点の特定を行っている。
In FIG. 10, the
例えば、第2規則95に反する場合は、特徴点Eまたは特徴点Fが抽出されていないために存在しないか、または、特徴点Eが所望する位置に存在しないことを示している。このように位置関係を定義した規則を用いることで、抽出されなかった特徴点の特定に加えて、抽出されていてもその位置が所望する位置にない特徴点の特定が可能になるためこのましいが、本発明は図10に示す例に限定するわけではなく、用いる規則は、少なくとも抽出されなかった特徴点や、このような特徴点を含むフレームを特定することが可能な規則であればよい。
For example, when the
図11は、図9に示す検索部85における、規則91を用いた検索処理の処理手順の一例を示した流れ図である。図9、図11において、特徴点抽出部5が特徴点A〜Jを抽出してその位置座標が特徴点記憶部9に記憶されると、検索部85は、フレーム毎に特徴点A〜Jの位置座標を特徴点記憶部9から読み出す(ステップS1)。次に検索部85は、図10に示す規則91をそのフレーム、およびそのフレームにおける各特徴点A〜Jに適用し、そのフレームにおける特徴点の数や、特徴点の位置が各規則に従っているか否かを判断する(ステップS2)。
FIG. 11 is a flowchart showing an example of a processing procedure of search processing using the
ステップS2の判断の結果、特徴点が規則に従っている場合は、残りのフレームがあるか否かを判断し(ステップS3)、残りのフレームが無い場合は処理を終了する。逆に残りのフレームがある場合はステップS1へ戻り、次のフレームにおける各特徴点の位置座標を読み出す。 If it is determined in step S2 that the feature points comply with the rules, it is determined whether there are any remaining frames (step S3). If there are no remaining frames, the process ends. Conversely, if there are remaining frames, the process returns to step S1 to read the position coordinates of each feature point in the next frame.
一方、ステップS2における判断の結果、規則に従っていない特徴点が存在する場合は、図5におけるステップS9と同様に、その特徴点が抽出されなかった旨を伝える情報を特徴点記憶部9に付加する(ステップS4)。なお図9に示す例では、特徴点記憶部9に情報を経由して合成部11に伝えているが、本発明はこれに限定するわけではなく、例えば合成部に直接伝えてもよい。その後合成部11は、例えば図7や図8に示すような合成画像を作成し、抽出されなかった特徴点があることや、所望する位置から抽出されなかった特徴点があることを編集者に知らせる。
On the other hand, if there is a feature point that does not conform to the rules as a result of the determination in step S2, information indicating that the feature point has not been extracted is added to the feature
以上のようにして、図9に示す例では規則91を用いて抽出されなかった特徴点を特定し、その結果を、例えば合成画像に反映したり、結果を示す欄等に示して編集者に知らせる。よって、編集者がすぐに抽出されなかった特徴点や、このような特徴点を含むフレームを見付けることが可能になり、このような特徴点を補完する作業を円滑に行うことが可能になる。また規則を用いて特定する場合では、本実施例のように各特徴点の位置に関する規則も用意しておくことで、所望する位置から抽出されなかった特徴点や、アニメーションを作成する際に自然な動きと認められない位置にある特徴点等を自動的に特定することが可能になる。
As described above, in the example shown in FIG. 9, the feature points that are not extracted using the
なお本発明は図1、および図9に示す例に限定するわけではなく、任意のやり方を採用して抽出されなかった特徴点や、このような特徴点を含むフレームを特定することが可能である。例えば図示しないが図1と図9を組み合わせて、特徴点を抽出する際、および抽出後の両方のタイミングで抽出されなかった特徴点やこのような特徴点を含むフレームを特定するようにすることも可能であるし、また例えば、図示しないが検索部を特徴点抽出部や特徴点編集部とは別に設けることも可能である。検索部を特徴点抽出部や特徴点編集部とは別に設けた場合における抽出されなかった特徴点の特定は、例えば規則を用いたり、特徴点記憶部に記憶されるか否かを判断することにより可能である。なお本発明はこれに限定するわけではない。 Note that the present invention is not limited to the examples shown in FIGS. 1 and 9, and it is possible to identify feature points that have not been extracted by adopting an arbitrary method and frames including such feature points. is there. For example, although not shown, when FIG. 1 and FIG. 9 are combined, feature points that are not extracted both at the time of extraction and at the timing after extraction, and frames that include such feature points are specified. For example, although not shown, a search unit can be provided separately from the feature point extraction unit and the feature point editing unit. When the search unit is provided separately from the feature point extraction unit and the feature point editing unit, the feature points that are not extracted are identified using, for example, a rule or whether or not the feature points are stored in the feature point storage unit Is possible. The present invention is not limited to this.
図12は、本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。図12において図1と同じ参照番号は同様の構成要素を示す。図12に示すアニメーション作成システム101では、特徴点編集部103が補完部105を含み、この補完部105によって、抽出されなかった特徴点を、予め設定された位置座標を用いて自動的に補完する。よって編集作業の負担をより軽減することが可能になって、より円滑に編集作業を進めることが可能になる。以下詳細に説明する。
FIG. 12 is a block diagram conceptually showing the structure of another embodiment of the animation creating system according to the present invention. 12, the same reference numerals as those in FIG. 1 denote the same components. In the
図12において、特徴点編集部103は補完部105を含み、抽出されなかった特徴点を補完部によって自動的に補完する。なお特徴点編集部103は補完部105を含んでいるだけであって、特徴点編集部13と同様のものである。補完部105は特徴点編集部103に存在し、抽出されなかった特徴点を、予め設定された位置座標を用いて自動的に補完する、すなわち、抽出されなかった特徴点の位置座標を、予め設定された位置座標を用いて自動的に形成するものである。例えば図12に示す例では補完部105は、抽出されなかった特徴点を、1つ前のフレームにおける同じ種類の特徴点、すなわち映像における同じ部分から抽出される特徴点の位置座標を用いて自動的に補完する。
In FIG. 12, a feature
図13は、図12に示す補完部105における補完処理を概念的に示した図である。図13において、特徴点記憶部9に特徴点の位置座標が記憶されると、補完部105はこの特徴点記憶部9に記憶されている特徴点の位置座標を読み出す(ステップS1)。この読み出しは、例えばフレーム毎に行ってもよいし、または例えば特徴点A毎というように特徴点毎に行ってもよく、任意のやり方を採用することが可能である。また映像23に含まれるすべてのフレームや、抽出したすべての特徴点を読み出すことに限定するわけではなく、例えば編集者が指定した範囲のフレームや特徴点を読み出すことが可能である。
FIG. 13 is a diagram conceptually showing the complementing process in complementing
次に補完部105は、抽出されなかった特徴点が存在するか否かを判断する(ステップS2)。この判断には任意のやり方を採用することが可能である。例えば本実施例では、抽出されなかった特徴点には下線が引かれる等の情報が付加されているため、補完部105は情報が付加されているか否かを判断する。なお本発明はこれに限定するわけではなく、例えば検索部7から補完部105へ検索結果が直接伝わるようにしてもよい。
Next, the
この判断の結果、抽出されなかった特徴点が存在しなかった場合、すなわちすべての特徴点が抽出されている場合はステップS5へ進み、例えばフレーム毎に補完処理を行っている場合は残りのフレームがあるか否かを判断し、また例えば特徴点毎に補完処理を行っている場合は残りの特徴点があるか否かを判断して(ステップS5)、ある場合はステップS1に戻って残りのフレーム、または特徴点を読み出し、ない場合は処理を終了する。 As a result of this determination, if there are no feature points that have not been extracted, that is, if all feature points have been extracted, the process proceeds to step S5.For example, if complement processing is performed for each frame, the remaining frames For example, if complement processing is performed for each feature point, it is determined whether there is a remaining feature point (step S5). If there is, the process returns to step S1 and remains If no frame or feature point is read, the process ends.
ステップS2における判断の結果、抽出されなかった特徴点が存在した場合は、この特徴点の座標位置を、1つ前のフレームにおける同じ種類の特徴点の座標位置を用いて補完する(ステップS3)。本実施例では、1つ前のフレームにおける同じ種類の特徴点の位置座標をそのまま用いて補完する。つまり、抽出されなかった特徴点の位置座標を、1つ前のフレームにおける同じ種類の位置座標にする。なお本発明はこの例に限定するわけではなく、例えば1つ前のフレームおよび1つ後のフレームにおける同じ種類の特徴点の位置座標を用いてこれらの中間点を算出し、この中間点を補完後の位置座標とすることも可能であるし、また例えば任意の数分前または後ろのフレームにおける同じ種類の特徴点の位置座標に、予め設定した変化量を加えたものを補完後の位置座標とすることも可能である。 また本発明は、抽出された特徴点の座標位置を用いることに限定するわけではなく、例えば予め特徴点記憶部9や補完部105に記憶しておいた座標位置を用いることも可能である。例えば自然な動きとなるように設定した位置座標を特徴点記憶部9や補完部105等に記憶させておき、補完部105にこの位置座標を用いて補完させてもよい。なお本発明は、なおこれらの例に限定するわけではない。
If there is a feature point that has not been extracted as a result of the determination in step S2, the coordinate position of this feature point is complemented using the coordinate position of the same type of feature point in the previous frame (step S3). . In this embodiment, the position coordinates of the same type of feature points in the previous frame are used as they are for complementation. That is, the position coordinates of feature points that have not been extracted are set to the same type of position coordinates in the previous frame. The present invention is not limited to this example. For example, the intermediate point is calculated using the position coordinates of the same type of feature point in the previous frame and the next frame, and the intermediate point is complemented. It is also possible to set the position coordinates after, and for example, the position coordinates after complementing the position coordinates of the same type of feature point in any frame several minutes before or after, plus a preset amount of change. It is also possible. Further, the present invention is not limited to using the coordinate position of the extracted feature point. For example, the coordinate position stored in advance in the feature
なお置換部105は、少なくとも抽出されなかった特徴点の位置座標を形成することが可能であれば、例えばフレーム毎に補完処理を行っている場合に、そのフレームにおいて抽出されている特徴点の位置座標も、他のフレームの特徴点の位置座標や、他のフレームの特徴点の位置座標を用いて算出された位置座標に変更する、すなわち特徴点を置換することも可能である。このように抽出されている特徴点を置換する場合では、例えば、抽出されなかった特徴点を含むフレームにおいて、抽出されているすべての特徴点の位置座標を置換してもよいし、また例えば編集者が合成画像等を見ながら選択した特徴点のみ置換するようにしてもよい。なお本発明はこれらの例に限定するわけではない。
Note that, if the
その後、補完によって作成された位置座標や、置換も行った場合では置換された位置座標は、再び特徴点記憶部9に記憶される(ステップS4)。なお特徴点記憶部9に記憶する際に、例えば補完や置換により作成された位置座標であることを示す情報を付加して、補完や置換がされた特徴点と、これらがされなかった特徴点との表示形態を変えて合成画像を作成し、これらの区別が可能になるようにすることも可能である。例えば本実施例では、図14に示すように表示形態を区別している。
Thereafter, the position coordinates created by complementation and the replaced position coordinates when replacement is performed are stored again in the feature point storage unit 9 (step S4). When storing in the feature
図14は補完が行なわれた場合の合成画像の一例を概念的に示した図である。図14において、図7と同じ参照番号は同様の構成要素を示す。例えば第2フレームの口の特徴点G2〜J2における位置座標が補完部105における補完処理により形成された場合では、合成部11は、第2フレームの枠を他のフレームよりの太くするとともに、補完により形成された口の特徴点G2〜J2を星型に、また補完、または置換されていない特徴点を四角にした合成画像45を作成し、編集者による両者の区別を可能にしている。なお図14では図示しないが、置換により位置座標が変更になった特徴点についても同様に、補完された特徴点、および補完や置換が行なわれなかった特徴点と表示形態を変えるとよい。
FIG. 14 is a diagram conceptually illustrating an example of a composite image when complementation is performed. 14, the same reference numerals as those in FIG. 7 denote the same components. For example, in the case where the position coordinates at the mouth feature points G 2 to J 2 of the second frame are formed by the complementing process in the
よって、編集者は合成画像43〜47を一目見ただけで、どのフレームにおけるどの特徴点が補完部105によって補完、または置換されたのかを把握することが可能になる。なお本発明はこの例に限定するわけではなく、任意のやり方を採用することが可能であり、例えば編集者に知らせないようにすることも可能である。
Therefore, the editor can grasp which feature points in which frames have been complemented or replaced by the
図13に戻って、補完部105は、補完や置換により形成された位置座標を記憶部9へ記憶させるとステップS5へ進み、残りの特徴点またはフレームがあるか否かを判断して、ある場合はステップS1に戻り、残りのフレームまたは特徴点を読み出し、ない場合は補完処理を終了する。以上のようにして抽出されなかった特徴点を補完部105で自動的に補完するため、編集者は残りの編集作業、例えば自然な動きとなるような位置に特徴点を動かす作業を行うだけで済むようになる。よって編集者への編集作業の負担を軽減することが可能になり、編集作業を迅速に行うことが可能になる。
Returning to FIG. 13, when the
なお本発明は補完部105を特徴点編集部103に設けることに限定するわけではなく、アニメーション作成システムに応じて任意の部分に設けることが可能である。例えば図示しないが、特徴点編集部が検索部と補完部を含むことも可能である。この場合補完部は、例えば検索部から検索結果を直接受け取り、補完処理を行うために用いる位置座標を位置座標記憶部等から読み出すことで補完処理を行うことが可能である。また例えば図15に示すように、特徴点抽出部に設けることも可能である。
The present invention is not limited to providing the
図15は、本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。図15において図1と同じ参照番号は同様の構成要素を示す。また特徴点抽出部123は、検索部125、補完部127を含むようになるだけであって、特徴点抽出部5と同様のものである。また検索部125も、検索結果を補完部127へ伝えるようになるだけであって、検索部7と同様のものであり、補完部127も、特徴点抽出部123に存在するようになるだけであって、補完部105と同様のものである。
FIG. 15 is a block diagram conceptually showing the structure of another embodiment of the animation creating system according to the present invention. 15, the same reference numerals as those in FIG. 1 denote the same components. The feature
図15に示すアニメーション作成システム121のように、補完部123を特徴点抽出部125に設けた場合は、例えば補完部127が一つ前のフレームにおける特徴点の位置座標を一時的に記憶しておき、次のフレームで抽出されなかった特徴点が検索部125によって特定された場合は、この1つ前のフレームにおける特徴点の位置座標を補完のために用いて補完処理を行うことが可能である。また例えば特徴点記憶部7に補完に用いる位置座標を予め記憶させておき、抽出されなかった特徴点が特定された場合は、補完部127がこの位置座標を読み出して補完処理を行ってもよい。
When the
さらに例えばその次のフレームにおける同じ種類の特徴点の位置座標を用いて補完するようにしてもよい。例えばその次に抽出された同じ種類の特徴点で補完するようにすると、補完用に用いる特徴点を一時的に記憶しておく必要がなくなる。なお本発明はこれらの例に限定するわけではなく、任意のやり方を採用して補完処理を行うことが可能である。また補完部は、特徴点編集部、および特徴点抽出部に設けることに限定するわけではなく、アニメーション作成システムに応じて任意の場所に設けることが可能である。 Further, for example, the position coordinates of the same type of feature point in the next frame may be used for complementation. For example, if complementation is performed with the same type of feature points extracted next, it is not necessary to temporarily store the feature points used for complementation. In addition, this invention is not necessarily limited to these examples, Complementary processing can be performed by adopting an arbitrary method. Further, the complementing unit is not limited to being provided in the feature point editing unit and the feature point extracting unit, but can be provided in any place according to the animation creation system.
1 アニメーション作成システム
3 映像入力部
5 特徴点抽出部
7 検索部
9 特徴点記憶部
1 Animation creation system
3 Video input section
5 Feature point extraction unit
7 Search part
9 Feature point storage
Claims (8)
該特徴点を編集する特徴点編集手段と、
該特徴点編集手段により編集された特徴点を基にして、前記キャラクタが動くアニメーションを作成するアニメーション作成手段とを含むアニメーション作成システムにおいて、該システムは、
前記特徴点抽出手段で抽出されなかった特徴点、および/または該抽出されなかった特徴点を含むフレームを特定する検索手段を含むことを特徴とするアニメーション作成システム。 A feature point extracting means for extracting a feature point for controlling the movement of the character from an image of a moving subject,
A feature point editing means for editing the feature points;
An animation creating system including an animation creating unit that creates an animation in which the character moves based on the feature point edited by the feature point editing unit.
An animation creation system comprising: a search unit for specifying a feature point that has not been extracted by the feature point extraction unit and / or a frame including the feature point that has not been extracted.
前記特徴点抽出手段は、該フレーム毎に前記特徴点を抽出し、
前記特徴点補完手段は、該特徴点抽出手段で抽出されなかった特徴点を、該抽出されなかった特徴点を含むフレームではない前記フレームの特徴点の位置情報を用いて補完することを特徴とするアニメーション作成システム。 The system of claim 2, wherein the video includes at least two frames;
The feature point extracting means extracts the feature points for each frame;
The feature point complementing means complements the feature points that have not been extracted by the feature point extracting means by using the position information of the feature points of the frames that are not the frames including the feature points that have not been extracted. Animation creation system.
該特徴点を編集する特徴点編集工程と、
該特徴点編集手段により編集された特徴点を基にして、前記キャラクタが動くアニメーションを作成するアニメーション作成工程とを含むアニメーション作成方法において、該方法は、
前記特徴点抽出工程で抽出されなかった特徴点、および/または該抽出されなかった特徴点を含むフレームを特定する検索工程を含むことを特徴とするアニメーション作成方法。 A feature point extracting step for extracting feature points for controlling the movement of the character from the video of the moving subject,
A feature point editing step for editing the feature points;
An animation creation method including an animation creation step of creating an animation in which the character moves based on the feature points edited by the feature point editing means.
An animation creating method comprising: a search step of identifying a feature point not extracted in the feature point extraction step and / or a frame including the feature point not extracted.
前記特徴点抽出工程は、該フレーム毎に前記特徴点を抽出し、
前記特徴点補完工程は、該特徴点抽出手段で抽出されなかった特徴点を、該抽出されなかった特徴点を含むフレームではない前記フレームの特徴点の位置情報を用いて補完することを特徴とするアニメーション作成方法。 The method of claim 6, wherein the video comprises at least two frames;
The feature point extraction step extracts the feature points for each frame;
The feature point complementing step complements a feature point that has not been extracted by the feature point extraction unit using position information of a feature point of the frame that is not a frame including the feature point that has not been extracted. How to create animation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006169921A JP2008003673A (en) | 2006-06-20 | 2006-06-20 | Animation creation system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006169921A JP2008003673A (en) | 2006-06-20 | 2006-06-20 | Animation creation system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008003673A true JP2008003673A (en) | 2008-01-10 |
Family
ID=39008020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006169921A Withdrawn JP2008003673A (en) | 2006-06-20 | 2006-06-20 | Animation creation system and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008003673A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014104172A1 (en) * | 2012-12-27 | 2014-07-03 | 国立大学法人北陸先端科学技術大学院大学 | Dynamic analysis method for polymer chain, manufacturing method for polymer, polymer, manufacturing method for synthetic polymer, and synthetic pollymer |
JP2014522528A (en) * | 2012-04-06 | 2014-09-04 | 騰訊科技(深▲セン▼)有限公司 | Method and apparatus for automatically reproducing facial expressions with virtual images |
CN106504303A (en) * | 2016-09-13 | 2017-03-15 | 广州华多网络科技有限公司 | A kind of method and apparatus for playing frame animation |
-
2006
- 2006-06-20 JP JP2006169921A patent/JP2008003673A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014522528A (en) * | 2012-04-06 | 2014-09-04 | 騰訊科技(深▲セン▼)有限公司 | Method and apparatus for automatically reproducing facial expressions with virtual images |
WO2014104172A1 (en) * | 2012-12-27 | 2014-07-03 | 国立大学法人北陸先端科学技術大学院大学 | Dynamic analysis method for polymer chain, manufacturing method for polymer, polymer, manufacturing method for synthetic polymer, and synthetic pollymer |
JPWO2014104172A1 (en) * | 2012-12-27 | 2017-01-12 | 国立大学法人北陸先端科学技術大学院大学 | Polymer chain dynamic analysis method, polymer production method, polymer, synthetic polymer production method, and synthetic polymer |
CN106504303A (en) * | 2016-09-13 | 2017-03-15 | 广州华多网络科技有限公司 | A kind of method and apparatus for playing frame animation |
CN106504303B (en) * | 2016-09-13 | 2019-11-26 | 广州华多网络科技有限公司 | A kind of method and apparatus playing frame animation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11450352B2 (en) | Image processing apparatus and image processing method | |
US20100079491A1 (en) | Image compositing apparatus and method of controlling same | |
US11003898B2 (en) | Creating videos with facial expressions | |
US11758082B2 (en) | System for automatic video reframing | |
US20130229581A1 (en) | Juxtaposing still and dynamic imagery for cliplet creation | |
US9679415B2 (en) | Image synthesis method and image synthesis apparatus | |
CN111008927B (en) | Face replacement method, storage medium and terminal equipment | |
JP3810943B2 (en) | Image processing apparatus, image processing method, and recording medium recording image processing program | |
US20110080410A1 (en) | System and method for making emotion based digital storyboard | |
KR100411760B1 (en) | Apparatus and method for an animation image synthesis | |
US20220292690A1 (en) | Data generation method, data generation apparatus, model generation method, model generation apparatus, and program | |
CN111028318A (en) | Virtual face synthesis method, system, device and storage medium | |
JP2008003673A (en) | Animation creation system and method | |
JP2010170184A (en) | Specifying position of characteristic portion of face image | |
JP2010244321A (en) | Image processing for setting face model showing face image | |
US10417811B2 (en) | Recording medium, information processing apparatus, and control method | |
US8462163B2 (en) | Computer system and motion control method | |
JP2009065462A (en) | Device, method, and program for summarizing video | |
JP2012134775A (en) | Image processing system, imaging apparatus, and image processing program | |
JP5894505B2 (en) | Image communication system, image generation apparatus, and program | |
JP2016012248A (en) | Motion processing device, motion processing method, and program | |
CN113891079A (en) | Automatic teaching video generation method and device, computer equipment and storage medium | |
CN115689882A (en) | Image processing method and device and computer readable storage medium | |
JP2001209814A (en) | Image processor | |
JP2010245721A (en) | Face image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090901 |