JP2007257508A - Animation generation system and method - Google Patents

Animation generation system and method Download PDF

Info

Publication number
JP2007257508A
JP2007257508A JP2006083548A JP2006083548A JP2007257508A JP 2007257508 A JP2007257508 A JP 2007257508A JP 2006083548 A JP2006083548 A JP 2006083548A JP 2006083548 A JP2006083548 A JP 2006083548A JP 2007257508 A JP2007257508 A JP 2007257508A
Authority
JP
Japan
Prior art keywords
feature point
frame
feature points
feature
animation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006083548A
Other languages
Japanese (ja)
Inventor
Toshiya Yamada
敏也 山田
Toshiya Irie
俊也 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2006083548A priority Critical patent/JP2007257508A/en
Publication of JP2007257508A publication Critical patent/JP2007257508A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To smoothly perform an editing operation of a feature point extracted from a video image obtained by photographing a moving subject. <P>SOLUTION: The animation creation system 1 extracts a motion of the subject by the feature point from the video image 19 obtained by photographing the moving subject to crate animation by using the extracted feature point. The system includes: a video image input part 3; a feature point extraction part 5; a feature point storage part 7; a synthesizing part 9; a feature point editing part 11; an action data creation part 13; an animation creation part 15; and an output part 17. The synthesizing part 9 superimposes the feature point on an image corresponding to the feature point by using position coordinates of the feature point when the position coordinates of the feature point are stored in the feature point storage part 7. Thus, to what part of the image the feature point corresponds, is grasped at a glance, and the editing operation of the feature point is smoothly proceeded. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、入力された映像から抽出された特徴点を基にして、アニメーションを生成するシステムおよび方法に関する。   The present invention relates to a system and method for generating animation based on feature points extracted from an input video.

近年では、例えばテレビ、映画、ゲーム等においてコンピュータグラフィクス(Computer Graphics : CG)によるアニメーションがよく用いられるようになった。またこのようなアニメーションは、コミュニケーション分野において、例えばアバタ等のキャラクタに応用されることが増えており、とくに顔の動きを表現するアニメーションのニーズが高まりつつある。   In recent years, for example, animation using computer graphics (CG) has been frequently used in television, movies, games, and the like. In addition, such animations are increasingly applied to characters such as avatars in the communication field, and in particular, there is an increasing need for animations that express facial movements.

しかし、アニメーションの作成には、多大な費用と時間が必要である。よって、より容易なやり方で、自然な動きに見えるアニメーションを作成する方法およびシステムが求められていた。   However, creating an animation requires a great deal of money and time. Therefore, there has been a need for a method and system for creating an animation that looks natural in an easier way.

特許文献1には、入力映像から人物の頭部、目、口等を検出し、その情報を元にCG を用いてキャラクタの動きを制御したアニメーションを作成する方法が開示されている。しかし特許文献1では、例えばテレビ電話等の通信システムでの利用を想定しているため、例えば人物の頭部や目や口等の検出に失敗した場合や、誤って他の部分を頭部や目や口等として検出してしまった場合等に、これらの検出結果を修正する修正手段がなく、その結果、緻密なアニメーションを作成できないという問題を有していた。   Patent Document 1 discloses a method of detecting an individual's head, eyes, mouth, and the like from an input video, and creating an animation in which the movement of the character is controlled using CG based on the information. However, in Patent Document 1, since it is assumed to be used in a communication system such as a videophone, for example, when detection of a person's head, eyes, mouth, or the like fails, other parts are mistakenly placed on the head or There has been a problem that there is no correction means for correcting these detection results when they are detected as eyes or mouths, and as a result, a precise animation cannot be created.

また特許文献2には、マーカが付された被写体を複数の方向から撮影して、被写体が動いている映像を得、この映像から特徴点を抽出し、抽出した特徴点を基にしてアニメーションを作成する際に、抽出した特徴点の位置を補正したり、何かの陰に隠れて抽出されなかった特徴点を補間したりする等の、編集を行う方法が開示されている。しかし特許文献2では、これらの編集作業を補助する手段を含まないため、実際には作業量が膨大となってしまうという問題を有していた。
特開2003−85583号公報 特開平10−222668号公報
In Patent Document 2, a subject with a marker is photographed from a plurality of directions to obtain a moving image of the subject, feature points are extracted from the image, and animation is performed based on the extracted feature points. A method of editing such as correcting the position of the extracted feature point at the time of creation, or interpolating a feature point that is hidden behind something and not extracted is disclosed. However, since Patent Document 2 does not include means for assisting these editing operations, there is a problem that the amount of work actually becomes enormous.
JP 2003-85583 A JP-A-10-222668

本発明はこのような従来技術の欠点を解消し、アニメーションを作成するために抽出した特徴点の編集作業を効率よく行うことが可能であり、またキャラクタの自然な動きを表現することが可能なアニメーション生成方法およびシステムを提供することを目的とする。   The present invention eliminates the drawbacks of the prior art, can efficiently edit the feature points extracted to create an animation, and can express the natural movement of the character. An object of the present invention is to provide an animation generation method and system.

上述の課題を解決するために本発明では、抽出した特徴点を、対応する画像に重畳した重畳画像を作成してディスプレイ等の表示部に表示する。よって、この重畳画像を見ながら編集作業を行うことが可能になるため、例えばどの特徴点が被写体のどの部分から抽出されたのかを把握することが可能になり、特徴点の編集作業を効率よく行うことが可能になる。   In order to solve the above-described problem, in the present invention, a superimposed image in which the extracted feature points are superimposed on a corresponding image is created and displayed on a display unit such as a display. Therefore, it is possible to perform editing work while viewing this superimposed image. For example, it is possible to grasp which feature point is extracted from which part of the subject, and the feature point editing work can be performed efficiently. It becomes possible to do.

また特徴点の抽出はフレーム毎に行うことが可能であり、あるフレームの画像と対応する特徴点を重畳するだけではなく、他のフレームにおける特徴点や、この特徴点と対応する画像も重畳した重畳画像を作成することが可能である。さらに、他のフレームと対応する特徴点を重畳した場合は、特徴点同士を線で繋いでもよい。このように重畳画像に他のフレームにおける特徴点も重畳することより、特徴点の時間的な変化、すなわち特徴点から生成されるキャラクタの動きを把握することが可能になるため、キャラクタの自然な動きを表現することが可能になる。   Also, feature points can be extracted for each frame, not only the feature points corresponding to the image of a certain frame are superimposed, but also the feature points in other frames and the images corresponding to this feature point are also superimposed. It is possible to create a superimposed image. Further, when feature points corresponding to other frames are superimposed, the feature points may be connected by a line. By superimposing the feature points in other frames on the superimposed image in this way, it becomes possible to grasp the temporal change of the feature points, that is, the movement of the character generated from the feature points. It becomes possible to express movement.

また本発明では、時間的な経過と共に特徴点がどのように変化したかを把握することにより、その変化が適切なものか否かを判断する。具体的には、時間的に隣り合う特徴点間で距離を算出し、その後、この距離が通常考えられる範囲内であるか否かを判断する。このようにすることによって、例えば抽出ミス等により本来であれば存在しない位置に特徴点が存在しているフレーム等を容易に特定することが可能になり、特徴点の編集作業を効率よく行うことが可能になる。さらに本発明では、距離が通常考えられる範囲内にない特徴点を、予め設定された補正式を用いて補正する。よって、編集作業を自動的に行うことが可能になり、また一度に複数の編集作業を行うことが可能になる。   In the present invention, it is determined whether or not the change is appropriate by grasping how the feature point has changed with time. Specifically, a distance is calculated between temporally adjacent feature points, and then it is determined whether or not this distance is within a normally conceivable range. In this way, for example, it is possible to easily identify a frame in which a feature point exists in a position that does not exist originally due to an extraction mistake or the like, and the feature point editing work can be performed efficiently. Is possible. Furthermore, in the present invention, a feature point whose distance is not within the normally conceivable range is corrected using a preset correction formula. Therefore, editing work can be automatically performed, and a plurality of editing work can be performed at a time.

本発明によれば、効率よく特徴点を編集することが可能になる。また、キャラクタの自然な動きを表現することが可能になる。   According to the present invention, feature points can be edited efficiently. Further, it becomes possible to express the natural movement of the character.

次に添付図面を参照して本発明の実施例を詳細に説明する。図1は、本発明によるアニメーション作成システムの実施例の構成を概念的に示すブロック図である。図1において、アニメーション作成システム1は、映像入力部3、特徴点抽出部5、特徴点記憶部7、合成部9、特徴点編集部11、動作データ作成部13、アニメーション作成部15、および出力部17を含んでおり、動いている被写体を撮影した映像19から特徴点を抽出し、抽出された特徴点に基づいてアニメーションを作成し、出力部17にするシステムである。   Embodiments of the present invention will now be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram conceptually showing the structure of an embodiment of an animation creating system according to the present invention. In FIG. 1, an animation creation system 1 includes a video input unit 3, a feature point extraction unit 5, a feature point storage unit 7, a synthesis unit 9, a feature point editing unit 11, a motion data creation unit 13, an animation creation unit 15, and an output. This is a system that includes a unit 17, extracts feature points from a video 19 obtained by shooting a moving subject, creates an animation based on the extracted feature points, and outputs the animation as an output unit 17.

より具体的に説明すると、映像入力部3にはアニメーションで表現したい動きをしている被写体を撮影した映像19が入力される。映像入力部3にこのような映像19が入力されると、特徴点抽出部5がこの映像19からフレーム毎に特徴点を抽出する。特徴点は、アニメーションによりキャラクタの動きを制御する際に必要となる点、すなわち、動きを表現するのに必要となる主要な点である。   More specifically, the video input unit 3 is input with a video 19 obtained by photographing a subject that is moving in an animation. When such a video 19 is input to the video input unit 3, the feature point extraction unit 5 extracts feature points from the video 19 for each frame. The feature point is a point necessary for controlling the movement of the character by animation, that is, a main point necessary for expressing the movement.

抽出された特徴点は、特徴点記憶部7に記憶される。特徴点記憶部7に特徴点が記憶されると、特徴点編集部11が特徴点を編集する。その後、編集された特徴点を動作データ作成部13、アニメーション作成部15で用いてアニメーションが作成される。本発明の理解に直接関係のない部分は、図示を省略し冗長な説明を避ける。なお、本発明は各部の構成を本実施例に限定するわけではなく、アニメーション作成システム1に応じて任意の構成を採用することが可能である。   The extracted feature points are stored in the feature point storage unit 7. When the feature point is stored in the feature point storage unit 7, the feature point editing unit 11 edits the feature point. Thereafter, an animation is created using the edited feature points in the motion data creation unit 13 and the animation creation unit 15. Portions that are not directly related to the understanding of the present invention are not shown and redundant description is avoided. In the present invention, the configuration of each unit is not limited to the present embodiment, and any configuration can be adopted according to the animation creation system 1.

図1において、映像入力部3には、動いている被写体を撮影した映像19が入力される。この被写体の動きは、アニメーションで表現したい動き、すなわち、アニメーションで表現されるキャラクタにさせたい動きである。本実施例では、顔の動き、すなわち表情の変化をアニメーションで表現したいため、顔の各部、例えば、目、鼻、口、眉等を動かして、表情を変えている人間の顔の映像19が入力される。   In FIG. 1, the video input unit 3 receives a video 19 obtained by shooting a moving subject. This movement of the subject is a movement that is desired to be expressed by animation, that is, a movement that is desired to be made to be represented by the animation. In this embodiment, since the movement of the face, i.e., the change in facial expression, is to be expressed by animation, an image 19 of a human face changing the facial expression by moving each part of the face, for example, the eyes, nose, mouth, eyebrows, Entered.

映像入力部3は、このような映像19が入力されると、入力された映像19を特徴点抽出部5へ供給する。特徴点抽出部5は、入力された映像19から特徴点をフレーム毎に抽出し、抽出した特徴点の位置を算出する。なお本実施例ではフレーム毎に特徴点を抽出しているが、本発明はこれに限定するわけではない。   When such a video 19 is input, the video input unit 3 supplies the input video 19 to the feature point extraction unit 5. The feature point extraction unit 5 extracts feature points from the input video 19 for each frame, and calculates the position of the extracted feature points. In this embodiment, feature points are extracted for each frame, but the present invention is not limited to this.

ここで特徴点とは、上述したようにアニメーションによりキャラクタの動きを制御する際に必要となる点であって、動きを表現するのに必要となる主要な点である。なお動きに応じて任意の点を特徴点とすることが可能であり、例えば本実施例では、キャラクタの顔の表情が変化するアニメーションを作成するため、顔の動きを表現する際に必要な点を特徴点としている。具体的には図2に四角で示すように、右の眉毛の実質的に右端を特徴点A、右の眉毛の実質的に左端を特徴点B、左の眉毛の実質的に右端を特徴点C、左の眉毛の実質的に左端を特徴点D、右目の瞳を特徴点E、左眼の瞳を特徴点F、口の実質的に右端を特徴点G、口の実質的に左端を特徴点H、上唇の実質的に中央を特徴点I、および下唇の実質的に中央を特徴点Jとしている。   Here, the feature point is a point necessary for controlling the movement of the character by animation as described above, and is a main point necessary for expressing the movement. An arbitrary point can be used as a feature point in accordance with the movement. For example, in this embodiment, an animation in which the facial expression of the character changes is created. Is a feature point. Specifically, as shown by a square in FIG. 2, the right eyebrow has a substantially right end point, feature point A, the right eyebrow substantially left end feature point B, and the left eyebrow substantially right end feature point. C, feature point D at the substantially left end of the left eyebrows, feature point E at the pupil of the right eye, feature point F at the pupil of the left eye, feature point G at the substantially right end of the mouth, and feature point G at the substantially right end of the mouth The feature point H, the feature point I is the substantial center of the upper lip, and the feature point J is the substantial center of the lower lip.

図2は、特徴点を抽出する処理を概念的に示した図であり、アニメーション作成システム1に入力される映像19におけるあるフレーム25を概念的に示した図である。なお図2では1つのフレーム25のみを図示しているが、これは説明をわかりやすくするためであり、映像19には任意の数のフレームを含めることが可能である。また本発明は、顔の表情を撮影した映像19に限定するわけではなく、キャラクタにさせたい動きに応じて、任意の動きを撮影した映像19を採用することが可能であり、また被写体もアニメーションで表現するキャラクタに応じて任意の被写体を採用することが可能である。   FIG. 2 is a diagram conceptually showing the process of extracting feature points, and is a diagram conceptually showing a certain frame 25 in the video 19 input to the animation creation system 1. Although only one frame 25 is shown in FIG. 2, this is for ease of explanation, and the video 19 can include any number of frames. Further, the present invention is not limited to the image 19 in which the facial expression is photographed, but it is possible to adopt the image 19 in which any motion is photographed according to the motion desired to be made to the character, and the subject is also animated. It is possible to employ any subject according to the character represented by.

図2においてこれらの特徴点A〜Jは、任意のやり方を採用して抽出することが可能である。例えば、映像19を図2に示すようにフレーム毎に分け、各フレームの静止画像を画像処理することにより抽出してもよいし、または、特徴点として抽出すると定めた部分に予めマーカを付して、このようなマーカが付された被写体を撮影し、特徴点A〜Jを抽出する際は、対応するマーカの部分をフレーム毎に抽出するようにしてもよい。なお本発明はこれらに限定するわけではない。このようにして特徴点A〜Jを抽出すると、特徴点抽出部5は、抽出された特徴点A〜Jの位置をそれぞれ算出する。   In FIG. 2, these feature points A to J can be extracted by adopting an arbitrary method. For example, the video 19 may be divided into frames as shown in FIG. 2 and the still images of each frame may be extracted by image processing, or a marker may be added in advance to a portion determined to be extracted as a feature point. Thus, when a subject with such a marker is photographed and feature points A to J are extracted, the corresponding marker portion may be extracted for each frame. The present invention is not limited to these. When the feature points A to J are extracted in this way, the feature point extraction unit 5 calculates the positions of the extracted feature points A to J, respectively.

本実施例では図2に示すように、フレームの左下の端点51を原点、水平方向をx軸、および垂直方向をy軸とし、各特徴点A〜Jの位置を、フレーム毎に座標として算出する。算出された各特徴点の位置を示す座標、すなわち位置座標の一例を図3に示す。図3において、n は正の整数である。なお本実施例では、映像19のすべてのフレームから特徴点A〜Jを抽出し、位置座標を算出している。これは後段の動作データ作成部13で、映像19に含まれているすべてのフレームにおける特徴点A〜Jから動作データを作成するためである。しかし本発明はこれに限定するわけではなく、後段の動作データ作成部13で必要となる分、特徴点を抽出して位置座標を算出すればよい。また本実施例では説明を分かりやすくするために2次元にしているが、本発明はこれに限定するわけではなく、例えばx軸、およびy軸と直行するz軸をさらに設定して3次元にすることも可能である。   In this embodiment, as shown in FIG. 2, the lower left end point 51 of the frame is the origin, the horizontal direction is the x axis, and the vertical direction is the y axis, and the positions of the feature points A to J are calculated as coordinates for each frame. To do. An example of the coordinates indicating the calculated position of each feature point, that is, an example of the position coordinates is shown in FIG. In FIG. 3, n is a positive integer. In the present embodiment, the feature points A to J are extracted from all the frames of the video 19, and the position coordinates are calculated. This is because the subsequent operation data creation unit 13 creates the operation data from the feature points A to J in all frames included in the video 19. However, the present invention is not limited to this, and it is only necessary to extract the feature points and calculate the position coordinates as required by the operation data creation unit 13 in the subsequent stage. In this embodiment, two dimensions are used for the sake of easy understanding. However, the present invention is not limited to this. For example, the x axis and the z axis perpendicular to the y axis are further set to three dimensions. It is also possible to do.

特徴点抽出部5で算出された特徴点A〜Jの位置座標は、特徴点記憶部7へ送られる。特徴点記憶部7は、例えばメモリ等の記憶手段を含んでおり、送られてきた特徴点A〜Jの位置座標を記憶する。なお記憶には、任意のやり方を採用して記憶することが可能であり、例えば図3に示すように特徴点A〜J毎の表を作成して記憶することが可能である。また特徴点記憶部7には、特徴点以外に、任意のものを記憶しておくことが可能であり、例えば本実施例では、特徴点記憶部7に、特徴点A〜Jを抽出した際に用いた画像、すなわち各フレームの画像も記憶している。   The position coordinates of the feature points A to J calculated by the feature point extraction unit 5 are sent to the feature point storage unit 7. The feature point storage unit 7 includes storage means such as a memory, for example, and stores the position coordinates of the feature points A to J sent thereto. The storage can be performed by adopting an arbitrary method. For example, a table for each of the feature points A to J can be created and stored as shown in FIG. In addition to the feature points, any feature points can be stored in the feature point storage unit 7. For example, in this embodiment, when the feature points A to J are extracted in the feature point storage unit 7. The image used in the above, that is, the image of each frame is also stored.

特徴点記憶部7に特徴点A〜Jの位置座標が保存されると、動作データ作成部13がこの保存された特徴点A〜Jの位置座標から、公知の手法を用いてキャラクタの動きの時間的変化を定義したデータである動作データを作成する。動作データは、アニメーション作成部15へと供給され、アニメーション作成部15で、公知の手法を用いてキャラクタが動作データに従った動きをするアニメーションが作成される。作成されたアニメーションは、出力部17へと供給される。出力部17は、例えばディスプレイやプリンタ等の出力手段を含み、アニメーション作成部15から供給されたアニメーションを例えばディスプレイ等に表示したり、プリンタから紙へと出力する。   When the position coordinates of the feature points A to J are stored in the feature point storage unit 7, the motion data creation unit 13 uses the known method to determine the movement of the character from the stored position coordinates of the feature points A to J. Operation data, which is data defining temporal changes, is created. The motion data is supplied to the animation creating unit 15, and the animation creating unit 15 creates an animation in which the character moves according to the motion data using a known method. The created animation is supplied to the output unit 17. The output unit 17 includes an output unit such as a display or a printer, for example, and displays the animation supplied from the animation creation unit 15 on a display or the like, or outputs the animation from the printer to paper.

以上のようにして動いている被写体を撮影した映像19から動きを抽出し、この抽出した動きに基づいた動きをするキャラクタのアニメーションが作成される。しかし、特徴点抽出部5で抽出された特徴点A〜Jの位置座標をそのまま用いて動作データを作成すると、被写体の動きそのものがおかしかったり、映像がうまく撮影されていなかったり、特徴点A〜Jの抽出を誤っていたり等の場合があり、キャラクタの動きが自然な動きにならない動作データが作成され、キャラクタの動きがおかしいアニメーションが作成されてしまうため、位置座標を変更したり、抽出されていなかった特徴点を補完する等の編集作業を特徴点編集部11で行う。   A motion is extracted from the video 19 in which the moving subject is photographed as described above, and an animation of a character that moves based on the extracted motion is created. However, if motion data is created using the position coordinates of the feature points A to J extracted by the feature point extraction unit 5 as they are, the movement of the subject itself is strange, the video is not photographed well, the feature points A to In some cases, such as incorrect extraction of J, motion data that does not make the character move naturally is created, and an animation with strange character motion is created, so the position coordinates can be changed or extracted. Editing operations such as complementing the feature points that have not been performed are performed by the feature point editing unit 11.

特徴点編集部11は、特徴点記憶部7と接続し、特徴点記憶部7に保存された各特徴点A〜Jの位置座標を補正したり、何かの影になって抽出されなかった特徴点を補完する等の編集作業を行うものである。編集作業は、例えば図示しない操作部、例えばマウスやキーボード等から入力されるユーザの操作信号により行われたり、または予め設定された編集用のプログラム等により自動的に行われる。編集後の位置座標は再び特徴点記憶部7に供給され、特徴点記憶部7に記憶される。その後、動作データ作成部13が、補正や補間が行われた後の特徴点A〜Jの位置座標から動作データを作成し、アニメーション作成部15が、動作データ作成部13で作成された動作データを基にしてアニメーションを作成する。   The feature point editing unit 11 is connected to the feature point storage unit 7 and corrects the position coordinates of the feature points A to J stored in the feature point storage unit 7 or is not extracted as a shadow of something. Editing operations such as complementing feature points are performed. For example, the editing operation is performed by a user operation signal input from an operation unit (not shown) such as a mouse or a keyboard, or is automatically performed by a preset editing program. The edited position coordinates are supplied again to the feature point storage unit 7 and stored in the feature point storage unit 7. Thereafter, the motion data creation unit 13 creates motion data from the position coordinates of the feature points A to J after correction and interpolation, and the animation creation unit 15 creates the motion data created by the motion data creation unit 13. Create an animation based on

従来では、編集作業をユーザが図示しない操作部を操作して行う場合は、例えば特徴点のみを見ながら抽出した特徴点の位置を補正したり、何かの陰に隠れて抽出されなかった特徴点を補間したりするものであったため、例えば各特徴点が被写体のどの部分を示しているのかが不明となってしまい、作業量が膨大となってしまうという問題を有していた。   Conventionally, when an editing operation is performed by a user operating an operation unit (not shown), for example, the feature points extracted by looking only at the feature points are corrected, or the features that are hidden behind something are not extracted. Since the points are interpolated, for example, it is unclear which part of the subject each feature point represents, and there is a problem that the amount of work becomes enormous.

そこで本実施例では、アニメーション作成システム1は合成部9を含んでおり、この合成部9で、特徴点記憶部7に記憶された特徴点を、対応するフレームの画像に重畳し、重畳画像を作成する。その後作成した重畳画像を出力部17へと供給して、出力部17に含まれている例えばディスプレイ等に出力する。よって、特徴点編集部7における編集作業を、出力部17に出力された重畳画像を見ながら行うことが可能になるため、編集作業を効率よく行うことが可能になる。以下、詳細に説明する。   Therefore, in the present embodiment, the animation creation system 1 includes a synthesis unit 9. In this synthesis unit 9, the feature points stored in the feature point storage unit 7 are superimposed on the corresponding frame image, and the superimposed image is displayed. create. Thereafter, the generated superimposed image is supplied to the output unit 17 and output to, for example, a display included in the output unit 17. Therefore, the editing work in the feature point editing unit 7 can be performed while looking at the superimposed image output to the output unit 17, so that the editing work can be performed efficiently. Details will be described below.

図1において合成部9は、特徴点記憶部5、および出力部17と接続し、特徴点記憶部5に記憶されている位置座標を基にして、各特徴点を、この特徴点に対応する画像に重畳した重畳画像を作成するものである。   In FIG. 1, the synthesis unit 9 is connected to the feature point storage unit 5 and the output unit 17, and each feature point corresponds to this feature point based on the position coordinates stored in the feature point storage unit 5. A superimposed image superimposed on the image is created.

図4は合成部9で作成される重畳画像の一例を概念的に示した図である。図4において図2と同じ参照番号は同様の構成要素を示す。また図4において、各フレームは、図3に示す各フレームと対応しているものとする。例えば、図4に示す第1フレームの特徴点A1 の位置座標は、図3に示す第1フレーム61の特徴点A の位置座標、すなわち、(XA1,YA1)である。他の特徴点も同様である。なお図4では、3つのフレーム分の重畳画像61、63、65を示しているが、これは説明を分かりやすくするためであって、合成部は重畳画像を任意のフレーム分作成することが可能である。 FIG. 4 is a diagram conceptually illustrating an example of the superimposed image created by the synthesis unit 9. 4, the same reference numerals as those in FIG. 2 denote the same components. In FIG. 4, each frame corresponds to each frame shown in FIG. For example, the position coordinates of the feature point A 1 of the first frame shown in FIG. 4 are the position coordinates of the feature point A 1 of the first frame 61 shown in FIG. 3, that is, (X A1, Y A1 ). The same applies to other feature points. In FIG. 4, superimposed images 61, 63, and 65 for three frames are shown. This is for ease of explanation, and the synthesis unit can create superimposed images for arbitrary frames. It is.

合成部9は、図4に示すような重畳画像61、63、65を作成するために、特徴点記憶部7に特徴点A〜Jの位置座標が記憶されると、これを読み出す。また、読み出した位置座標と対応する画像67、69、71を、例えば画像が記憶されている場所、例えば本実施例のように特徴点記憶部7に特徴点と一緒に記憶されている場合は特徴点記憶部7から、また例えば映像入力部3に記憶されている場合は映像入力部3等から読み出す。その後、読み出した位置座標と、この位置座標と対応する画像67、69、71とを重畳して重畳画像61、63、65を作成する。   When the position coordinates of the feature points A to J are stored in the feature point storage unit 7 in order to create the superimposed images 61, 63, and 65 as shown in FIG. Further, when the images 67, 69, 71 corresponding to the read position coordinates are stored together with the feature points in the feature point storage unit 7, for example, in a place where the images are stored, for example, in this embodiment, For example, when it is stored in the video input unit 3, it is read out from the feature point storage unit 7. Thereafter, the read position coordinates and the images 67, 69, 71 corresponding to the position coordinates are superimposed to create superimposed images 61, 63, 65.

例えば図4における重畳画像61の場合では、特徴点記憶部7から第1フレームにおける各特徴点A1〜J1の位置座標と、特徴点A1〜J1と対応する第1フレームの画像67とを読み出し、第1フレームの画像67における各位置座標で特定される位置に、特徴点A〜Jを描画、すなわち重畳して、重畳画像61を作成している。なお本発明は、本実施例のように抽出したすべての特徴点A〜Jを重畳する事に限定するわけではなく、ある特徴点のみ、例えば口の特徴点G〜Jというようにある特徴点のみを重畳することも可能である。なおこの場合用いる画像は、1つのフレーム全体の画像であってもよいし、ある特徴点と対応する画像、例えば、口の特徴点G〜Jならば対応する口のみの画像であってもよく、任意に設定することが可能である。 In the case of the superimposed image 61 in FIG. 4, for example, the first frame of the image 67 that correspond from the feature point storage unit 7 and the position coordinates of each feature point A 1 through J 1 in the first frame, and the feature point A 1 through J 1 And the feature points A to J are drawn at positions specified by the position coordinates in the image 67 of the first frame, that is, superimposed to create a superimposed image 61. Note that the present invention is not limited to superimposing all the extracted feature points A to J as in this embodiment, but only a certain feature point, for example, a mouth feature point G to J. It is also possible to superimpose only. Note that the image used in this case may be an image of one entire frame, or an image corresponding to a certain feature point, for example, an image of only the corresponding mouth if mouth feature points G to J are used. It is possible to set arbitrarily.

特徴点の重畳には、任意のやり方を採用することが可能である。例えば対応する画像における特徴点が重なる部分の画素値に、特徴点の画素値を加算することによって、画像と特徴点とを重畳してもよいし、また例えば、対応する画像の層と特徴点の層とを形成し、これらを重ね合わせることによって重畳してもよい。なお本発明はこれに限定するわけではない。   Arbitrary methods can be adopted for superimposing feature points. For example, the image and the feature point may be superimposed by adding the pixel value of the feature point to the pixel value of the portion where the feature point in the corresponding image overlaps, or for example, the layer and the feature point of the corresponding image These layers may be formed and overlapped by overlapping them. Note that the present invention is not limited to this.

このようにして合成部9で作成された重畳画像61、63、65は出力部17に供給され、例えば出力部17に含まれているディスプレイに出力されたり、また例えば出力部17に含まれているプリンタで印刷されて紙に出力される。よって特徴点編集部11における編集作業を、この重畳画像61、63、65を用いながら、具体的には出力部17に出力された重畳映像61、63、65を見ながら行うことが可能であるため、特徴点A〜Jが、画像61、63、65におけるどこの部分と対応しているのかを一目で把握することが可能になり、編集作業を効率よく行うことが可能になる。また特徴点A〜Jが重畳されているため、後段のアニメーション作成部15で作成されるキャラクタの動きを想定することが可能になり、キャラクタが自然な動きをするアニメーションを効率よく作成することが可能になる。なお本発明は、図4に示す例に限定するわけではなく、合成部9は、例えば図5、図6、図7、図8、および図9に示すように、特徴点A〜Jの時間的変化も把握可能になるように重畳画像を作成してもよい。   The superimposed images 61, 63, 65 created in this way by the synthesizing unit 9 are supplied to the output unit 17, for example, output to a display included in the output unit 17, or included in, for example, the output unit 17 Printed on a printer and output on paper. Therefore, it is possible to perform editing work in the feature point editing unit 11 while using the superimposed images 61, 63, 65, and specifically, watching the superimposed images 61, 63, 65 output to the output unit 17. Therefore, it is possible to grasp at a glance which part in the images 61, 63, and 65 the feature points A to J correspond to, and the editing work can be performed efficiently. In addition, since the feature points A to J are superimposed, it is possible to assume the movement of the character created by the animation creating unit 15 in the subsequent stage, and it is possible to efficiently create an animation in which the character moves naturally. It becomes possible. Note that the present invention is not limited to the example shown in FIG. 4, and the synthesis unit 9 performs the time of feature points A to J as shown in FIGS. 5, 6, 7, 8, and 9, for example. A superimposed image may be created so that a change in the image can be grasped.

図5は、合成部9で作成される重畳画像の別の一例を概念的に示した図である。図5において、図4と同じ参照番号は同様の構成要素を示すため説明を省略する。図5に示す例では、合成部9は、1つのフレームの画像に、この画像と対応する特徴点を重畳すると共に、別のフレームにおける特徴点も重畳して重畳画像を作成している。この別のフレームは、重畳される画像のフレームの前や後ろに位置するフレームにすることが可能である。   FIG. 5 is a diagram conceptually illustrating another example of the superimposed image created by the synthesis unit 9. In FIG. 5, the same reference numerals as those in FIG. In the example shown in FIG. 5, the synthesizing unit 9 creates a superimposed image by superimposing a feature point corresponding to this image on an image of one frame and also superimposing a feature point in another frame. This other frame can be a frame located in front of or behind the frame of the superimposed image.

例えば図5に示す例では、図4に示す第1フレームの画像67に、第1フレームにおける特徴点A1〜J1、および第2フレームにおける特徴点A2〜J2を重畳して重畳画像91を作成している。なお本発明はこれに限定するわけではなく、任意のフレームにおける特徴点重畳することが可能であり、また重畳する数も任意に設定することが可能である。例えば、あるフレームを中心として前、および後ろに位置する100フレームの中から、10フレーム毎に20個のフレームを選択し、選択された各フレームの特徴点を、あるフレームの画像に重畳して重畳画像を作成してもよい。なお本発明はこれに限定するわけではない。 For example, in the example shown in FIG. 5, the feature point A 1 to J 1 in the first frame and the feature point A 2 to J 2 in the second frame are superimposed on the image 67 of the first frame shown in FIG. 91 has been created. Note that the present invention is not limited to this, and it is possible to superimpose feature points in an arbitrary frame, and it is possible to arbitrarily set the number of superimpositions. For example, 20 frames are selected for every 10 frames from 100 frames located at the front and back of a certain frame, and the feature points of each selected frame are superimposed on the image of a certain frame. A superimposed image may be created. The present invention is not limited to this.

なおあるフレームの重畳画像に、別のフレームの特徴点を重畳する際は、例えば図5に示すように、表示される特徴点の形態、例えば特徴点の色や模様や形状等をフレーム毎に変えたほうが、フレームが変わることにより特徴点がどのように変化するのか、すなわち、特徴点の時間的な変化を把握することが可能になるため、好ましいが、本発明はこれに限定するわけではない。また図5に示す例では、他のフレームにおけるすべての特徴点を重畳しているが、本発明はこれに限定するわけではなく、例えば他のフレームの特徴点を重畳するのは、任意に設定した特徴点のみにすることも可能である。   When superimposing a feature point of another frame on a superimposed image of a frame, for example, as shown in FIG. 5, the form of the feature point to be displayed, for example, the color, pattern, or shape of the feature point is displayed for each frame. Although it is preferable to change how the feature points change by changing the frame, that is, it is possible to grasp the temporal change of the feature points, the present invention is not limited to this. Absent. In the example shown in FIG. 5, all feature points in other frames are superimposed, but the present invention is not limited to this, and for example, it is arbitrarily set to superimpose feature points in other frames. It is also possible to use only the feature points.

このように別のフレームの特徴点も重畳することにより、特徴点の時間的な変化を把握することが可能になるため、キャラクタの動きがより自然な動きとなるよう、特徴点を編集することが容易になる。その結果、キャラクタのより自然な動きを表現することが可能になる。   By superimposing the feature points of other frames in this way, it is possible to grasp the temporal change of the feature points, so edit the feature points so that the character moves more naturally. Becomes easier. As a result, it is possible to express more natural movement of the character.

図6は、合成部9で作成される重畳画像の別の一例を概念的に示した図である。図6において、図4、図5と同じ参照番号は同様の構成要素を示すため説明を省略する。図6に示す例では、合成部9は、1つのフレームの画像に、この画像と対応する特徴点、および別のフレームにおける特徴点を重畳し、さらに同じ種類の特徴点同士を線で繋いで重畳画像95を作成している。   FIG. 6 is a diagram conceptually illustrating another example of the superimposed image created by the synthesis unit 9. In FIG. 6, the same reference numerals as those in FIGS. 4 and 5 indicate the same components, and thus the description thereof is omitted. In the example shown in FIG. 6, the combining unit 9 superimposes feature points corresponding to this image and feature points in another frame on an image of one frame, and further connects the feature points of the same type with lines. A superimposed image 95 is created.

ここで同じ種類の特徴点とは、画像における同じ部分から抽出された特徴点である。例えば、第1フレームの特徴点H1と、第2フレームの特徴点H2とが同じ種類の特徴点の関係にある。よって合成部は、特徴点H1と特徴点H2とを線97で繋いでいる。他の特徴点も同様である。なお、例えば特徴点A1と特徴点A2のように、第1フレームと第2フレームとでほとんど位置が変化しない場合は、線で繋いでもよいし、逆に本実施例ように線で繋がないようにしてもよい。 Here, the same type of feature points are feature points extracted from the same portion of the image. For example, the feature point H1 of the first frame and the feature point H2 of the second frame have the same kind of feature point relationship. Therefore, the synthesis unit connects the feature point H1 and the feature point H2 with a line 97. The same applies to other feature points. For example, when the position hardly changes between the first frame and the second frame as in the feature point A 1 and the feature point A 2 , they may be connected by a line, or conversely, they are connected by a line as in this embodiment. It may not be possible.

また、フレームにおける特徴点の種類が多い場合は、例えば、本実施例のように特徴点の種類毎に線の種類を変えるようにしてどの特徴点がどのように変化するのかを一目で把握することが可能になるようにしてもよい。例えば、本実施例では、線で繋いでいる特徴点G、H、I、J毎に繋ぐ線の種類を変更している。なお本発明はこれに限定するわけではなく、繋ぐ線の種類は同じであってもよい。   When there are many types of feature points in the frame, for example, as in this embodiment, it is possible to grasp at a glance which feature points change by changing the type of line for each type of feature points. It may be possible to do this. For example, in this embodiment, the type of line to be connected is changed for each of the feature points G, H, I, and J connected by a line. In addition, this invention is not necessarily limited to this, The kind of line to connect may be the same.

このように同じ種類の特徴点同士を線で繋ぐことによって、特徴点の時間的な変化をより把握することが可能になる。なお本発明は、線で繋ぐことに限定するわけではなく、例えば図7に示すように、矢印で繋ぐことも可能であるし、また例えば図8に示すように同じ種類の特徴点の形態を同じにするようにして、特徴点の時間的な変化の把握を可能にしてもよい。図7、図8は、合成部9で作成される重畳画像の別の一例を概念的に示した図である。図7、図8において、図4、図5、図6と同じ参照番号は同様の構成要素を示すため説明を省略する。   By connecting the same kind of feature points with a line in this way, it becomes possible to further grasp the temporal change of the feature points. Note that the present invention is not limited to connecting with lines. For example, as shown in FIG. 7, it is possible to connect with arrows. For example, as shown in FIG. In the same manner, it may be possible to grasp temporal changes in feature points. 7 and 8 are diagrams conceptually illustrating another example of the superimposed image created by the synthesizing unit 9. FIG. 7 and FIG. 8, the same reference numerals as those in FIG. 4, FIG. 5, and FIG.

図7に示す重畳画像101では、同じ種類の特徴点同士を矢印で繋いでいる。なお図7に示す例では、特徴点の種類毎に矢印の種類を変えていないが、本発明はこれに限定するわけではなく、例えば特徴点の種類毎に矢印の種類を変えるようにしてもよい。また図8に示す重畳画像103では、特徴点の種類毎に特徴点の形態、すなわち色や模様や形状等を変えて、特徴点の時間的な変化を示している。具体的に説明すると、図8では左目の特徴点Eを右斜めに斜線が入った模様の四角形で表現し、右目の特徴点Fを左斜めに斜線が入った模様の四角形で表現している。他の特徴点も同様である。よって、おなじ形態の特徴点をたどることにより、特徴点の時間的な変化を把握することが可能である。   In the superimposed image 101 shown in FIG. 7, feature points of the same type are connected by arrows. In the example shown in FIG. 7, the type of arrow is not changed for each type of feature point, but the present invention is not limited to this. For example, the type of arrow may be changed for each type of feature point. Good. In the superimposed image 103 shown in FIG. 8, the feature point form, that is, the color, pattern, shape, or the like is changed for each type of feature point, and the temporal change of the feature point is shown. Specifically, in FIG. 8, the feature point E of the left eye is represented by a square with a diagonal pattern diagonally to the right, and the feature point F of the right eye is represented by a square with a diagonal pattern diagonally to the left. . The same applies to other feature points. Therefore, it is possible to grasp the temporal change of the feature points by following the feature points of the same form.

さらに図8では、時間的に前に位置するフレームの特徴点の大きさを、後ろに位置するフレームによりも特徴点の大きくすることによって、矢印で繋がなくても時間的な前後関係が一目でわかるようにしている。具体的には、図8では、第1フレームにおける特徴点A1〜J1の大きさを、第2フレームにおけるA2〜J2の大きさよりも大きくして、どちらが時間的に前のフレームにおける特徴点なのかを、矢印で繋がなくても把握できるようにしている。 Further, in FIG. 8, the size of the feature point of the frame positioned in front of the time is made larger than that of the frame positioned behind, so that the temporal context can be seen at a glance even if they are not connected by arrows. I understand it. Specifically, in FIG. 8, the size of the feature points A 1 to J 1 in the first frame is made larger than the size of A 2 to J 2 in the second frame, and which is the time in the previous frame in time. The feature points can be grasped without being connected with arrows.

なお本発明は、図5〜図8に示す例に限定するわけではなく特徴点の時間的な変化を把握することが可能であれば任意のやり方を採用することが可能である。例えば、特徴点、線、および矢印を、例えば時間的に前に位置するフレームから時間的に後ろに位置するフレームに向かって点滅するものにしたり、色が薄く、または濃くなるようにして、特徴点が変化してゆく方向を示すようにすることも可能である。   Note that the present invention is not limited to the examples shown in FIGS. 5 to 8, and any method can be adopted as long as it is possible to grasp temporal changes in feature points. For example, feature points, lines, and arrows, for example, blink from a frame that is temporally forward to a frame that is temporally backward, or have a lighter or darker color It is also possible to indicate the direction in which the points change.

また例えば図5〜図8に示すやり方を組み合わせて用いることも可能である。例えば、特徴点の種類も多く、また、重畳する数も多い場合等では、同じ種類の特徴点毎に形態を変更するようにし、さらに同じ種類の特徴点同士を線または矢印で繋ぐようにすると、特徴点の時間的な変化をより把握しやすくすることが可能になる。なお本発明はこれらに限定するわけではない。   For example, the methods shown in FIGS. 5 to 8 can be used in combination. For example, when there are many types of feature points and when the number of superimposed features is large, the form is changed for each feature point of the same type, and the feature points of the same type are connected with lines or arrows. It becomes possible to make it easier to grasp temporal changes of feature points. The present invention is not limited to these.

このように、あるフレームの画像に、この画像と対応する特徴点および別のフレームの特徴点を重畳し、さらに同じ種類の特徴点同士を線や矢印で繋いだり、同じ種類の特徴点の形状を統一することによって、特徴点の時間的な変化をより把握し易くすることが可能になるため、編集作業を円滑に行うことが可能になり、また自然な動きを形成することが可能になる。なお合成部9で作成される重畳画像は図5〜図8に示す例に限定するわけではなく、例えば図9に示すように、合成部は、重畳した他のフレームの特徴点と対応する画像も重畳した重畳画像を作成することも可能である。   In this way, the feature point corresponding to this image and the feature point of another frame are superimposed on the image of a certain frame, and the feature points of the same type are connected by lines and arrows, or the shape of the feature point of the same type By unifying, it becomes possible to make it easier to grasp temporal changes in feature points, so that editing work can be performed smoothly and natural movements can be formed. . Note that the superimposed image created by the combining unit 9 is not limited to the examples illustrated in FIGS. 5 to 8. For example, as illustrated in FIG. 9, the combining unit displays images corresponding to feature points of other superimposed frames. It is also possible to create a superimposed image.

図9は、合成部で作成された重畳画像の別の一例を概念的に示した図である。図9において、図4〜図8と同じ参照番号は同様の構成要素を示すため説明を省略する。図9に示す例では合成部9は、あるフレームの画像、このフレームと対応する特徴点、他のフレームの特徴点、および他のフレームと対応する画像を重畳して重畳画像111を作成する。   FIG. 9 is a diagram conceptually illustrating another example of the superimposed image created by the synthesis unit. In FIG. 9, the same reference numerals as those in FIGS. In the example illustrated in FIG. 9, the synthesis unit 9 creates a superimposed image 111 by superimposing an image of a certain frame, a feature point corresponding to this frame, a feature point of another frame, and an image corresponding to another frame.

具体的に説明すると、合成部9は、第1フレームの画像67を基準とし、この第1フレームの画像67に、第1フレームの特徴点A1〜J1、第2フレームの画像69、第2フレームの特徴点A2〜J2、および第3フレームの画像71、第3フレームの特徴点A3〜J3を重畳して重畳画像111を作成している。ここで基準とするフレーム、例えば本実施例では第1のフレームは、時間的変化を把握する際の開始の点となるフレームである。つまり、本実施例では、第1フレームを開始点として、第2フレーム、第3フレームにおける動きを把握している。なお基準とするフレームは把握したい動きに合わせて任意に設定することが可能である。 Specifically, the synthesizing unit 9 uses the first frame image 67 as a reference, and the first frame image 67 includes the first frame feature points A 1 to J 1 , the second frame image 69, and the second frame image 67. 2 feature points of the frame a 2 through J 2, and the image 71 of the third frame, and superimposes the characteristic point a 3 through J 3 of the third frame to create a superimposed image 111. The reference frame here, for example, the first frame in this embodiment, is a frame that becomes a starting point when grasping a temporal change. That is, in this embodiment, the movement in the second frame and the third frame is grasped from the first frame as a starting point. The reference frame can be arbitrarily set according to the movement to be grasped.

なお本実施例では、各フレームにおけるすべての特徴点A〜J、および特徴点A〜Jと対応する画像が重畳されているが、本発明はこれに限定するわけではなく、任意の特徴点のみ重畳することが可能であり、重畳した特徴点に応じた画像のみを重畳することも可能である。   In this embodiment, all feature points A to J in each frame and images corresponding to the feature points A to J are superimposed. However, the present invention is not limited to this, and only arbitrary feature points are included. It is possible to superimpose, and it is also possible to superimpose only images corresponding to the superimposed feature points.

例えば本実施例を用いて説明すれば、各フレームにおける口の特徴点のみ変化するため、この口の特徴点、すなわち特徴点G、H、I、J を重畳し、この口の特徴点G、H、I、J と対応する部分、すなわち口のみの画像を3つのフレーム分重畳することも可能である。このようにある部分のみ他のフレームの画像を重畳する場合は、基準とするフレームの画像、例えば本実施例では第1フレームの画像は、例えば口だけというような部分ではなく、画像全体を用いた方が、総合的な判断を行うことが可能になるため好ましいが本発明はこれに限定するわけではない。   For example, using the present embodiment, since only the mouth feature point in each frame changes, this mouth feature point, i.e., feature points G, H, I, J are superimposed, and this mouth feature point G, It is also possible to superimpose a portion corresponding to H, I, and J, that is, an image of the mouth only for three frames. When superimposing an image of another frame only on a certain part in this way, the image of the reference frame, for example, the image of the first frame in this embodiment, for example, uses the entire image, not the part of the mouth alone. However, the present invention is not limited to this because it is possible to make a comprehensive judgment.

このように別のフレームの画像の重畳する際は、特徴点の重畳と同様に任意のやり方を採用して重畳することが可能である。例えば、画素値を加算するようにしてもよいし、別のフレームの画像を別の層として形成し、この層を重ね合わせることで重畳してもよい。また重畳する際、基準とするフレーム以外のフレームの画像は、元のままでもよいし、例えば色を薄くしたり、半透明にしたり、点線にしたり、さらに例えば1色の濃淡のみで表した画像にする等、表示される形態を変えてもよい。例えば重畳する画像が多い場合に、このように色を薄くする等を行って重畳画像を見易くすることで、編集作業を円滑に行うことが可能になるが、本発明はこれに限定するわけではなく、任意のやり方を採用することが可能である。   As described above, when superimposing images of different frames, it is possible to superimpose by adopting an arbitrary method in the same manner as superimposing feature points. For example, pixel values may be added, or an image of another frame may be formed as another layer, and the layers may be overlapped to overlap. When superimposing, the image of the frame other than the reference frame may be the original, for example, the color is made light, semi-transparent, dotted, or an image represented by only one color shade, for example For example, the displayed form may be changed. For example, when there are a large number of images to be superimposed, it is possible to perform editing work smoothly by making the superimposed images easy to see by thinning the color in this way, but the present invention is not limited to this. It is possible to adopt any method.

以上のようにして別のフレームの画像も重畳したため、特徴点の時間的な変化の把握と共に、各特徴点が各フレームにおける所望の位置と対応しているか否かを一目で判断することが可能になり、編集作業を円滑に行うことが可能になり、また自然な動きになるよう特徴点を編集することが可能になる。なお他のフレームの画像を重畳した際も、図6、図7に示すように、同じ種類の特徴点を線や矢印で繋いでもよいし、また図8に示すように同じ種類の特徴点毎に形態をわけてもよく、任意に選択することが可能である。   Since the image of another frame is also superimposed as described above, it is possible to determine at a glance whether each feature point corresponds to a desired position in each frame while grasping the temporal change of the feature point. Thus, the editing operation can be performed smoothly, and the feature points can be edited so that the movement becomes natural. Even when images of other frames are superimposed, the same kind of feature points may be connected by lines or arrows as shown in FIGS. 6 and 7, or the same kind of feature points as shown in FIG. The form may be divided into any of these, and can be arbitrarily selected.

図10は、本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。図10において図1と同じ参照番号は同様の構成要素を示す。図10において、アニメーション作成システム201では、距離演算部203および判断部205を含み、距離演算部203で、時間的に隣り合う、すなわち前後の関係にある特徴点間の距離を算出して特徴点の時間的な変化量を得る。その後、判断部205でこの変化量が正常であるか否かを判断して変化量が多い特徴点を抽出し、特徴点編集部11でこの変化量が多い特徴点を編集する。よって変化量が多い特徴点、すなわち、自然な動きを形成しない特徴点を自動的に抽出することが可能であり、このような特徴点の編集を容易に行うことが可能になる。以下具体的に説明する。   FIG. 10 is a block diagram conceptually showing the structure of another embodiment of the animation creating system according to the present invention. 10, the same reference numerals as those in FIG. 1 indicate the same components. In FIG. 10, the animation creation system 201 includes a distance calculation unit 203 and a determination unit 205. The distance calculation unit 203 calculates a distance between feature points that are temporally adjacent, that is, in a front-rear relationship. The amount of change over time is obtained. Thereafter, the determination unit 205 determines whether or not the amount of change is normal, extracts feature points with a large amount of change, and the feature point editing unit 11 edits feature points with a large amount of change. Therefore, it is possible to automatically extract feature points having a large amount of change, that is, feature points that do not form a natural motion, and it is possible to easily edit such feature points. This will be specifically described below.

図10において、距離演算部203は、特徴点記憶部7と接続し、特徴点記憶部7に特徴点の位置座標が記憶されると、この位置座標を用いて時間的に隣り合う、すなわち時間的に前後の関係にあり、かつ同じ種類の特徴点間の距離を算出するものである。例えは本実施例では、特徴点をフレーム毎に算出しているため、隣り合うフレーム間の、同じ種類の特徴点の距離を算出する。   In FIG. 10, the distance calculation unit 203 is connected to the feature point storage unit 7, and when the position coordinates of the feature point are stored in the feature point storage unit 7, the distance calculation unit 203 is temporally adjacent using the position coordinates, that is, the time In other words, the distance between feature points of the same type is calculated. For example, in this embodiment, since the feature points are calculated for each frame, the distance between the same types of feature points between adjacent frames is calculated.

また判断部205は、距離演算部203と接続し、距離演算部203が算出した距離を用いて、特徴点の位置が正常であるか否かを判断するものである。本実施例では、判断部205には予め設定された値が記憶されており、判断部205はこの値を用いて算出した距離がこの値以上か否かを判断することにより、特徴点の位置が正常であるか否かを判断する。なお本発明はこれに限定するわけではなく、例えば判断部205において判断を行う毎に、図示しない操作部等から判断に用いる値が入力されるようにしてもよい。   The determination unit 205 is connected to the distance calculation unit 203 and determines whether or not the position of the feature point is normal using the distance calculated by the distance calculation unit 203. In this embodiment, the determination unit 205 stores a preset value, and the determination unit 205 determines whether or not the distance calculated using this value is equal to or greater than this value, thereby determining the position of the feature point. It is determined whether or not is normal. The present invention is not limited to this. For example, every time the determination unit 205 makes a determination, a value used for the determination may be input from an operation unit (not shown) or the like.

このような距離演算部203、および判断部205は、アニメーション作成システム201における任意の部分に設けることが可能であり、例えば、本実施例のように特徴点編集部11とは別に設けてもよいし、また例えば特徴点編集部11内に設けることも可能である。なお本発明はこれに限定するわけではない。   Such a distance calculation unit 203 and determination unit 205 can be provided in any part of the animation creation system 201. For example, the distance calculation unit 203 and the determination unit 205 may be provided separately from the feature point editing unit 11 as in the present embodiment. For example, it can be provided in the feature point editing unit 11. Note that the present invention is not limited to this.

このように図10に示す例では、距離演算部203、および判断部205を含むため、時間的な変化が大きい特徴点を容易に特定することが可能になり、その結果、例えば特徴点抽出部5において本来であれば特徴点ではない部分を特徴点として抽出してしまったフレームや、自然な動きとならない特徴点が存在するフレーム等を容易に検出することが可能になり、編集作業を円滑に行うことが可能になる。以下詳細に説明する。   As described above, in the example shown in FIG. 10, since the distance calculation unit 203 and the determination unit 205 are included, it is possible to easily identify a feature point having a large temporal change. As a result, for example, a feature point extraction unit In 5 it is possible to easily detect frames that have been extracted as non-feature points, and frames that have feature points that do not move naturally. It becomes possible to do. This will be described in detail below.

図11は、図10に示すアニメーション作成システム201における編集処理の処理手順の一例を示した流れ図である。図11において、例えば図示しない操作部等から距離を算出する指示が入力されると、距離演算部203は、時間的に前後に関係にあり、かつ同じ種類の特徴点間の距離を算出するために、本実施例では隣り合う2つのフレームにおける特徴点の位置座標を特徴点記憶部7から読み出す(ステップS1)。   FIG. 11 is a flowchart showing an example of a processing procedure of editing processing in the animation creating system 201 shown in FIG. In FIG. 11, for example, when an instruction for calculating a distance is input from an operation unit (not shown), the distance calculation unit 203 is temporally related to calculate the distance between feature points of the same type. In this embodiment, the position coordinates of the feature points in two adjacent frames are read from the feature point storage unit 7 (step S1).

例えば図3に示す特徴点A1〜J1および特徴点A2〜J2間の各距離を算出する場合では、距離演出部203は、第1フレームにおける特徴点A1〜J1の位置座標、および第2フレームにおける特徴点A2〜J2の位置座標を特徴点記憶部7から読み出す。なお読み出す特徴点は任意に設定することが可能であり、例えばすべての特徴点の位置座標を読み出すことも可能であるし、また例えば任意に選択された特徴点にすることも可能である。読み出す範囲も任意に設定することが可能である。例えば本実施例では、図3に示す第1フレームから第nフレームまでのフレームにおける特徴点間の距離を算出する。なお本発明はこれに限定するわけではない。 For example, when each distance between the feature points A 1 to J 1 and the feature points A 2 to J 2 shown in FIG. 3 is calculated, the distance effect unit 203 uses the position coordinates of the feature points A 1 to J 1 in the first frame. , And the position coordinates of the feature points A 2 to J 2 in the second frame are read from the feature point storage unit 7. Note that the feature points to be read can be arbitrarily set. For example, the position coordinates of all the feature points can be read, or for example, arbitrarily selected feature points. The reading range can also be set arbitrarily. For example, in the present embodiment, the distance between feature points in the frames from the first frame to the nth frame shown in FIG. 3 is calculated. The present invention is not limited to this.

距離演算部203は、隣り合う2つのフレームにおける各特徴点の位置座標を読み出すと、位置座標が算出されていない特徴点が存在するか否かを判断する(ステップS2)。このように判断を行うのは、特徴点として抽出すると設定した点が例えば何かの影になって抽出されていない場合は、位置座標が算出されていないために距離を算出することができなくなるからである。   When the distance calculation unit 203 reads the position coordinates of each feature point in two adjacent frames, the distance calculation unit 203 determines whether or not there is a feature point whose position coordinates have not been calculated (step S2). The determination is made in this way when the point set as the feature point is not extracted as a shadow, for example, because the position coordinates have not been calculated and the distance cannot be calculated. Because.

ステップS2における判断の結果、特徴点の位置座標が算出されている場合、距離演算部203はステップS3へ進み、位置座標を用いて隣り合うフレームにおける同じ種類の特徴点間の距離を算出する(ステップS3)。例えば、第1フレームにおける特徴点A1の位置座標と、第2フレームにおける特徴点A2の位置座標の距離を算出する。他の特徴点も同様である。 If the position coordinates of the feature points are calculated as a result of the determination in step S2, the distance calculation unit 203 proceeds to step S3, and calculates the distance between the same type of feature points in adjacent frames using the position coordinates ( Step S3). For example, the distance between the position coordinates of the feature point A 1 in the first frame and the position coordinates of the feature point A 2 in the second frame is calculated. The same applies to other feature points.

ここで距離の算出は、任意のやり方を採用して行うことが可能である。例えば本実施例のように特徴点の位置を、任意の点を原点とした座標平面で考えている場合では、例えば三平方の定理を用いて距離を算出してもよいし、また例えばある軸における変位量を距離とすることも可能である。具体的に特徴点A1と特徴点A2とを用いて説明すれば、特徴点A1の位置座標(XA1,YA1)、および特徴点A2の位置座標(XA2,YA2)とで三平方の定理を用いて距離を算出することも可能であるし、特徴点A1およびA2のx軸における変位、すなわちXA1からXA2を引いた値と、特徴点A1およびA2のy軸における変位、すなわちYA1からYA2を引いた値とを距離と考えることも可能である。なお本発明はこれらに限定するわけではなく、任意のやり方を採用することが可能である。 Here, the distance can be calculated by adopting an arbitrary method. For example, when the position of a feature point is considered on a coordinate plane with an arbitrary point as the origin as in the present embodiment, the distance may be calculated using, for example, the three-square theorem, or a certain axis, for example It is also possible to use the amount of displacement at as a distance. Specifically, using the feature point A 1 and the feature point A 2 , the position coordinates of the feature point A 1 (X A1 , Y A1 ) and the position coordinates of the feature point A 2 (X A2 , Y A2 ) It is also possible to calculate the distance using the three-square theorem, and the displacement of the feature points A 1 and A 2 on the x axis, that is, the value obtained by subtracting X A2 from X A1 and the feature points A 1 and It is possible to consider the displacement of A 2 in the y-axis, that is, the value obtained by subtracting Y A2 from Y A1 as the distance. In addition, this invention is not necessarily limited to these, It is possible to employ | adopt arbitrary methods.

距離が算出されると、算出された距離は判断部205へ供給される。本実施例では、判断部205には予め設定された設定値が記憶され、判断部205は、距離演算部203から距離が供給されると、この設定値と、供給された距離とを比較して、特徴点の時間的変化が適切なものか否かを判断する(ステップS4)。ここで設定値は任意の値を採用することが可能であり、例えば被写体の動き毎に設定した値であってもよいし、ユーザによって経験等により決められた値等にしてもよい。なお本発明はこれに限定するわけではない。   When the distance is calculated, the calculated distance is supplied to the determination unit 205. In this embodiment, the determination unit 205 stores a preset setting value. When the distance is supplied from the distance calculation unit 203, the determination unit 205 compares the set value with the supplied distance. Thus, it is determined whether or not the temporal change of the feature point is appropriate (step S4). Here, an arbitrary value can be adopted as the set value. For example, the set value may be a value set for each movement of the subject, or may be a value determined by experience by the user. Note that the present invention is not limited to this.

ステップS4における判断の結果、距離が設定された値よりも小さい場合は、ステップS6へ進み、距離を計算する残りのフレームがあるか否かを判断し、残りのフレームが無い場合は処理を終了する。逆に距離を計算するフレームがある場合はステップS1へ戻る。一方、ステップS4における判断の結果、距離が設定された値以上である場合は、ステップS5へ進み、合成部9に距離が設定された値以上の特徴点、すなわち時間的な変化がおかしい特徴点、および画像を用いて重畳画像を作成するよう伝える。   If the result of determination in step S4 is that the distance is smaller than the set value, the process proceeds to step S6 to determine whether there is a remaining frame for calculating the distance, and if there is no remaining frame, the process ends. To do. Conversely, if there is a frame for calculating the distance, the process returns to step S1. On the other hand, as a result of the determination in step S4, if the distance is equal to or greater than the set value, the process proceeds to step S5, where the feature point is equal to or greater than the value set for the distance in the combining unit 9, that is, the feature point having a strange temporal change. , And tell them to create a superimposed image using the image.

この合成部9へ伝える処理は、任意のやり方を採用することが可能である。例えば判断部205から合成部9に直接伝えてもよいし、また例えば特徴点格納部7を経由して伝えてもよい。例えば本実施例では、特徴点格納部7における、時間的な変化がおかしい特徴点の位置座標に、時間的な変化がおかしい旨を伝えるための予め設定された情報を付加することで、合成部9に時間的な変化がおかしい特徴点の存在を伝えている。なお本発明はこれに限定するわけではない。合成部9では重畳画像を作成して出力部17に出力させて、そのフレームに位置のおかしい特徴点が存在していることをユーザに知らせる(ステップS5)。   Any method can be adopted for the processing to be transmitted to the synthesis unit 9. For example, the information may be transmitted directly from the determination unit 205 to the synthesis unit 9, or may be transmitted via the feature point storage unit 7, for example. For example, in the present embodiment, by adding preset information for notifying that the temporal change is strange to the position coordinates of the characteristic point having a strange temporal change in the characteristic point storage unit 7, 9 tells us about the existence of strange feature points that change over time. Note that the present invention is not limited to this. The synthesizing unit 9 creates a superimposed image and outputs it to the output unit 17 to notify the user that there is a feature point having a strange position in the frame (step S5).

なお2つのフレーム間の距離を計算しているため、正常ではない位置にある特徴点は、計算に用いたフレームのうちどちらか一方のフレームにおける特徴点である。よって判断部205は距離の計算に用いた2つのフレームうち、正常な位置にない特徴点は、どちらのフレームにおけるものなのかをさらに判断し、特定した1つのフレームのみを合成部9に知らせるようにしてもよいし、逆に判断せずに両方のフレームを位置がおかしいものとして合成部9に知らせるようにしてもよく、任意のやり方を採用することが可能である。   Since the distance between the two frames is calculated, the feature point at an abnormal position is a feature point in one of the frames used for the calculation. Therefore, the determination unit 205 further determines which of the two frames used for the distance calculation is a feature point that is not in a normal position, and informs the synthesis unit 9 of only one specified frame. Alternatively, both frames may be notified to the synthesizing unit 9 as being out of position without making a determination in reverse, and any method can be adopted.

具体的に説明すると、例えば、第1フレームと第2フレームとの間で距離を算出し判断部205で判断した結果、特徴点Hの距離が設定値よりも長いと判断された場合に、判断部は特徴点H1と特徴点H2のどちらがおかしいのかをさらに判断してもよいし、例えば本実施例のように、どちらも位置がおかしいものとし、ユーザに判断させるようにしてもよい。 Specifically, for example, when the distance between the first frame and the second frame is calculated and the determination unit 205 determines that the distance of the feature point H is longer than the set value, the determination is made. The unit may further determine which of the feature point H 1 and the feature point H 2 is wrong, or both may have a wrong position as in the present embodiment, for example, and the user may be allowed to determine.

図12は、重畳画像の一例を概念的に示した図であって、出力部17における出力例を概念的に示した図である。図12において図4と同じ参照番号は同様の構成要素を示す。本実施例では図12に示すように、どちらも位置がおかしいものとして出力し、ユーザにどちらがおかしいのかを判断させ、おかしい方を修正させる。また本実施例では、位置がおかしいと判断された特徴点H1を含む第1フレーム、および特徴点H2を含む第2フレームの輪郭を太くしてユーザにフレームに位置がおかしい特徴点があることを知らせている。   FIG. 12 is a diagram conceptually illustrating an example of the superimposed image, and is a diagram conceptually illustrating an output example in the output unit 17. 12, the same reference numerals as those in FIG. 4 denote the same components. In this embodiment, as shown in FIG. 12, both are output as being in a wrong position, and the user is made to judge which is wrong, and the stranger is corrected. Further, in this embodiment, the outline of the first frame including the feature point H1 that is determined to be incorrect and the second frame including the feature point H2 are thickened so that the user has a feature point with an incorrect position in the frame. I know.

なお本発明は図12に示す例に限定するわけではなく、例えば図示しないが重畳画像の背景の色を変えたり、位置がおかしい特徴点の形状を変えたり、輪郭や背景や位置がおかしい特徴点などを点滅させてユーザに知らせるようにしてもよい。また例えば、図12のように位置のおかしいと判断された特徴点が存在するフレーム以外のフレーム、すなわち図12でいうと第3フレームについても重畳画像を作成して出力するのではなく、位置のおかしい特徴点が存在するフレームのみ重畳画像を作成して出力することで、ユーザに知らせるようにしてもよい。   Note that the present invention is not limited to the example shown in FIG. 12. For example, although not shown, the background color of the superimposed image is changed, the shape of the feature point having a wrong position is changed, or the feature point having a strange outline, background, or position is used. Etc. may be notified to the user by blinking. Also, for example, instead of creating and outputting a superimposed image for a frame other than the frame in which the feature point determined to be out of position exists as shown in FIG. 12, that is, the third frame in FIG. The user may be notified by creating and outputting a superimposed image only for frames in which strange feature points exist.

さらに例えば図13に示すように、例えば第3フレームにおける特徴点も重畳した重畳画像209を作成してもよく、任意に選択することが可能である。なお本発明は図12、図13に示す例に限定するわけではなく、任意のやり方を採用し、ユーザに位置のおかしい特徴点の存在を知らせることが可能である。   Furthermore, for example, as shown in FIG. 13, a superimposed image 209 in which feature points in the third frame are also superimposed may be created, and can be arbitrarily selected. Note that the present invention is not limited to the examples shown in FIGS. 12 and 13, and any method can be adopted to notify the user of the presence of a feature point having a wrong position.

図13は、ユーザに知らせる際の出力部の出力画面の別の一例を概念的に示した図である。図13において図5〜図8と同じ参照番号は同様の構成要素を示す。図13では、第2フレームにおける画像67に第1〜第3のフレームにおける特徴点A〜Jを重畳し、重畳画像を作成している。なお図13に示す例では、第2フレームの画像67に特徴点A〜Jが重畳されているが、本発明はこれに限定するわけではなく、第1フレームと第2フレームとで距離を算出しているため、少なくともどちらか一方の画像に第1フレームおよび第2フレームの特徴点A〜Jが重畳されればよく、どちらを採用するかは任意に設定することが可能である。   FIG. 13 is a diagram conceptually illustrating another example of the output screen of the output unit when notifying the user. 13, the same reference numerals as those in FIGS. 5 to 8 denote the same components. In FIG. 13, the feature points A to J in the first to third frames are superimposed on the image 67 in the second frame to create a superimposed image. In the example shown in FIG. 13, the feature points A to J are superimposed on the image 67 of the second frame, but the present invention is not limited to this, and the distance is calculated between the first frame and the second frame. Therefore, it is sufficient that the feature points A to J of the first frame and the second frame are superimposed on at least one of the images, and it is possible to arbitrarily set which one is adopted.

ユーザへ知らせた後は、ステップS6へ進み、残りのフレームがあるか否かを判断する(ステップS6)。その結果、残りのフレームがある場合はステップS1へと戻る。逆に無い場合は処理を終了する。例えば本実施例の場合では、次のフレームである第3フレームにおける特徴点A3〜J3を読み出し、第2フレームと第3フレームとで距離を計算する。 After informing the user, the process proceeds to step S6, and it is determined whether there are any remaining frames (step S6). As a result, if there are remaining frames, the process returns to step S1. If not, the process ends. For example, in this embodiment, the feature points A 3 to J 3 in the third frame, which is the next frame, are read, and the distance is calculated between the second frame and the third frame.

一方ステップS2における判断の結果、位置座標が算出されていない特徴点が存在すると、距離演算部203はステップS5へ進み、合成部9に位置座標が存在しないフレームにおける特徴点、および画像を用いて重畳画像を作成するよう伝える。この合成部9へ伝える処理も、判断部205から合成部9へ伝える処理と同様、任意のやり方を採用することが可能である。合成部9は、このフレームにおける特徴点および画像を用いて重畳画像を作成して出力部17に出力させ、ユーザに抽出されていない特徴点が存在していることを知らせる。知らせた後は、ステップS6へ進み、残りのフレームがあるか否かを判断し、ある場合はステップS1へ戻り、無い場合は処理を終了する。   On the other hand, if there is a feature point whose position coordinates are not calculated as a result of the determination in step S2, the distance calculation unit 203 proceeds to step S5 and uses the feature points and images in the frame in which no position coordinates exist in the combining unit 9. Tell them to create a superimposed image. As for the processing to be transmitted to the synthesizing unit 9, an arbitrary method can be adopted as in the processing to be transmitted from the determining unit 205 to the synthesizing unit 9. The synthesizing unit 9 creates a superimposed image using the feature points and images in this frame and outputs them to the output unit 17 to inform the user that there are feature points that have not been extracted. After the notification, the process proceeds to step S6, where it is determined whether or not there are remaining frames. If there is, the process returns to step S1, and if not, the process ends.

このように図11に示す例では、距離を計算することによって位置がおかしい特徴点を検出するため、位置がおかしい特徴点を容易に発見することが可能になる。また、位置がおかしいと判断された場合は、その特徴点と、この特徴点と対応する画像とを重畳して重畳画像を作成するため、位置がおかしいと判断された特徴点を容易に正常な位置に補正することが可能であり、編集作業を円滑に進めることが可能になる。さらに距離を計算する際に、位置座標が存在するか否かを判断するため、正しく抽出されていなかった特徴点を容易に検出することが可能になる。   In this way, in the example shown in FIG. 11, since the feature point with the wrong position is detected by calculating the distance, the feature point with the wrong position can be easily found. If it is determined that the position is incorrect, the feature point and the image corresponding to the feature point are superimposed to create a superimposed image. The position can be corrected, and the editing operation can be performed smoothly. Further, when calculating the distance, since it is determined whether or not the position coordinates exist, it is possible to easily detect the feature points that have not been correctly extracted.

図14は、本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。図14において図1、および図10と同じ参照番号は同様の構成要素を示す。図14に示すアニメーション作成システムでは、特徴点編集部303は、補正式記憶部305を含んでいる。なお図14にでは、特徴点編集部303は補正式記憶部305を含むようになるだけであって、図1に示す特徴点編集部11と同様のものである。補正式記憶部305は、補正式が記憶されており、特徴点編集部303は、この補正式を用いて特徴点の位置座標を補正する。   FIG. 14 is a block diagram conceptually showing the structure of another embodiment of the animation creating system according to the present invention. In FIG. 14, the same reference numerals as those in FIGS. 1 and 10 denote the same components. In the animation creation system shown in FIG. 14, the feature point editing unit 303 includes a correction formula storage unit 305. In FIG. 14, the feature point editing unit 303 includes only the correction formula storage unit 305, and is the same as the feature point editing unit 11 shown in FIG. The correction formula storage unit 305 stores a correction formula, and the feature point editing unit 303 corrects the position coordinates of the feature points using the correction formula.

補正式は、距離算出部203で抽出されていない特徴点が見つかった場合や、判断部205において位置がおかしい特徴点が見つかった場合に、これらの特徴点の編集を自動的に行うために用いるものであって、本実施例では、抽出されていない特徴点や位置がおかしい特徴点をどのように編集したらよいかを定めた規則や、数式を補正式としている。   The correction formula is used to automatically edit these feature points when feature points that are not extracted by the distance calculation unit 203 are found or when feature points having an incorrect position are found by the determination unit 205. In this embodiment, the correction formula is a rule or a formula that defines how a feature point that has not been extracted or a feature point having a wrong position should be edited.

より具体的に説明すると、規則は、編集のやり方を定めたものである。例えば本実施例では、位置のおかしい特徴点の位置座標を、この特徴点が存在するフレームの前後のフレームの特徴点の中点にするという規則、および特徴点が抽出されていないフレームがある場合は、その前に位置するフレームにおける特徴点と同じ位置にするという規則等を用いている。なお本発明は上述した規則に限定するわけではなく、任意の規則を採用することが可能である。   More specifically, the rules define the way of editing. For example, in this embodiment, there is a rule that the position coordinates of a feature point having a strange position are set to the midpoints of feature points before and after the frame in which the feature point exists, and there is a frame from which no feature point has been extracted. Uses rules such as the same position as the feature point in the previous frame. In addition, this invention is not necessarily limited to the rule mentioned above, It is possible to employ | adopt arbitrary rules.

また数式は、特徴点の位置座標の時間的な変化を定義したものである。例えば本実施例では、数1のようにフレーム(t)を独立変数とし、従属変数を位置座標( x 、 y )とした関数等を用いている。なお本発明は本実施例に限定するわけではなく、任意の数式等を採用することが可能である。   The mathematical formula defines a temporal change in the position coordinates of the feature points. For example, in this embodiment, a function or the like using the frame (t) as an independent variable and the dependent variables as position coordinates (x, y) as shown in Equation 1 is used. Note that the present invention is not limited to the present embodiment, and any mathematical formula or the like can be adopted.

y= - at2 + b ・・・・(数1)
このような補正式は任意のやり方を採用して作ることが可能であり、例えば経験に基づいて作成したり、滑らかな動きと認められる動きに用いられている特徴点の位置座標から作成することが可能である。また補正式は、任意の種類作成しておくことが可能であり、例えばよく出現する動き毎に作成しておくことも可能であるし、また例えば、特徴点の直線的な変動を示した数式と、曲線的な変動を示した数式とを数種類ずつ作成しておき、位置のおかしい特徴点が存在するフレームの前後のフレームから、特徴点が直線的に変動するものである場合は、その変動に合う直線的な変動を示した数式を用いて修正し、また特徴点が曲線的に変動するものである場合はその変動に合う曲線的な変動を示した数式を用いて修正するということも可能である。なお本発明はこれに限定するわけではない。
y =-at 2 + b (1)
Such a correction formula can be created by adopting an arbitrary method. For example, it can be created based on experience, or can be created from the position coordinates of feature points used for motion recognized as smooth motion. Is possible. In addition, the correction formula can be created in any kind, for example, it can be created for each frequently appearing motion, and for example, a formula showing a linear variation of a feature point And several formulas showing curved fluctuations are created, and if the feature points fluctuate linearly from the frame before and after the frame where the feature points with strange positions exist, the fluctuations It is also possible to correct using a mathematical expression that shows a linear variation that fits the curve. Is possible. The present invention is not limited to this.

このように補正式を作成し、補正式記憶部305に記憶することで、距離演算部203や判断部205において位置のおかしい特徴点が見つかった場合は、補正式を選択するだけで自動的に特徴点を編集することが可能になり、また自動的に自然な動きとなるよう特徴点を編集することが可能になる。また補正式を用いることで複数のフレームを一度に編集することが可能になるため、より円滑に編集作業を行うことが可能になる。   By creating a correction formula in this way and storing it in the correction formula storage unit 305, if a feature point with a wrong position is found in the distance calculation unit 203 or the determination unit 205, it is automatically selected simply by selecting the correction formula. The feature points can be edited, and the feature points can be edited so that the movement automatically becomes natural. In addition, since a plurality of frames can be edited at a time by using the correction formula, the editing operation can be performed more smoothly.

図15は、図14に示すアニメーション作成システムにおいて、補正式を用いて編集作業を行う処理手順の一例を示した流れ図である。図15に示す例では、距離演算部や判断部で、うまく抽出されていなかった特徴点や、隣り合うフレーム間での距離が長い特徴点、すなわち時間的な変化が大きい特徴点を、補正式を用いて自動的に補正する。   FIG. 15 is a flowchart showing an example of a processing procedure for performing an editing operation using a correction formula in the animation creating system shown in FIG. In the example shown in FIG. 15, a feature point that has not been successfully extracted by the distance calculation unit or the determination unit, or a feature point having a long distance between adjacent frames, that is, a feature point having a large temporal change is represented by a correction formula. Automatically correct using.

図14、15において、アニメーション作成システム301は、例えば図11に示す処理によって、距離演算部203や判断部205で、うまく抽出されていなかった特徴点や、時間的な変化が大きい特徴点を特定し、このような特徴点を含むフレームの重畳画像を作成して出力部に出力する(ステップS1)。   14 and 15, the animation creation system 301 identifies feature points that have not been successfully extracted by the distance calculation unit 203 and the determination unit 205 or feature points that have a large temporal change, for example, by the processing illustrated in FIG. 11. Then, a superimposed image of the frame including such feature points is created and output to the output unit (step S1).

例えば、第2フレームの特徴点H2の位置が適切でないと判断され、図13に示すように出力部に重畳画像が出力されたとする。このように重畳画像が出力されると、特徴点編集部303は補正式記憶部305から補正式を選択する(ステップS2)。この選択は、例えば距離演算部203や判断部205から、うまく抽出されていなかった特徴点に関する情報が特徴点編集部303へ伝えられて、特徴点編集部303が自動的に行ってもよいし、また例えばユーサが出力部17に出力された重畳画像61、63、65を見ながら、図示しない操作部等を操作することによって選択してもよく、任意のやり方を採用することが可能である。例えば本実施例では、ユーザによって図示しない操作部等から、前後に位置するフレームの特徴点の中点を位置座標にするという上述した規則が選択される。 For example, the position of the feature point of H 2 second frame is determined to be inappropriate, the superimposed image is outputted to the output section as shown in FIG. 13. When the superimposed image is output in this way, the feature point editing unit 303 selects a correction formula from the correction formula storage unit 305 (step S2). This selection may be automatically performed by the feature point editing unit 303 when, for example, information about feature points that have not been successfully extracted is transmitted from the distance calculation unit 203 or the determination unit 205 to the feature point editing unit 303. In addition, for example, the user may select by operating an operation unit (not shown) while viewing the superimposed images 61, 63, 65 output to the output unit 17, and any method can be adopted. . For example, in the present embodiment, the above-described rule that the midpoint of the feature point of the frame located in the front and rear is used as the position coordinate is selected by the user from an operation unit (not shown).

このように補正式が選択されると、特徴点編集部303はこの補正式を用いて特徴点の位置座標を補正する(ステップS3)。具体的に説明すると、本実施例では、補正したいフレームの前後のフレームの中点にするという規則を用いて補正するため、第1フレームの特徴点H1の位置座標、および第3フレームの特徴点H3の位置座標から、これらの位置座標の中点309を求め、求められた中点309に第2フレームの特徴点H2を移動させる。なお中点309の算出は公知のやり方を採用して行うことが可能である。   When the correction formula is selected in this way, the feature point editing unit 303 corrects the position coordinates of the feature point using this correction formula (step S3). More specifically, in this embodiment, correction is performed using a rule that the midpoint of the frame before and after the frame to be corrected is used, so that the position coordinates of the feature point H1 of the first frame and the feature point of the third frame are used. A midpoint 309 of these position coordinates is obtained from the position coordinates of H3, and the feature point H2 of the second frame is moved to the obtained midpoint 309. The midpoint 309 can be calculated using a known method.

以上のようにして編集が終了すると、位置が適切でないと判断されたすべてのフレームに対して編集作業を行った否かを判断し(ステップS4)、残りのフレームが存在する場合は、ステップS1に戻って残りのフレームを同様に編集する。またすべてのフレームについて編集作業が終了した場合は、編集作業を終了する。   When editing is completed as described above, it is determined whether or not editing has been performed on all frames whose position is determined to be inappropriate (step S4). If there are remaining frames, step S1 is performed. Return to and edit the remaining frames in the same way. When the editing work is completed for all frames, the editing work is finished.

このようにして図14、図15に示す例では、補正式を用いて編集作業を行うため、誤って抽出された特徴点や、位置がおかしい特徴点等を自動的に編集することが可能になる。また補正式を用いるため、複数のフレームの編集作業を一度に行うことが可能になり、編集作業を効率よく行うことが可能になる。また自然な動きとなるように作成された補正式を用いることで、自然な動きとなるよう効率よく特徴点を編集することが可能になる。なお距離演算部203、判断部205で位置がおかしい特徴点等を特定した際に、図14、図15に示すように補正式を用いて編集するのか、それとも補正式を用いずに、例えば図示しない操作部等から直接、位置等を入力するのかは、必要に応じて任意に選択することが可能である。   In this way, in the examples shown in FIGS. 14 and 15, since the editing operation is performed using the correction formula, it is possible to automatically edit feature points extracted in error or feature points with incorrect positions. Become. Further, since the correction formula is used, it is possible to edit a plurality of frames at a time, and it is possible to efficiently perform the editing work. Further, by using a correction formula created so as to achieve natural movement, it becomes possible to efficiently edit feature points so as to achieve natural movement. In addition, when a feature point or the like whose position is strange is specified by the distance calculation unit 203 or the determination unit 205, editing is performed using a correction formula as shown in FIGS. 14 and 15 or without using the correction formula, for example, Whether the position or the like is directly input from the operation unit or the like not to be performed can be arbitrarily selected as necessary.

本発明によるアニメーション作成システムの実施例の構成を概念的に示すブロック図である。It is a block diagram which shows notionally the structure of the Example of the animation production system by this invention. 特徴点を抽出する処理を概念的に示した図である。It is the figure which showed notionally the process which extracts a feature point. 算出された各特徴点の位置座標を概念的に示した図である。It is the figure which showed notionally the calculated position coordinate of each feature point. 合成部で作成された重畳画像の一例を概念的に示した図である。It is the figure which showed notionally an example of the superimposed image produced in the synthetic | combination part. 重畳画像の別の一例を概念的に示した図である。It is the figure which showed notionally another example of the superimposed image. 重畳画像の別の一例を概念的に示した図である。It is the figure which showed notionally another example of the superimposed image. 重畳画像の別の一例を概念的に示した図である。It is the figure which showed notionally another example of the superimposed image. 重畳画像の別の一例を概念的に示した図である。It is the figure which showed notionally another example of the superimposed image. 重畳画像の別の一例を概念的に示した図である。It is the figure which showed notionally another example of the superimposed image. 本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。It is a block diagram which shows notionally the structure of another Example of the animation production system by this invention. 図10に示すアニメーション作成システムにおける、編集処理の処理手順の一例を示した流れ図である。11 is a flowchart illustrating an example of a processing procedure of editing processing in the animation creation system illustrated in FIG. 10. 図11に示す出力部における出力例を概念的に示した図である。It is the figure which showed notionally the example of an output in the output part shown in FIG. 図11に示す出力部における別の出力例を概念的に示した図である。It is the figure which showed notionally another output example in the output part shown in FIG. 本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。It is a block diagram which shows notionally the structure of another Example of the animation production system by this invention. 補正式を用いて編集作業を行う処理手順の一例を示した流れ図であるIt is the flowchart which showed an example of the process sequence which performs an edit operation | work using a correction formula.

符号の説明Explanation of symbols

1 アニメーション作成システム
3 映像入力部
5 特徴点抽出部
7 特徴点記憶部
9 合成部
1 Animation creation system
3 Video input section
5 Feature point extraction unit
7 Feature point storage
9 Synthesis section

Claims (20)

動いている被写体を撮影した少なくとも2つのフレームを含む映像が入力され、該映像から、キャラクタの動きを制御するための特徴点をフレーム毎に抽出する特徴点抽出手段と、
該特徴点を編集する特徴点編集手段と、
該編集された特徴点を基に前記キャラクタが動くアニメーションを作成するアニメーション作成手段とを含むアニメーション作成システムにおいて、該システムは、
前記第1の特徴点を、第1の特徴点と対応する第1の画像に重畳して重畳画像を作成する合成手段と、
該重畳画像を出力する出力部とを含むことを特徴とするアニメーション作成システム。
A feature point extracting means for inputting a video including at least two frames obtained by photographing a moving subject and extracting a feature point for controlling the movement of the character for each frame from the video;
A feature point editing means for editing the feature points;
An animation creating system including an animation creating means for creating an animation in which the character moves based on the edited feature point,
Combining means for superimposing the first feature point on a first image corresponding to the first feature point to create a superimposed image;
And an output unit for outputting the superimposed image.
請求項1に記載のアニメーション作成システムにおいて、前記合成手段はさらに、第1の特徴点を抽出した第1のフレーム以外の第2のフレームから抽出された第2の特徴点を重畳して前記重畳画像を作成することを特徴とするアニメーション作成システム。   2. The animation creating system according to claim 1, wherein the synthesizing unit further superimposes a second feature point extracted from a second frame other than the first frame from which the first feature point is extracted to superimpose the superimposition. An animation creation system characterized by creating images. 請求項2に記載のアニメーション作成システムにおいて、前記合成手段はさらに、第2の特徴点と対応する第2の画像を重畳して前記重畳画像を作成することを特徴とするアニメーション作成システム。   3. The animation creation system according to claim 2, wherein the synthesizing unit further creates the superimposed image by superimposing a second image corresponding to the second feature point. 請求項2または3に記載のシステムにおいて、前記合成手段は、前記重畳画像における同じ種類の特徴点を線で繋ぐことを特徴とするアニメーション作成システム。   4. The system according to claim 2, wherein the synthesizing unit connects feature points of the same type in the superimposed image with lines. 請求項2または3に記載のシステムにおいて、前記合成手段は、前記重畳画像における同じ種類の特徴点を矢印で繋ぐことを特徴とするアニメーション作成システム。   4. The system according to claim 2, wherein the synthesizing unit connects the same kind of feature points in the superimposed image with arrows. 請求項2ないし5のいずれかに記載のシステムにおいて、前記合成手段は、前記重畳画像における同じ種類の特徴点を同じ形態で表現することを特徴とするアニメーション作成システム。   6. The system according to claim 2, wherein the synthesizing unit represents the same type of feature points in the superimposed image in the same form. 請求項2ないし6のいずれかに記載のシステムにおいて、第2のフレームは、第1のフレームの前、および/または、後に位置するフレームであることを特徴とするアニメーション作成システム。   7. The system according to claim 2, wherein the second frame is a frame located before and / or after the first frame. 請求項1ないし7のいずれかに記載のシステムにおいて、該システムはさらに、
時間的に隣り合う前記特徴点の距離を算出する距離演算手段と、
該距離を用いて該特徴点の時間的な変化が適切であるか否かを判断する判断手段とを含み、
前記合成手段は、該判断手段により時間的な変化が適切ではないと判断された前記特徴点、および該特徴点と対応する画像を重畳した前記重畳画像を作成し、
前記出力部は、該重畳画像を出力することを特徴とするアニメーション作成システム。
The system according to any of claims 1 to 7, further comprising:
Distance calculating means for calculating the distance between the feature points adjacent in time;
Judging means for judging whether the temporal change of the feature point is appropriate using the distance;
The synthesizing unit creates the superimposed image on which the feature point determined to be inappropriate by the determining unit and the image corresponding to the feature point are superimposed,
The animation creating system, wherein the output unit outputs the superimposed image.
請求項8に記載のシステムにおいて、該システムはさらに、前記特徴点の位置を示す補正式を記憶する補正式記憶手段を含み、
前記特徴点編集手段は、前記判断手段により前記特徴点の時間的な変化が適切ではないと判断された前記特徴点を、該補正式を用いて編集することを特徴とするアニメーション作成システム。
9. The system according to claim 8, further comprising a correction formula storage means for storing a correction formula indicating the position of the feature point.
The animation creation system, wherein the feature point editing unit edits the feature point determined by the determining unit that the temporal change of the feature point is not appropriate using the correction formula.
請求項1ないし9のいずれかに記載のシステムにおいて、前記映像は、顔の動きを撮影した映像であることを特徴とするアニメーション作成システム。   The system according to claim 1, wherein the video is a video obtained by photographing a facial motion. 動いている被写体を撮影した少なくとも2つのフレームを含む映像が入力され、該映像から、キャラクタの動きを制御するための特徴点をフレーム毎に抽出する特徴点抽出工程と、
該特徴点を編集する特徴点編集工程と、
該編集された特徴点を基に前記キャラクタが動くアニメーションを作成するアニメーション作成工程とを含むアニメーション作成方法において、該方法は、
前記第1の特徴点を、第1の特徴点と対応する第1の画像に重畳して重畳画像を作成する合成工程と、
該重畳画像を出力する出力工程とを含み、
前記編集工程は、該出力された前記重畳画像を見ながら変種作業を行うことを特徴とするアニメーション作成方法。
A feature point extracting step of inputting a video including at least two frames obtained by photographing a moving subject and extracting a feature point for controlling the movement of the character for each frame from the video;
A feature point editing step for editing the feature points;
An animation creating step including creating an animation in which the character moves based on the edited feature points, the method comprising:
A synthesis step of superimposing the first feature point on a first image corresponding to the first feature point to create a superimposed image;
An output step of outputting the superimposed image,
The animation creating method, wherein the editing step performs a variation work while viewing the outputted superimposed image.
請求項11に記載のアニメーション作成方法において、前記合成工程はさらに、第1の特徴点を抽出した第1のフレーム以外の第2のフレームから抽出された第2の特徴点を重畳して前記重畳画像を作成することを特徴とするアニメーション作成方法。   12. The animation creation method according to claim 11, wherein the synthesis step further superimposes a second feature point extracted from a second frame other than the first frame from which the first feature point has been extracted to superimpose the superposition. An animation creation method characterized by creating an image. 請求項12に記載の方法において、前記合成工程はさらに、第2の特徴点と対応する第2の画像を重畳して前記重畳画像を作成することを特徴とするアニメーション作成方法。   13. The animation creation method according to claim 12, wherein the synthesis step further creates the superimposed image by superimposing a second image corresponding to the second feature point. 請求項12または13に記載の方法において、前記合成工程は、前記重畳画像における同じ種類の特徴点を線で繋ぐことを特徴とするアニメーション作成方法。   The method according to claim 12 or 13, wherein in the synthesis step, feature points of the same type in the superimposed image are connected by a line. 請求項12または13に記載の方法において、前記合成工程は、前記重畳画像における同じ種類の特徴点を矢印で繋ぐことを特徴とするアニメーション作成方法。   The method according to claim 12 or 13, wherein in the combining step, feature points of the same type in the superimposed image are connected by an arrow. 請求項12ないし15のいずれかに記載の方法において、前記合成工程は、前記重畳画像における同じ種類の特徴点を同じ形態で表現することを特徴とするアニメーション作成方法。   16. The method according to claim 12, wherein the synthesizing step represents the same kind of feature points in the superimposed image in the same form. 請求項12ないし16のいずれかに記載の方法において、第2のフレームは、第1のフレームの前、および/または、後に位置するフレームであることを特徴とするアニメーション作成方法。   17. The method according to claim 12, wherein the second frame is a frame located before and / or after the first frame. 請求項11ないし17のいずれかに記載の方法において、該方法はさらに、
時間的に隣り合う前記特徴点の距離を算出する距離演算工程と、
該距離を用いて該特徴点の時間的な変化が適切であるか否かを判断する判断工程とを含み、
前記合成工程は、該判断工程により時間的な変化が適切ではないと判断された前記特徴点、および該特徴点と対応する画像を重畳した前記重畳画像を作成し、
前記出力工程は、該重畳画像を出力し、
前記編集工程は、該出力された重畳画像を見ながら、前記時間的な変化が適切ではないと判断された特徴点を編集することを特徴とするアニメーション作成方法。
18. A method according to any of claims 11 to 17, further comprising:
A distance calculation step of calculating a distance between the feature points adjacent in time;
A determination step of determining whether the temporal change of the feature point is appropriate using the distance,
The synthesis step creates the superimposed image in which the feature point determined to be inappropriate in temporal change by the determination step and the image corresponding to the feature point are superimposed,
The output step outputs the superimposed image,
The animation creating method characterized in that the editing step edits a feature point that is determined to have an inappropriate temporal change while viewing the output superimposed image.
請求項18に記載の方法において、前記特徴点編集工程は、前記判断工程により時間的な変化が適切ではないと判断された前記特徴点を、該特徴点の位置を示す補正式を用いて編集することを特徴とするアニメーション作成方法。   19. The method according to claim 18, wherein the feature point editing step edits the feature point determined by the determination step that the temporal change is not appropriate using a correction formula indicating a position of the feature point. An animation creation method characterized by: 請求項11ないし19のいずれかに記載の方法において、前記映像は、顔の動きを撮影した映像であることを特徴とするアニメーション作成方法。   The method according to claim 11, wherein the video is a video obtained by photographing a facial motion.
JP2006083548A 2006-03-24 2006-03-24 Animation generation system and method Withdrawn JP2007257508A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006083548A JP2007257508A (en) 2006-03-24 2006-03-24 Animation generation system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006083548A JP2007257508A (en) 2006-03-24 2006-03-24 Animation generation system and method

Publications (1)

Publication Number Publication Date
JP2007257508A true JP2007257508A (en) 2007-10-04

Family

ID=38631659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006083548A Withdrawn JP2007257508A (en) 2006-03-24 2006-03-24 Animation generation system and method

Country Status (1)

Country Link
JP (1) JP2007257508A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101651979B1 (en) * 2015-08-12 2016-08-29 동서대학교 산학협력단 Method for inputting motion data by converting file format of moving image in Unity game engine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101651979B1 (en) * 2015-08-12 2016-08-29 동서대학교 산학협력단 Method for inputting motion data by converting file format of moving image in Unity game engine

Similar Documents

Publication Publication Date Title
US9013483B2 (en) Image processing apparatus and image processing method
US20100079491A1 (en) Image compositing apparatus and method of controlling same
JP5032343B2 (en) Method and apparatus for displaying a virtual object, and method and apparatus for overlaying a virtual object on an environmental image
JP4434890B2 (en) Image composition method and apparatus
US20230206531A1 (en) Avatar display device, avatar generating device, and program
US20040233224A1 (en) Image processor, image processing method, recording medium, computer program and semiconductor device
EP1852828A2 (en) Information processing apparatus and control method thereof, image processing apparatus, computer program, and storage medium
JP6178048B2 (en) Image processing apparatus, image processing method, and program
JP2010186288A (en) Image processing for changing predetermined texture characteristic amount of face image
WO2019163129A1 (en) Virtual object display control device, virtual object display system, virtual object display control method, and virtual object display control program
KR20150119621A (en) display apparatus and image composition method thereof
JP4871820B2 (en) Video display system and parameter generation method for the system
US20090225099A1 (en) Image processing apparatus and method
JP2010186216A (en) Specifying position of characteristic portion of face image
KR100411760B1 (en) Apparatus and method for an animation image synthesis
JP4702534B2 (en) Image processing apparatus, image processing method, and image processing program
JP4351023B2 (en) Image processing method and apparatus
JP2010218533A (en) Display picture design support device and program
EP2509321B1 (en) Projection apparatus, control method thereof, and program
JP2008276299A (en) Image composing apparatus, and image composing program
JP4328639B2 (en) Method and apparatus for adjusting subject detection information
KR101874760B1 (en) Information processing device, control method and recording medium
JP2007257508A (en) Animation generation system and method
JP2008003673A (en) Animation creation system and method
JP6893349B2 (en) Animation production system, animation production method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090602