JP2008003673A - Animation creation system and method - Google Patents

Animation creation system and method Download PDF

Info

Publication number
JP2008003673A
JP2008003673A JP2006169921A JP2006169921A JP2008003673A JP 2008003673 A JP2008003673 A JP 2008003673A JP 2006169921 A JP2006169921 A JP 2006169921A JP 2006169921 A JP2006169921 A JP 2006169921A JP 2008003673 A JP2008003673 A JP 2008003673A
Authority
JP
Japan
Prior art keywords
feature point
extracted
feature
unit
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006169921A
Other languages
Japanese (ja)
Inventor
Toshiya Yamada
敏也 山田
Toshiya Irie
俊也 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2006169921A priority Critical patent/JP2008003673A/en
Publication of JP2008003673A publication Critical patent/JP2008003673A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To smoothly perform editing work of a feature point which is extracted from a video obtained by photographing a moving subject. <P>SOLUTION: The animation creation system 1 is a system for extracting movement by extracting a feature point from a video 19 which has photographed a moving subject and using the feature point to create an animation, and includes: a video input part 3; a feature point extraction part 5; a retrieval part 7; a feature point storage part 9; a composition part 11; a feature point editing part 13; a movement data creation part 15; an animation creation part 17; and an output part 21. The retrieval part 7 identifies a frame which includes feature points that are not extracted. The composition part 11 creates a composed image of the identified frame so that it differs from a composed image of unidentified frames in display configuration. Thus, an editor can grasp frames which include feature points which are not extracted at a glance and perform editing work smoothly. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、入力された映像から抽出された特徴点を基にして、アニメーションを作成するシステムおよび方法に関する。   The present invention relates to a system and method for creating an animation based on feature points extracted from an input video.

近年では、例えばテレビ、映画、ゲーム等においてコンピュータグラフィクス(Computer Graphics : CG)によるアニメーションがよく用いられるようになった。またこのようなアニメーションは、コミュニケーション分野において、例えばアバタ等のキャラクタに応用されることが増えているため、とくに顔の動きを表現するアニメーションのニーズが高まりつつある。しかし、アニメーションの作成には、多大な費用と時間が必要である。よって、より容易なやり方で、自然な動きに見えるアニメーションを作成する方法およびシステムが求められていた。   In recent years, for example, animation using computer graphics (CG) has been frequently used in television, movies, games, and the like. In addition, since such animations are increasingly applied to characters such as avatars in the communication field, the need for animations that express facial movements is increasing. However, creating an animation requires a great deal of money and time. Therefore, there has been a need for a method and system for creating an animation that looks natural in an easier way.

例えば特許文献1には、入力映像から人物の頭部、目、口等を抽出し、その情報を元にCGを用いてキャラクタの動きを制御したアニメーションを作成する方法が開示されている。また特許文献2には、マーカが付された被写体を複数の方向から撮影して、被写体が動いている映像を得、この映像から特徴点を抽出し、抽出した特徴点を基にしてアニメーションを作成する際に、抽出した特徴点の位置を補正したり、何かの陰に隠れて抽出されなかった特徴点を補間したりする等の編集を行う方法が開示されている。また特許文献3には、映像から顔が写っている部分を抽出し、この顔の画像から顔の各部、例えば目や鼻や口等と対応する部分を特徴点として抽出する装置が開示されている。
特開2003−85583号公報 特開平10−222668号公報 特開2003−281539号公報
For example, Patent Document 1 discloses a method of extracting a person's head, eyes, mouth, and the like from an input video, and creating an animation in which the movement of the character is controlled using CG based on the information. In Patent Document 2, a subject with a marker is photographed from a plurality of directions to obtain an image in which the subject is moving, feature points are extracted from the image, and animation is performed based on the extracted feature points. A method of editing such as correcting the position of an extracted feature point or interpolating a feature point that is hidden behind something and not extracted at the time of creation is disclosed. Further, Patent Document 3 discloses an apparatus for extracting a part of a face from a video and extracting a part corresponding to each part of the face, for example, eyes, nose, mouth, etc. as a feature point from the face image. Yes.
JP 2003-85583 A Japanese Patent Laid-Open No. 10-222668 JP 2003-281539 A

しかし特許文献1では、例えばテレビ電話等の通信システムでの利用を想定しているため、例えば人物の頭部や目や口等の抽出に失敗した場合や、誤って他の部分を頭部や目や口等として抽出してしまった場合等に、これらの抽出ミスを修正する修正手段がなく、その結果、緻密なアニメーションを作成できないという問題を有していた。また特許文献2、および特許文献3では、編集作業を補助する手段を含まないため、実際には作業量が膨大となってしまうという問題を有していた。   However, in Patent Document 1, since it is assumed to be used in a communication system such as a video phone, for example, when extraction of a person's head, eyes, mouth, or the like fails, other parts are mistakenly placed on the head or There has been a problem that there is no correction means for correcting these extraction mistakes when they are extracted as eyes, mouths, etc., and as a result, a precise animation cannot be created. Further, Patent Document 2 and Patent Document 3 do not include means for assisting editing work, and thus have a problem that the amount of work actually becomes enormous.

本発明はこのような従来技術の欠点を解消し、アニメーションを作成するために抽出した特徴点の編集作業を効率よく行うことが可能であり、またキャラクタの自然な動きを表現することが可能なアニメーション生成方法およびシステムを提供することを目的とする。   The present invention eliminates the drawbacks of the prior art, can efficiently edit the feature points extracted to create an animation, and can express the natural movement of the character. An object of the present invention is to provide an animation generation method and system.

上述の課題を解決するために本発明では、抽出されなかった特徴点や、このような特徴点を含むフレームを自動的に特定する。よって、抽出されていなかった特徴点を補う補完作業を効率よく行うことが可能になる。なおこの特定には任意のやり方を採用することが可能である。例えば顔の特徴点を抽出する場合では、顔の各部、例えば口や目や眉等を特定してから特徴点を抽出するため、抽出されなかった特徴点の特定は、顔の各部を特定できたか否かを判断することによって行うことが可能である。   In order to solve the above-described problems, the present invention automatically specifies feature points that have not been extracted and frames that include such feature points. Therefore, it is possible to efficiently perform a complementing operation that compensates for feature points that have not been extracted. It is possible to adopt an arbitrary method for this specification. For example, when extracting facial feature points, feature points are extracted after identifying each part of the face, such as the mouth, eyes, and eyebrows. Therefore, identifying feature points that have not been extracted can identify each part of the face. This can be done by determining whether or not.

また本発明では、予め設定された位置座標や、抽出された特徴点の位置座標を記憶しておき、これらを用いて抽出されていなかった特徴点を自動的に補完する。よって、編集者は特徴点の位置のみを変更すればよくなるため、特徴点の編集作業をより効率よく行うことが可能になる。   Further, in the present invention, preset position coordinates and position coordinates of extracted feature points are stored, and feature points that have not been extracted are automatically complemented using these. Therefore, since the editor only needs to change the position of the feature point, the editing operation of the feature point can be performed more efficiently.

本発明によれば、効率よく特徴点を編集することが可能になる。   According to the present invention, feature points can be edited efficiently.

次に添付図面を参照して本発明の実施例を詳細に説明する。図1は、本発明によるアニメーション作成システムの実施例の構成を概念的に示すブロック図である。図1において、アニメーション作成システム1は、映像入力部3、特徴点抽出部5、検索部7、特徴点記憶部9、合成部11、特徴点編集部13、動作データ作成部15、アニメーション作成部17、および出力部21を含み、動いている被写体を撮影した映像23から特徴点を抽出することで被写体の動きを抽出し、この抽出された特徴点に基づいてアニメーションを作成し、出力部21に出力するシステムである。   Embodiments of the present invention will now be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram conceptually showing the structure of an embodiment of an animation creating system according to the present invention. In FIG. 1, an animation creation system 1 includes a video input unit 3, a feature point extraction unit 5, a search unit 7, a feature point storage unit 9, a synthesis unit 11, a feature point editing unit 13, an action data creation unit 15, and an animation creation unit. 17 and an output unit 21, extract feature points from the video 23 obtained by shooting the moving subject, extract the movement of the subject, create an animation based on the extracted feature points, and output unit 21 It is a system that outputs to.

アニメーション作成システム1についてより具体的に説明すると、映像入力部3にはキャラクタにさせたい動きをしている被写体の映像23が入力される。映像入力部3にこのような映像23が入力されると、特徴点抽出部5がこの映像23からフレーム毎に特徴点を抽出する。特徴点は、アニメーションによりキャラクタの動きを制御する際に必要となる点、すなわち、動きを表現するのに必要となる主要な点である。抽出された特徴点は、特徴点記憶部9に記憶される。特徴点記憶部9に特徴点が記憶されると、特徴点編集部13がこれらの特徴点を編集し、その後、編集された特徴点が動作データ作成部15、アニメーション作成部17で用いられてアニメーションが作成される。本発明の理解に直接関係のない部分は、図示を省略し冗長な説明を避ける。   The animation creation system 1 will be described more specifically. The video input unit 3 is input with a video 23 of a subject that is moving as a character. When such a video 23 is input to the video input unit 3, the feature point extraction unit 5 extracts feature points from the video 23 for each frame. The feature point is a point necessary for controlling the movement of the character by animation, that is, a main point necessary for expressing the movement. The extracted feature points are stored in the feature point storage unit 9. When feature points are stored in the feature point storage unit 9, the feature point editing unit 13 edits these feature points, and then the edited feature points are used by the motion data creation unit 15 and the animation creation unit 17. An animation is created. Portions that are not directly related to the understanding of the present invention are not shown and redundant description is avoided.

なお、本発明は各部の構成を本実施例に限定するわけではなく、アニメーション作成システム1に応じて任意の構成を採用することが可能である。またアニメーション作成システム1は、例えば1つの装置で実現してもよいし、複数の装置で実現してもよい。例えば、アニメーション作成システム1を複数の装置で実現する場合には、図1に点線で示すように、映像入力部3、および出力部21をアニメーション受信側の端末装置31に含ませ、また特徴点抽出部5、検索部7、特徴点記憶部9、合成部11、特徴点編集部13、動作データ作成部15、およびアニメーション作成部17をアニメーション提供側の端末装置33に含ませるようにしてもよい。   In the present invention, the configuration of each unit is not limited to the present embodiment, and any configuration can be adopted according to the animation creation system 1. The animation creation system 1 may be realized by, for example, a single device or a plurality of devices. For example, when the animation creation system 1 is realized by a plurality of devices, the video input unit 3 and the output unit 21 are included in the terminal device 31 on the animation receiving side as shown by the dotted lines in FIG. The extraction unit 5, the search unit 7, the feature point storage unit 9, the synthesis unit 11, the feature point editing unit 13, the motion data creation unit 15, and the animation creation unit 17 may be included in the terminal device 33 on the animation providing side. Good.

このように2つの端末装置31、33でアニメーション作成システム1を構成した場合では、端末装置31は映像23を端末装置33へ送り、また端末装置33から作成されたアニメーションを受信する。また端末装置33は、受信した映像23から特徴点を抽出して特徴点記憶部9に記憶し、この記憶した特徴点を編集してアニメーションを作成し、端末装置31に提供する。   When the animation creation system 1 is configured by the two terminal devices 31 and 33 as described above, the terminal device 31 sends the video 23 to the terminal device 33 and receives the animation created from the terminal device 33. Further, the terminal device 33 extracts feature points from the received video 23 and stores them in the feature point storage unit 9, edits the stored feature points to create an animation, and provides it to the terminal device 31.

また例えば、図示しないがアニメーション提供側の端末装置33をさらに複数の端末装置で構成することも可能である。例えば特徴点抽出部5、検索部7および特徴点記憶部9をアニメーション提供側の第1の端末装置に含ませ、合成部11、特徴点編集部13、動作データ作成部15、およびアニメーション作成部17をアニメーション提供側の第2の端末装置に含ませるようにすることも可能である。なお複数の端末装置で実現することに限定するわけではなく、アニメーション作成システム1を1つの端末装置で実現してもよい。このような場合では、各部は図示しない制御部によって制御、統括される。なお本発明はこれらの例に限定するわけではない。   Further, for example, although not shown, the terminal device 33 on the animation providing side can be configured by a plurality of terminal devices. For example, the feature point extraction unit 5, the search unit 7, and the feature point storage unit 9 are included in the first terminal device on the animation providing side, the synthesis unit 11, the feature point editing unit 13, the motion data creation unit 15, and the animation creation unit It is also possible to include 17 in the second terminal device on the animation providing side. Note that the present invention is not limited to being realized by a plurality of terminal devices, and the animation creation system 1 may be realized by a single terminal device. In such a case, each unit is controlled and integrated by a control unit (not shown). The present invention is not limited to these examples.

図1を用いて各部をより詳細に説明する。映像入力部3は、映像23が入力される部分である。この映像23は、動いている被写体を撮影したものである。また本実施例では映像23は、少なくとも2つのフレームを含んでいる。この映像23における被写体の動きは、アニメーション作成システム1で作成されるアニメーションで表現したい動き、すなわちアニメーションで表現されるキャラクタにさせたい動きである。例えば本実施例では、顔の動き、すなわち表情の変化をアニメーションで表現したいため、映像23は、顔の各部、例えば、目、鼻、口、眉等を動かして、表情を変えている人間の顔の映像である。   Each part will be described in more detail with reference to FIG. The video input unit 3 is a part to which the video 23 is input. This video 23 is an image of a moving subject. In this embodiment, the video 23 includes at least two frames. The movement of the subject in the video 23 is a movement to be expressed by an animation created by the animation creating system 1, that is, a movement to be made to be a character represented by the animation. For example, in this embodiment, since it is desired to express the movement of the face, that is, the change of the expression, by animation, the image 23 is obtained by moving each part of the face, for example, eyes, nose, mouth, eyebrows, etc. It is an image of the face.

映像入力部3は、このような映像23が入力されると、入力された映像23を特徴点抽出部5へ供給する。特徴点抽出部5は、入力された映像23から、フレーム毎に特徴点を抽出する部分である。例えば本実施例では特徴点抽出部5は、入力された映像をフレーム毎、すなわち静止画毎に分け、この静止画から特徴点として設定された点、例えば目の中央や口の上下左右端点等を特定し、次にこの特定した点の位置座標を算出して特徴点を抽出する。   When such a video 23 is input, the video input unit 3 supplies the input video 23 to the feature point extraction unit 5. The feature point extraction unit 5 is a part that extracts feature points for each frame from the input video 23. For example, in the present embodiment, the feature point extraction unit 5 divides the input video for each frame, that is, for each still image, and points set as feature points from this still image, for example, the center of the eye, the upper and lower left and right end points of the mouth, etc. Next, the position coordinates of the identified point are calculated, and the feature point is extracted.

特徴点は、上述したようにアニメーションによりキャラクタの動きを制御する際に必要となる点であって、動きを表現する際に主要となる点である。例えば本実施例では、キャラクタの顔の表情が変化するアニメーションを作成するため、図2に示すように顔の動きを表現する際に必要な点を特徴点としている。図2は、特徴点を抽出する処理を概念的に示した図であり、アニメーション作成装置1に入力される映像23におけるあるフレーム37を概念的に示した図である。なお図2では1つのフレーム37のみを図示しているが、これは説明をわかりやすくするためであり、映像23には任意の数のフレームを含めることが可能である。   As described above, the feature points are points that are necessary when controlling the movement of the character by animation, and are the main points when expressing the movement. For example, in this embodiment, in order to create an animation in which the facial expression of a character changes, points necessary for expressing facial movement are used as feature points as shown in FIG. FIG. 2 is a diagram conceptually showing a process of extracting feature points, and is a diagram conceptually showing a certain frame 37 in the video 23 inputted to the animation creating apparatus 1. In FIG. 2, only one frame 37 is shown, but this is for ease of explanation, and the video 23 can include any number of frames.

本実施例では図2に四角で示すように、右の眉毛の実質的に右端を特徴点A、右の眉毛の実質的に左端を特徴点B、左の眉毛の実質的に右端を特徴点C、左の眉毛の実質的に左端を特徴点D、右目の瞳を特徴点E、左眼の瞳を特徴点F、口の実質的に右端を特徴点G、口の実質的に左端を特徴点H、上唇の実質的に中央を特徴点I、および下唇の実質的に中央を特徴点Jとしている。なお本発明は図2に示す例に限定するわけではなく、動きに応じて任意の点を特徴点とすることが可能である。   In the present embodiment, as shown by a square in FIG. 2, the right eyebrow has a substantially right end point, the right eyebrow has a substantially left end feature point B, and the left eyebrow has a substantially right end feature point. C, feature point D at the substantially left end of the left eyebrows, feature point E at the pupil of the right eye, feature point F at the pupil of the left eye, feature point G at the substantially right end of the mouth, and feature point G at the substantially right end of the mouth The feature point H, the feature point I is the substantial center of the upper lip, and the feature point J is the substantial center of the lower lip. Note that the present invention is not limited to the example shown in FIG. 2, and an arbitrary point can be used as a feature point in accordance with movement.

よって、特徴点抽出部5は、フレーム毎に分けた各静止画から、これらの特徴点として設定された点を特定し、この点の位置を示す位置情報、例えば位置座標やある所定の点からの変化量等を算出して、特徴点の抽出を行う。この特徴点の抽出には、任意のやり方を採用することが可能である。例えば本実施例では図2に示すように映像23をフレーム毎の静止画に分け、この静止画を画像処理することによって、特徴点として設定された点A〜Jを特定する。その後、左下の端点39を原点、水平方向をx軸、および垂直方向をy軸として、点A〜Jの位置を示す座標、すなわち位置座標を算出して、特徴点A〜Jを抽出している。   Therefore, the feature point extraction unit 5 identifies points set as these feature points from each still image divided for each frame, and from position information indicating the position of these points, for example, position coordinates or certain predetermined points The feature point is extracted by calculating the amount of change of. An arbitrary method can be adopted for extracting the feature points. For example, in this embodiment, as shown in FIG. 2, the video 23 is divided into still images for each frame, and the still images are processed to identify points A to J set as feature points. After that, the coordinates indicating the position of points A to J, that is, the position coordinates are calculated with the lower left end point 39 as the origin, the horizontal direction as the x axis, and the vertical direction as the y axis, and the feature points A to J are extracted. Yes.

なお本発明はこの例に限定するわけではなく、任意のやり方を採用することが可能である。例えば特徴点として定めた部分にマーカを付した被写体を撮影し、特徴点A〜Jを抽出する際は、対応するマーカの部分を特定して、この特定したマーカの位置座標を求めるようにすることも可能である。またフレーム毎に特徴点を抽出することに限定するわけではなく、最終的に各フレームの静止画像の所定の位置と対応する特徴点を得ることができれば、特徴点毎に抽出することも可能である。なお本発明はこれに限定するわけではない。   In addition, this invention is not necessarily limited to this example, It is possible to employ | adopt arbitrary methods. For example, when photographing a subject with a marker attached to a portion determined as a feature point and extracting feature points A to J, the corresponding marker portion is specified and the position coordinates of the specified marker are obtained. It is also possible. It is not limited to extracting feature points for each frame, and can be extracted for each feature point as long as a feature point corresponding to a predetermined position of a still image of each frame can be finally obtained. is there. The present invention is not limited to this.

図3に、算出された各特徴点の位置座標の一例を示す。図3において、n は正の整数である。なお本実施例では、映像23のすべてのフレームから特徴点A〜Jを抽出している。これは後段の動作データ作成部13で、映像23に含まれているすべてのフレームにおける特徴点A〜Jから動作データを作成するためである。しかし本発明はこれに限定するわけではなく、後段の動作データ作成部13で必要となる分だけ特徴点を抽出することが可能である。また本実施例では説明を分かりやすくするために2次元にしているが、本発明はこれに限定するわけではなく、例えば作成するアニメーションが3次元の場合等では、x軸、およびy軸と直行するz軸をさらに設定して、3次元にすることも可能である。   FIG. 3 shows an example of the calculated position coordinates of each feature point. In FIG. 3, n is a positive integer. In this embodiment, feature points A to J are extracted from all frames of the video 23. This is because the subsequent operation data creation unit 13 creates motion data from the feature points A to J in all frames included in the video 23. However, the present invention is not limited to this, and it is possible to extract feature points as much as required by the subsequent operation data creation unit 13. In the present embodiment, two dimensions are used for ease of explanation, but the present invention is not limited to this. For example, when the animation to be created is three dimensions, the x axis and the y axis are orthogonal. It is also possible to further set the z-axis to be three-dimensional.

特徴点抽出部5で算出された特徴点A〜Jの位置座標は、特徴点記憶部9へ送られる。特徴点記憶部9は、例えばメモリ等の記憶手段を含み、送られてきた特徴点A〜Jの位置座標を記憶する。記憶には、任意のやり方を採用して記憶することが可能であり、例えば図3に示すように特徴点A〜J毎の表を作成して記憶してもよい。なお本発明はこれに限定するわけではない。また特徴点記憶部9には、特徴点以外に、任意のものを記憶しておくことが可能であり、例えば本実施例では、特徴点記憶部9に、特徴点A〜Jを抽出した際に用いた画像、すなわち各フレームの静止画像も記憶されている。   The position coordinates of the feature points A to J calculated by the feature point extraction unit 5 are sent to the feature point storage unit 9. The feature point storage unit 9 includes storage means such as a memory, for example, and stores the position coordinates of the sent feature points A to J. The storage can be performed by adopting an arbitrary method. For example, as shown in FIG. 3, a table for each feature point A to J may be created and stored. The present invention is not limited to this. In addition to the feature points, any feature points can be stored in the feature point storage unit 9. For example, in this embodiment, when the feature points A to J are extracted in the feature point storage unit 9. The images used in the above, that is, still images of each frame are also stored.

特徴点記憶部9に特徴点A〜Jの位置座標が保存されると、合成部11が、特徴点記憶部9に格納された特徴点A〜Jの位置座標を用いて、例えば図4に示すように各特徴点を、これらを抽出した際に用いた画像に重ねた合成画像43、45、47を作成する。作成された合成画像43〜47は、出力部21に含まれているディスプレイ等に出力される。図4は合成画像を概念的に示した図である。なお図4には説明を分かり易くするために3つのフレーム分しか示していないが、合成部21は任意の数の合成画像を作成することが可能である。   When the position coordinates of the feature points A to J are stored in the feature point storage unit 9, the combining unit 11 uses the position coordinates of the feature points A to J stored in the feature point storage unit 9, for example in FIG. As shown, composite images 43, 45, and 47 are created by superimposing each feature point on the image used when these are extracted. The created composite images 43 to 47 are output to a display or the like included in the output unit 21. FIG. 4 is a diagram conceptually showing a composite image. Although only three frames are shown in FIG. 4 for easy understanding, the synthesis unit 21 can create an arbitrary number of synthesized images.

本実施例では特徴点抽出部5がフレーム毎に特徴点A〜Jを抽出したため、合成部はフレーム毎に合成画像43〜47を作成し、これを横方向に連続させて表示している。なお、本発明はこれに限定するわけではなく、例えば合成画像を連続させて表示して、もとの映像23に特徴点を合成した映像にすることも可能である。このように合成画像43〜47を作成することにより、抽出された特徴点A〜Jが、抽出すると設定された点から抽出されているか否かを判断することが可能になり、また、フレームが変わるごとに特徴点A〜Jがどのように動くかを把握することが可能になるため、後段のアニメーション作成部15で作成されるキャラクタの動きを想定することが可能になる。   In the present embodiment, since the feature point extraction unit 5 extracts the feature points A to J for each frame, the synthesis unit creates the composite images 43 to 47 for each frame and displays them continuously in the horizontal direction. Note that the present invention is not limited to this, and for example, it is possible to display a composite image continuously to form a video in which feature points are combined with the original video 23. By creating the composite images 43 to 47 in this way, it is possible to determine whether or not the extracted feature points A to J are extracted from the set points when extracted, and the frame Since it becomes possible to grasp how the feature points A to J move each time it changes, it is possible to assume the movement of the character created by the animation creating unit 15 at the subsequent stage.

また特徴点記憶部9に特徴点A〜Jの位置座標が保存されると、動作データ作成部15が公知の手法を用いて、この保存された特徴点A〜Jの位置座標から、キャラクタにさせる動きの時間的変化を定義したデータである動作データを作成する。その後動作データは、アニメーション作成部17へと供給され、アニメーション作成部17で公知の手法を用いて、キャラクタが動作データに従った動きをするアニメーションが作成される。作成されたアニメーションは、出力部21へと供給される。出力部21は、例えばディスプレイやプリンタ等の出力手段を含み、アニメーション作成部17から供給されたアニメーションを例えばディスプレイ等に表示したり、プリンタから紙へと出力する。   Further, when the position coordinates of the feature points A to J are stored in the feature point storage unit 9, the motion data creating unit 15 uses a known method to store the position coordinates of the feature points A to J on the character. Motion data, which is data defining temporal changes in motion to be generated, is created. Thereafter, the motion data is supplied to the animation creating unit 17, and the animation creating unit 17 creates an animation in which the character moves according to the motion data using a known method. The created animation is supplied to the output unit 21. The output unit 21 includes output means such as a display or a printer, and displays the animation supplied from the animation creating unit 17 on, for example, a display or outputs the paper from the printer to paper.

以上のようにして動いている被写体を撮影した映像23から動きを抽出し、この抽出した動きに基づいた動きをするキャラクタのアニメーションが作成される。しかし、特徴点抽出部5で抽出された特徴点A〜Jの位置座標をそのまま用いて動作データを作成すると、被写体の動きそのものがおかしかったり、被写体をうまく撮影できていない映像であったり、特徴点抽出部5で特徴点を認識できずにこれらが抽出されなかった等の場合があり、キャラクタの動きが自然な動きにならない動作データが作成され、キャラクタの動きがおかしいアニメーションが作成されてしまう。よって自然な動きと認められるアニメーションを作成するために、特徴点編集部13で、特徴点の位置を変更したり、抽出されていなかった特徴点を補完する等の編集作業が行われる。   A motion is extracted from the video 23 obtained by shooting the moving subject as described above, and an animation of a character that moves based on the extracted motion is created. However, if motion data is created using the position coordinates of the feature points A to J extracted by the feature point extraction unit 5 as they are, the movement of the subject itself may be strange, or the subject may not be captured well, The point extraction unit 5 may not be able to recognize the feature points, and these may not have been extracted, creating motion data that does not make the character's movement natural, and creating an animation with strange character movement. . Therefore, in order to create an animation that is recognized as a natural movement, the feature point editing unit 13 performs an editing operation such as changing the position of the feature point or complementing the feature point that has not been extracted.

特徴点編集部13は、特徴点記憶部9と接続し、特徴点記憶部9に保存された各特徴点A〜Jの位置座標を補正したり、何かの影になって抽出されなかった特徴点を補完する等の編集作業を行うものである。編集作業は、例えば図示しないマウスやキーボード等の操作部から入力される編集者の操作信号により行われたり、または予め設定された位置変更用のプログラム等により自動的に行われる。編集後は、編集作業によって新たに形成された位置座標が、再び特徴点記憶部9に供給されて特徴点記憶部9に記憶される。その後、動作データ作成部15が、補正や補間が行われた後の特徴点A〜Jの位置座標から動作データを作成し、アニメーション作成部17が、動作データ作成部15で作成された動作データを基にしてアニメーションを作成する。   The feature point editing unit 13 is connected to the feature point storage unit 9, corrects the position coordinates of each feature point A to J stored in the feature point storage unit 9, or is not extracted as a shadow of something Editing operations such as complementing feature points are performed. For example, the editing operation is performed by an operation signal of an editor input from an operation unit such as a mouse or a keyboard (not shown), or is automatically performed by a preset position change program. After editing, the position coordinates newly formed by the editing operation are supplied again to the feature point storage unit 9 and stored in the feature point storage unit 9. Thereafter, the motion data creation unit 15 creates motion data from the position coordinates of the feature points A to J after correction and interpolation, and the animation creation unit 17 creates the motion data created by the motion data creation unit 15. Create an animation based on

しかし従来では、抽出されなかった特徴点の補完作業は編集者による手作業で行われていたため、作業効率が悪いという問題を有していた。具体的に説明すると、従来では、編集者が出力部21に出力された合成映像を見ながら、特徴点が抽出されているか否かといった判断をし、その結果、抽出されていない特徴点がある場合は、例えばマウスやキーボード等を用いて特徴点を新たに形成したり、適当な位置座標を入力したりしていたため、作業効率が悪く、また抽出されていない特徴点が存在しても見落としてしまう等の問題があった。このような問題は、特徴点の数が増えれば増えるほど生じやすかった。そこで本実施例では検索部7を含み、この検索部7によって、特徴点抽出部5で抽出されなかった特徴点を自動的に特定し、その特徴点を補完するよう編集者に知らせる。以下、詳細に説明する。   Conventionally, however, feature points that have not been extracted have been supplemented manually by the editor, which has a problem of poor work efficiency. More specifically, in the past, the editor determines whether or not feature points have been extracted while viewing the composite video output to the output unit 21, and as a result, there are feature points that have not been extracted. In this case, for example, a new feature point is formed using a mouse or a keyboard, or an appropriate position coordinate is input, so that the work efficiency is low, and an unextracted feature point is overlooked. There was a problem such as. Such a problem is more likely to occur as the number of feature points increases. Therefore, in the present embodiment, the search unit 7 is included, and the search unit 7 automatically specifies the feature points that have not been extracted by the feature point extraction unit 5, and informs the editor to complement the feature points. Details will be described below.

図1において検索部7は、抽出されなかった特徴点を特定する部分である。図1に示す例では、検索部7は特徴点抽出部5に設けられ、特徴点抽出部5における抽出処理の際に形成される情報を用いて抽出されなかった特徴点を特定する。この抽出処理の際に形成される情報とは、特徴点を抽出する処理中に作成される情報であって、例えば図1に示す例では、図5に示すように特徴点として設定されている点の特定を行うか否かを判断した際に形成される情報を用いている。なお本発明はこれに限定するわけではなく、特徴点を抽出する処理中に作成される任意の情報を用いて、特徴点が抽出されたか否かを判断することが可能である。   In FIG. 1, the search unit 7 is a part that identifies feature points that have not been extracted. In the example shown in FIG. 1, the search unit 7 is provided in the feature point extraction unit 5 and identifies feature points that have not been extracted using information formed during the extraction process in the feature point extraction unit 5. The information formed at the time of this extraction process is information created during the process of extracting feature points. For example, in the example shown in FIG. 1, the information is set as feature points as shown in FIG. Information formed when it is determined whether or not to specify a point is used. Note that the present invention is not limited to this, and it is possible to determine whether or not feature points have been extracted using arbitrary information created during the process of extracting feature points.

図5は図1に示す特徴点抽出部5における特徴点の抽出処理、および検索部7における抽出されなかった特徴点の特定処理の処理手順の一例を示した図である。図5において、特徴点抽出部5は、映像入力部3から映像23が送られてくると、この映像23をフレーム毎の静止画像に分ける(ステップS1)。その後、特徴点抽出部5は、この静止画像から顔の領域、すなわち顔領域を抜き出す(ステップS2)。この顔領域の抜き出しには公知のやり方を採用することが可能である。例えば静止画像がカラー画像の場合では、予め設定した肌色の部分を静止画像から抜き出し、抜き出した肌色の部分から顔らしさの判断、例えば抜き出した部分が実質的に円形であるか否か等を判断することにより顔領域を抜き出すことが可能である。なお本発明はこのやり方に限定するわけではない。   FIG. 5 is a diagram showing an example of the processing procedure of the feature point extraction process in the feature point extraction unit 5 shown in FIG. 1 and the feature point specification process not extracted in the search unit 7. In FIG. 5, when the video 23 is sent from the video input unit 3, the feature point extraction unit 5 divides the video 23 into still images for each frame (step S1). Thereafter, the feature point extraction unit 5 extracts a face area, that is, a face area, from the still image (step S2). A known method can be adopted for extracting the face area. For example, when the still image is a color image, a predetermined flesh-colored part is extracted from the still image, and the facial appearance is determined from the extracted flesh-colored part, for example, whether or not the extracted part is substantially circular is determined. By doing so, it is possible to extract the face area. The present invention is not limited to this method.

次に特徴点抽出部5は、ステップS2の処理によって顔領域が抜き出されたか否かを、例えばその領域がどの程度円形であるかといった情報等から判断する(ステップS3)。この判断の結果、顔領域が抜き出されている場合はステップS4へ進み、顔領域から、例えば眉や、目や、鼻や、口等の、各部品毎のより小さい領域、すなわち顔部品領域をさらに抜き出す(ステップS4)。この顔部品領域の抜き出しにも公知のやり方を採用することが可能である。   Next, the feature point extraction unit 5 determines whether or not a face area has been extracted by the process of step S2, for example, from information such as how circular the area is (step S3). As a result of the determination, if the face area is extracted, the process proceeds to step S4, and from the face area, for example, eyebrows, eyes, nose, mouth, etc., a smaller area for each part, that is, the face part area Is further extracted (step S4). It is possible to adopt a known method for extracting the face part region.

例えば、顔領域を白から黒へのグラデーションによるモノクロ画像で表現すると、眉や目や口は他の部分、例えば頬等と比べて濃いグレーになる。よって、濃度の高い部分を特定することで眉を含む領域や、目を含む領域や、口を含む領域を抜き出すことが可能になる。同様にして例えば小鼻と頬との境目を特定して、鼻を含む領域を抜き出すことが可能である。   For example, when the face area is expressed by a monochrome image with gradation from white to black, the eyebrows, eyes, and mouth become darker gray than other parts such as cheeks. Therefore, it is possible to extract a region including the eyebrows, a region including the eyes, and a region including the mouth by specifying a portion having a high density. Similarly, for example, it is possible to identify the boundary between the small nose and the cheek and extract the region including the nose.

その後、特徴点抽出部5はステップS5へ進み、ステップS4の処理によって顔部品領域が抜き出されたか否かを、例えば濃度が高い部分があったか否か等によって判断する(ステップS5)。その結果、顔部品領域が抜き出されている場合はステップS6へ進み、顔部品領域からその領域に含まれている顔部品をさらに抜き出し、抜き出した顔部品における特徴点として抽出するよう設定された点を特定し、この点の位置座標を算出する(ステップS6)。この顔部品の抜き出し、特徴点の特定、および位置座標の算出も公知のやり方を採用することが可能である。   Thereafter, the feature point extraction unit 5 proceeds to step S5, and determines whether or not a face part region has been extracted by the process of step S4, for example, based on whether or not there is a high density portion (step S5). As a result, when the face part area is extracted, the process proceeds to step S6, and the face part included in the area is further extracted from the face part area and set as the feature point in the extracted face part. A point is specified, and the position coordinates of this point are calculated (step S6). A well-known method can also be adopted for extracting the facial parts, specifying the feature points, and calculating the position coordinates.

例えば、各顔部品の標準的な画像、およびこの標準的な画像における特徴点として設定された点の位置を示したデータを予め用意しておき、この標準的な画像と、抽出した領域とを比較してこの領域に含まれている顔部品、例えば目や口等を抜き出す。その後、抜き出した顔部品において、標準的な画像で特徴点として設定された点と対応する点を特徴点と特定し、この特徴点のフレームにおける位置座標を算出して特徴点の特定、および特徴点の位置座標の算出が可能である。なお本発明はこれに限定するわけではない。   For example, a standard image of each face part and data indicating the position of a point set as a feature point in the standard image are prepared in advance, and the standard image and the extracted region are prepared. In comparison, facial parts, such as eyes and mouth, included in this area are extracted. After that, in the extracted face part, a point corresponding to the point set as the feature point in the standard image is specified as the feature point, and the position coordinates in the frame of the feature point are calculated to identify the feature point, and the feature The position coordinates of the points can be calculated. The present invention is not limited to this.

なおステップS3における判断の結果、顔領域の抜き出しができなかった場合や、ステップS5における判断の結果、顔部品領域の抜き出しができなかった場合は、ステップS7へ進み、検索部7が、抜き出されなかった顔領域や顔部品領域から、抽出されなかった特徴点の特定や、このような特徴点を含むフレームの特定を行う(ステップS7)。例えば顔領域が抽出できなかった場合では、検索部7はこのフレームを、抽出されなかった特徴点を含むフレームとして特定する。また、顔部品領域が抽出できなかった場合では、検索部7はこの領域が抽出できなかった顔部品と対応する特徴点を、抽出されなかった特徴点として特定する。   If the face area cannot be extracted as a result of the determination in step S3, or if the face part area cannot be extracted as a result of the determination in step S5, the process proceeds to step S7, and the search unit 7 extracts the face area. A feature point that has not been extracted or a frame that includes such a feature point is identified from the face region or face part region that has not been created (step S7). For example, when the face area cannot be extracted, the search unit 7 specifies this frame as a frame including the feature points that have not been extracted. When the face part area cannot be extracted, the search unit 7 identifies the feature point corresponding to the face part for which this area could not be extracted as the feature point that has not been extracted.

その後特徴点抽出部5は、ステップS6で算出した各特徴点の位置座標を特徴点記憶部9へ記憶させる。また検索部7は、ステップS7で特定した抽出されなかった特徴点や、抽出されなかった特徴点を含むフレームの番号に、抽出されなかった旨を示す情報を付加する(ステップS8)。このようにするのは、後段の合成部11に抽出されなかった特徴点やこのような特徴点を含むフレームの番号を伝えて、抽出されなかった特徴点や、抽出されなかった特徴点を含むフレームの合成画像を、抽出された特徴点や、抽出された特徴点のみを含むフレームの合成画像とは異なる表示形態で作成させるためである。なお合成部11に伝えることが可能であれば、特徴点記憶部9を介して知らせることに限定するわけではなく、例えば検索部7から合成部11に直接伝えるようにすることも可能である。   Thereafter, the feature point extraction unit 5 causes the feature point storage unit 9 to store the position coordinates of each feature point calculated in step S6. In addition, the search unit 7 adds information indicating that the feature points have not been extracted to the feature points not extracted in step S7 and the frame numbers including the feature points not extracted (step S8). This is done by notifying the feature point that was not extracted and the number of the frame that includes such a feature point to the later synthesis unit 11, and including the feature point that was not extracted or the feature point that was not extracted. This is because the composite image of the frame is generated in a display form different from the extracted feature point or the composite image of the frame including only the extracted feature point. As long as it can be transmitted to the combining unit 11, the notification is not limited to the notification via the feature point storage unit 9. For example, it is also possible to transmit directly from the search unit 7 to the combining unit 11.

なお抽出されなかった旨を伝える情報は、任意に設定することが可能である。例えば本実施例では図6に示すように、抽出されなかった特徴点や、抽出されなかった特徴点を含むフレームの番号に、事前に設定された下線を付加している。なお本発明はこれに限定するわけではない。   Note that the information indicating that the information has not been extracted can be arbitrarily set. For example, in this embodiment, as shown in FIG. 6, a preset underline is added to a feature point that has not been extracted or a frame number that includes a feature point that has not been extracted. The present invention is not limited to this.

図6は、図3と同様に、各特徴点A〜Jの位置座標を概念的に示した図である。例えば第2フレーム51の口の特徴点、すなわち特徴点G2〜J2が抽出されなかったとすると、検索部は、第2フレーム51、およびこれらの特徴点の位置座標53、55、57、59に下線を引く。なお特徴点G2〜J2は、特徴点が抽出されていない、すなわち位置座標が算出されていないため、各位置座標53〜59にはデータが存在していない。 FIG. 6 is a diagram conceptually showing the position coordinates of the feature points A to J, as in FIG. 3. For example the feature point of the mouth of the second frame 51, that is, the feature point G 2 through J 2 is not extracted, the search unit, the second frame 51, and the position coordinates of these characteristic points 53,55,57,59 Is underlined. Note that the feature points G 2 to J 2 are not extracted, that is, the position coordinates are not calculated, and therefore no data exists in the position coordinates 53 to 59.

図5に戻って、その後特徴点抽出部5は、特徴点を抽出する残りのフレーム画あるか否かを判断し(ステップS9)、残りのフレームがある場合はステップS2へ戻り、また残りのフレームがない場合は特徴点を抽出する処理を終了する。以上のようにして特徴点抽出部5は特徴点を抽出し、また検索部7は特徴点抽出処理の際に形成される情報を基にして、特徴点が抽出されたか否かを判断する。よって、抽出されなかった特徴点の特定を簡単な構成で行うことが可能になり、また特徴点の抽出処理と、抽出されなかった特徴点の特定処理とを一度に行うことが可能になるため、処理を迅速に行うことが可能になる。   Returning to FIG. 5, the feature point extraction unit 5 then determines whether or not there are remaining frame images from which feature points are extracted (step S9). If there are remaining frames, the process returns to step S2, and the remaining frames are extracted. If there is no frame, the process of extracting feature points is terminated. As described above, the feature point extraction unit 5 extracts the feature points, and the search unit 7 determines whether or not the feature points have been extracted based on information formed during the feature point extraction process. Therefore, feature points that have not been extracted can be identified with a simple configuration, and feature point extraction processing and feature point identification processing that has not been extracted can be performed at a time. The processing can be performed quickly.

なお本発明はこれに限定するわけではなく、任意のやり方を採用することが可能である。例えば検索部7は、特徴点記憶部9に位置座標が記憶されるか否かを判断し、判断の結果、位置座標が記憶されない特徴点を、抽出されなかった特徴点として特定するようにしてもよい。なお本発明はこれに限定するわけではない。   Note that the present invention is not limited to this, and any method can be adopted. For example, the search unit 7 determines whether or not position coordinates are stored in the feature point storage unit 9, and, as a result of the determination, specifies a feature point that does not store position coordinates as a feature point that has not been extracted. Also good. The present invention is not limited to this.

図1に戻って、以上のようにして検索部7によって、特徴点が抽出されたか否かの判断が行われると、どのフレームの特徴点が抽出されなかったのかという情報、すなわち検索結果を編集者に伝えるために、合成部11が検索結果を反映させた合成画像を作成する。図7は、合成部11によって作成された、検索結果が反映された合成画像の一例を概念的に示した図であって、出力部21における出力例を概念的に示した図である。図7において図4と同じ参照番号は同様の構成要素を示す。   Returning to FIG. 1, when it is determined whether or not feature points have been extracted by the search unit 7 as described above, information on which frame feature points have not been extracted, that is, search results are edited. In order to inform the user, the composition unit 11 creates a composite image reflecting the search result. FIG. 7 is a diagram conceptually showing an example of a composite image created by the synthesis unit 11 and reflecting the search result, and is a diagram conceptually showing an output example in the output unit 21. 7, the same reference numerals as those in FIG. 4 denote the same components.

図7において、本実施例では第2フレームの特徴点G2〜J2が抽出されなかったため、合成部11は、第2フレームの輪郭を他のフレームよりも太くして合成画像45を作成し、この第2フレームに抽出されなかった特徴点が存在することを編集者に知らせている。なお本発明は図12に示す例に限定するわけではなく、任意のやり方を採用し、抽出されなかった特徴点の存在を知らせることが可能である。例えば図示しないが、検索結果を反映させた合成画像を作成するのではなく、検索結果のみを示した一覧表等を作成して編集者に知らせてもよい。また例えば図示しないが合成画像の背景の色を変えたり、枠や背景を点滅させたりして、編集者に知らせるようにしてもよい。また例えば図8に示すように、合成画像の外側に検索結果を示す欄を追加し、そこに検索結果を記載するようにしてもよい。なお本発明はこれらの例に限定するわけではない。 In FIG. 7, since the feature points G 2 to J 2 of the second frame are not extracted in this embodiment, the synthesis unit 11 creates a synthesized image 45 by making the outline of the second frame thicker than the other frames. The editor is informed that there are feature points not extracted in the second frame. Note that the present invention is not limited to the example shown in FIG. 12, and an arbitrary method can be adopted to notify the presence of feature points that have not been extracted. For example, although not shown, instead of creating a composite image reflecting the search results, a list or the like showing only the search results may be created and notified to the editor. For example, although not shown, the background color of the synthesized image may be changed, or the frame or background may be blinked to notify the editor. Further, for example, as shown in FIG. 8, a column indicating search results may be added outside the composite image, and the search results may be described there. The present invention is not limited to these examples.

図8は合成部によって作成された、検索結果が反映された合成画像の別の一例を概念的に示した図であって、出力部21における別の出力例を概念的に示した図である。図8に示す例では、合成画像を示す欄の他に、検索結果が示される欄71、73が別途設けられ、欄71にそのフレームに抽出されていない特徴点が存在するか否か表示され、欄73には、抽出されなかった特徴点が表示されている。   FIG. 8 is a diagram conceptually showing another example of a composite image created by the synthesis unit and reflecting the search result, and is a diagram conceptually showing another output example in the output unit 21. . In the example shown in FIG. 8, in addition to the column indicating the composite image, columns 71 and 73 indicating search results are separately provided, and whether or not there is a feature point not extracted in the frame is displayed in the column 71. In the column 73, feature points that have not been extracted are displayed.

このようにして本実施例では、抽出されなかった特徴点を自動的に特定し、その結果を、例えば合成画像に反映したり、結果を示す欄等に示して編集者に知らせる。よって、編集者が抽出されなかった特徴点や、このような特徴点を含むフレームをすぐに見付けることが可能になり、このような特徴点を補完する作業を円滑に行うことが可能になる。   In this way, in the present embodiment, feature points that have not been extracted are automatically specified, and the result is reflected in, for example, a composite image or displayed in a column indicating the result to notify the editor. Therefore, it is possible to immediately find a feature point that has not been extracted by the editor or a frame including such a feature point, and it is possible to smoothly perform a work for complementing such a feature point.

なお本発明は図1に示すように、検索部7を特徴点抽出部5に設けることに限定するわけではなく、アニメーション作成システム1に応じて任意の部分に設けることが可能である。例えば、図9に示すように、特徴点編集部83に設けることも可能である。図9は、本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。図9において図1と同じ参照番号は同様の構成要素を示す。   As shown in FIG. 1, the present invention is not limited to providing the search unit 7 in the feature point extraction unit 5, but can be provided in an arbitrary part according to the animation creation system 1. For example, as shown in FIG. 9, the feature point editing unit 83 can be provided. FIG. 9 is a block diagram conceptually showing the structure of another embodiment of the animation creating system according to the present invention. 9, the same reference numerals as those in FIG. 1 denote the same components.

図9に示すアニメーション作成システム81では、特徴点編集部83が検索部85を含んでいる。なお特徴点編集部83は、検索部85を含むだけであって、特徴点編集部13と同様のものである。検索部85は特徴点編集部83に存在し、特徴点記憶部9に記憶された特徴点の数や、特徴点の位置座標を用いて、抽出されなかった特徴点や、このような特徴点を含むフレームを特定する。   In the animation creation system 81 shown in FIG. 9, the feature point editing unit 83 includes a search unit 85. Note that the feature point editing unit 83 includes only the search unit 85 and is the same as the feature point editing unit 13. The search unit 85 exists in the feature point editing unit 83, and the number of feature points stored in the feature point storage unit 9 and the feature points not extracted using the position coordinates of the feature points, and such feature points Identify frames that contain.

図9に示す検索部85には、特徴点A〜Jの数、および各特徴点A〜Jの位置を定義した、例えば図10に示すような規則91が予め記憶され、検索部85は、この規則90を用いて、抽出されなかった特徴点や、このような特徴点を含むフレームを特定する。また検索部85は抽出されなかった特徴点を特定すると、図1に示す検索部と同様に、特徴点記憶部7を介して合成部11にその旨を知らせる。   In the search unit 85 shown in FIG. 9, a rule 91 as shown in FIG. 10, for example, defining the number of feature points A to J and the positions of the feature points A to J is stored in advance. Using this rule 90, a feature point that has not been extracted or a frame including such a feature point is specified. In addition, when the feature point that has not been extracted is specified, the search unit 85 notifies the synthesis unit 11 via the feature point storage unit 7 as in the search unit shown in FIG.

図10は、検索部85で用いる規則の一例を概念的に示した図である。図10においてmは正の整数である。図10において第1規則93は、「1つのフレームにおける特徴点は10個である。」という、特徴点A〜Jの数について規定したものであり、抽出されなかった特徴点を含むフレームを特定するための規則である。よって検索部85は、この第1規則93を用いて、特徴点記憶部に記憶されている各特徴点の位置座標の数が第1規則93に従っているか否か、すなわち位置座標が算出された特徴点が10個存在するか否かを判断し、第1規則93に従わないフレームを、抽出されなかった特徴点を含むフレームとして特定する。   FIG. 10 is a diagram conceptually illustrating an example of rules used in the search unit 85. In FIG. In FIG. 10, m is a positive integer. In FIG. 10, the first rule 93 defines the number of feature points A to J, “10 feature points in one frame”, and specifies a frame including feature points that have not been extracted. It is a rule to do. Therefore, the search unit 85 uses the first rule 93 to determine whether or not the number of position coordinates of each feature point stored in the feature point storage unit conforms to the first rule 93, that is, the feature whose position coordinate is calculated. It is determined whether or not there are 10 points, and a frame that does not comply with the first rule 93 is specified as a frame including a feature point that has not been extracted.

また図10において、第2規則95は「右目の特徴点Eは左眼の特徴点Fよりも右側である。」という特徴点EとFの位置関係について定めたものである。同様にして第3規則97は、特徴点E〜Hの位置関係について定めたものである。図9に示す例では、第2規則95や第3規則97ように位置関係を定義した規則を用いることによって、抽出されなかった特徴点の特定、および抽出されていてもその位置が所望する位置にない特徴点の特定を行っている。   In FIG. 10, the second rule 95 defines the positional relationship between the feature points E and F that “the feature point E of the right eye is on the right side of the feature point F of the left eye”. Similarly, the third rule 97 defines the positional relationship between the feature points E to H. In the example shown in FIG. 9, by using a rule that defines a positional relationship such as the second rule 95 or the third rule 97, the feature point that has not been extracted is specified, and the position where the position is desired even if it has been extracted. The feature point which is not in is specified.

例えば、第2規則95に反する場合は、特徴点Eまたは特徴点Fが抽出されていないために存在しないか、または、特徴点Eが所望する位置に存在しないことを示している。このように位置関係を定義した規則を用いることで、抽出されなかった特徴点の特定に加えて、抽出されていてもその位置が所望する位置にない特徴点の特定が可能になるためこのましいが、本発明は図10に示す例に限定するわけではなく、用いる規則は、少なくとも抽出されなかった特徴点や、このような特徴点を含むフレームを特定することが可能な規則であればよい。   For example, when the second rule 95 is violated, it indicates that the feature point E or feature point F does not exist because it has not been extracted, or that the feature point E does not exist at a desired position. By using rules that define the positional relationship in this way, in addition to specifying feature points that have not been extracted, it is possible to specify feature points that have been extracted but do not have the desired position. However, the present invention is not limited to the example shown in FIG. 10, and the rule to be used is at least a feature point that is not extracted or a rule that can specify a frame including such a feature point. Good.

図11は、図9に示す検索部85における、規則91を用いた検索処理の処理手順の一例を示した流れ図である。図9、図11において、特徴点抽出部5が特徴点A〜Jを抽出してその位置座標が特徴点記憶部9に記憶されると、検索部85は、フレーム毎に特徴点A〜Jの位置座標を特徴点記憶部9から読み出す(ステップS1)。次に検索部85は、図10に示す規則91をそのフレーム、およびそのフレームにおける各特徴点A〜Jに適用し、そのフレームにおける特徴点の数や、特徴点の位置が各規則に従っているか否かを判断する(ステップS2)。   FIG. 11 is a flowchart showing an example of a processing procedure of search processing using the rule 91 in the search unit 85 shown in FIG. 9 and 11, when the feature point extraction unit 5 extracts the feature points A to J and the position coordinates are stored in the feature point storage unit 9, the search unit 85 performs the feature points A to J for each frame. Are read from the feature point storage unit 9 (step S1). Next, the search unit 85 applies the rule 91 shown in FIG. 10 to the frame and the feature points A to J in the frame, and whether the number of feature points in the frame and the position of the feature points comply with each rule. Is determined (step S2).

ステップS2の判断の結果、特徴点が規則に従っている場合は、残りのフレームがあるか否かを判断し(ステップS3)、残りのフレームが無い場合は処理を終了する。逆に残りのフレームがある場合はステップS1へ戻り、次のフレームにおける各特徴点の位置座標を読み出す。   If it is determined in step S2 that the feature points comply with the rules, it is determined whether there are any remaining frames (step S3). If there are no remaining frames, the process ends. Conversely, if there are remaining frames, the process returns to step S1 to read the position coordinates of each feature point in the next frame.

一方、ステップS2における判断の結果、規則に従っていない特徴点が存在する場合は、図5におけるステップS9と同様に、その特徴点が抽出されなかった旨を伝える情報を特徴点記憶部9に付加する(ステップS4)。なお図9に示す例では、特徴点記憶部9に情報を経由して合成部11に伝えているが、本発明はこれに限定するわけではなく、例えば合成部に直接伝えてもよい。その後合成部11は、例えば図7や図8に示すような合成画像を作成し、抽出されなかった特徴点があることや、所望する位置から抽出されなかった特徴点があることを編集者に知らせる。   On the other hand, if there is a feature point that does not conform to the rules as a result of the determination in step S2, information indicating that the feature point has not been extracted is added to the feature point storage unit 9 as in step S9 in FIG. (Step S4). In the example shown in FIG. 9, the information is transmitted to the feature point storage unit 9 via the information to the synthesis unit 11, but the present invention is not limited to this, and may be directly transmitted to the synthesis unit, for example. After that, the synthesizing unit 11 creates a composite image as shown in FIGS. 7 and 8, for example, to the editor that there is a feature point that has not been extracted or that there is a feature point that has not been extracted from a desired position. Inform.

以上のようにして、図9に示す例では規則91を用いて抽出されなかった特徴点を特定し、その結果を、例えば合成画像に反映したり、結果を示す欄等に示して編集者に知らせる。よって、編集者がすぐに抽出されなかった特徴点や、このような特徴点を含むフレームを見付けることが可能になり、このような特徴点を補完する作業を円滑に行うことが可能になる。また規則を用いて特定する場合では、本実施例のように各特徴点の位置に関する規則も用意しておくことで、所望する位置から抽出されなかった特徴点や、アニメーションを作成する際に自然な動きと認められない位置にある特徴点等を自動的に特定することが可能になる。   As described above, in the example shown in FIG. 9, the feature points that are not extracted using the rule 91 are specified, and the result is reflected in, for example, the composite image or displayed in the column indicating the result to the editor. Inform. Therefore, it becomes possible for the editor to find feature points that have not been immediately extracted and a frame including such feature points, and it is possible to smoothly perform the work of complementing such feature points. Also, in the case of specifying using a rule, by preparing a rule regarding the position of each feature point as in this embodiment, it is natural to create a feature point that has not been extracted from a desired position or an animation. It is possible to automatically specify a feature point or the like at a position that is not recognized as a simple movement.

なお本発明は図1、および図9に示す例に限定するわけではなく、任意のやり方を採用して抽出されなかった特徴点や、このような特徴点を含むフレームを特定することが可能である。例えば図示しないが図1と図9を組み合わせて、特徴点を抽出する際、および抽出後の両方のタイミングで抽出されなかった特徴点やこのような特徴点を含むフレームを特定するようにすることも可能であるし、また例えば、図示しないが検索部を特徴点抽出部や特徴点編集部とは別に設けることも可能である。検索部を特徴点抽出部や特徴点編集部とは別に設けた場合における抽出されなかった特徴点の特定は、例えば規則を用いたり、特徴点記憶部に記憶されるか否かを判断することにより可能である。なお本発明はこれに限定するわけではない。   Note that the present invention is not limited to the examples shown in FIGS. 1 and 9, and it is possible to identify feature points that have not been extracted by adopting an arbitrary method and frames including such feature points. is there. For example, although not shown, when FIG. 1 and FIG. 9 are combined, feature points that are not extracted both at the time of extraction and at the timing after extraction, and frames that include such feature points are specified. For example, although not shown, a search unit can be provided separately from the feature point extraction unit and the feature point editing unit. When the search unit is provided separately from the feature point extraction unit and the feature point editing unit, the feature points that are not extracted are identified using, for example, a rule or whether or not the feature points are stored in the feature point storage unit Is possible. The present invention is not limited to this.

図12は、本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。図12において図1と同じ参照番号は同様の構成要素を示す。図12に示すアニメーション作成システム101では、特徴点編集部103が補完部105を含み、この補完部105によって、抽出されなかった特徴点を、予め設定された位置座標を用いて自動的に補完する。よって編集作業の負担をより軽減することが可能になって、より円滑に編集作業を進めることが可能になる。以下詳細に説明する。   FIG. 12 is a block diagram conceptually showing the structure of another embodiment of the animation creating system according to the present invention. 12, the same reference numerals as those in FIG. 1 denote the same components. In the animation creation system 101 shown in FIG. 12, the feature point editing unit 103 includes a complementing unit 105, and the complementing unit 105 automatically complements feature points that have not been extracted using preset position coordinates. . Therefore, the burden of editing work can be further reduced, and the editing work can be performed more smoothly. This will be described in detail below.

図12において、特徴点編集部103は補完部105を含み、抽出されなかった特徴点を補完部によって自動的に補完する。なお特徴点編集部103は補完部105を含んでいるだけであって、特徴点編集部13と同様のものである。補完部105は特徴点編集部103に存在し、抽出されなかった特徴点を、予め設定された位置座標を用いて自動的に補完する、すなわち、抽出されなかった特徴点の位置座標を、予め設定された位置座標を用いて自動的に形成するものである。例えば図12に示す例では補完部105は、抽出されなかった特徴点を、1つ前のフレームにおける同じ種類の特徴点、すなわち映像における同じ部分から抽出される特徴点の位置座標を用いて自動的に補完する。   In FIG. 12, a feature point editing unit 103 includes a complementing unit 105, and automatically complements feature points that have not been extracted by the complementing unit. Note that the feature point editing unit 103 includes only a complementing unit 105 and is the same as the feature point editing unit 13. The complementing unit 105 exists in the feature point editing unit 103 and automatically complements the feature points that have not been extracted using preset position coordinates. It is automatically formed using the set position coordinates. For example, in the example shown in FIG. 12, the complementing unit 105 automatically selects feature points that have not been extracted using the same type of feature points in the previous frame, that is, the position coordinates of feature points extracted from the same part in the video. Complementary.

図13は、図12に示す補完部105における補完処理を概念的に示した図である。図13において、特徴点記憶部9に特徴点の位置座標が記憶されると、補完部105はこの特徴点記憶部9に記憶されている特徴点の位置座標を読み出す(ステップS1)。この読み出しは、例えばフレーム毎に行ってもよいし、または例えば特徴点A毎というように特徴点毎に行ってもよく、任意のやり方を採用することが可能である。また映像23に含まれるすべてのフレームや、抽出したすべての特徴点を読み出すことに限定するわけではなく、例えば編集者が指定した範囲のフレームや特徴点を読み出すことが可能である。   FIG. 13 is a diagram conceptually showing the complementing process in complementing section 105 shown in FIG. In FIG. 13, when the position coordinates of the feature points are stored in the feature point storage unit 9, the complementing unit 105 reads the position coordinates of the feature points stored in the feature point storage unit 9 (step S1). This reading may be performed, for example, for each frame, or may be performed for each feature point, for example, for each feature point A, and any method can be adopted. Further, the present invention is not limited to reading all the frames included in the video 23 and all the extracted feature points. For example, it is possible to read frames and feature points in a range designated by the editor.

次に補完部105は、抽出されなかった特徴点が存在するか否かを判断する(ステップS2)。この判断には任意のやり方を採用することが可能である。例えば本実施例では、抽出されなかった特徴点には下線が引かれる等の情報が付加されているため、補完部105は情報が付加されているか否かを判断する。なお本発明はこれに限定するわけではなく、例えば検索部7から補完部105へ検索結果が直接伝わるようにしてもよい。   Next, the complementing unit 105 determines whether there is a feature point that has not been extracted (step S2). Any method can be adopted for this determination. For example, in this embodiment, since information such as underlining is added to feature points that have not been extracted, the complementing unit 105 determines whether or not information is added. Note that the present invention is not limited to this, and the search result may be directly transmitted from the search unit 7 to the complement unit 105, for example.

この判断の結果、抽出されなかった特徴点が存在しなかった場合、すなわちすべての特徴点が抽出されている場合はステップS5へ進み、例えばフレーム毎に補完処理を行っている場合は残りのフレームがあるか否かを判断し、また例えば特徴点毎に補完処理を行っている場合は残りの特徴点があるか否かを判断して(ステップS5)、ある場合はステップS1に戻って残りのフレーム、または特徴点を読み出し、ない場合は処理を終了する。   As a result of this determination, if there are no feature points that have not been extracted, that is, if all feature points have been extracted, the process proceeds to step S5.For example, if complement processing is performed for each frame, the remaining frames For example, if complement processing is performed for each feature point, it is determined whether there is a remaining feature point (step S5). If there is, the process returns to step S1 and remains If no frame or feature point is read, the process ends.

ステップS2における判断の結果、抽出されなかった特徴点が存在した場合は、この特徴点の座標位置を、1つ前のフレームにおける同じ種類の特徴点の座標位置を用いて補完する(ステップS3)。本実施例では、1つ前のフレームにおける同じ種類の特徴点の位置座標をそのまま用いて補完する。つまり、抽出されなかった特徴点の位置座標を、1つ前のフレームにおける同じ種類の位置座標にする。なお本発明はこの例に限定するわけではなく、例えば1つ前のフレームおよび1つ後のフレームにおける同じ種類の特徴点の位置座標を用いてこれらの中間点を算出し、この中間点を補完後の位置座標とすることも可能であるし、また例えば任意の数分前または後ろのフレームにおける同じ種類の特徴点の位置座標に、予め設定した変化量を加えたものを補完後の位置座標とすることも可能である。 また本発明は、抽出された特徴点の座標位置を用いることに限定するわけではなく、例えば予め特徴点記憶部9や補完部105に記憶しておいた座標位置を用いることも可能である。例えば自然な動きとなるように設定した位置座標を特徴点記憶部9や補完部105等に記憶させておき、補完部105にこの位置座標を用いて補完させてもよい。なお本発明は、なおこれらの例に限定するわけではない。   If there is a feature point that has not been extracted as a result of the determination in step S2, the coordinate position of this feature point is complemented using the coordinate position of the same type of feature point in the previous frame (step S3). . In this embodiment, the position coordinates of the same type of feature points in the previous frame are used as they are for complementation. That is, the position coordinates of feature points that have not been extracted are set to the same type of position coordinates in the previous frame. The present invention is not limited to this example. For example, the intermediate point is calculated using the position coordinates of the same type of feature point in the previous frame and the next frame, and the intermediate point is complemented. It is also possible to set the position coordinates after, and for example, the position coordinates after complementing the position coordinates of the same type of feature point in any frame several minutes before or after, plus a preset amount of change. It is also possible. Further, the present invention is not limited to using the coordinate position of the extracted feature point. For example, the coordinate position stored in advance in the feature point storage unit 9 or the complement unit 105 can be used. For example, the position coordinates set for natural movement may be stored in the feature point storage unit 9, the complement unit 105, and the like, and the complement unit 105 may be supplemented using the position coordinates. The present invention is not limited to these examples.

なお置換部105は、少なくとも抽出されなかった特徴点の位置座標を形成することが可能であれば、例えばフレーム毎に補完処理を行っている場合に、そのフレームにおいて抽出されている特徴点の位置座標も、他のフレームの特徴点の位置座標や、他のフレームの特徴点の位置座標を用いて算出された位置座標に変更する、すなわち特徴点を置換することも可能である。このように抽出されている特徴点を置換する場合では、例えば、抽出されなかった特徴点を含むフレームにおいて、抽出されているすべての特徴点の位置座標を置換してもよいし、また例えば編集者が合成画像等を見ながら選択した特徴点のみ置換するようにしてもよい。なお本発明はこれらの例に限定するわけではない。   Note that, if the replacement unit 105 can form at least the position coordinates of feature points that have not been extracted, for example, when performing complement processing for each frame, the position of the feature points extracted in that frame The coordinates can also be changed to the position coordinates calculated using the position coordinates of the feature points of other frames or the position coordinates of the feature points of other frames, that is, the feature points can be replaced. In the case of replacing the extracted feature points in this way, for example, in the frame including the feature points that have not been extracted, the position coordinates of all the extracted feature points may be replaced. Only the feature points selected by the person while viewing the composite image or the like may be replaced. The present invention is not limited to these examples.

その後、補完によって作成された位置座標や、置換も行った場合では置換された位置座標は、再び特徴点記憶部9に記憶される(ステップS4)。なお特徴点記憶部9に記憶する際に、例えば補完や置換により作成された位置座標であることを示す情報を付加して、補完や置換がされた特徴点と、これらがされなかった特徴点との表示形態を変えて合成画像を作成し、これらの区別が可能になるようにすることも可能である。例えば本実施例では、図14に示すように表示形態を区別している。   Thereafter, the position coordinates created by complementation and the replaced position coordinates when replacement is performed are stored again in the feature point storage unit 9 (step S4). When storing in the feature point storage unit 9, for example, by adding information indicating that the position coordinates are created by complementation or replacement, feature points that have been complemented or replaced, and feature points that have not been performed It is also possible to create a composite image by changing the display form, so that these can be distinguished. For example, in this embodiment, the display forms are distinguished as shown in FIG.

図14は補完が行なわれた場合の合成画像の一例を概念的に示した図である。図14において、図7と同じ参照番号は同様の構成要素を示す。例えば第2フレームの口の特徴点G2〜J2における位置座標が補完部105における補完処理により形成された場合では、合成部11は、第2フレームの枠を他のフレームよりの太くするとともに、補完により形成された口の特徴点G2〜J2を星型に、また補完、または置換されていない特徴点を四角にした合成画像45を作成し、編集者による両者の区別を可能にしている。なお図14では図示しないが、置換により位置座標が変更になった特徴点についても同様に、補完された特徴点、および補完や置換が行なわれなかった特徴点と表示形態を変えるとよい。 FIG. 14 is a diagram conceptually illustrating an example of a composite image when complementation is performed. 14, the same reference numerals as those in FIG. 7 denote the same components. For example, in the case where the position coordinates at the mouth feature points G 2 to J 2 of the second frame are formed by the complementing process in the complementing unit 105, the combining unit 11 makes the frame of the second frame thicker than the other frames. , mouth star feature point G 2 through J 2 of which is formed by complementary, also supplement, or a feature point which is unsubstituted create a composite image 45 which is the square, to allow differentiation of both editorial ing. Although not shown in FIG. 14, the display form of feature points whose position coordinates have been changed by replacement may be changed in the same manner as feature points that have been complemented and feature points that have not been complemented or replaced.

よって、編集者は合成画像43〜47を一目見ただけで、どのフレームにおけるどの特徴点が補完部105によって補完、または置換されたのかを把握することが可能になる。なお本発明はこの例に限定するわけではなく、任意のやり方を採用することが可能であり、例えば編集者に知らせないようにすることも可能である。   Therefore, the editor can grasp which feature points in which frames have been complemented or replaced by the complementing unit 105 only by looking at the composite images 43 to 47 at a glance. Note that the present invention is not limited to this example, and an arbitrary method can be adopted. For example, it is possible not to notify the editor.

図13に戻って、補完部105は、補完や置換により形成された位置座標を記憶部9へ記憶させるとステップS5へ進み、残りの特徴点またはフレームがあるか否かを判断して、ある場合はステップS1に戻り、残りのフレームまたは特徴点を読み出し、ない場合は補完処理を終了する。以上のようにして抽出されなかった特徴点を補完部105で自動的に補完するため、編集者は残りの編集作業、例えば自然な動きとなるような位置に特徴点を動かす作業を行うだけで済むようになる。よって編集者への編集作業の負担を軽減することが可能になり、編集作業を迅速に行うことが可能になる。   Returning to FIG. 13, when the complementing unit 105 stores the position coordinates formed by the complementing or replacement in the storage unit 9, the process proceeds to step S <b> 5, and determines whether or not there are remaining feature points or frames. If so, the process returns to step S1, and the remaining frames or feature points are read. If not, the complement process is terminated. Since the feature points that have not been extracted as described above are automatically complemented by the complementing unit 105, the editor only needs to perform the remaining editing work, for example, to move the feature points to positions where natural movement is achieved. It will be over. Therefore, it is possible to reduce the burden of editing work on the editor, and it is possible to perform editing work quickly.

なお本発明は補完部105を特徴点編集部103に設けることに限定するわけではなく、アニメーション作成システムに応じて任意の部分に設けることが可能である。例えば図示しないが、特徴点編集部が検索部と補完部を含むことも可能である。この場合補完部は、例えば検索部から検索結果を直接受け取り、補完処理を行うために用いる位置座標を位置座標記憶部等から読み出すことで補完処理を行うことが可能である。また例えば図15に示すように、特徴点抽出部に設けることも可能である。   The present invention is not limited to providing the complementing unit 105 in the feature point editing unit 103, and can be provided in any part depending on the animation creation system. For example, although not shown, the feature point editing unit may include a search unit and a complement unit. In this case, for example, the complementing unit can perform the complementing process by directly receiving the search result from the retrieving unit and reading out the position coordinates used for performing the complementing process from the position coordinate storage unit or the like. Further, for example, as shown in FIG. 15, it can be provided in the feature point extraction unit.

図15は、本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。図15において図1と同じ参照番号は同様の構成要素を示す。また特徴点抽出部123は、検索部125、補完部127を含むようになるだけであって、特徴点抽出部5と同様のものである。また検索部125も、検索結果を補完部127へ伝えるようになるだけであって、検索部7と同様のものであり、補完部127も、特徴点抽出部123に存在するようになるだけであって、補完部105と同様のものである。   FIG. 15 is a block diagram conceptually showing the structure of another embodiment of the animation creating system according to the present invention. 15, the same reference numerals as those in FIG. 1 denote the same components. The feature point extraction unit 123 includes only a search unit 125 and a complement unit 127, and is the same as the feature point extraction unit 5. In addition, the search unit 125 only communicates the search result to the complement unit 127, and is the same as the search unit 7, and the complement unit 127 also only exists in the feature point extraction unit 123. Thus, it is the same as the complement unit 105.

図15に示すアニメーション作成システム121のように、補完部123を特徴点抽出部125に設けた場合は、例えば補完部127が一つ前のフレームにおける特徴点の位置座標を一時的に記憶しておき、次のフレームで抽出されなかった特徴点が検索部125によって特定された場合は、この1つ前のフレームにおける特徴点の位置座標を補完のために用いて補完処理を行うことが可能である。また例えば特徴点記憶部7に補完に用いる位置座標を予め記憶させておき、抽出されなかった特徴点が特定された場合は、補完部127がこの位置座標を読み出して補完処理を行ってもよい。   When the complementing unit 123 is provided in the feature point extracting unit 125 as in the animation creating system 121 shown in FIG. 15, for example, the complementing unit 127 temporarily stores the position coordinates of the feature point in the previous frame. In addition, when a feature point that has not been extracted in the next frame is specified by the search unit 125, it is possible to perform complementation processing using the position coordinates of the feature point in the previous frame for complementation. is there. Further, for example, the position coordinates used for complementation may be stored in advance in the feature point storage unit 7, and when a feature point that has not been extracted is specified, the complement unit 127 may read out the position coordinates and perform the complement processing. .

さらに例えばその次のフレームにおける同じ種類の特徴点の位置座標を用いて補完するようにしてもよい。例えばその次に抽出された同じ種類の特徴点で補完するようにすると、補完用に用いる特徴点を一時的に記憶しておく必要がなくなる。なお本発明はこれらの例に限定するわけではなく、任意のやり方を採用して補完処理を行うことが可能である。また補完部は、特徴点編集部、および特徴点抽出部に設けることに限定するわけではなく、アニメーション作成システムに応じて任意の場所に設けることが可能である。   Further, for example, the position coordinates of the same type of feature point in the next frame may be used for complementation. For example, if complementation is performed with the same type of feature points extracted next, it is not necessary to temporarily store the feature points used for complementation. In addition, this invention is not necessarily limited to these examples, Complementary processing can be performed by adopting an arbitrary method. Further, the complementing unit is not limited to being provided in the feature point editing unit and the feature point extracting unit, but can be provided in any place according to the animation creation system.

本発明によるアニメーション作成システムの実施例の構成を概念的に示すブロック図である。It is a block diagram which shows notionally the structure of the Example of the animation production system by this invention. 特徴点を抽出する処理を概念的に示した図である。It is the figure which showed notionally the process which extracts a feature point. 各特徴点の位置座標を概念的に示した図である。It is the figure which showed notionally the position coordinate of each feature point. 合成部で作成された合成画像の一例を概念的に示した図である。It is the figure which showed notionally an example of the synthesized image produced in the synthetic | combination part. 特徴点抽出部における特徴点の抽出処理、および検索部における抽出されなかった特徴点の特定処理の処理手順の一例を示した図である。It is the figure which showed an example of the process sequence of the feature point extraction process in a feature point extraction part, and the identification process of the feature point which was not extracted in the search part. 各特徴点の位置座標を概念的に示した図である。It is the figure which showed notionally the position coordinate of each feature point. 検索結果が反映された合成画像の一例を概念的に示した図である。It is the figure which showed notionally an example of the synthesized image in which the search result was reflected. 検索結果が反映された合成画像の別の一例を概念的に示した図である。It is the figure which showed notionally another example of the synthesized image in which the search result was reflected. 本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。It is a block diagram which shows notionally the structure of another Example of the animation production system by this invention. 規則の一例を概念的に示した図である。It is the figure which showed an example of the rule notionally. 検索部における規則を用いた検索処理の処理手順の一例を示した流れ図である。It is the flowchart which showed an example of the process sequence of the search process using the rule in a search part. 本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。It is a block diagram which shows notionally the structure of another Example of the animation production system by this invention. 補完部における補完処理を概念的に示した図である。It is the figure which showed notionally the complement process in a complement part. 補完が行なわれた場合の合成画像の一例を概念的に示した図である。It is the figure which showed notionally an example of the synthesized image at the time of complementing. 本発明によるアニメーション作成システムの別の実施例の構成を概念的に示すブロック図である。It is a block diagram which shows notionally the structure of another Example of the animation production system by this invention.

符号の説明Explanation of symbols

1 アニメーション作成システム
3 映像入力部
5 特徴点抽出部
7 検索部
9 特徴点記憶部
1 Animation creation system
3 Video input section
5 Feature point extraction unit
7 Search part
9 Feature point storage

Claims (8)

動いている被写体を撮影した映像から、キャラクタの動きを制御するための特徴点を抽出する特徴点抽出手段と、
該特徴点を編集する特徴点編集手段と、
該特徴点編集手段により編集された特徴点を基にして、前記キャラクタが動くアニメーションを作成するアニメーション作成手段とを含むアニメーション作成システムにおいて、該システムは、
前記特徴点抽出手段で抽出されなかった特徴点、および/または該抽出されなかった特徴点を含むフレームを特定する検索手段を含むことを特徴とするアニメーション作成システム。
A feature point extracting means for extracting a feature point for controlling the movement of the character from an image of a moving subject,
A feature point editing means for editing the feature points;
An animation creating system including an animation creating unit that creates an animation in which the character moves based on the feature point edited by the feature point editing unit.
An animation creation system comprising: a search unit for specifying a feature point that has not been extracted by the feature point extraction unit and / or a frame including the feature point that has not been extracted.
請求項1に記載のシステムにおいて、該システムはさらに、前記抽出されなかった特徴点を補完する特徴点補完手段を含むことを特徴とするアニメーション作成システム。   2. The system according to claim 1, further comprising feature point complementing means for complementing the feature points that have not been extracted. 請求項2に記載のシステムにおいて、前記映像は、少なくとも2つのフレームを含み、
前記特徴点抽出手段は、該フレーム毎に前記特徴点を抽出し、
前記特徴点補完手段は、該特徴点抽出手段で抽出されなかった特徴点を、該抽出されなかった特徴点を含むフレームではない前記フレームの特徴点の位置情報を用いて補完することを特徴とするアニメーション作成システム。
The system of claim 2, wherein the video includes at least two frames;
The feature point extracting means extracts the feature points for each frame;
The feature point complementing means complements the feature points that have not been extracted by the feature point extracting means by using the position information of the feature points of the frames that are not the frames including the feature points that have not been extracted. Animation creation system.
請求項1ないし3のいずれかに記載のシステムにおいて、前記映像は、顔の動きを撮影した映像であることを特徴とするアニメーション作成システム。   The system according to any one of claims 1 to 3, wherein the video is a video obtained by photographing a movement of a face. 動いている被写体を撮影した映像から、キャラクタの動きを制御するための特徴点を抽出する特徴点抽出工程と、
該特徴点を編集する特徴点編集工程と、
該特徴点編集手段により編集された特徴点を基にして、前記キャラクタが動くアニメーションを作成するアニメーション作成工程とを含むアニメーション作成方法において、該方法は、
前記特徴点抽出工程で抽出されなかった特徴点、および/または該抽出されなかった特徴点を含むフレームを特定する検索工程を含むことを特徴とするアニメーション作成方法。
A feature point extracting step for extracting feature points for controlling the movement of the character from the video of the moving subject,
A feature point editing step for editing the feature points;
An animation creation method including an animation creation step of creating an animation in which the character moves based on the feature points edited by the feature point editing means.
An animation creating method comprising: a search step of identifying a feature point not extracted in the feature point extraction step and / or a frame including the feature point not extracted.
請求項5に記載の方法において、該方法はさらに、前記抽出されなかった特徴点を補完する特徴点補完工程を含むことを特徴とするアニメーション作成方法。   6. The method according to claim 5, further comprising a feature point complementing step of complementing the feature points that have not been extracted. 請求項6に記載の方法において、前記映像は、少なくとも2つのフレームを含み、
前記特徴点抽出工程は、該フレーム毎に前記特徴点を抽出し、
前記特徴点補完工程は、該特徴点抽出手段で抽出されなかった特徴点を、該抽出されなかった特徴点を含むフレームではない前記フレームの特徴点の位置情報を用いて補完することを特徴とするアニメーション作成方法。
The method of claim 6, wherein the video comprises at least two frames;
The feature point extraction step extracts the feature points for each frame;
The feature point complementing step complements a feature point that has not been extracted by the feature point extraction unit using position information of a feature point of the frame that is not a frame including the feature point that has not been extracted. How to create animation.
請求項5ないし7のいずれかに記載の方法において、前記映像は、顔の動きを撮影した映像であることを特徴とするアニメーション作成方法。   8. The method according to claim 5, wherein the video is a video obtained by photographing a facial motion.
JP2006169921A 2006-06-20 2006-06-20 Animation creation system and method Withdrawn JP2008003673A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006169921A JP2008003673A (en) 2006-06-20 2006-06-20 Animation creation system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006169921A JP2008003673A (en) 2006-06-20 2006-06-20 Animation creation system and method

Publications (1)

Publication Number Publication Date
JP2008003673A true JP2008003673A (en) 2008-01-10

Family

ID=39008020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006169921A Withdrawn JP2008003673A (en) 2006-06-20 2006-06-20 Animation creation system and method

Country Status (1)

Country Link
JP (1) JP2008003673A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014104172A1 (en) * 2012-12-27 2014-07-03 国立大学法人北陸先端科学技術大学院大学 Dynamic analysis method for polymer chain, manufacturing method for polymer, polymer, manufacturing method for synthetic polymer, and synthetic pollymer
JP2014522528A (en) * 2012-04-06 2014-09-04 騰訊科技(深▲セン▼)有限公司 Method and apparatus for automatically reproducing facial expressions with virtual images
CN106504303A (en) * 2016-09-13 2017-03-15 广州华多网络科技有限公司 A kind of method and apparatus for playing frame animation

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014522528A (en) * 2012-04-06 2014-09-04 騰訊科技(深▲セン▼)有限公司 Method and apparatus for automatically reproducing facial expressions with virtual images
WO2014104172A1 (en) * 2012-12-27 2014-07-03 国立大学法人北陸先端科学技術大学院大学 Dynamic analysis method for polymer chain, manufacturing method for polymer, polymer, manufacturing method for synthetic polymer, and synthetic pollymer
JPWO2014104172A1 (en) * 2012-12-27 2017-01-12 国立大学法人北陸先端科学技術大学院大学 Polymer chain dynamic analysis method, polymer production method, polymer, synthetic polymer production method, and synthetic polymer
CN106504303A (en) * 2016-09-13 2017-03-15 广州华多网络科技有限公司 A kind of method and apparatus for playing frame animation
CN106504303B (en) * 2016-09-13 2019-11-26 广州华多网络科技有限公司 A kind of method and apparatus playing frame animation

Similar Documents

Publication Publication Date Title
US11450352B2 (en) Image processing apparatus and image processing method
US20100079491A1 (en) Image compositing apparatus and method of controlling same
US11003898B2 (en) Creating videos with facial expressions
US11758082B2 (en) System for automatic video reframing
US20130229581A1 (en) Juxtaposing still and dynamic imagery for cliplet creation
US9679415B2 (en) Image synthesis method and image synthesis apparatus
CN111008927B (en) Face replacement method, storage medium and terminal equipment
JP3810943B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
US20110080410A1 (en) System and method for making emotion based digital storyboard
KR100411760B1 (en) Apparatus and method for an animation image synthesis
US20220292690A1 (en) Data generation method, data generation apparatus, model generation method, model generation apparatus, and program
CN111028318A (en) Virtual face synthesis method, system, device and storage medium
JP2008003673A (en) Animation creation system and method
JP2010170184A (en) Specifying position of characteristic portion of face image
JP2010244321A (en) Image processing for setting face model showing face image
US10417811B2 (en) Recording medium, information processing apparatus, and control method
US8462163B2 (en) Computer system and motion control method
JP2009065462A (en) Device, method, and program for summarizing video
JP2012134775A (en) Image processing system, imaging apparatus, and image processing program
JP5894505B2 (en) Image communication system, image generation apparatus, and program
JP2016012248A (en) Motion processing device, motion processing method, and program
CN113891079A (en) Automatic teaching video generation method and device, computer equipment and storage medium
CN115689882A (en) Image processing method and device and computer readable storage medium
JP2001209814A (en) Image processor
JP2010245721A (en) Face image processing

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090901