JP2002092626A - Image processor - Google Patents
Image processorInfo
- Publication number
- JP2002092626A JP2002092626A JP2000283861A JP2000283861A JP2002092626A JP 2002092626 A JP2002092626 A JP 2002092626A JP 2000283861 A JP2000283861 A JP 2000283861A JP 2000283861 A JP2000283861 A JP 2000283861A JP 2002092626 A JP2002092626 A JP 2002092626A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- parameter
- moving image
- parameter data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、パソコン、ワープ
ロ、ワークステーション、携帯型情報ツール、コピー
機、スキャナ装置、ファクシミリ、テレビ、ビデオ、ビ
デオカメラなどに用いられ、コンピュータグラフィック
スなどの手法を用いて予め作成されたアニメーションデ
ータの記憶、伝送、描画等の処理を行うアニメーション
処理方法、およびそれを実施するための装置に関し、特
に、部分的な画像を組み合わせることにより、漫画風の
趣をもつ動画像、例えば、人物の顔の部品を組み合わせ
て表情動画像を生成することのできる画像処理装置に関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is used in personal computers, word processors, workstations, portable information tools, copiers, scanners, facsimiles, televisions, videos, video cameras, etc., and uses techniques such as computer graphics. Processing method for performing processing such as storage, transmission, drawing, and the like of animation data created in advance, and an apparatus for performing the same. In particular, by combining partial images, a moving image with a cartoon-like The present invention relates to an image processing apparatus capable of generating an expression moving image by combining images, for example, parts of a person's face.
【0002】[0002]
【従来の技術】近年、パソコンやワープロ、デジタルカ
メラ等の普及に伴い、手軽に画像を取得し、取得画像に
対して様々な処理を施すことで実用性、娯楽性を高める
ことが行われるようになってきている。その画像処理の
一つとして、入力した画像に関する特定の特徴量、例え
ば人物画像における目や口などの位置や大きさ、形状を
抽出し、抽出した情報に基づいて、漫画風の趣をもつ似
顔絵画像を生成する技術がある。2. Description of the Related Art In recent years, with the spread of personal computers, word processors, digital cameras, and the like, it has become possible to easily acquire images and perform various processes on the acquired images to enhance practicality and entertainment. It is becoming. As one of the image processing, specific features related to the input image, for example, the position, size, and shape of eyes and mouths in a person image are extracted, and a cartoon-like portrait is extracted based on the extracted information. There are techniques for generating images.
【0003】また、画像中に配置された物体の位置およ
び大きさの関係が一定の拘束条件を満たす場合に、その
画像中の物体に関する特徴量を抽出し、物体画像の再構
成に利用する方法として、例えば特願平11−1210
97号公報に、画像が人物像である場合に、目、鼻、
口、顔輪郭等の特徴を抽出し、漫画風の似顔絵を生成す
る手法が開示されている。また、特開平10−2409
19号公報には、部品の配置や変形のルールを部品画像
とともに予めライブラリとして用意し、任意のルールを
選択することにより、単一画像から趣の異なった似顔絵
画像を生成する手法が開示されている。Further, when the relationship between the position and the size of an object arranged in an image satisfies certain constraint conditions, a method of extracting a feature amount related to the object in the image and using the extracted characteristic amount for reconstructing the object image. For example, Japanese Patent Application No. 11-1210
No. 97, when the image is a human image, eyes, nose,
A method of extracting features such as a mouth and a face contour and generating a cartoon-like portrait is disclosed. Also, JP-A-10-2409
No. 19 discloses a technique of preparing rules of component arrangement and deformation together with component images as a library in advance and selecting an arbitrary rule to generate a different portrait image from a single image. I have.
【0004】これらの似顔絵技術では、予め用意した顔
の各部品を合成表示することによって行われるため、各
部品に複数枚の連続した静止画像を割り当てて部分動画
像とすることで、似顔絵の顔部品を動かして表情アニメ
ーションを行うことも可能である。In these caricature techniques, each part of the face prepared in advance is synthesized and displayed. Therefore, a plurality of continuous still images are assigned to each part to form a partial moving image, so that the face of the caricature is obtained. It is also possible to perform facial expression animation by moving parts.
【0005】一方、コンピュータグラフィックスにおけ
るアニメーション製作技法の一つに、キーフレームアニ
メーションと呼ばれる手法がある。キーフレームアニメ
ーションでは、すべてのフレーム画像を予め作成するの
ではなく、動きのキーとなるフレーム(以下、キーフレ
ームという)内の物体を作成し、キーフレーム以外のフ
レームに描画すべき物体は、キーフレームの物体を補間
計算することにより自動生成する。On the other hand, as one of animation production techniques in computer graphics, there is a technique called key frame animation. In key frame animation, instead of creating all frame images in advance, objects within a key frame for movement (hereinafter referred to as key frames) are created, and objects to be drawn in frames other than key frames are key frames. Automatically generated by interpolating and calculating frame objects.
【0006】このキーフレームアニメーションの手法を
上記の顔の部品画像に適用すれば、部品画像を連続した
静止画像の割り当てにより部分動画像化したのと同じよ
うに、表情アニメーションを行うことが可能である。こ
のキーフレームアニメーションを適用する手法は、すべ
てのフレーム情報を記録する必要がないため、全体とし
て記録すべきデータ量を圧倒的に減らすことが可能とな
る。If this key frame animation technique is applied to the face part image, the facial expression animation can be performed in the same manner as when the part image is converted into a partial moving image by assigning continuous still images. is there. Since the method of applying the key frame animation does not need to record all the frame information, the amount of data to be recorded as a whole can be greatly reduced.
【0007】[0007]
【発明が解決しようとする課題】しかし、表情アニメー
ションのように、部分動画像を組み合わせてアニメーシ
ョンを作成する場合、常に単一の表情アニメーション描
画のみを行う場合ならばそれほど問題とはならないが、
複数の表情を任意に指定可能なアニメーション描画を行
う場合には、表情数分のアニメーション部品データを用
意しなければならない。さらに、上記の似顔絵技術で
は、画像を構成する各部品自体が単一ではなく、似顔絵
対象となる顔の異なる特徴量、例えば、眉が太い、細い
などの特徴に対応する、異なる部品データを多数用意し
ておかなくてはならない。すなわち、(表情数)×(部
品種類数)×(各部品数)分の動画データを必要とし、
膨大な動画データを予め作成しておかなければならず、
たとえキーフレームアニメーションで動画データを作成
したとしても、データ作成に関するコストの増大が避け
られないといった問題があった。However, in the case where an animation is created by combining partial moving images, such as in the case of facial expression animation, there is not much problem if only a single facial expression animation is drawn.
When performing animation drawing in which a plurality of facial expressions can be arbitrarily specified, animation part data for the number of facial expressions must be prepared. Furthermore, in the above portrait technology, each part constituting the image is not a single part, but a large number of different part data corresponding to different feature amounts of the face to be a portrait, for example, features such as thick and thin eyebrows. I have to prepare it. That is, (number of facial expressions) x (number of parts) x (number of parts) video data is required,
A huge amount of video data must be created in advance,
Even if moving image data is created by key frame animation, there is a problem that an increase in data creation cost is inevitable.
【0008】また、リアルタイムのコミュニケーション
用途などの目的において、表情アニメーションを利用し
ようとする場合、時間軸に沿って様々な表情を連続再生
する機能や、使うユーザやそのときの状況に応じて、ア
ニメーションの再生時間や動きの度合いなどをリアルタ
イムに変更修正する機能など、アニメーション再生を効
率良く管理することが求められるが、予め作っておいた
動画を単に再生するだけでは、このような動的な対応が
難しいといった問題があった。[0008] In addition, when an expression animation is to be used for the purpose of real-time communication, etc., a function of continuously reproducing various expressions along a time axis, an animation corresponding to a user to use and a situation at that time. It is necessary to efficiently manage animation playback, such as the ability to change and modify the playback time and degree of movement in real time, but simply playing back a video created in advance is such a dynamic response Was difficult.
【0009】本発明はかかる問題点を解決すべく創案さ
れたもので、その目的は、動画のためのデータ量を削減
し、部品データの効率の良い作成管理や、表情生成の動
的な変更などを行うことのできる画像処理装置を提供す
ることにある。SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and its object is to reduce the amount of data for a moving image, to efficiently create and manage part data, and to dynamically change expression generation. It is an object of the present invention to provide an image processing apparatus capable of performing such operations.
【0010】[0010]
【課題を解決するための手段】上記課題を解決するた
め、本発明の画像処理装置は、形状およびその構成に一
定の拘束条件を持つ部品を複数種類有し、各部品種類ご
とに複数の静止画像データを記憶している部品データ記
憶手段と、任意の部品を選択指示する部品選択指示手段
と、前記部品データ記憶手段から適切な部品データを抽
出する部品データ抽出手段と、この部品データ抽出手段
により抽出された部品データを組み合わせて1つ以上の
画像を合成する手段とを有する画像処理装置において、
部品データの動きに関する情報を1つ以上指定する動き
種別指定手段と、部品に動きを与えるためのパラメータ
データを記憶するパラメータデータ記憶手段と、部品デ
ータとパラメータデータとの関連付けを行うデータリン
ク手段と、前記動き種別指定手段により指定された動き
に関する情報に基づき、前記パラメータ記憶手段からパ
ラメータデータを抽出するパラメータデータ抽出手段
と、前記データリンク手段により関連付けされた部品デ
ータとパラメータデータとから部品データに動きを付け
た部分動画像を生成するとともに、関連付けのない他の
部品データも同列に合成して単一の動画像を生成する動
画像生成手段とを備えたことを特徴としている。In order to solve the above-mentioned problems, an image processing apparatus according to the present invention has a plurality of types of parts having a certain constraint on a shape and a configuration thereof, and a plurality of stationary parts for each type of parts. Component data storage means for storing image data, component selection instruction means for selecting and instructing an arbitrary component, component data extraction means for extracting appropriate component data from the component data storage means, and component data extraction means Means for combining one or more images by combining component data extracted by
A movement type designating unit for designating one or more pieces of information relating to the movement of the component data, a parameter data storage unit for storing parameter data for giving a motion to the component, and a data link unit for associating the component data with the parameter data A parameter data extracting unit that extracts parameter data from the parameter storage unit based on information on the motion specified by the motion type specifying unit; and a component data and a parameter data associated by the data link unit. It is characterized in that it comprises a moving image generating means for generating a partial moving image with a motion and combining other unrelated component data in the same row to generate a single moving image.
【0011】このような特徴を有する本発明によれば、
部品データと動きのパラメータデータは明確に分離され
て扱われ、データリンク手段により関連付けが行われ
る。これにより、予め一連の部分動画像を作成しておく
必要はなく、関連付けに従って、動的に部分動画像を生
成することができる。すなわち、部品データと動きのパ
ラメータデータは別々に修正を加えることが可能であ
り、効率の良いアニメーションデータ作成と管理を行う
ことができる。また、状況に応じて部分動画像の作成を
動的に変更することが可能となり、動きの変更や、修正
などもリアルタイムに行うことができる。さらに、部分
ごとに動画生成を行うことにより、動画像を必要としな
い部品、例えば、目をつぶる表情のときの鼻の部品など
は、静止画部品をそのまま利用することが可能となり、
無駄な部分動画像を予め生成しなくてもよいため、生産
量を削減することができる。According to the present invention having such features,
The part data and the motion parameter data are clearly separated and handled, and are associated by the data link means. Accordingly, it is not necessary to create a series of partial moving images in advance, and a partial moving image can be dynamically generated according to the association. In other words, the component data and the motion parameter data can be separately corrected, and efficient creation and management of animation data can be performed. In addition, it is possible to dynamically change the creation of the partial moving image according to the situation, and it is possible to change or correct the motion in real time. Furthermore, by generating a moving image for each part, a part that does not require a moving image, for example, a nose part in the case of a close-up expression, can use a still image part as it is,
Since it is not necessary to generate useless partial moving images in advance, the production amount can be reduced.
【0012】ここで、部品データと動きのパラメータデ
ータとを分離する方法は、その効果が期待できるもので
あれば、どのような方法を利用しても構わないが、例え
ば、キーフレームアニメーションの手法を利用すること
により効率のよい管理を行うことができる。すなわち、
静止画部品データを最初のキーフレームとすれば、それ
に対応する動きを表すパラメータデータを次のキーフレ
ームとして対応させることで、上述の分離方法を実現す
ることができる。なお、キーフレーム間の中間フレーム
は補間して算出されるが、その補間方法については、例
えば特開昭60−191366号公報などに開示されて
おり、計算方法自体は、線形補間やスプラインなどの曲
線近似を用いる方法が公知の技術として知られている。Here, as a method of separating the component data and the motion parameter data, any method may be used as long as the effect can be expected. For example, a key frame animation method may be used. By using, efficient management can be performed. That is,
If the still image component data is the first key frame, the above-described separation method can be realized by associating the parameter data representing the corresponding motion as the next key frame. The intermediate frame between the key frames is calculated by interpolation. The interpolation method is disclosed in, for example, Japanese Patent Application Laid-Open No. 60-191366, and the calculation method itself includes linear interpolation and spline. A method using curve approximation is known as a known technique.
【0013】また、キーフレームアニメーションにおい
て、補間計算を行うためには、キーフレーム間でどの物
体に関連付けされているのかといった関連付けの情報は
重要である。キーフレームアニメーションでは、通常物
体の構成要素は座標点、またはその集まりとして線や面
として定義されるが、それらの構成要素の対応付けは別
途関連付け表を定義して、それを記録/伝送する。通常
のアニメーションでは、この関連付け表は、1対キーフ
レーム間に対し唯一1つである。しかし、アニメーショ
ン対象の物体の形状とその構成が一定の拘束条件を持つ
場合、すなわち、上記似顔絵の顔部品のようにアニメー
ション対象物体を予め特定することができ、かつ、各顔
部品種類ごとに予め部品の構成要素とその形状に一定の
拘束条件を設定しておくことができる場合には、同じ部
品種類ならば、物体の関連付けを動的に変えても、部品
に修正を加えることなく物体間の対応関係を付けること
が可能となる。つまり、対応付けの対象として別のキー
フレームを動的に選択したとしても、キーフレーム同士
を接続して中間フレームを補間生成することができる。
例えば、目の部品は、白目部分、黒目部分、まつげ、目
尻の要素に分けて各要素の座標点数等を予め定義して部
品データを作成しておけば、次のキーフレームである動
きのパラメータデータを動的に変更しても、同じ関連付
け表を適用できる。[0013] In addition, in the key frame animation, in order to perform interpolation calculation, information of association such as which object is associated between key frames is important. In the key frame animation, the components of an object are usually defined as lines or surfaces as coordinate points or a group thereof, but the association of these components is defined by separately defining an association table and recording / transmitting it. In a normal animation, there is only one association table for one key frame. However, when the shape and the configuration of the object to be animated have a certain constraint condition, that is, the object to be animated can be specified in advance like the face part of the portrait, and the type of the face part is determined in advance. If certain constraints can be set for the components and their shapes of parts, if the same part type, even if the association of the objects is dynamically changed, the Can be assigned. That is, even if another key frame is dynamically selected as a target of association, the key frames can be connected to generate an intermediate frame by interpolation.
For example, if the eye part is divided into white-eye parts, black-eye parts, eyelashes, and eye corners, and the coordinate data of each element is defined in advance and the part data is created, the movement parameter as the next key frame is obtained. The same association table can be applied even if the data changes dynamically.
【0014】また、本発明の画像処理装置は、上記構成
において、複数の部品データに対して、同一のパラメー
タデータの関連付けを行うことで、パラメータデータを
共有するパラメータ共有手段をさらに備えたことを特徴
としている。Further, the image processing apparatus of the present invention, in the above configuration, further comprises a parameter sharing means for sharing parameter data by associating the same parameter data with a plurality of component data. Features.
【0015】すなわち、パラメータデータを共有するこ
とで、予め用意するパラメータデータを削減し、データ
量を圧縮することが可能になる。通常、部品の形が異な
れば、その数分の部品動画像が必要となるが、似顔絵の
顔部品のように、目や口など、部品種類さえ同じカテゴ
リのものであれば、その部品内の物体の構成要素(線や
面の構成/配置や配色など)は類似している。表情のよ
うな短い時間で変化する動画像を生成することが目的で
あるならば、最終的に元の静止画部品の状態に戻りさえ
すれば、同じパラメータデータにより、別々の部品にも
関わらず動画像が同じになったとしても、その表情の意
味するところ、例えば、「笑い」なのか「怒り」なのか
を伝えることにはあまり影響がないといる。That is, by sharing the parameter data, it becomes possible to reduce the parameter data prepared in advance and to compress the data amount. Normally, if the shape of a part is different, a moving image of the number of parts is necessary.However, if the parts are of the same category, such as eyes and mouth, like a facial part of a portrait, the part The components of the object (such as the configuration / arrangement of the lines and surfaces and the color scheme) are similar. If the purpose is to generate a moving image that changes in a short time like an expression, as long as it returns to the original still image component state, the same parameter data can be used regardless of the different components. Even if the moving images are the same, it is said that there is not much effect on the meaning of the expression, for example, whether the expression is "laughing" or "anger".
【0016】上述したように、アニメーション対象の物
体の形状とその構成が一定の拘束条件を持つことを前提
としている場合、同じ部品種類ならば、物体の関連付け
を動的に変えても、部品に修正を加えることなく物体間
の対応関係を付けることが可能である。例えば、目の部
品を、白目部分、黒目部分、まつげ、目尻の要素に分け
て各要素の座標点数等を予め定義して部品データを作成
しておけば、垂れ目とつり目のように形状特徴が多少異
なる部品でも、同じ関連付け表を適用できる。これによ
り、垂れ目とつり目に対して別々に、「笑い」と「怒
り」の動画像を用意しなくても、「笑い」と「怒り」の
動きを表すパラメータデータを1種類のみ用意して、そ
れぞれ垂れ目とつり目の部品画像に接続することで動画
像を動的に作成することができる。これにより、必要と
なる動画像データ量を減らすことができる。As described above, when it is assumed that the shape of an object to be animated and its configuration have certain constraint conditions, if the same type of part is used, even if the association of the object is dynamically changed, It is possible to establish a correspondence between objects without making any modifications. For example, if eye parts are divided into white-eye parts, black-eye parts, eyelashes, and corners of the eyes, and the number of coordinate points for each element is defined in advance and part data is created, the shape will be similar to a drooping eye and a seam. The same association table can be applied to parts having slightly different features. As a result, it is possible to prepare only one type of parameter data representing the movement of "laugh" and "anger" without preparing moving images of "laugh" and "anger" separately for the drooping eyes and the stitches. The moving image can be dynamically created by connecting to the component images of the sag and the seam, respectively. As a result, the required amount of moving image data can be reduced.
【0017】また、本発明の画像処理装置は、上記各構
成において、最終的に合成すべき部品画像の、画像中の
位置、画像中のサイズ、傾き、色情報、画像間の順位、
透過率を変更する手段をさらに備えたことを特徴として
いる。Further, in the image processing apparatus of the present invention, in each of the above configurations, the position of the component image to be finally synthesized in the image, the size in the image, the inclination, the color information, the order between the images,
It is characterized by further comprising means for changing the transmittance.
【0018】すなわち、上記構成により各部品種類ごと
に部分動画像、もしくは静止画像による部分画像を作成
した上で、最終的に合成すべき画像中において、部分画
像をどの位置に配置するのか、部分画像サイズを拡縮す
るのか、部分画像に傾き(回転/バース)をつけるの
か、各画素の色情報自体の変更(例えば、一律に赤色に
するなど)を行うか、またさらに、画素の透過率(背景
となる画像、もしくは他の部分画像との重なるならばそ
の画像間での画素輝度などの配合率)の値を変更するの
かといった、部分画像を合成する段階でその画像情報を
変更する機能を有することにより、多彩な動画像を動的
に生成することが可能になる。例えば、似顔絵のアニメ
ーション処理の場合、驚いた表情を動画に比例して、合
成する目の部分画像の拡大率を大きくするなどにより、
同じ部分データから、複数の表情を生成し、表現を豊か
にすることができる。That is, after a partial moving image or a still image is created for each component type by the above configuration, the position of the partial image in the image to be finally synthesized can be determined. Whether to enlarge or reduce the image size, add a tilt (rotation / verse) to the partial image, change the color information itself of each pixel (for example, uniformly change the color to red, etc.) A function to change the image information at the stage of synthesizing the partial image, such as changing the value of the blending ratio such as the pixel luminance between the images if it overlaps with the background image or other partial images With this, it is possible to dynamically generate various moving images. For example, in the case of animation processing of a portrait, by increasing the magnification of the partial image of the eyes to be synthesized in proportion to the moving image with a surprised expression,
Multiple expressions can be generated from the same partial data to enrich the expression.
【0019】また、本発明の画像処理装置は、上記各構
成において、生成される部分動画像に対して、再度パラ
メータデータの関連付けを行うデータ再リンク手段をさ
らに備え、このデータ再リンク手段による関連付けに従
って別の動画像を連続して生成することを特徴としてい
る。Further, the image processing apparatus according to the present invention further comprises a data relinking means for associating the parameter data with the generated partial moving image again in each of the above structures, Is characterized in that another moving image is continuously generated in accordance with
【0020】上記した各構成では、関連付けは部品デー
タと動きのパラメータデータの間で行うものであり、こ
れにより最終的に部分動画像を生成していたが、この構
成では、最終的に生成した部分動画像に動きのパラメー
タデータを再接続する機構をもち、連続して別の動画像
を生成する。In each of the above-described configurations, the association is performed between the component data and the motion parameter data, and the partial moving image is finally generated by this. In this configuration, the partial moving image is finally generated. A mechanism for reconnecting motion parameter data to a partial moving image is provided, and another moving image is continuously generated.
【0021】似顔絵アニメーションの例でいえば、表情
の連続動画再生を行う場合、必ず真顔の状態(静止画)
に戻ることを前提とすれば、再度部品データと動きパラ
メータから部分動画像を生成し、表示中の静止画の上書
き描画をすることにより連続再生が実現できる。しか
し、この方法では、一旦は必ず真顔に戻ってしまうた
め、ユーザに違和感を感じさせる場合がある。例えば、
驚いた後にすぐ怒るといった連続表情再生を行う場合、
驚いた表情から、連続して怒る表情に移行した方が、よ
り自然な表現になる。上記構成は、作成した部分画像に
対し、動きのパラメータデータを再度適用することによ
り、このような連続再生を可能にする。In the case of a portrait animation, in the case of continuous moving image reproduction of facial expressions, the face must be in a true face state (still image).
Assuming that the process returns to the above, continuous reproduction can be realized by generating a partial moving image again from the component data and the motion parameters and performing overwrite drawing of the still image being displayed. However, in this method, since the user always returns to the true face, the user may feel uncomfortable. For example,
When performing continuous facial expression playback such as getting angry immediately after being surprised,
It becomes more natural expression to shift from surprised expression to angry expression continuously. The above configuration enables such continuous reproduction by reapplying the motion parameter data to the created partial image.
【0022】キーフレームアニメーションの場合、パラ
メータデータを途中のフレームに対して再付与し連続再
生するには、途中のフレームをキーフレームとして抽出
することが必要である。このため、例えば、予めパラメ
ータデータを複数のキーフレームで構成しておいて、再
生中断箇所を途中のキーフレームに限定しておくか、再
生途中の中断した状態のフレームをキーフレームとして
再構成することにより、再生途中の状態をキーフレーム
として抽出しておく。また、動画再生はそのキーフレー
ムまでで一旦終了しておく。そして、抽出したキーフレ
ームを最初のフレーム、次のフレームを新たに動きのパ
ラメータデータから抽出したキーフレームとして、新た
に部分動画像を生成し、再度上書き描画することにより
再生を再開すれば、違和感のない連続再生を行うことが
可能となる。In the case of key frame animation, it is necessary to extract the middle frame as a key frame in order to reattach the parameter data to the middle frame and to continuously reproduce the data. For this reason, for example, the parameter data is composed of a plurality of key frames in advance, and the reproduction interruption part is limited to the key frame in the middle, or the suspended frame in the reproduction is reconstructed as the key frame. Thus, the state during reproduction is extracted as a key frame. Also, the reproduction of the moving image is temporarily ended up to the key frame. If the extracted key frame is used as the first frame and the next frame is used as a new key frame extracted from the motion parameter data, a new partial moving image is generated, and the reproduction is resumed by overwriting and drawing again. It is possible to carry out continuous reproduction without any problem.
【0023】また、本発明の画像処理装置は、上記構成
において、内部に予め設定された動き種別指定をある一
定の期間ごとに行い、前記データ再リンク手段により再
度パラメータデータの関連付けを行うことにより、間欠
的に動画像を生成する手段をさらに備えたことを特徴と
している。Further, in the image processing apparatus of the present invention, in the above-described configuration, the motion type specified in advance is specified every predetermined period, and the data relinking unit associates the parameter data again. And a means for intermittently generating a moving image.
【0024】間欠的な動画再生は、動き種別指定手段か
らの明示的な指定を、時間軸に沿って順に行っていくこ
とにより実現できる。これに対し、上記構成は、たとえ
明示的に連続再生の指示を行わなくても、自律的に動画
像再生を行う手段を持つ。Intermittent moving image reproduction can be realized by performing explicit designation from the motion type designation means in order along the time axis. On the other hand, the above-described configuration has a means for autonomously reproducing a moving image without explicitly instructing continuous reproduction.
【0025】すなわち、ある一定の時間間隔ごとに、予
め設定した動きパラメータデータを、動き指定種別手段
の指定に関わらず、現在表示している部分画像に対して
動的にリンクするようにデータ再リンク手段に対して指
定する手段を有する。これにより、例えば、表情アニメ
ーションの場合、「笑う」や「怒る」といった表情以外
の、より生理的な表現、例えば「まばたき」などの表情
は、明示的な指定による表情再生中かどうかに関わら
ず、自律的に再生することが可能となる。すなわち、デ
ータ再リンク手段を用いることにより、「怒る」という
表情が再生されている場合も、例えば目の部品に対し
て、連続してまばたきという動きの部分を自動的に接続
し再生することができるため、特に明示的な指定をする
ことなく、より自然な表情再生を行うことができる。That is, at predetermined time intervals, data re-set so that the previously set motion parameter data is dynamically linked to the currently displayed partial image regardless of the designation of the motion designation type means. It has means for designating the link means. Thus, for example, in the case of facial expression animation, more physiological expressions other than facial expressions such as "laughing" and "angry", for example, facial expression such as "blink", regardless of whether the facial expression is being reproduced by explicit designation , It is possible to play back autonomously. In other words, by using the data re-linking means, even when the expression "angry" is reproduced, for example, it is possible to automatically connect and reproduce the part of the blinking motion to the eye part. Therefore, a more natural expression reproduction can be performed without any explicit designation.
【0026】[0026]
【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照して説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0027】本発明の画像処理装置は、部分的な画像
(画像を構成する物体)を合成することで任意の動画像
を生成する装置である。ここでは、実施の一形態とし
て、部分的な画像に人物顔中の各部位の画像を用い、最
終的な動画像として、人物顔表情のアニメーションを生
成することを目的とする画像処理について説明する。The image processing apparatus of the present invention is an apparatus for generating an arbitrary moving image by synthesizing partial images (objects constituting the image). Here, as one embodiment, an image processing for generating an animation of a human face expression as a final moving image using an image of each part in a human face as a partial image will be described. .
【0028】[実施形態1]図1は、本実施形態1の画
像処理装置の構成を示す機能ブロック図である。[First Embodiment] FIG. 1 is a functional block diagram showing the configuration of an image processing apparatus according to the first embodiment.
【0029】部品選択指定手段100は、顔の各部位の
部品画像を指定する手段であり、ユーザが部品画像を任
意に組み合わせて顔画像を作成するために利用される。
動き種別指定手段101は、生成した表情アニメーショ
ンの種別(笑う、怒る、泣くなど)を指定する手段であ
り、ユーザが任意の表情を入力することができる。顔部
品データ記憶手段102は、顔の各部位(目、口、鼻な
ど)ごとに形状や色などが異なった複数のベクトル画像
データを記憶している。部品データ抽出手段103は、
顔部品データ記憶手段102から任意の部品のベクトル
画像データ(部品データ)を抽出し伝送する手段であ
る。表情パラメータ記憶手段104は、部品データの動
き(表情の変化)をパラメータ化した表情パラメータデ
ータを記憶している。The part selection designating means 100 is a means for designating a part image of each part of the face, and is used by a user to create a face image by arbitrarily combining the part images.
The motion type specifying means 101 is a means for specifying the type of the generated facial expression animation (laughing, angry, crying, etc.), and allows the user to input an arbitrary facial expression. The face part data storage unit 102 stores a plurality of vector image data having different shapes, colors, and the like for each part of the face (such as eyes, mouth, and nose). The component data extraction means 103
This is a means for extracting and transmitting vector image data (part data) of an arbitrary part from the face part data storage means 102. The expression parameter storage unit 104 stores expression parameter data obtained by parameterizing the movement (change in expression) of the component data.
【0030】パラメータデータ抽出手段105は、表情
パラメータ記憶手段104から、任意の表情パラメータ
データを抽出し伝送する手段である。データリンク手段
106は、部品選択指示手段100から指定される顔の
各部位の部品データと、動き種別指定手段101から指
定される表情種別の情報とに基づいて、それぞれ部品デ
ータ抽出手段103、パラメータデータ抽出手段105
を用いて、部品データとパラメータデータとを適宜動的
に選択し、両データを表情の動きをもった部品データと
して組み合わせて、動的合成手段107に伝送する手段
である。The parameter data extracting means 105 is a means for extracting and transmitting arbitrary expression parameter data from the expression parameter storage means 104. The data link means 106 is based on the component data of each part of the face specified by the component selection instructing means 100 and the information of the facial expression type specified by the motion type specifying means 101, respectively, Data extraction means 105
Is used to dynamically select component data and parameter data as appropriate, combine the two data as component data having a facial expression movement, and transmit the combined data to the dynamic synthesizing unit 107.
【0031】動的合成手段107は、伝送された部品デ
ータと表情パラメータの組み合わせに基づき、顔の各部
位の部分動画像を作るとともに、リンクされていない部
位の部分静止画像を部品データ抽出手段103を用いて
抽出した上で、各部分画像を合成し、一つの動画像を生
成する手段である。画像出力手段108は、動的合成手
段107により生成された合成動画像をCRT等の表示
装置に出力する手段である。The dynamic synthesizing unit 107 creates a partial moving image of each part of the face based on the combination of the transmitted part data and the expression parameters, and extracts a partial still image of an unlinked part from the part data extracting unit 103. Is a means for generating a single moving image by combining the respective partial images after the extraction using. The image output unit 108 is a unit that outputs the combined moving image generated by the dynamic combining unit 107 to a display device such as a CRT.
【0032】上記構成において、部品選択指定手段10
0は、本実施形態1では顔の各部位の部品を任意に指定
する手段を備えているものとする。また、CRT等の表
示装置に選択可能な部品の一覧を表示し、本画像処理装
置の操作者がマウスやカーソルキーなどにより、任意に
選択できるようにしてもよいし、別途選択すべき部品を
リストとして記述し、そのリストを入力としてもよい。
あるいは、人物の顔写真から各部位の特徴量を抽出し、
その特徴量を元に自動的に顔の各部位を決定し、その結
果をリストにして入力してもよい。なお、人物の顔写真
から特徴量を抽出し部品を選択する手法は、前述したよ
うに、例えば特願平11−121097号公報に開示さ
れている。In the above configuration, the component selection designating means 10
In the first embodiment, 0 is provided with means for arbitrarily specifying parts of each part of the face. Also, a list of selectable parts may be displayed on a display device such as a CRT so that the operator of the image processing apparatus can arbitrarily select the parts with a mouse or a cursor key, or select parts to be separately selected. The information may be described as a list, and the list may be used as an input.
Alternatively, the feature amount of each part is extracted from the photograph of the face of the person,
Each part of the face may be automatically determined based on the feature amount, and the result may be input as a list. As described above, for example, Japanese Patent Application No. 11-121097 discloses a method of extracting a feature amount from a portrait of a person and selecting a part.
【0033】動き種別指定手段101は、顔の表情を任
意に指定するための手段である。例えば、CRT等の表
示装置によって選択可能な表情の種類を抽象的に表現し
たアイコンを表示し、それを操作者がマウスやカーソル
キーなどにより、任意に選択することで実現される。こ
のように動き種別指定手段101からの入力をインタラ
クティブに実現してもよいし、あるいは、予め1つ以上
の表情を時間軸に沿って指定するリストを記述し、これ
を動き種別指定手段101の入力とし、内部的に時間軸
に沿って順に表示指定を行っていくように実装してもよ
い。The motion type specifying means 101 is a means for arbitrarily specifying a facial expression. For example, it is realized by displaying an icon that abstractly represents a type of expression that can be selected by a display device such as a CRT, and arbitrarily selecting the icon with a mouse or a cursor key or the like. As described above, the input from the motion type specifying unit 101 may be realized interactively, or a list specifying one or more facial expressions along a time axis may be described in advance, and the list may be described by the motion type specifying unit 101. It may be implemented as an input, and display designation is sequentially performed internally along the time axis.
【0034】また、顔部品データ記憶手段102、部品
データ抽出手段103、表情パラメータ記憶手段10
4、パラメータデータ抽出手段105、データリンク手
段106、および動的合成手段107は、図示は省略し
ているが演算装置と記憶装置により構成され、記憶装置
上に格納されたデータに対して演算処理を行うことによ
り、各手段の目的を達成するものとする。これらの演算
処理は、同じ記憶装置上に予め記憶された処理プログラ
ムによって統一的に処理してもよい。Further, the face part data storage means 102, the part data extraction means 103, the expression parameter storage means 10
4. Parameter data extracting means 105, data link means 106, and dynamic synthesizing means 107 are constituted by an arithmetic unit and a storage device (not shown), and perform arithmetic processing on data stored in the storage device. By doing so, the purpose of each means shall be achieved. These arithmetic processings may be uniformly performed by a processing program stored in advance on the same storage device.
【0035】また、画像出力手段108は、本画像処理
装置で生成される動画像をCRT等の表示装置上に出力
するための手段である。生成される動画像がラスター形
式による画像情報で構成されているならば、その画素情
報を表示装置に合わせて指定された単位時間ごとに順に
表示する。あるいは、動画像がベクター形式による画像
情報で構成されているならば、ベクトル情報から画像を
随時描画し、単位時間ごとに順に表示する。The image output means 108 is a means for outputting a moving image generated by the image processing apparatus on a display device such as a CRT. If the generated moving image is composed of image information in a raster format, the pixel information is sequentially displayed for each unit time specified according to the display device. Alternatively, if the moving image is composed of image information in a vector format, the image is drawn from the vector information as needed, and is displayed sequentially for each unit time.
【0036】次に、上記構成の画像処理装置によって実
施される画像処理動作について、図2に示すフローチャ
ートを参照して説明する。Next, an image processing operation performed by the image processing apparatus having the above configuration will be described with reference to a flowchart shown in FIG.
【0037】まず、ステップS11では、操作者は部品
選択指定手段100を用いて、顔の各部位の所望の部品
画像を選択指定する。上述したように、部品選択指定手
段は、操作者がインタラクティブに入力指定してもよい
し、リストにより指定してもよい。なお、操作者がすべ
ての部位の部品指定を行わなくてもよいように、操作者
の指定がない部位の部品は、標準として用いる部品を予
めきめておいてもよい。First, in step S11, the operator selects and specifies a desired part image of each part of the face using the part selection specifying means 100. As described above, the component selection designation unit may be interactively input and designated by the operator, or may be designated by a list. In addition, in order to avoid the need for the operator to specify parts for all parts, parts to be used as standard may be determined in advance as parts for parts not specified by the operator.
【0038】次に、ステップS12では、動き種別指定
手段101を用いて、所望の顔の表情を指定する。上述
したように、動き種別指定手段101は、操作者がイン
タラクティブに入力指定してもよいし、リストにより指
定してもよい。特に、操作者の指定がない場合は、予め
標準の表情種類を決めておき、その表情が選択されたと
してもよい。Next, in step S12, a desired facial expression is designated by using the motion type designation means 101. As described above, the motion type designation unit 101 may be interactively input and designated by the operator, or may be designated by a list. In particular, when there is no designation by the operator, a standard expression type may be determined in advance, and that expression may be selected.
【0039】次にステップS13では、データリンク手
段106が、ステップS11で指定された部品に関する
情報を元に、部品抽出手段103を用いて部品データを
抽出する。本実施形態1における部品データは、ベクタ
ー形式の画像情報処理であり、物体の形状を表す座標
列、物体の色情報などが含まれる。さらに、この部品デ
ータに付随する情報として、この部品のリンク情報を同
時に抽出する。リンク情報とは、抽出した部品に接続
(リンク)すべきパラメータデータに関する情報であ
り、部品を動画化する再に必要となるパラメータデータ
のグループを特定する。リンク情報の詳細については後
述する。Next, in step S13, the data linking means 106 extracts component data using the component extracting means 103 based on the information on the component specified in step S11. The component data in the first embodiment is image information processing in a vector format, and includes a coordinate sequence representing the shape of the object, color information of the object, and the like. Further, link information of the component is simultaneously extracted as information accompanying the component data. The link information is information relating to parameter data to be connected (linked) to the extracted component, and specifies a group of parameter data necessary for recreating the component as a moving image. Details of the link information will be described later.
【0040】次に、ステップS14では、データリンク
手段106が、ステップS12で指定された表情指定に
関する情報と、ステップS13で抽出したリンク情報と
から、抽出すべきパラメータデータを決定する。抽出さ
れたパラメータデータのグループに属するパラメータデ
ータの中から、表情指定に基づいて、必要となるパラメ
ータデータを特定する。Next, in step S14, the data linking means 106 determines parameter data to be extracted from the information on the expression designation specified in step S12 and the link information extracted in step S13. From the parameter data belonging to the extracted parameter data group, necessary parameter data is specified based on the expression specification.
【0041】次に、ステップS15では、データリンク
手段106が、ステップS14で特定されたパラメータ
データを、パラメータデータ抽出手段105を用いて、
パラメータデータを抽出する。Next, in step S15, the data link means 106 uses the parameter data extraction means 105 to convert the parameter data specified in step S14.
Extract parameter data.
【0042】次に、ステップS16では、データリンク
手段106が、ステップS13で抽出された部品データ
に、ステップS15で抽出されたパラメータデータを接
続(リンク)し、動き情報を持つ部品データ(表情部品
データ)を作成する。表情部品データは、キーフレーム
アニメーションの構成を持つ。表情部品データの作成手
法の詳細については後述する。Next, in step S16, the data link means 106 connects (links) the parameter data extracted in step S15 to the component data extracted in step S13, and connects the component data (motion expression component) having motion information. Data). The expression part data has a key frame animation configuration. The details of the method of creating expression part data will be described later.
【0043】次に、ステップS17では、動的合成手段
107が、顔の各部位ごとに部分動画像を作成する。顔
の部位のうち、動きが必要となる部位、例えば、目、口
などは、ステップS16で作成された表情部品データを
元に部分動画像を作成する。本実施形態1では、表情部
品データはキーフレームアニメーションの構成として作
成されているため、そのまま動画像用のフォーマット形
式して用いることができる。Next, in step S17, the dynamic synthesizing means 107 creates a partial moving image for each part of the face. Among the parts of the face, parts that need to be moved, such as eyes and mouth, create partial moving images based on the expression part data created in step S16. In the first embodiment, since the expression part data is created as a configuration of the key frame animation, it can be used as it is as a moving image format.
【0044】一方、動きの必要がない他の部位、例え
ば、鼻や顔輪郭などの部分動画像に関しては、部品選択
指定手段100で指定された部品情報に基づき、部品デ
ータ抽出手段103を用いて、部品データを抽出した上
で、この部品データに「時間変化しない」という動き情
報を持つパラメータデータを接続し、表情部品データと
同じフォーマット形式の部分動画像を生成する。このよ
うに、全ての部位の部分動画像を同じフォーマット形式
で作成することで、部分動画像を合成し1つの動画像と
する際に、時間管理などを統一的に処理することができ
る。On the other hand, with respect to other parts that do not need to move, for example, partial moving images such as a nose and a face contour, the part data extracting means 103 is used based on the part information specified by the part selection specifying means 100. After extracting the part data, the part data is connected to the parameter data having the motion information of "no change over time" to generate a partial moving image in the same format as the expression part data. By creating partial moving images of all parts in the same format as described above, time management and the like can be uniformly processed when combining partial moving images into one moving image.
【0045】次に、ステップS18では、動画合成手段
107が、ステップS17で作成された部分動画像を1
つの動画像に合成する。部分動画像は同じ動画フォーマ
ットで作成されており、時間管理も内部で定義してある
ため、その合成動画像のフォーマットは、各部分動画像
フォーマットの列挙と、各部分動画像の配置情報を定義
すればよい。合成動画フォーマットの詳細については後
述する。Next, in step S18, the moving image synthesizing means 107 converts the partial moving image created in step S17 into one.
Are combined into one moving image. Partial moving images are created in the same moving image format, and time management is also defined internally, so the format of the composite moving image defines each partial moving image format and defines the arrangement information of each partial moving image do it. Details of the composite moving image format will be described later.
【0046】次に、ステップS19では、画像出力手段
108により、ステップS17で作成した合成動画像を
CRT等の表示装置に表示する。本実施形態1では、合
成動画像は、キーフレームアニメーションを合成した動
画フォーマットとして作成されるため、この動画フォー
マットを解析し、部分動画像に分解した上で、キーフレ
ーム間を補間計算しながら、単位時間ごとに画像を生成
していく必要がある。キーフレーム間を補間して画像を
生成する手法に関しては、前述したように、例えば特開
昭60−191366号公報などに開示されている。Next, in step S19, the combined moving image created in step S17 is displayed on a display device such as a CRT by the image output means 108. In the first embodiment, since the synthesized moving image is created as a moving image format obtained by synthesizing the key frame animation, the moving image format is analyzed, decomposed into partial moving images, and interpolation is calculated between the key frames. It is necessary to generate an image every unit time. A method of generating an image by interpolating between key frames is disclosed in, for example, Japanese Patent Laid-Open No. 60-191366, as described above.
【0047】以下、ステップS13で抽出されるリンク
情報、ステップS14からステップS16において、デ
ータリンク手段106が行うリンク処理、および生成さ
れる表情部品データの作成方法について、さらに詳しく
説明する。The link information extracted in step S13, the link processing performed by the data link means 106 in steps S14 to S16, and the method of creating the generated expression part data will be described in more detail below.
【0048】本実施形態1では、部品データ記憶手段1
02には、各部品データとともにリンク情報が格納され
ている。リンク情報は、部品データとは別の記憶装置に
格納しておけばよいが、各部品データと1対1の関係を
保ち、データと対にして抽出可能でなければならない。
リンク情報は、各部品を動画化するためのパラメータデ
ータを特定するための情報であり、本実施形態1では、
各部品の表情数分のパラメータデータをグループとして
管理し、そのグループごとに一意な番号を割り当ててお
く。そして、このグループ番号をリンク情報として定義
する。In the first embodiment, the component data storage unit 1
02 stores link information together with each component data. The link information may be stored in a storage device separate from the component data. However, the link information must maintain a one-to-one relationship with each component data and must be able to be extracted in pairs with the data.
The link information is information for specifying parameter data for animating each component, and in the first embodiment,
Parameter data for the number of facial expressions of each part is managed as a group, and a unique number is assigned to each group. Then, this group number is defined as link information.
【0049】データリンク手段106は、ステップS1
3において部品データを抽出するとともに、このリンク
情報も同時に抽出する。次いで、ステップS1 4におい
て、抽出されたリンク情報を元にパラメータデータのグ
ループを特定し、かつ、動き種別指定手段101によっ
て指定された表情指定情報に基づいて、グループ内のパ
ラメータデータを一意に特定する。次いで、ステップS
15において、特定されたパラメータデータを、表情パ
ラメータ記憶手段104から抽出する。The data link means 106 determines in step S1
In step 3, component data is extracted, and this link information is also extracted. Next, in step S14, a group of parameter data is specified based on the extracted link information, and the parameter data within the group is uniquely specified based on the expression specifying information specified by the motion type specifying unit 101. I do. Then, step S
At 15, the specified parameter data is extracted from the facial expression parameter storage unit 104.
【0050】図3は、リンク情報の指定と表情指定によ
り、パラメータデータが特定される様子を、口の部品を
例に模式的に表した図である。すなわち、口の部品に関
して、リンク先としてパラメータデータグループ「口の
部品A」を指しており、かつ操作者が表示指定として
「笑う」を指定した場合に、パラメータデータが特定さ
れる様子を示している。FIG. 3 is a view schematically showing how parameter data is specified by specifying link information and expression, using a mouth part as an example. That is, regarding the mouth part, the parameter data group “mouth part A” is pointed as the link destination, and the parameter data is specified when the operator specifies “laugh” as the display specification. I have.
【0051】ここで、本実施形態1における部品データ
とパラメータデータとに関して説明する。Here, component data and parameter data according to the first embodiment will be described.
【0052】部品データは、ベクター形式の静止画像デ
ータであり、画像内の物体の形状を表す座標列と色情報
などから構成されている。通常、ベクターデータであっ
たとしても、物体の形状は様々であり、物体の形状の座
標列に関して、座標数などを限定することはできない。
しかし、特徴量が一定の物体であるならば、予めその形
状をある程度定義することができる。本実施形態1で
は、顔部品という限定があり、目、鼻、口などの各部位
の部品種類ごとに分けて考えれば、各部品種類内での形
状は大きくは異ならない。従って、形状を表す座標列の
座標数などを予め定義した上で、各部品データの作成を
行っておくことができる。The component data is still image data in a vector format, and is composed of a coordinate sequence representing the shape of an object in the image, color information, and the like. Usually, even if the data is vector data, the shape of the object is various, and the number of coordinates and the like cannot be limited with respect to the coordinate sequence of the shape of the object.
However, if an object has a constant feature amount, its shape can be defined to some extent in advance. In the first embodiment, there is a limitation of a face part, and the shape within each part type does not greatly differ if each part type such as an eye, a nose, and a mouth is considered separately. Therefore, each component data can be created after the number of coordinates of the coordinate sequence representing the shape is defined in advance.
【0053】すなわち、各部品データとパラメータデー
タとが同じ部品種類であるならば、互いの組み合わせを
意識することなく、独立して管理を行うことができる。
これにより、その形状のルール定義にしたがっている限
り、部品データとパラメータデータとを別々に修正して
も一方に影響を与えないため、効率の良いアニメーショ
ン管理を行うことができる。また、パラメータデータを
接続する前に動的に修正、変更することも容易に行うこ
とができる。That is, if each component data and parameter data are of the same component type, management can be performed independently without being aware of each other's combination.
Thus, as long as the rule of the shape is followed, even if the component data and the parameter data are separately corrected, one of them is not affected, so that efficient animation management can be performed. Also, it is possible to easily correct and change the parameter data dynamically before connecting.
【0054】例えば、動画の再生時間を柔軟に変更する
などの処理を容易に行うことができる。さらに、動画化
する必要のない部品データに関しては、「時間変化しな
い」というパラメータデータを内部的に接続すれば、簡
単に他の部分動画像フォーマットと同じ形式に変換する
ことができる。これにより、「時間変化しない動画像」
を予め部品数分用意しておくのに比べて、データ量を削
減することができる。For example, processing such as flexibly changing the reproduction time of a moving image can be easily performed. Furthermore, with respect to component data that does not need to be animated, if parameter data indicating "no change over time" is internally connected, it can be easily converted to the same format as other partial moving image formats. As a result, "moving images that do not change over time"
Can be reduced compared to the case where the number of components is prepared in advance for the number of components.
【0055】上記の部品データおよびパラメータデータ
の具体的な構成内容の例を図5に示す。これは、図4に
示す左目の部品データのフォーマット例と、この部品デ
ータに接続するパラメータデータのフォーマット例とを
示している。この部品データは、図4に示すように、白
目、黒目1、黒目2、虹彩、孔、下瞼、上瞼、線1、線
2の計9個の図形要素から構成されており、その情報格
納形式は、図形の輪郭線情報P(X(n),Y(n))
と図形の色C(R,G,B)とからなる。ここで、座標
(X(n),Y(n))は、図形輪郭線上の座標点を表
しており、座標点数分の情報が格納される。また、
(R,G,B)は、図形を塗りつぶす色を表しており、
赤(R)、緑(G)、青(B)の輝度値を格納する。FIG. 5 shows an example of a specific configuration of the component data and parameter data. This shows a format example of the component data of the left eye shown in FIG. 4 and a format example of parameter data connected to the component data. As shown in FIG. 4, this part data is composed of a total of nine graphic elements of white eye, black eye 1, black eye 2, iris, hole, lower eyelid, upper eyelid, line 1, line 2, and the information thereof. The storage format is the outline information P (X (n), Y (n)) of the figure.
And the color C (R, G, B) of the figure. Here, the coordinates (X (n), Y (n)) represent coordinate points on the figure outline, and information corresponding to the number of coordinate points is stored. Also,
(R, G, B) represents a color for filling the figure,
The luminance values of red (R), green (G), and blue (B) are stored.
【0056】一方、パラメータデータは、上記部品デー
タの各図形要素に対して、ある一定時間を経過した後の
形状輪郭座標列を定義している。その情報格納形式は、
時間指定T(t)と、輪郭線情報Q(X(n),Y
(n))からなる。ここで、tは経過時間を表してお
り、例えば単位時間の倍数で指定する。また、(X
(n),Y(n))は、上記Pと同様に図形輪郭線上の
座標点を表しており、座標点数分の情報が格納される。
輪郭線情報P、Qと色情報Cは、各図形要素ごとに設定
され、各図形の描画順位にしたがって、順に部品データ
とパラメータデータに格納されていく。これらの図形要
素の格納順は、同じ部品種類ならば同じであるため、簡
単に特定することができる。On the other hand, the parameter data defines, for each graphic element of the component data, a shape contour coordinate sequence after a certain time has elapsed. The information storage format is
Time designation T (t) and contour information Q (X (n), Y
(N)). Here, t represents the elapsed time, and is specified, for example, by a multiple of the unit time. Also, (X
(N), Y (n)) represent coordinate points on the contour of the figure as in the case of P, and information corresponding to the number of coordinate points is stored.
The outline information P and Q and the color information C are set for each graphic element, and are sequentially stored in the component data and the parameter data according to the drawing order of each graphic. Since the storage order of these graphic elements is the same for the same part type, they can be easily specified.
【0057】このように、抽出された部品データとパラ
メータデータとは、順に接続(リンク)されることによ
り、キーフレームアニメーションによる動画像形式(表
情部品データ)に変換される。上記の左目の部品データ
とパラメータデータの接続例を図6(a)に接続例1と
して示す。As described above, the extracted component data and parameter data are sequentially connected (linked) to be converted into a moving image format (expression component data) by key frame animation. FIG. 6A shows a connection example 1 of the above-described left eye component data and parameter data.
【0058】図6(a)の接続例1では、最初にキーフ
レームPとQを定義している。最初にPからQへのフレ
ーム時間をT(P,Q,200 )により記述している。次に各
図形要素ごとに、キーフレームPのときの輪郭線情報を
P(X(n),Y(n)),キーフレームQのときの輪
郭線情報をQ(X(n),Y(n))として記述してい
る。また、色情報はC(R,G,B)により各要素ごと
に指定している。なお、この接続例1では色情報の変化
は考慮されておらず、キーフレームPとQにおいて図形
は同じ色を保つこととする。In connection example 1 in FIG. 6A, first, key frames P and Q are defined. First, the frame time from P to Q is described by T (P, Q, 200). Next, for each graphic element, the outline information for the key frame P is P (X (n), Y (n)), and the outline information for the key frame Q is Q (X (n), Y ( n)). The color information is specified for each element by C (R, G, B). In connection example 1, the change in the color information is not considered, and the figures in the key frames P and Q keep the same color.
【0059】また、動画化する必要のない部品データに
関しては、「時間変化しない」というパラメータデータ
を接続することにより、動画像形式に変換できる。単純
に、部品データの形状情報を再指定しても問題はない
が、「時間変化しない」という情報形式を定義しておけ
ば、より簡単に接続が行えて、かつ、データ量を減らす
ことにも有効である。例えば、図6(b)に示す接続例
2では、接続例1と同じ図形要素で構成されているが、
キーフレームQのときの輪郭線情報Qを、Q(P)と記
述している。これは、キーフレームPのときの輪郭線情
報Pと同じであることを表している。Also, the component data that does not need to be animated can be converted to a moving image format by connecting parameter data that does not change over time. There is no problem simply re-specifying the shape information of the part data, but if you define an information format that does not change over time, you can connect more easily and reduce the amount of data. Is also effective. For example, in connection example 2 shown in FIG. 6B, although the same graphic element as connection example 1 is used,
The outline information Q at the time of the key frame Q is described as Q (P). This indicates that the outline information is the same as the outline information P for the key frame P.
【0060】以上の処理により、顔の各部位の表情部品
データを動的に作成することができる。接続するパラメ
ータデータを変更することで、任意の表情部品データを
動的に作成することが可能となる。By the above processing, the expression part data of each part of the face can be dynamically created. By changing the parameter data to be connected, arbitrary expression part data can be dynamically created.
【0061】さらに、これらの表情部品データは合成さ
れ、1つの動画像を形成する。表情部品データを合成
し、単一の動画像形式にした例を図7に示す。この例で
は、部分画像ごとに配置情報と表情部品データを順に格
納している。最初に目の部分動画像に関する配置情報L
が記述されている。配置情報Lは、部分画像の縦横サイ
ズ(w,h)と、合成画像中の座標位置(x,y)とで
構成されている。次に、上記過程を経て生成された目の
表情部品データをそのまま記述している。口などの他の
部品種類も同様に部品種類数分列挙して記述してある。Further, these expression part data are combined to form one moving image. FIG. 7 shows an example in which the expression part data is combined into a single moving image format. In this example, arrangement information and expression part data are stored in order for each partial image. First, the arrangement information L on the partial moving image of the eyes
Is described. The arrangement information L includes the vertical and horizontal sizes (w, h) of the partial images and the coordinate positions (x, y) in the composite image. Next, the eye expression part data generated through the above process is described as it is. Other parts types such as mouths are similarly enumerated and described for the number of part types.
【0062】画像出力する際には、合成画像中の座標位
置(x,y)を中心とし、サイズ(w,h)の枠内に、
表情部品データ中の時間指定に沿って、キーフレームア
ニメーションとして描画されることになる。このように
して、様々な表情部品データを組み合わせることによ
り、多彩な表情アニメーションを簡単に作成することが
できる。作成した表情アニメーションの例を図8に示
す。When outputting an image, the coordinate position (x, y) in the composite image is set at the center, and a frame of size (w, h) is
It is rendered as a key frame animation along with the time designation in the facial expression part data. In this way, various expression animations can be easily created by combining various expression part data. FIG. 8 shows an example of the created facial expression animation.
【0063】ここで、本実施形態1の画像処理装置で
は、パラメータデータを複数の部品データ間で共有する
パラメータ共有手段を持つ。例えば、図3において、口
の部品データに対して接続するパラメータデータを、パ
ラメータデータグループの「口の部品A」としている
が、この「口の部品A」は、部品データと1対1の関係
でなくてもよい。Here, the image processing apparatus of the first embodiment has parameter sharing means for sharing parameter data among a plurality of component data. For example, in FIG. 3, the parameter data connected to the mouth part data is referred to as “mouth part A” in the parameter data group, and this “mouth part A” has a one-to-one relationship with the part data. It does not have to be.
【0064】すなわち、「口の部品A」に属するパラメ
ータデータは、複数の部品データに共通であり、同じパ
ラメータデータを複数の部品データに接続することがで
きる。すなわち、特徴量が一定の部品種類、本実施形態
1でいえば顔部品として限定があり、目、鼻、口などの
各部位の部品種類ごとに分けて考えれば、各部品種類内
での形状は大きくは異ならないため、同じ部品種類であ
るならば、部品データが持つ図形要素の構成は変わら
ず、同じパラメータデータを接続することが可能となる
ことを意味する。That is, the parameter data belonging to the “part A of mouth” is common to a plurality of part data, and the same parameter data can be connected to a plurality of part data. In other words, there is a limit to a part type having a constant feature amount, a face part in the first embodiment, and if it is considered separately for each part type such as an eye, a nose, and a mouth, the shape within each part type is considered. Does not greatly differ, so that if the component types are the same, the configuration of the graphic elements of the component data does not change, meaning that the same parameter data can be connected.
【0065】さらに、表情のように短い時間に変化し、
また元の画像に戻るような動画像である場合、同じパラ
メータデータを用いることによって、動画像の表情変更
のキーフレームが同じになった場合でも、その表情の意
味するところ、例えば、「笑い」なのか「怒り」なのか
を伝えることにはあまり影響がない。異なる部品データ
でも、キーフレームアニメーションにより、中間画像は
補間計算によって作成されるため、違和感のない動画像
を作成できる。以上により、部品ごとに動画像を作成し
ておくのにくらべて動画像用の情報を大幅に圧縮するこ
とができる。Further, it changes in a short time like an expression,
Also, in the case of a moving image that returns to the original image, by using the same parameter data, even if the key frame for changing the expression of the moving image becomes the same, the meaning of the expression, for example, "laughing" It doesn't have much effect on telling whether it's an anger. Even with different component data, an intermediate image is created by interpolation calculation by key frame animation, so that a moving image without discomfort can be created. As described above, it is possible to significantly compress the information for a moving image as compared to creating a moving image for each component.
【0066】また、本実施形態1の画像処理装置では、
動的合成手段107で部分動画像を合成する際に、部分
動画像の画像中の位置、画像中のサイズ、傾き、色情
報、画像間の順位、透過率を変更する手段を有する。In the image processing apparatus according to the first embodiment,
When synthesizing the partial moving image by the dynamic synthesizing unit 107, a unit for changing the position of the partial moving image in the image, the size in the image, the inclination, the color information, the order between the images, and the transmittance is provided.
【0067】本実施形態1では、部分動画像を合成する
際に、図7に示すように配置情報Lと表情部品データと
を順に格納することで、合成動画像を記述している。こ
の配置情報Lを動的に変更する手段を持つことで、画像
中の位置、画像中のサイズを容易に変更できる。In the first embodiment, when synthesizing a partial moving image, the synthesized moving image is described by sequentially storing the arrangement information L and the facial expression component data as shown in FIG. By having means for dynamically changing the arrangement information L, the position in the image and the size in the image can be easily changed.
【0068】例えば、動き種別指定手段101におい
て、「驚く」の表情指定がある場合に、さらに「非常に
驚く」という表情指定を加えたとする。表情指定が追加
された場合、この変更手段を有さない場合には、表情パ
ラメータデータも同時に追加する必要がある。しかし、
この変更手段を有する場合には、「非常に驚く」という
指定があった場合、表情パラメータデータは通常の「驚
く」のパラメータデータを用いて表情部品データを作成
し、合成する際に、目の配置情報Lの画像サイズ(w,
h)を通常利用している目の画像サイズ指定に対して、
大きな値に指定する。これにより、同じ表情部品データ
を用いて別き動画像を生成し、データ作成の手間を省い
て容易に表情を追加することができる。For example, suppose that the motion type specifying means 101 further specifies the expression "very surprised" when the expression "surprise" is specified. If the expression designation is added, and if this change means is not provided, it is necessary to add expression parameter data at the same time. But,
In the case of having this change means, when "very surprised" is specified, the facial expression parameter data is created using the normal "surprise" parameter data to create facial expression part data, Image size (w,
h) for the eye image size specification that normally uses
Specify a large value. As a result, another moving image can be generated using the same expression part data, and the expression can be easily added without the trouble of creating the data.
【0069】なお、部分動画像の合成画像に対する位
置、画像中のサイズ以外の指定のうち、画像の傾き、色
情報、透過率は、配置情報Lに加えて動画フォーマット
に部分動画像の各画素に一律に変更を加える情報を付け
加えることで実現できる。また、画像間の順位に関して
は、表情部品データの格納順序を変更するだけで実現で
きる。なお、これらの部品動画像の合成方法を変更する
指示は、上記例のように、動き種別指定手段101の表
情種類指定にその指示を包含するように実装してもよい
し、別途指定手段を設けてもよい。Note that among the designations other than the position of the partial moving image with respect to the composite image and the size in the image, the inclination, color information, and transmittance of the image, in addition to the arrangement information L, each pixel of the partial moving image This can be realized by adding information that uniformly changes the information. Further, the order between images can be realized only by changing the storage order of the expression part data. The instruction to change the method of synthesizing these component moving images may be implemented so that the instruction is included in the expression type designation of the motion type designation unit 101 as in the above example, or the designation unit is separately provided. It may be provided.
【0070】[実施形態2]図9は、本実施形態2の画
像処理装置の構成を示す機能ブロック図である。[Second Embodiment] FIG. 9 is a functional block diagram showing the configuration of an image processing apparatus according to the second embodiment.
【0071】この図9に示す機能ブロックのうち、部品
選択指定手段200、動き種別指定手段201、顔部品
データ記憶手段202、部品データ抽出手段203、表
情パラメータ記憶手段204、パラメータデータ抽出手
段205、データリンク手段206、動的合成手段20
7、画像出力手段208は、それぞれ図1に示す実施形
態1の構成要素である部品選択指定手段100、動き種
別指定手段101、顔部品データ記憶手段102、部品
データ抽出手段103、表情パラメータ記憶手段10
4、パラメータデータ抽出手段105、データリンク手
段106、動的合成手段107、画像出力手段108と
同じ機能を有するため、特に追加変更する機能について
はその都度記述することとし、個々の詳細な説明は省略
する。Among the functional blocks shown in FIG. 9, component selection designation means 200, motion type designation means 201, face part data storage means 202, component data extraction means 203, facial expression parameter storage means 204, parameter data extraction means 205, Data link means 206, dynamic synthesis means 20
7. The image output unit 208 is a component selection / designation unit 100, a motion type designation unit 101, a face component data storage unit 102, a component data extraction unit 103, and a facial expression parameter storage unit, which are components of the first embodiment shown in FIG. 10
4. It has the same functions as the parameter data extracting means 105, the data linking means 106, the dynamic synthesizing means 107, and the image output means 108, so that the functions to be added and changed are described each time. Omitted.
【0072】本実施形態2において新しく追加された手
段は、データ再リンク手段209である。これは、連続
的な動画像生成を行うための機能を提供する手段であ
り、一旦作成した部分動画像の中間画像を再度部品デー
タ化し、この部品データに対してパラメータデータを接
続するための機能を有する。また、図9に示す動的合成
手段207は、上記実施形態1において説明した機能に
加え、部分動画像の中間画像を抽出し、データ再リンク
手段209に伝達する機能を有する。The means newly added in the second embodiment is the data relinking means 209. This is a means for providing a function for performing continuous moving image generation, a function for converting an intermediate image of a partial moving image once created into component data again, and connecting parameter data to this component data. Having. Further, the dynamic synthesizing unit 207 shown in FIG. 9 has a function of extracting an intermediate image of a partial moving image and transmitting the intermediate image to the data relinking unit 209 in addition to the function described in the first embodiment.
【0073】なお、データ再リンク手段209は、図示
は省略しているが演算装置と記憶装置により構成され、
記憶装置上に格納されたデータに対して演算処理を行う
ことにより、各手段の目的を達成するものとする。これ
らの演算処理は、顔部品データ記憶手段202、部品デ
ータ抽出手段203、表情パラメータ記憶手段204、
パラメータデータ抽出手段205、データリンク手段2
06と同じ記憶装置上に予め記憶された処理プログラム
によって統一的に処理してもよい。The data relinking means 209 is composed of an arithmetic unit and a storage device, although not shown.
The purpose of each means is achieved by performing arithmetic processing on data stored on the storage device. These calculation processes include a face part data storage unit 202, a part data extraction unit 203, an expression parameter storage unit 204,
Parameter data extraction means 205, data link means 2
06 may be uniformly processed by a processing program stored in advance on the same storage device as that of the storage device 06.
【0074】次に、上記構成の画像処理装置によって実
施される画像処理動作について、図10に示すフローチ
ャートを参照して説明する。なお、本実施形態2は、上
記実施形態1に機能を追加する形で実現されるため、そ
の画像処理動作は実施形態1と一部同じ処理動作とな
る。従って、ここでは同じ動作の処理はその説明を省略
することとする。Next, an image processing operation performed by the image processing apparatus having the above configuration will be described with reference to a flowchart shown in FIG. Since the second embodiment is realized by adding a function to the first embodiment, the image processing operation is partly the same as that of the first embodiment. Therefore, the description of the processing of the same operation is omitted here.
【0075】ステップS21とステップS22は、顔部
品の指定と表情の指定とを部品選択指定手段200およ
び動き種別指定手段201を用いて行う。具体的な処理
は、実施形態1のフローチャート(図2)におけるステ
ップS11とステップS12と同じであるため説明を省
略する。In steps S 21 and S 22, the designation of a face part and the designation of a facial expression are performed using the part selection designation means 200 and the movement type designation means 201. The specific processing is the same as step S11 and step S12 in the flowchart (FIG. 2) of the first embodiment, and thus the description is omitted.
【0076】次に、ステップS23では、現在表示アニ
メーションを生成中かどうか、すなわち、動的合成手段
207が現在処理中かどうかを判定する。この判定機構
は、例えばデータリンク手段206に組み込まれる。判
定結果の是非に応じて、ステップS24に進むか、ステ
ップS27に進むかが判定される。Next, in step S23, it is determined whether or not a display animation is currently being generated, that is, whether or not the dynamic synthesizing means 207 is currently processing. This determination mechanism is incorporated in the data link unit 206, for example. It is determined whether to proceed to step S24 or to step S27 according to the determination result.
【0077】表示アニメーションが再生中であると判定
された場合にはステップS24に進む。ステップS24
では、現在再生中の各部分動画像の中間画像を動的画像
としている場合は、この中間画像は補間計算により算出
される。キーフレームアニメーションでは、この中間画
像をベクター形式の画像データとして作成することが可
能である。If it is determined that the display animation is being reproduced, the process proceeds to step S24. Step S24
In the case where the intermediate image of each partial moving image currently being reproduced is a dynamic image, this intermediate image is calculated by interpolation calculation. In the key frame animation, it is possible to create this intermediate image as image data in a vector format.
【0078】次に、ステップS25では、データリンク
手段206がステップS24で取得した中間画像を部品
データの形式に変換する。上述したように、本実施形態
2では、ベクター形式の中間画像を取得可能であり、こ
れを図5の例で示すような部品データの形式に変換する
ことは容易である。Next, in step S25, the data linking unit 206 converts the intermediate image acquired in step S24 into a component data format. As described above, in the second embodiment, an intermediate image in a vector format can be obtained, and it is easy to convert this to a component data format as shown in the example of FIG.
【0079】次に、ステップS26では、動き種別指定
手段201により指定された表情指定を元に、データ再
リンク手段209が、パラメータデータ抽出手段205
を用いて、パラメータデータを抽出する。実施形態1に
おいて図3を用いて説明したように、通常、表示指定だ
けでパラメータデータを特定することはできない。しか
し、表情アニメーションが再生中であるならば、すでに
部品指定に基づいてリンク情報が抽出され、パラメータ
グループ番号が一旦特定されていることを意味する。リ
ンク情報は、部品の選択が変わらない限り同じであるた
め、このリンク情報を再度活用することにより、あとは
表情指定だけでパラメータデータを特定することができ
る。Next, in step S26, the data relinking means 209 sends the parameter data extracting means 205 based on the expression designation designated by the movement type designation means 201.
Is used to extract parameter data. As described with reference to FIG. 3 in the first embodiment, normally, it is not possible to specify parameter data only by specifying display. However, if the facial expression animation is being reproduced, it means that the link information has already been extracted based on the component designation and the parameter group number has been once specified. Since the link information is the same as long as the selection of parts does not change, by using the link information again, the parameter data can be specified only by specifying the expression.
【0080】以上の処理までで、部品データと表情パラ
メータデータが揃い、次いでステップS30にて、部品
データとパラメータデータの接続が行われ、動き情報を
持つ部品データ(表情部品データ)が生成される。By the above processing, the component data and the expression parameter data are prepared. Then, in step S30, the connection of the component data and the parameter data is performed, and the component data (expression component data) having the motion information is generated. .
【0081】ステップS30に続いてステップS31に
進む。ステップS31では、動的合成手段207が、顔
の各部位ごとに部分動画像を作成する。ここで動的合成
手段207は、動画像を生成するとともに、各部分動画
像の補間計算を実際に行い、単位時間ごとの中間画像を
ベクター形式の動画データとして生成する。実施形態1
においては、動的合成手段107は、部分動画像の生成
が単にキーフレームの作成、すなわち、表情部品データ
をそのまま格納するだけであったが、本実施形態2の動
的合成手段207では、実際に補間計算を行い、単位時
間ごとに作成される中間画像結果を生成する。After step S30, the process proceeds to step S31. In step S31, the dynamic composition unit 207 creates a partial moving image for each part of the face. Here, the dynamic synthesizing unit 207 generates a moving image, performs interpolation calculation of each partial moving image, and generates an intermediate image for each unit time as moving image data in vector format. Embodiment 1
In the above, the dynamic synthesizing unit 107 merely generates the key frame, that is, stores the expression part data as it is. To generate an intermediate image result created for each unit time.
【0082】次いで、ステップS32では、ステップS
31で随時生成される中間画像結果を動的合成手段20
7内のバッファ、もしくは別途記憶手段を設けてそのメ
モリ領域に格納する。全ての中間画像結果を格納する必
要はなく、また、生成するごとに格納領域を上書きして
もよい。Next, at step S32, at step S
The intermediate synthesizing means 20 converts the intermediate image result generated at any time
7 or a storage means provided separately and stored in its memory area. It is not necessary to store all intermediate image results, and the storage area may be overwritten each time it is generated.
【0083】格納される中間画像は、ステップS24,
ステップS25で行われるデータ再リンクに利用され
る。ここで、生成される中間画像に必要な条件として、
現在、画像出力手段208で表示されている合成画像中
の部分動画像のフレーム画像と、ほぼ同じ画像でなけれ
ばならない。すなわち、違和感のない表情の連続再生を
行うためには、現在表示中の画像に新たに部分動画像を
上書き描画しても、少なくとも最初のフレーム内の画像
が、大きく変化していないことが必要である。このため
には、単位時間ごとに中間画像を常に作成し、保持して
おく必要がある。The stored intermediate image is stored in step S24,
It is used for data relinking performed in step S25. Here, as conditions necessary for the generated intermediate image,
Currently, the image must be substantially the same as the frame image of the partial moving image in the composite image displayed by the image output means 208. In other words, in order to continuously play back expressions without a sense of discomfort, it is necessary that at least the image in the first frame does not change significantly even if a new partial moving image is overwritten on the currently displayed image. It is. For this purpose, it is necessary to always create and hold an intermediate image every unit time.
【0084】補間計算の計算量が多く単位時間ごとの中
間フレームが再生できない場合や、表示装置側との描画
時間のずれなどが生じる場合には、予め表示パラメータ
データを複数のキーフレームで構成するように定義して
おいて、その中間のキーフレームを中間画像として格納
しデータ再リンクに利用することも可能である。これに
より、補間計算を省き、処理を単純化することができ
る。ただし、表情パラメータのデータ量が増加すること
や、単位時間ごとにキーフレームデータを用意しない限
り、リアルタイムな表情切替えができない問題がある。If the amount of interpolation calculation is so large that intermediate frames cannot be reproduced for each unit time, or if there is a deviation in the drawing time from the display device, the display parameter data is composed of a plurality of key frames in advance. With such a definition, the intermediate key frame can be stored as an intermediate image and used for data relinking. Thereby, the interpolation calculation can be omitted and the processing can be simplified. However, there is a problem that the data amount of the expression parameter increases and that the expression cannot be switched in real time unless key frame data is prepared for each unit time.
【0085】ステップS32に続いてステップS33、
続いてステップS34に進む。ステップS33,ステッ
プS34では、部分動画像を配置、合成し、合成動画像
を出力する。この過程は、実施形態1のフローチャート
(図2)におけるステップS18,ステップS19と同
じであるので説明を省略する。After step S32, step S33,
Subsequently, the process proceeds to step S34. In steps S33 and S34, partial moving images are arranged and combined, and a combined moving image is output. This process is the same as step S18 and step S19 in the flowchart (FIG. 2) of the first embodiment, and thus the description is omitted.
【0086】以上の処理により、表情の連続動画再生を
行う場合に、違和感のない連続再生を行うことができ
る。図11は、「笑う」から「怒る」へ連続再生する場
合について模式的に示した図である。According to the above-described processing, when performing continuous moving image reproduction of facial expressions, continuous reproduction without discomfort can be performed. FIG. 11 is a diagram schematically illustrating a case where continuous reproduction is performed from “laughing” to “angry”.
【0087】また、本実施形態2の画像処理装置では、
ある一定の期間ごとに内部に予め設定した動き種別指定
を自動的に行い、データ再リンク手段209が、ある一
定の期間ごとにデータ再リンクを自動的に行う機能を有
している。データ再リンクを自動で行うためには、動き
種別指定手段201が操作者の入力を監視するととも
に、内部に設置されたタイマー(図示省略)によって、
ある一定の時間間隔ごとに予め設定した表情指定をデー
タ再リンク手段209に対して自動的に行う機能を実現
すればよい。In the image processing apparatus according to the second embodiment,
The data relinking means 209 has a function of automatically performing a preset motion type designation internally for each predetermined period and automatically performing data relinking for each predetermined period. In order to automatically perform the data relinking, the motion type specifying unit 201 monitors the input of the operator and uses a timer (not shown) installed inside to
What is necessary is just to realize a function of automatically specifying the expression set in advance at a certain time interval to the data relinking unit 209.
【0088】データ再リンク手段209は、上述したよ
うに、現在表示中の中間画像を保持している。この中間
画像に対して、ある一定の時間間隔ごとに、予め設定し
た動きのパラメータデータを、動き種別指定手段201
の指定に関わらず、表情パラメータデータを動的に接続
する。この接続は顔部品全てに対してではなく、個別に
接続するようにしてもよい。図12は、「怒る」表情ア
ニメーション再生時に、「まばたき」が自律的に接続さ
れる様子を示している。データ再リンク手段209を用
いることにより、「怒る」という表情を再生中でも、目
の部分のみはまばたきというアニメーションを個別に連
続して接続することにより、より自然な表情再生を行う
ことができる。As described above, the data relinking means 209 holds the currently displayed intermediate image. For this intermediate image, at predetermined time intervals, preset motion parameter data is
Regardless of the specification, the expression parameter data is dynamically connected. This connection may be made individually instead of to all face parts. FIG. 12 shows a state in which “blink” is autonomously connected when the “angry” facial expression animation is reproduced. By using the data relinking means 209, even when the expression "angry" is being reproduced, a more natural expression reproduction can be performed by connecting the animation of blinking only the eyes individually and continuously.
【0089】[0089]
【発明の効果】以上説明したように、本発明の画像処理
装置によれば、形状およびその構成に一定の拘束条件を
持つ物体を組み合わせて、合成の動画像を生成する画像
処理装置、特に、人物の顔の部品を組み合わせて表情動
画像を生成することのできる画像処理装置において、動
画のためのデータ量を削減し、部品データの効率のよい
作成管理や、表情生成の動的な変更などを行うことがで
きる。また、動的な動画生成時に、より違和感のない連
続表情再生を行うことができる。As described above, according to the image processing apparatus of the present invention, an image processing apparatus for generating a combined moving image by combining an object having a certain constraint condition with a shape and a configuration thereof, particularly, In an image processing device that can generate facial expression moving images by combining facial parts of a person, the amount of data for moving images can be reduced, efficient creation management of part data, dynamic change of facial expression generation, etc. It can be performed. Further, at the time of dynamic moving image generation, continuous expression reproduction without a sense of discomfort can be performed.
【図1】本発明の実施形態1の画像処理装置の構成を示
す機能ブロック図である。FIG. 1 is a functional block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention.
【図2】図1に示した画像処理装置における画像処理動
作を説明するためのフローチャートである。FIG. 2 is a flowchart for explaining an image processing operation in the image processing apparatus shown in FIG. 1;
【図3】リンク情報の指定と表情指定により、パラメー
タデータが特定される様子を、口の部品を例に模式的に
表した説明図である。FIG. 3 is an explanatory diagram schematically showing how parameter data is specified by specifying link information and expression, using a mouth part as an example.
【図4】左目の部分の例を挙げて、構成要素の図形と合
成図およびパラメータデータにより、表情変化すること
を説明するための図である。FIG. 4 is a diagram for explaining that a facial expression changes according to a figure of a component, a composite diagram, and parameter data, taking an example of a left eye portion;
【図5】図4に示す部品に対する部品データとパラメー
タデータのフォーマットサンプルを示す説明図である。FIG. 5 is an explanatory diagram showing a format sample of component data and parameter data for the component shown in FIG. 4;
【図6】(a)は、図5に示す部品データとパラメータ
データを接続して表情部品データとした場合のフォーマ
ット例(接続例1)を示す説明図である。6A is an explanatory diagram showing a format example (connection example 1) in a case where the component data and parameter data shown in FIG. 5 are connected to form expression component data.
【図7】表情部品データを合成し、単一の動画像形式に
した場合のフォーマット例を示す説明図である。FIG. 7 is an explanatory diagram showing a format example in a case where expression part data is combined into a single moving image format.
【図8】実施形態1において作成される表情アニメーシ
ョンの例を示す説明図である。FIG. 8 is an explanatory diagram illustrating an example of a facial expression animation created in the first embodiment.
【図9】本発明の実施形態2の画像処理装置の構成を示
す機能ブロック図である。FIG. 9 is a functional block diagram illustrating a configuration of an image processing apparatus according to a second embodiment of the present invention.
【図10】図9に示した画像処理装置における画像処理
動作を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining an image processing operation in the image processing apparatus shown in FIG. 9;
【図11】中間表情へのパラメータデータ接続の例とし
て、「笑う」表情から「怒る」表情へ連続表情再生を行
う様子を模様式的に表した説明図である。FIG. 11 is an explanatory diagram showing, as an example of connection of parameter data to an intermediate expression, a pattern in which a continuous expression is reproduced from an “laughing” expression to an “angry” expression.
【図12】自律的に内部のパラメータデータを接続する
例として、「怒る」表情再生中の中間画像に、「まばた
き」が自律的に接続される様子を模式的に表した説明図
である。FIG. 12 is an explanatory diagram schematically showing an example in which “blinking” is autonomously connected to an intermediate image during the reproduction of an “angry” expression as an example of autonomously connecting internal parameter data.
100,200 部品選択指定手段 101,201 動き種別指定手段 102,202 顔部品データ記憶手段 103,203 部品データ抽出手段 104,204 表情パラメータ記憶手段(パラメータ
データ記憶手段) 105,205 パラメータデータ抽出手段 106,206 データリンク手段 107,207 動的合成手段 108,208 画像出力手段 209 データ再リンク手段100, 200 part selection designation means 101, 201 motion type designation means 102, 202 face part data storage means 103, 203 part data extraction means 104, 204 facial expression parameter storage means (parameter data storage means) 105, 205 parameter data extraction means 106 , 206 Data link means 107, 207 Dynamic synthesis means 108, 208 Image output means 209 Data relink means
───────────────────────────────────────────────────── フロントページの続き (72)発明者 紺矢 峰弘 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 Fターム(参考) 5B050 BA07 BA08 BA12 CA07 DA02 DA04 EA19 EA24 FA12 GA08 ────────────────────────────────────────────────── ─── Continuing from the front page (72) Inventor Minehiro Konya 22-22, Nagaikecho, Abeno-ku, Osaka-shi, Osaka F-term (reference) 5B050 BA07 BA08 BA12 CA07 DA02 DA04 EA19 EA24 FA12 GA08
Claims (5)
持つ部品を複数種類有し、各部品種類ごとに複数の静止
画像データを記憶している部品データ記憶手段と、任意
の部品を選択指示する部品選択指示手段と、前記部品デ
ータ記憶手段から適切な部品データを抽出する部品デー
タ抽出手段と、この部品データ抽出手段により抽出され
た部品データを組み合わせて1つ以上の画像を合成する
手段とを有する画像処理装置において、 部品データの動きに関する情報を1つ以上指定する動き
種別指定手段と、 部品に動きを与えるためのパラメータデータを記憶する
パラメータデータ記憶手段と、 部品データとパラメータデータとの関連付けを行うデー
タリンク手段と、 前記動き種別指定手段により指定された動きに関する情
報に基づき、前記パラメータ記憶手段からパラメータデ
ータを抽出するパラメータデータ抽出手段と、 前記データリンク手段により関連付けされた部品データ
とパラメータデータとから部品データに動きを付けた部
分動画像を生成するとともに、関連付けのない他の部品
データも同列に合成して単一の動画像を生成する動的合
成手段とを備えたことを特徴とする画像処理装置。1. A part data storage means having a plurality of types of parts having a certain constraint condition in shape and configuration thereof, and storing a plurality of still image data for each type of parts, and selecting an arbitrary part Means for instructing selection of parts, means for extracting appropriate part data from the means for storing part data, means for combining the part data extracted by the means for extracting part data, and means for synthesizing one or more images. A motion type designating means for designating one or more pieces of information relating to the movement of the component data; a parameter data storing means for storing parameter data for giving a motion to the component; Data link means for associating; and information on the motion specified by the motion type specifying means. Parameter data extraction means for extracting parameter data from the meter storage means, and generating a partial moving image in which motion is added to the component data from the component data and parameter data associated by the data link means, An image processing apparatus comprising: dynamic synthesis means for generating a single moving image by synthesizing component data in the same row.
メータデータの関連付けを行うことで、パラメータデー
タを共有するパラメータ共有手段をさらに備えたことを
特徴とする請求項1に記載の画像処理装置。2. The image processing apparatus according to claim 1, further comprising parameter sharing means for sharing parameter data by associating the same parameter data with a plurality of component data. .
の位置、画像中のサイズ、傾き、色情報、画像間の順
位、透過率を変更する手段をさらに備えたことを特徴と
する請求項1または2に記載の画像処理装置。3. The apparatus according to claim 1, further comprising means for changing the position in the image, the size in the image, the inclination, the color information, the order between the images, and the transmittance of the component image to be finally synthesized. The image processing device according to claim 1.
ラメータデータの関連付けを行うデータ再リンク手段を
さらに備え、このデータ再リンク手段による関連付けに
従って別の動画像を連続して生成することを特徴とする
請求項1、2または3に記載の画像処理装置。4. A data relinking means for associating parameter data again with a generated partial moving image, and continuously generating another moving image in accordance with the association by the data relinking means. The image processing device according to claim 1, 2 or 3, wherein
る一定の期間ごとに行い、前記データ再リンク手段によ
り再度パラメータデータの関連付けを行うことにより、
間欠的に動画像を生成する手段をさらに備えたことを特
徴とする請求項4に記載の画像処理装置。5. A method in which a motion type preset in the apparatus is specified every predetermined period, and the data relinking means re-associates the parameter data with each other.
The image processing apparatus according to claim 4, further comprising a unit that generates a moving image intermittently.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000283861A JP2002092626A (en) | 2000-09-19 | 2000-09-19 | Image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000283861A JP2002092626A (en) | 2000-09-19 | 2000-09-19 | Image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002092626A true JP2002092626A (en) | 2002-03-29 |
Family
ID=18768162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000283861A Pending JP2002092626A (en) | 2000-09-19 | 2000-09-19 | Image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002092626A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007020789A1 (en) * | 2005-08-12 | 2007-02-22 | Sony Computer Entertainment Inc. | Face image display, face image display method, and face image display program |
JP2010533918A (en) * | 2007-07-18 | 2010-10-28 | ナンヤン テクノロジカル ユニヴァーシティー | Graphic data providing method and graphic data display method |
WO2011034000A1 (en) * | 2009-09-15 | 2011-03-24 | シャープ株式会社 | Information processing device, intermediate image generating method, intermediate image generating program, and network system |
WO2012164959A1 (en) * | 2011-06-02 | 2012-12-06 | グリー株式会社 | Vector data conversion output device, vector data conversion output method and vector data conversion output program |
JP2012252518A (en) * | 2011-06-02 | 2012-12-20 | Gree Inc | Vector data converting/outputting device, vector data converting/outputting method, and vector data converting/outputting program |
JP2012252520A (en) * | 2011-06-02 | 2012-12-20 | Gree Inc | Vector data conversion output device, vector data conversion output method and vector data conversion output program |
JP2014139827A (en) * | 2014-03-26 | 2014-07-31 | Gree Inc | Vector data conversion output device, vector data conversion output method, and vector data conversion output program |
JP2014139826A (en) * | 2014-03-26 | 2014-07-31 | Gree Inc | Vector data conversion output device, vector data conversion output method, and vector data conversion output program |
US8902237B2 (en) | 2009-12-15 | 2014-12-02 | Mitsubishi Electric Corporation | Image generating apparatus and image generating method |
-
2000
- 2000-09-19 JP JP2000283861A patent/JP2002092626A/en active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8803886B2 (en) | 2005-08-12 | 2014-08-12 | Sony Corporation | Face image display, face image display method, and face image display program |
JPWO2007020789A1 (en) * | 2005-08-12 | 2009-02-19 | 株式会社ソニー・コンピュータエンタテインメント | Face image display device, face image display method, and face image display program |
JP4538008B2 (en) * | 2005-08-12 | 2010-09-08 | 株式会社ソニー・コンピュータエンタテインメント | Face image display device, face image display method, and face image display program |
US9852323B2 (en) | 2005-08-12 | 2017-12-26 | Sony Corporation | Facial image display apparatus, facial image display method, and facial image display program |
WO2007020789A1 (en) * | 2005-08-12 | 2007-02-22 | Sony Computer Entertainment Inc. | Face image display, face image display method, and face image display program |
US9247156B2 (en) | 2005-08-12 | 2016-01-26 | Sony Corporation | Facial image display apparatus, facial image display method, and facial image display program |
JP2010533918A (en) * | 2007-07-18 | 2010-10-28 | ナンヤン テクノロジカル ユニヴァーシティー | Graphic data providing method and graphic data display method |
WO2011034000A1 (en) * | 2009-09-15 | 2011-03-24 | シャープ株式会社 | Information processing device, intermediate image generating method, intermediate image generating program, and network system |
US8902237B2 (en) | 2009-12-15 | 2014-12-02 | Mitsubishi Electric Corporation | Image generating apparatus and image generating method |
JP2012252518A (en) * | 2011-06-02 | 2012-12-20 | Gree Inc | Vector data converting/outputting device, vector data converting/outputting method, and vector data converting/outputting program |
JP2012252520A (en) * | 2011-06-02 | 2012-12-20 | Gree Inc | Vector data conversion output device, vector data conversion output method and vector data conversion output program |
WO2012164959A1 (en) * | 2011-06-02 | 2012-12-06 | グリー株式会社 | Vector data conversion output device, vector data conversion output method and vector data conversion output program |
US10104333B2 (en) | 2011-06-02 | 2018-10-16 | Gree, Inc. | Vector data conversion output device, vector data conversion output method, and vector data conversion output program |
JP2014139826A (en) * | 2014-03-26 | 2014-07-31 | Gree Inc | Vector data conversion output device, vector data conversion output method, and vector data conversion output program |
JP2014139827A (en) * | 2014-03-26 | 2014-07-31 | Gree Inc | Vector data conversion output device, vector data conversion output method, and vector data conversion output program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4399910B2 (en) | Image processing apparatus and method including blending processing | |
US6999084B2 (en) | Method and apparatus for computer graphics animation utilizing element groups with associated motions | |
US6897880B2 (en) | User interface for generating parameter values in media presentations based on selected presentation instances | |
JP3384799B2 (en) | Electronic image manipulation device and method | |
JP2001101440A (en) | Recording medium recorded with animation data, image processing method utilizing the same and recording medium recorded with image processing program | |
JPH03164982A (en) | Electronic graphic system | |
JP2001344612A (en) | Method and device for preparing animation, and computer-readable recording medium recorded with animation preparing program | |
JP3191266B2 (en) | Image simulation system | |
JP2011023902A (en) | Image processor and image processing method | |
JP2002092626A (en) | Image processor | |
JPH10261102A (en) | Animation generator and animation generation method | |
JP2011022727A (en) | Image processing apparatus and method | |
US7002584B2 (en) | Video information producing device | |
JP2011022728A (en) | Image processing apparatus and method | |
US8462163B2 (en) | Computer system and motion control method | |
JPH06214555A (en) | Picture processor | |
JP2001209823A (en) | Three-dimensional object deforming method for video game, video game device and computer readable recording medium with recorded program for video game | |
US9165395B2 (en) | Image processing apparatus and method | |
KR20180117826A (en) | Method and apparatus for production of webtoon movies | |
JP7011728B2 (en) | Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method | |
JP2723070B2 (en) | User interface device with human image display | |
JPH10188026A (en) | Method and storage medium for moving image preparation | |
US6901172B1 (en) | Method and apparatus for drawing likeness | |
JP3680352B2 (en) | Image control device | |
JP2001216525A (en) | Picture processor |