JP2003058906A - Figure animation creation system - Google Patents

Figure animation creation system

Info

Publication number
JP2003058906A
JP2003058906A JP2001250583A JP2001250583A JP2003058906A JP 2003058906 A JP2003058906 A JP 2003058906A JP 2001250583 A JP2001250583 A JP 2001250583A JP 2001250583 A JP2001250583 A JP 2001250583A JP 2003058906 A JP2003058906 A JP 2003058906A
Authority
JP
Japan
Prior art keywords
motion
moving image
posture
storyboard
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001250583A
Other languages
Japanese (ja)
Other versions
JP4812063B2 (en
Inventor
Junichi Hoshino
准一 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Corp filed Critical Japan Science and Technology Corp
Priority to JP2001250583A priority Critical patent/JP4812063B2/en
Publication of JP2003058906A publication Critical patent/JP2003058906A/en
Application granted granted Critical
Publication of JP4812063B2 publication Critical patent/JP4812063B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate animation by estimating three-dimensional posture of a virtual figure from a two-dimensional line drawing drawn on a story board. SOLUTION: The three-dimensional posture is automatically estimated from the two-dimensional line drawing described on the story board. And continuous three-dimensional operations are estimated and generated from picture scripts of intermittent motions described on the story board by using previously stored sample motions. In addition, expression of timing or the like of dialogue among a plurality of virtual figures is enabled by adding a function that describes context on a time axis to the story board. Furthermore, support of collaborative works in the case of creating CG (computer graphics) is also enabled by sharing the story board by a plurality of CG animators.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、2次元的な線画か
ら人物動画を生成することができる動画像生成システム
であり、特に時間軸上の前後関係を記述することができ
る動画像生成システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image generation system capable of generating a person moving image from a two-dimensional line drawing, and more particularly to a moving image generation system capable of describing a front-back relation on a time axis. .

【0002】[0002]

【背景技術】近年のエンターティンメントや教育などの
マルチメディア・コンテンツの制作現場では、CG(コ
ンピュータ・グラフィクス)による複数の仮想人物の相
互作用や、仮想人物と人間の対話が含まれるコンテンツ
が増加している。ところが、従来のCGソフトウェアで
利用されているキーフレーム・アニメーションのような
動作生成法や、CGプログラミング言語による動作の記
述で、多様な相互作用を記述して生成することは極めて
困難である。CGアニメーションを作成するときには、
キーフレームにより間欠的な動作を指定して、フレーム
間の動作をスプライン曲線などの単純な手法で補間する
方法が一般的である。このような手法で自然な動作を生
成するためには、多数のキーフレームを設定することが
必要となり、熟練も必要となる。また、フレーム単位で
の動きを直接扱う必要があるため、ストーリーに沿って
長い動作を組み立てるための手法はまた別途考える必要
がある。
[Background Art] In the field of production of multimedia contents such as entertainment and education in recent years, the number of contents including interaction between multiple virtual persons and interaction between virtual persons by CG (computer graphics) is increasing. is doing. However, it is extremely difficult to describe and generate various interactions by a motion generation method such as a key frame animation used in conventional CG software or a motion description by a CG programming language. When creating a CG animation,
A general method is to specify intermittent motions by key frames and interpolate motions between frames by a simple method such as a spline curve. In order to generate a natural motion by such a method, it is necessary to set a large number of key frames, and skill is also required. In addition, since it is necessary to directly handle the movement in frame units, it is necessary to consider separately the method for assembling long movements along the story.

【0003】CGアニメーションの制作現場では、作品
に対する漠然としたイメージを定着させて、様々なアイ
デアを統合化するための道具として、紙によるストーリ
ーボードが利用されている。ストーリーボードには、台
詞に加えて、ト書きによる状況説明や、アニメーション
作成時の様々な指定事項(色や動き方の指定など)を記
述する。また、複数のアニメーターがイメージを共有化
するための場としても活用されている。ところが、紙に
よるストーリーボードでは、アニメーションを作成する
プロセスと分離されているという問題がある。そのた
め、アニメーションを作成するときには、最初から作り
直すことが必要となる。また、作業の途中で書き換えた
り編集するなどのインタラクティブな操作ができない。
仮想人物の対話を記述する方法としては、TVML(テ
レビ番組制作言語:TVprogram Making Language)のよ
うな特殊なスクリプト言語により動作の記述を行うこと
が一般的である。しかし、言語による抽象化された記述
のみで、多様な動作を表現することは困難である。抽象
化された言語で、細かい動作を記述すると、結局はプロ
グラミング言語のように数値レベルでの記述が必要とな
る。
[0003] At the production site of CG animation, a paper storyboard is used as a tool for fixing a vague image of a work and integrating various ideas. In addition to dialogue, the storyboard describes the situation by writing in totos and various designation items (such as designation of color and movement) when creating animation. It is also used as a place for multiple animators to share images. The problem with paper storyboards, however, is that they are separate from the process of creating animations. Therefore, when creating an animation, it is necessary to recreate it from the beginning. In addition, interactive operations such as rewriting and editing during work cannot be performed.
As a method of describing a dialogue of a virtual person, it is general to describe a motion by a special script language such as TVML (TV program making language). However, it is difficult to express various actions only by the abstract description in the language. If you describe a detailed operation in an abstracted language, you will eventually need to describe it at the numerical level like a programming language.

【0004】[0004]

【発明が解決しようとする課題】本発明は、ストーリー
ボードに描いた2次元的な線画から仮想人物の3次元姿
勢を推定し、3次元アニメーションを生成することを目
的とする。
SUMMARY OF THE INVENTION An object of the present invention is to estimate a three-dimensional posture of a virtual person from a two-dimensional line drawing drawn on a storyboard and generate a three-dimensional animation.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、2次元的な人物の線画から動画を生成す
ることができる動画像生成システムであって、該システ
ムは、人物の一連の動作に対する3次元の姿勢パラメー
タである動作セグメントを複数蓄積するデータ蓄積部を
有しており、動画を作成するために、2次元的な人物の
線画により記述するストーリーボード記述部と、前記ス
トーリーボード記述部に入力した2次元的な線画から、
3次元の姿勢パラメータを推定する姿勢推定部と、前記
姿勢推定部からの複数の姿勢パラメータに基づいて、姿
勢間の補間を行うために、前記データ蓄積部から、複数
の姿勢パラメータに当てはまる動作セグメントを用いて
補間することで、動作を生成する動作生成部と、前記生
成した動作を表示する画像表示部とを備える。上述の構
成により、ストーリーボードに記述した2次元的な人物
の線画から動画を生成することが可能となる。
In order to achieve the above-mentioned object, the present invention is a moving image generation system capable of generating a moving image from a two-dimensional line drawing of a person. The storyboard description section has a data accumulation section that accumulates a plurality of motion segments, which are three-dimensional posture parameters for a series of motions, and describes a two-dimensional line drawing of a person to create a moving image. From the two-dimensional line drawing input in the storyboard description section,
A posture estimation unit that estimates a three-dimensional posture parameter, and a motion segment that is applied to the plurality of posture parameters from the data storage unit to interpolate between postures based on the plurality of posture parameters from the posture estimation unit. A motion generation unit that generates a motion by interpolating the motion and an image display unit that displays the generated motion. With the above configuration, it is possible to generate a moving image from a two-dimensional line drawing of a person described on a storyboard.

【0006】前記動作生成部は、前記姿勢推定部で得ら
れた複数の姿勢パラメータを固有空間に投影して、投影
した固有空間内の各点との距離がもっとも小さい動作セ
グメントを選択する。また、前記ストーリーボード記述
部は、時間軸上の関係を記述することができ、さらに、
ストーリーボード記述部を複数備え、各ストーリーボー
ド記述部で記述されたストーリーボードを共通の蓄積部
に蓄積することができる。また、前記蓄積するストーリ
ーボードに対して、進行状態を示すように、表示状態を
変化させることもできる。
The motion generation unit projects a plurality of posture parameters obtained by the posture estimation unit onto an eigenspace, and selects a motion segment having the smallest distance from each point in the projected eigenspace. In addition, the storyboard description section can describe the relationship on the time axis, and further,
A plurality of storyboard description sections are provided, and the storyboards described by each storyboard description section can be stored in a common storage section. Further, the display state can be changed so as to show the progress state of the accumulated storyboard.

【0007】人物が動作している3次元の姿勢パラメー
タを入力し、該姿勢パラメータを分割して動作セグメン
トとして、前記データ蓄積部に蓄積する動作入力部をさ
らに備えることができる。前記動作入力部における3次
元の姿勢パラメータの分割は、前記姿勢パラメータを固
有空間に投影して動作曲線を生成し、該動作曲線を最小
記述規範により分割して、動作セグメントを得ることに
より行う。
It is possible to further include a motion input unit for inputting a three-dimensional posture parameter in which a person is moving and dividing the posture parameter into motion segments and storing the motion segments in the data storage unit. The division of the three-dimensional posture parameter in the movement input unit is performed by projecting the posture parameter onto an eigenspace to generate a movement curve, and dividing the movement curve according to the minimum description criterion to obtain a movement segment.

【0008】なお、動画像生成システムをコンピュータ
・システムに構成させるコンピュータ・プログラムおよ
びコンピュータ・プログラムを記録した記録媒体も本発
明である。
It should be noted that a computer program for configuring the moving image generation system in the computer system and a recording medium recording the computer program are also the present invention.

【0009】[0009]

【発明の実施の形態】<概要>本発明のシステムは、2
次元的な絵コンテから3次元CGアニメーションを生成
するシステムであり、ストーリーボードに記述した2次
元的な線画から3次元的な姿勢を自動的に推定する。そ
して、あらかじめサンプリングして蓄積してあるサンプ
ル動作のデータより、ストーリーボードで記述した間欠
的な動作から推定して連続的な3次元動作を生成するこ
とができる。また、ストーリーボードに時間軸上の前後
関係を記述する機能を付加することで、複数の仮想人物
間の対話のタイミング等を表現できる。更に、複数のC
Gアニメーターの間でストーリーボードを共有すること
で、CG作成時の共同作業を支援することも可能とな
る。以下、上述のシステムの実施形態を図面を用いて詳
細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION <Overview>
It is a system that generates a 3D CG animation from a 2D storyboard, and automatically estimates a 3D posture from a 2D line drawing described on a storyboard. Then, it is possible to generate a continuous three-dimensional motion by estimating from the intermittent motion described in the storyboard from the data of the sample motion that is sampled and accumulated in advance. In addition, by adding a function to describe the context on the time axis to the storyboard, the timing of dialogue between a plurality of virtual persons can be expressed. In addition, multiple C
By sharing the storyboard among G animators, it becomes possible to support joint work when creating CG. Hereinafter, embodiments of the system described above will be described in detail with reference to the drawings.

【0010】<構成>図1は本発明の人物動画像生成シ
ステムの機能構成を示す図である。動作信号入力部12
と動作分離部14を備えた動作入力部10、ストーリー
ボード22,24,26を備えたストーリーボード記述
部20、3次元姿勢推定部32と3次元動作補間部34
を備えた動作生成部30、データ蓄積部40、画像表示
部50で構成されている。動作入力部10は、動作信号
入力部12を用いてサンプル動作の3次元姿勢を入力
し、動作分離部14を用いて、入力されたサンプル動作
の自動分割を行う。入力データ蓄積部40は、仮想人物
の各関節のパラメータを蓄積する。ストーリーボード記
述部20は、利用者がCGを作成したいシーンの2次元
的なスケッチをストーリーボード22,24,26に記
述するのに用いられる。これは、例えば、マウス等のポ
インティング・ディバイスや、タブレットから、ストー
リーボード欄に入力することで行われる。動作生成部3
0では、3次元姿勢推定部32を用いて2次元姿勢から
の3次元姿勢の推定を行い、サンプル動作に基づく補間
を3次元動作補間部34にて行う。そして、生成したC
Gアニメーションを画像表示部50に表示する。次に、
本発明のシステムの動作処理を、処理ごとに説明する。
<Structure> FIG. 1 is a diagram showing the functional structure of a human moving image generation system according to the present invention. Operation signal input section 12
And a motion input unit 10 including a motion separation unit 14, a storyboard description unit 20 including storyboards 22, 24, 26, a three-dimensional posture estimation unit 32, and a three-dimensional motion interpolation unit 34.
It is composed of a motion generation unit 30, a data storage unit 40, and an image display unit 50. The motion input unit 10 inputs the three-dimensional posture of the sample motion using the motion signal input unit 12, and uses the motion separation unit 14 to automatically divide the input sample motion. The input data storage unit 40 stores parameters of each joint of the virtual person. The storyboard description unit 20 is used to describe a two-dimensional sketch of a scene in which the user wants to create a CG on the storyboards 22, 24 and 26. This is done, for example, by inputting in a storyboard field from a pointing device such as a mouse or a tablet. Motion generator 3
In 0, the 3D pose estimation unit 32 is used to estimate the 3D pose from the 2D pose, and the 3D motion interpolation unit 34 performs interpolation based on the sample motion. And the generated C
The G animation is displayed on the image display unit 50. next,
The operation process of the system of the present invention will be described for each process.

【0011】<2次元姿勢から3次元姿勢の算出>スト
ーリーボードからアニメーションを生成するための最初
のステップは、2次元の絵コントから、3次元モデルの
姿勢を推定することである。ストーリーボード上に記述
した2次元的な姿勢の絵コンテから、3次元姿勢を推定
する手法については、本発明の発明者による特許出願で
ある「動画像生成システム(特願2001−6385
4)」の明細書中の段落[0010]以降に記述した<
モデルに基づく人物動作の推定>に用いた手法を利用す
る。以下に詳細に説明する。
<Calculation of 3D pose from 2D pose> The first step to generate an animation from a storyboard is to estimate the pose of a 3D model from a 2D picture control. Regarding the method of estimating the three-dimensional posture from the storyboard of the two-dimensional posture described on the storyboard, a patent application filed by the inventor of the present invention is "moving image generation system (Japanese Patent Application No. 2001-6385).
4) ”described in paragraph [0010] and thereafter <
Estimation of human motion based on model> is used. The details will be described below.

【0012】動作生成部30においては、人体の3次元
モデルを当てはめて、姿勢を推定している。図2に、動
作生成部30で用いている仮想人物モデル100を示
す。図2のように、仮想人物モデル100は、各パーツ
をオブジェクトで表し、それらを接続することで全体を
表している。この仮想人物モデル100は、頭部10
1、胴体102、右上腕103、左上腕104、右前腕
105、左前腕106、右腿107、左腿108、右膝
下109、左膝下110の各パーツ(各オブジェクト)
で構成している。動作生成部30では、このような仮想
人物モデル100を利用して姿勢を推定する。仮想人物
モデル100の各パーツ(各オブジェクト)の接続関係
は、胴体102を頂点として、腕や頭部といった末端の
パーツに向かって親子関係の接続として定めることがで
きる。親パーツが動くと、その子に当たるパーツは親パ
ーツの座標系で規定される接続関係で一緒に動くことに
なる。この仮想人物モデル100を用いて、以下説明を
行う。図3は、カメラ座標系およびワールド座標系にお
けるストーリーボード上の線画と3次元人物モデルの関
係を示す図である。この図において、動画像はカメラ座
標系で記述される画像面150に表示される。仮想人物
モデル100上の任意の点を、ワールド座標系を用い
て、
In the motion generator 30, a posture is estimated by fitting a three-dimensional model of the human body. FIG. 2 shows the virtual person model 100 used in the motion generation unit 30. As shown in FIG. 2, the virtual human model 100 represents each part as an object and connects them to represent the whole. This virtual person model 100 has a head 10
1, body 102, upper right arm 103, upper left arm 104, right forearm 105, left forearm 106, right thigh 107, left thigh 108, right knee below 109, left knee below 110 (each object)
It consists of. The motion generation unit 30 estimates the posture by using such a virtual person model 100. The connection relationship of each part (each object) of the virtual human model 100 can be defined as a parent-child connection toward the terminal parts such as the arms and the head with the body 102 as the apex. When the parent part moves, the part corresponding to the child moves together in the connection relation defined by the coordinate system of the parent part. This virtual person model 100 will be described below. FIG. 3 is a diagram showing the relationship between the line drawing on the storyboard and the three-dimensional human model in the camera coordinate system and the world coordinate system. In this figure, the moving image is displayed on the image plane 150 described in the camera coordinate system. An arbitrary point on the virtual human model 100 is

【数1】p=(x,y,z) とする(上式で括弧の肩に付けられているTは転置行列
を表す)と、カメラ座標系に投影した画像面150上の
点(X,Y)は、
## EQU00001 ## If p = (x, y, z) T ( T in the above equation, which is attached to the shoulder of the bracket, represents a transposed matrix), and a point on the image plane 150 projected onto the camera coordinate system ( X, Y) is

【数2】X=fx/z Y=fy/z (fは画像面150を生成するカメ
ラの焦点距離) となる。
## EQU2 ## X = fx / z Y = fy / z (f is the focal length of the camera that generates the image plane 150).

【0013】(姿勢の推定)以下では、拡張カルマン・
フィルタにより、シルエット画像から抽出した中心線
と、人物モデルの体軸を一致させる手法を述べる。ワー
ルド座標系での仮想人物モデル100の各パーツの姿勢
aを表した式を以下に示す。
(Posture estimation) In the following, extended Kalman
A method of matching the centerline extracted from the silhouette image with the body axis of the human model using a filter is described. An equation representing the posture a of each part of the virtual human model 100 in the world coordinate system is shown below.

【数3】a=[r,d] dはワールド座標の原点からの移動成分を表すベクトル
である。また、rはワールド座標の各座標軸である回転
軸に沿ったベクトルであり、ベクトルの大きさは回転角
に等しい。
Equation 3] a = [r, d] T d is a vector representing the movement component from the origin of the world coordinate. Further, r is a vector along the rotation axis that is each coordinate axis of world coordinates, and the magnitude of the vector is equal to the rotation angle.

【0014】図4は、画面上の線分の関係と、それに対
応する仮想人物モデル100中のパーツとの関係を示す
図である。3次元(3D)線分Pの投影された画像面1
50上の2次元(2D)予測線分がQである。図4にお
ける2次元(2D)観測線分Q’と2D予測線分Qを、
2次元の画像面上150での始点および終点を表わすワ
ールド座標系のベクトルq’,q’,qおよびq
で表わした式を以下に示す。
FIG. 4 is a diagram showing the relationship between the line segments on the screen and the corresponding parts in the virtual human model 100. Image plane 1 on which a three-dimensional (3D) line segment P is projected
The two-dimensional (2D) predicted line segment on 50 is Q. The two-dimensional (2D) observation line segment Q ′ and the 2D predicted line segment Q in FIG.
Vectors q 1 ′, q 2 ′, q 1 and q in the world coordinate system that represent the start and end points on the two-dimensional image plane 150.
The formula represented by 2 is shown below.

【数4】Q’=(q’,q’) Q=(q,q) また、3D線分Pをワールド座標系での線分の始点およ
び終点を表わすベクトルpおよびpで表わした式を
以下に示す。
Q ′ = (q 1 ′, q 2 ′) Q = (q 1 , q 2 ) Further, the 3D line segment P is represented by vectors p 1 and p representing the start and end points of the line segment in the world coordinate system. The formula represented by 2 is shown below.

【数5】P=(p,p) そして、初期位置で観測された2D観測線分Q’と3D
線分Pの組をlとして、以下の式に示す。
Equation 5] P = (p 1, p 2 ) Then, 2D observed was observed at the initial position line segment Q 'and 3D
The set of line segments P is represented by the following formula.

【数6】l=(P,Q’) この3D線分Pと、それに対応する画像面150上での
2D観測線分Q’の組lを求める手法を図5を参照しな
がら以下に説明する。図5はストーリーボードに記述し
た絵コンテの線画より人物モデルの初期位置を推定する
までの処理の過程を示す図である。
## EQU00006 ## l = (P, Q ') A method for obtaining a set l of the 3D line segment P and the corresponding 2D observation line segment Q'on the image plane 150 will be described below with reference to FIG. To do. FIG. 5 is a diagram showing a process of estimating the initial position of the human model from the line drawing of the storyboard described on the storyboard.

【0015】(中心線の推定)ストーリーボードより入
力した2次元的な線画から中心線を推定する際には、手
や足などの部位が胴体に隠れた場合、姿勢を推定できな
いため、絵コンテに記述した仮想人物のシルエット画像
を用いて行う。以下の手順で中心線を推定する。
(Estimation of the center line) When estimating the center line from the two-dimensional line drawing input from the storyboard, the posture cannot be estimated when parts such as the hands and feet are hidden by the body, so the storyboard cannot be estimated. This is performed using the silhouette image of the virtual person described in 1. The center line is estimated by the following procedure.

【0016】中心線が抽出しやすい姿勢のシルエット
画像をあらかじめ選択してデータ蓄積部40に記憶して
おく。このときに、シルエット画像に対応した人物モデ
ルの姿勢パラメータも与えておく。姿勢パラメータは後
述する手法により姿勢を微調整することができるので、
大まかな値で構わない。 図5(a)(i)および(ii)のような、ストーリー
ボード記述部20からの入力画像系列で、あらかじめデ
ータ蓄積部40に記憶してあるシルエット画像とのマッ
チングを行い、姿勢が類似しているフレームを選択す
る。 選択したシルエット画像では、人物モデルの大まかな
姿勢が分かっているため、画像面150上に各パーツの
領域を投影することができる。それぞれの領域内のシル
エットを切り出して、主軸を求めて中心線とする。図5
(b)(i)および(ii)は入力画像に人物モデルを当
てはめ、各パーツの中心線を抽出し、表示した画像を示
す。
A silhouette image having a posture in which the center line is easily extracted is selected in advance and stored in the data storage section 40. At this time, the posture parameter of the human model corresponding to the silhouette image is also given. The posture parameters can be finely adjusted by the method described below,
A rough value is fine. As shown in FIGS. 5 (a), (i) and (ii), the input image sequence from the storyboard description unit 20 is matched with the silhouette image stored in the data storage unit 40 in advance, and the postures are similar. Select the frame you are viewing. In the selected silhouette image, since the rough posture of the human model is known, the area of each part can be projected on the image plane 150. The silhouette in each area is cut out, and the main axis is obtained and used as the center line. Figure 5
(B) (i) and (ii) show images displayed by applying the human model to the input image and extracting the center line of each part.

【0017】上記の手法より、抽出した中心線を利用し
て、3D線分Pと、それに対応する画像面150上での
2D観測線分Q’の組lを求めることができ、後述する
手法により人物モデルの正確な姿勢の推定を行うことが
できる。
From the above method, the extracted center line can be used to obtain the set 1 of the 3D line segment P and the corresponding 2D observation line segment Q'on the image plane 150, which will be described later. With this, it is possible to accurately estimate the posture of the human model.

【0018】(姿勢の調整)各パーツの姿勢aが正確な
場合は、観測画像から得られた画像面150上の2D観
測線分Q’とカメラの原点Oとが作る平面Mの上に3D
線分Pが含まれる。ところが各パーツの姿勢aに誤差が
ある場合は、図4(a)のように、画像面150上に表
示される線分Q’とカメラの原点Oとが作る平面Mと3
D線分Pの間に距離が生じる。この距離の最短距離を、
予測誤差h(a,l)とし、以下の式のように表す。
(Adjustment of Attitude) When the attitude a of each part is accurate, 3D is placed on the plane M formed by the 2D observation line segment Q'on the image plane 150 obtained from the observed image and the origin O of the camera.
A line segment P is included. However, when there is an error in the posture a of each part, as shown in FIG. 4A, planes M and 3 formed by the line segment Q ′ displayed on the image plane 150 and the origin O of the camera are set.
A distance occurs between the D line segments P. The shortest distance of this distance is
The prediction error is defined as h (a, l) and is expressed as the following equation.

【数7】 h(a,l)は2×1のベクトルである。Rはrから導
出される3×3の回転行列である。また、nは面Mの単
位法線ベクトル
[Equation 7] h (a, l) is a 2 × 1 vector. R is a 3 × 3 rotation matrix derived from r. In addition, n is a unit normal vector of the surface M

【数8】 である。aに誤差がない場合は、h(a,l)=0とな
り、図4(b)のように画像面150上の2D予測線分
Qが2D観測線分Q’と重なる。そして2D観測線分
Q’とカメラの原点が作る平面の上に3D線分Pが含ま
れるようになる。このときの3D線分Pの姿勢aが画像
面150上に表示されている2D観測線分Q’に対応し
ているということになる。h(a,l)は非線形なの
で、観測値l=^lと推定値a=^ai−1のまわり
に1次テーラー展開をして線形近似する。
[Equation 8] Is. When a has no error, h (a, l) = 0, and the 2D predicted line segment Q on the image plane 150 overlaps with the 2D observed line segment Q ′ as shown in FIG. 4B. Then, the 3D line segment P is included on the plane formed by the 2D observation line segment Q ′ and the origin of the camera. This means that the posture a of the 3D line segment P at this time corresponds to the 2D observation line segment Q ′ displayed on the image plane 150. h (a, l) is so nonlinear and linear approximation by the observed value l = ^ l i and the estimated value a = ^ 1 primary Taylor's expansion around a i-1.

【数9】 ただし∂h/∂a,∂h/∂lは偏微分を表す。これら
の偏微分係数は、以下のカルマン・フィルタを適用して
人物モデルの各パーツの姿勢a=[r,d]の最適値
を求める際に利用する。
[Equation 9] However, ∂h / ∂a and ∂h / ∂l represent partial differentiation. These partial differential coefficients are used when the following Kalman filter is applied to obtain the optimum value of the posture a = [r, d] T of each part of the human model.

【0019】対応付けがついた2D観測線分Q’と3D
線分Pの誤差h(a,l)が最小になるように、人体姿
勢aを補正し、位置の誤差分布σxiを減少させる。直
前に示したh(a,l)の線形近似式をゼロとおいて
書き直すと、次のような観測方程式が得られる。
2D observation line segment Q'and 3D with correspondence
The human body posture a is corrected so that the error h (a, l) of the line segment P is minimized, and the position error distribution σ xi is reduced. When the linear approximation formula of h (a, l i ) shown immediately before is rewritten with zero, the following observation equation is obtained.

【数10】z=Ha+ν ただし、Where z i = H i a + ν i

【数11】 である。ここでνの分散Bは次のように求める。[Equation 11] Is. Here, the variance B i of ν i is obtained as follows.

【数12】 [Equation 12]

【0020】以上の観測方程式より、人体パーツの姿勢
の2乗誤差を最小にする推定値は、カルマン・フィ
ルタで与えられる。
From the above observation equation, the estimated value that minimizes the squared error of the posture x i of the human body part is given by the Kalman filter.

【数13】 人体姿勢aと誤差分布σは、新しい線分の対応付け
が行われるたびに更新される。以上の姿勢推定を人体の
各部位に適用することで、ストーリーボード上の2次元
の線画の3次元モデルにおける姿勢を推定する。本発明
のシステムでは、胴体の姿勢を最初に求めて、上腕、上
脚、下腕、下脚と胴体に近い順番に中心線とのマッチン
グを行い、姿勢の推定を行う。このようにして、図5
(a)(i)および(ii)の入力画像に初期姿勢を推定
し、図5(c)(i)および(ii)のように人物モデル
を重ね合わせた画像を得ることができる。
[Equation 13] The human body posture a i and the error distribution σ i are updated each time a new line segment is associated. By applying the above posture estimation to each part of the human body, the posture in the three-dimensional model of the two-dimensional line drawing on the storyboard is estimated. In the system of the present invention, the posture of the torso is first obtained, and the upper arm, the upper leg, the lower arm, and the lower leg are matched with the center line in the order close to the torso to estimate the posture. In this way, FIG.
It is possible to estimate the initial posture in the input images of (a), (i) and (ii), and obtain an image in which the human model is superimposed as shown in FIGS. 5 (c), (i) and (ii).

【0021】(2D、3D線分の対応付け)上述の手法
では、シルエット画像のマッチングにより、抽出した中
心線を利用して、3D線分Pと対応する2D観測線分
Q’の組lが求まったとして説明した。しかし、撮影環
境内に中心線として抽出可能な複数の線分がある場合、
1つの3D線分に対して複数の2D線分の候補があるこ
ととなる。そこで以下に示す2つの手法を併用して対応
付けを行う。まず、2D画像面150上で見たときに、
2D観測線分Q’に射影したときに射影像が2D観測線
分Q’と重なる線分を候補として選択する。次に、推定
値の誤差分布と、2D、3D線分の誤差分布を考慮に入
れて、統計的に一致すると判定できる線分を選択する。
(Association of 2D and 3D Line Segments) In the above-described method, the set 1 of the 2D observation line segment Q'corresponding to the 3D line segment P is utilized by utilizing the extracted center line by matching the silhouette images. I explained that I asked for it. However, if there are multiple line segments that can be extracted as the center line in the shooting environment,
There are a plurality of 2D line segment candidates for one 3D line segment. Therefore, the following two methods are used together to perform the association. First, when viewed on the 2D image surface 150,
A line segment whose projected image overlaps with the 2D observation line segment Q ′ when projected onto the 2D observation line segment Q ′ is selected as a candidate. Next, taking into consideration the error distribution of the estimated value and the error distribution of the 2D and 3D line segments, a line segment that can be determined to statistically match is selected.

【0022】2次元画面上での対応付け 図4を用いて2次元画像面150上で対応付けを行う手
法を示す。まず、図5(a)のように、3D線分Pを画
面上に投影して、2D予測線分Q=(q,q )を求
める。また、観測画像から2D観測線分Q’=
(q’,q’)を得る。2D観測線分Q’に対して
射影した2D予測線分Qの射影像が重複領域をもつ場合
は、対応の候補として選択する。重複領域の判定方法と
しては、2D予測線分Qを2D観測線分Q’に射影した
ときに、qあるいはqのどちらかの点がQ’の内部
にあれば、2D予測線分Qの射影像が2D観測線分Q’
に重なっていると考えることができる。まず、q
Q’に射影した場合の座標cは、Q’に沿う単位方向ベ
クトルを
Correspondence on a two-dimensional screen A procedure for making a correspondence on the two-dimensional image plane 150 using FIG.
Show the law. First, a 3D line segment P is drawn as shown in FIG.
2D prediction line segment Q = (q1, Q Two)
Meru. Also, from the observation image, the 2D observation line segment Q '=
(Q1’, QTwo’) For 2D observation line segment Q '
When the projected image of the projected 2D predicted line segment Q has an overlapping region
Are selected as correspondence candidates. Overlap area determination method and
Then, the 2D predicted line segment Q is projected onto the 2D observed line segment Q '.
Sometimes q1Or qTwoEither point is inside Q '
, The projection image of the 2D prediction line segment Q is the 2D observation line segment Q ′.
Can be considered as overlapping. First, q1To
The coordinate c when projected onto Q'is the unit direction vector along Q '.
Cuttle

【数14】m=N[q’−q’](N[ ]はベク
トルの正規化を表わす) とすると、
Equation 14] m = N [q 2 '-q 1'] (N [] represents the normalized vectors) When,

【数15】c=q’+m・(q−q’)m である。そして、cがQ’の内部に含まれる条件は、(15) c = q 1 ′ + m · (q 1 −q 1 ′) m. And the condition that c is included inside Q'is

【数16】(c−q’)・(c−q’)<0 となる。この操作をq,q,q’,q’に関し
て行い、上記の条件を満たさない線分は棄却する。
## EQU16 ## (c−q 1 ′) · (c−q 2 ′) <0. This operation is performed for q 1 , q 2 , q 1 ′, q 2 ′, and line segments that do not satisfy the above conditions are rejected.

【0023】誤差分布を考慮に入れた対応付け人体姿
勢の誤差分布σxiと、2D,3D線分の誤差分布σ
liを使ってχ検定を行い、統計的に一致しないと考
えられる線分を棄却する。ここでは、2D−3D線分が
一致していると仮定して、仮説検定を行う。人体姿勢a
=[r,d]と観測値l=(P,Q’)の誤差分布
を、正規分布σai〜N(0,P),σli〜N
(0,L)と仮定する。h(^ai−l,^l)の
1次、2次統計量は、
Corresponding human body posture error distribution σ xi taking error distribution into consideration, and error distribution σ of 2D and 3D line segments
A χ 2 test is performed using li , and line segments that are considered to be statistically inconsistent are rejected. Here, the hypothesis test is performed on the assumption that the 2D-3D line segments match each other. Human body posture a
= [R, d] T and the observed value l = (P, Q ′), the error distribution is represented by the normal distribution σ ai ˜N (0, P 0 ), σ li ˜N.
Assume (0, L 0 ). The first- and second-order statistics of h (^ a i−1 , ^ l i ) are

【数17】 [Equation 17]

【数18】 となる。これよりマハラノビス距離kを次のように求め
ることができる。
[Equation 18] Becomes From this, the Mahalanobis distance k can be obtained as follows.

【数19】 h(^ai−1,^l)の誤差分布はh(^
i−1,^l)〜N(0,Z )であるため、k
(^ai−1,^l)〜χ(ζ)となる(ただしζ
=Rank(Z))。χ(ζ)分布から、確率に基
づくしきい値を設置することができる。例えばk(^a
i−1,^l)<9.21は、Zがランク2(ζ=
2)のときに99%の線分が受け付けられることを意味
している。しきい値以上の線分は、統計的に一致すると
考えられないため、棄却することができる。複数の線分
が候補として残った場合は、k(^ai−1,^l
の距離値が最小のものを選択する。以上の2つの手法を
併用して、2D予測線分Qが2D観測線分Q’に一番近
い3D線分Pと画像面150上で対応する2D観測線分
Q’の組l=(P,Q’)を求めることができる。な
お、上述の人物モデルの姿勢は、利用者が人物モデルの
姿勢を推定して画像面に投影し、入力画像に重ね合わせ
て当てはめることにより求めてもよい。
[Formula 19] h (^ ai-1, ^ Li) Error distribution is h (^
ai-1, ^ Li) -N (0, Z i), So k
(^ Ai-1, ^ Li) ~ ΧTwo(Ζ) (however, ζ)
= Rank (Zi)). χTwoBased on the probability from the (ζ) distribution
It is possible to set a threshold value. For example, k (^ a
i-1, ^ Li) <9.21 is ZiRank 2 (ζ =
Means that 99% of line segments will be accepted in 2)
is doing. Lines above the threshold are statistically consistent
Unthinkable and can be rejected. Multiple line segments
Is left as a candidate, k (^ ai-1, ^ Li)
Select the one with the smallest distance value of. The above two methods
In combination, the 2D predicted line segment Q is closest to the 2D observed line segment Q '.
2D observation line segment corresponding to the 3D line segment P on the image plane 150
A set of Q'l = (P, Q ') can be obtained. Na
The posture of the person model described above is
Estimate the posture, project it on the image plane, and superimpose it on the input image
You may obtain by applying.

【0024】<サンプル動作に基づく補間>ストーリー
ボードから連続的な人物動作を生成する際には、フレー
ム間の動作の間隔が広いため、単純に動作を補間するだ
けでは自然な動作とならないという問題がある。そのた
め、データ蓄積部40に蓄積したサンプル動作を当ては
めることで、欠落している動作情報を補う。サンプル動
作を取得する手法としては、ビデオ映像で人物動作を記
録して、動画像処理によって、手動もしくは自動にて3
次元姿勢を求めることができる。また、磁気センサや光
学式センサによるモーション・キャプチャ装置を利用す
ることもできる。ここで、マッチングの際の計算量を低
減するとともに、サンプル動作の変形により多様な動作
を生成するために、固有空間へ投影することでパラメー
タ数を減少させる。これについて、以下説明する。ま
ず、時刻tにおける人体の姿勢パラメータを、
<Interpolation based on sample motion> When a continuous human motion is generated from a storyboard, since the motion intervals between frames are wide, it is not natural to simply interpolate the motion. There is. Therefore, the missing operation information is supplemented by applying the sample operation accumulated in the data accumulating unit 40. As a method of acquiring a sample motion, a human motion is recorded in a video image and manually or automatically recorded by moving image processing.
Dimensional posture can be obtained. It is also possible to use a motion capture device using a magnetic sensor or an optical sensor. Here, the number of parameters is reduced by projecting onto an eigenspace in order to reduce the calculation amount at the time of matching and to generate various actions by transforming the sample action. This will be described below. First, the posture parameters of the human body at time t are

【数20】 と表す。mは姿勢パラメータの総数である。本明細書で
は、等間隔に撮影した動画像から姿勢パラメータを推定
するため、tはフレーム番号に対応する。Nを教示動作
の総サンプル数とするとき、人体の姿勢の平均cは、
[Equation 20] Express. m is the total number of posture parameters. In this specification, since the posture parameter is estimated from moving images taken at equal intervals, t corresponds to the frame number. When N is the total number of teaching motion samples, the average c of the postures of the human body is

【数21】 である。教示動作の各姿勢から、姿勢の平均cを差し引
いた行列をXとすると、姿勢データ列の共分散行列Q
は、
[Equation 21] Is. If the matrix obtained by subtracting the average c of the postures from each posture of the teaching motion is X, the covariance matrix Q of the posture data string
Is

【数22】Q = X X である。次の固有方程式を解いて固有値と固有ベクトル
を求める。
[The number 22 is a Q = X X T. Solve the following eigen equations to find the eigenvalues and eigenvectors.

【数23】λ = Q e k次元の固有空間は、固有値の中から大きい順にk個選
んだ固有ベクトルを、基底ベクトルとすることにより得
られる。固有値m個の中の大きい方からn個の固有値が
占める割合を累積寄与率
The eigenspace of λ i e i = Q e i k is obtained by using k eigenvectors selected in descending order from the eigenvalues as basis vectors. The cumulative contribution rate is the ratio of the n largest eigenvalues among the m eigenvalues.

【数24】 と呼ぶ。なお、本明細書では多項式近似を容易にするた
めに、上位2つの固有ベクトルを利用した。固有空間内
の動作曲線は、姿勢パラメータを固有空間に射影するこ
とで得られる。
[Equation 24] Call. It should be noted that, in this specification, the upper two eigenvectors are used to facilitate the polynomial approximation. The motion curve in the eigenspace is obtained by projecting the pose parameters into the eigenspace.

【数25】g = [e ,e (x−c) 図6は以上の手法により求めた固有空間における人体の
動作曲線と、各座標値に対応する3次元姿勢の例を示す
図である。
G t = [e 1 , e 2 ] T (x t −c) FIG. 6 shows an example of a motion curve of a human body in the eigenspace obtained by the above method and a three-dimensional posture corresponding to each coordinate value. FIG.

【0025】<動作曲線の自動分割>図7は固有空間の
動作曲線の分割手法を示す図であり、図7(a)は分割
前の動作曲線、図7(b)は分割後の動作曲線を示す。
入力画像から人物の姿勢パラメータを推定した後に、以
下の2つの手順で連続動作の分割と記述を行う。 上記のサンプル動作に基づく補間を求める手法を利用
して、姿勢パラメータを固有空間に投影して次元数を低
減し、動作曲線(action trajectory)を生成する。 最小記述規範により動作曲線を分割する。曲線を記述
するモデルとしては、多項式モデルを利用する。 最小記述規範では、あるモデルを仮定したときに、モデ
ルによる記述長が最短になる記述を選択し、モデルの当
てはめによる測定データの記述と、近似誤差のトレード
オフを扱う。つまり、長時間の動作を簡単なモデルで記
述した場合、モデルの記述長は減少するが、モデルから
外れる値が増加する。一方で、動作を細かな時間間隔で
区切り、モデルで近似をした場合、入力動作からの誤差
は減少するが、モデルの記述に必要なビット数が増加す
る。そのため、モデルの記述長と、外れ値の記述長の両
方が最小となるように最適化を行う。
<Automatic division of operation curve> FIG. 7 is a diagram showing a method of dividing an operation curve in an eigenspace. FIG. 7A shows an operation curve before division and FIG. 7B shows an operation curve after division. Indicates.
After estimating the posture parameter of the person from the input image, the continuous motion is divided and described by the following two procedures. By using the method of obtaining the interpolation based on the sample motion described above, the posture parameter is projected to the eigenspace to reduce the number of dimensions, and the action trajectory is generated. The motion curve is divided according to the minimum description criterion. A polynomial model is used as a model for describing the curve. In the minimum description criterion, when a certain model is assumed, the description with the shortest description length by the model is selected, and the description of the measured data by fitting the model and the trade-off of the approximation error are handled. That is, when a long-time operation is described by a simple model, the description length of the model decreases, but the value out of the model increases. On the other hand, when the operation is divided into small time intervals and approximated by the model, the error from the input operation is reduced, but the number of bits required for describing the model is increased. Therefore, optimization is performed so that both the model description length and the outlier description length are minimized.

【0026】動作曲線を近似するモデルとして、2次多
項式(2nd order polynominal)を利用し、動作曲線の
座標値をそれぞれG(t),G(t)とすると、
As a model for approximating the motion curve, a second-order polynomial is used and the coordinate values of the motion curve are G 1 (t) and G 2 (t), respectively.

【数26】G(t)=a+at+a(t)=b+bt+b である。これを最小2乗推定により上記の式の2次多項
式の係数を推定する。
G 1 (t) = a 1 t 2 + a 2 t + a 3 G 2 (t) = b 1 t 2 + b 2 t + b 3 . The coefficient of the quadratic polynomial of the above equation is estimated by the least square estimation.

【数27】A=[a,a,a B=[b,b,b φ=[1,t,t と置くと、次のように書くことができる。If A = [a 1 , a 2 , a 3 ] T B = [b 1 , b 2 , b 3 ] T φ = [1, t, t 2 ] T , then write as follows: be able to.

【数28】G(t)=φA,G(t)=φB また、ロバスト推定法によりA,Aを求めると、G 1 (t) = φ T A, G 2 (t) = φ T B Further, when A x and A y are obtained by the robust estimation method,

【数29】A=[ΣφWφ〜1Σ[φWG1(t)] B=[ΣφWφ〜1Σ[φWG2(t)] となる。WはCanchyの重み関数を利用した。Σは動作セ
グメントの始点と終点の間で和を計算する操作を表す。
## EQU29 ## A = [ΣφWφ T ] to 1 Σ [φWG 1 (t)] B = [ΣφWφ T ] to 1 Σ [φWG 2 (t)] W used Canchy's weighting function. Σ represents an operation for calculating the sum between the start point and the end point of the motion segment.

【0027】人物の動作曲線は複雑な軌跡を描くことが
多いため、全体を1つの多項式で近似することは困難で
ある。そのため、多項式曲線から大きく外れる部分につ
いては、再帰的に分割を行い、個々の動作セグメントの
近似精度を高める。動作曲線の記述長Lskは次の3つ
の項目から構成される。
Since the movement curve of a person often draws a complicated locus, it is difficult to approximate the whole with one polynomial. Therefore, a portion that greatly deviates from the polynomial curve is recursively divided to improve the approximation accuracy of each motion segment. The description length L sk of the motion curve is composed of the following three items.

【数30】 Lsk=Lparameters+Loutliers+Loffset 実数値のパラメータの記述長は、αをパラメータの個
数、nをパラメータのしきい値とするとき、α(log
2n)/2で求めることができる。よって、各パラメー
タの記述長は次の通りである。 モデルの記述長(Lparameters) 多項式を表すためには、2つの終点と6つのパラメータ
を記述することが必要となる。|ζ|を固有空間内の点
のパラメータ幅、|η|を多項式係数のパラメータ幅、
εを解像度とするとき、モデルの記述長は次式で表すこ
とができる。
[ Equation 30] L sk = L parameters + L outliers + L offset The description length of a real-valued parameter is expressed by α ( logg , where α is the number of parameters and n is the threshold of parameters.
2 n) / 2 can be obtained. Therefore, the description length of each parameter is as follows. Model description length (L parameters ) In order to represent a polynomial, it is necessary to describe two end points and six parameters. | Ζ | is the parameter width of points in the eigenspace, | η | is the parameter width of polynomial coefficients,
When ε is the resolution, the model description length can be expressed by the following equation.

【数31】 外れ値の記述長(Loutliers) 外れ値がある場合は、固有空間内のランダムな点として
記述することができる。λ個の外れ値があった場合の記
述長は、次式で表すことができる。
[Equation 31] Outlier description length (L outliers ) If there are outliers, they can be described as random points in the eigenspace. The description length when there are λ outliers can be expressed by the following equation.

【数32】 モデルからの誤算の記述長(Lmodel points) モデルからの誤算の記述長は、ガウシアン分布ζ〜N
(0,σ2)を解像度εでサンプリングした場合の記述
長に相当する。
[Equation 32] Description length of miscalculation from model (L model points ) The description length of miscalculation from the model is Gaussian distribution ζ to N.
This corresponds to the description length when (0, σ 2 ) is sampled at the resolution ε.

【数33】 分割候補点のところで分割するかどうかを決定するため
には、分割前の動作セグメントと、分割後の動作セグメ
ントの記述長を比較する。記述長が減少する場合は、分
割点で動作セグメントを分割する。
[Expression 33] In order to decide whether or not to divide at the division candidate points, the description lengths of the motion segment before the division and the motion segment after the division are compared. When the description length decreases, the motion segment is divided at the division point.

【数34】Lsk>Lsk1+Lsk2 図8は一連の動作を固有空間に投影したところを示す図
である。また、図9は上記の手法により、図8に示す動
作を自動的に0〜249のフレームに分割したところを
示す図である。図9のグラフに○印を示し、数字を添え
た部分は、その番号に対応したフレームに関するところ
である。図10は0〜249フレームに分割した動作セ
グメントに対応した3次元動作を示す図である。図10
(a)は歩行動作に対応したフレーム(フレーム0〜5
9)、図10(b)は座る動作に対応したフレーム(フ
レーム60〜129)、図10(c)は立ち上がる動作
に対応したフレーム(フレーム198〜249)であ
る。各フレームの右下に記している番号が対応している
フレームを表す。
L sk > L sk1 + L sk2 FIG. 8 is a diagram showing a series of operations projected onto an eigenspace. FIG. 9 is a diagram showing the operation shown in FIG. 8 automatically divided into frames 0 to 249 by the above method. The circles in the graph of FIG. 9 are shown and the numbers are added to the frames corresponding to the numbers. FIG. 10 is a diagram showing a three-dimensional motion corresponding to motion segments divided into 0 to 249 frames. Figure 10
(A) is a frame corresponding to a walking motion (frames 0 to 5)
9) and FIG. 10B are frames (frames 60 to 129) corresponding to the sitting motion, and FIG. 10C is a frame (frames 198 to 249) corresponding to the rising motion. The numbers shown in the lower right of each frame indicate the corresponding frame.

【0028】<人物動作の個性の分析と再構成>固有空
間内の動作セグメントを変形することで、人物動作の個
性の推定と再構成を行う。複数人で同じ動作を行った場
合のサンプルを利用して、平均動作と、平均動作からの
分散を求める。平均動作からの変動をランダム発生させ
て、動作セグメントを変形させることで、入力したサン
プル動作とは異なる個性を持った動きを生成する。図1
1は3名のモデルに同じ動作をさせた場合を平均化し、
計算により新たな動作を生成したことを示す図である。
図11(a)は3名が同じ動作をしているところを固有
空間に投影したものを示す図である。そして、図11
(b)は3名のモデルの平均動作を求めた後に、3名の
動作の分散を利用して新しい個性を持った動作を生成し
たところである。
<Analysis and Reconstruction of Individuality of Human Motion> By deforming the motion segment in the eigenspace, the individuality of human motion is estimated and reconstructed. The average motion and the variance from the average motion are calculated by using a sample when the same motion is performed by multiple people. By randomly generating fluctuations from the average motion and deforming the motion segment, a motion with a personality different from the input sample motion is generated. Figure 1
1 averages the cases where the same behavior is applied to 3 models,
It is a figure which shows having generated the new motion by calculation.
FIG. 11A is a diagram showing a projection of the same motion of three persons on an eigenspace. And FIG.
In (b), after obtaining the average action of the model of three persons, the action having a new personality is generated by using the variance of the actions of the three persons.

【0029】<固有空間内の動作セグメントによる動作
の補間>あらかじめデータ蓄積部40に蓄積してある動
作セグメントを利用して、ストーリーボードによって記
述された間欠的な姿勢を補間する手法を次に説明する。 上記のサンプル動作に基づく補間を求める手法を利用
して、ストーリーボード上の2次元線分から3次元姿勢
を推定する。 求めた3次元姿勢を固有空間に投影する。各姿勢に対
応する固有空間内での点をp1,p2,…,pnとす
る。 固有空間内の点p1,p2,…,pnからの距離が最
も小さい動作セグメントを選択する。 図12はストーリーボードに入力した絵コンテと、上記
の処理によって生成したCGアニメーションの例を示す
図である。図12(a)はストーリーボードに記述され
た絵コンテであり、(i)〜(iii)の順番でストーリ
ーになっている。これを上記の間欠的な姿勢を補間する
処理を施し、図12(b)(i)〜(vi)に示すような
連続したCGアニメーションを生成する。
<Interpolation of Motions by Motion Segments in Eigen Space> Using a motion segment previously stored in the data storage unit 40, a method of interpolating an intermittent posture described by a storyboard will be described below. To do. The three-dimensional posture is estimated from the two-dimensional line segment on the storyboard by using the method of obtaining the interpolation based on the sample operation described above. The obtained three-dimensional posture is projected on the eigenspace. The points in the eigenspace corresponding to each posture are p1, p2, ..., Pn. The motion segment having the smallest distance from the points p1, p2, ..., Pn in the eigenspace is selected. FIG. 12 is a diagram showing an example of the storyboard input to the storyboard and the CG animation generated by the above processing. FIG. 12A is a storyboard described on the storyboard, and is a story in the order of (i) to (iii). This is subjected to a process of interpolating the intermittent posture described above to generate a continuous CG animation as shown in FIGS. 12 (b) (i) to (vi).

【0030】<ストーリーボード・システムにおける対
話の記述>図13はストーリーボードに、各キャラクタ
の動作の速さを制御する機能を追加した例を示す図であ
る。上述した手法では、ストーリーボード間の動作の連
結を表すことはできても、例えば同じストーリーボード
内で複数のキャラクタが対話をしている場合の動作の前
後関係や速さを表現することはできない。そのため、ス
トーリーボードに各キャラクタに対応したタイムライン
の記述欄を追加することで、同一フレーム内の動作の因
果関係を記述することができる。図13に示すように、
ストーリーボード記述部の下部に各キャラクタに対応し
たタイムラインを制御するための欄220を設けること
ができる。この欄220には、例えばビデオ映像から推
定した動作のタイムライン(動作時間の表示)の各線分
と、動作セグメントの開始点、終了点とを対応させる。
そして、このタイムラインを動かす(スライダ機能)こ
とで、対応させた動作セグメントの動作を変更させる。
即ち、このタイムラインを長くすると、これに対応した
キャラクタの動作は遅くなる。また、このタイムライン
の開始点や終了点を移動することで、動作の開始時点や
終了時点を制御することができる。このように、この欄
に表示されるタイムライン(線分)を変更させることを
利用して、微妙な発話のタイミングを調整することがで
きる。
<Description of Dialogue in Storyboard System> FIG. 13 is a diagram showing an example in which a function of controlling the speed of movement of each character is added to the storyboard. Although the method described above can represent the connection of motions between storyboards, it cannot represent the context or speed of motions when, for example, multiple characters are interacting in the same storyboard. . Therefore, a causal relationship between motions in the same frame can be described by adding a timeline description field corresponding to each character to the storyboard. As shown in FIG.
A column 220 for controlling a timeline corresponding to each character may be provided below the storyboard description section. In this column 220, for example, each line segment of the timeline of the motion (display of the motion time) estimated from the video image is associated with the start point and the end point of the motion segment.
Then, by moving this timeline (slider function), the operation of the associated operation segment is changed.
That is, if this timeline is lengthened, the action of the character corresponding to this becomes slower. Further, by moving the start point and the end point of this timeline, the start point and the end point of the operation can be controlled. In this way, by changing the timeline (line segment) displayed in this field, it is possible to adjust the subtle utterance timing.

【0031】<ストーリーボードの共有による共同作業
支援>ストーリーボード・システムの応用として、複数
のCGアニメーターの間でストーリーボードを共有する
ことで、共同作業の支援を行う。また、複数のアニメー
ターがイメージを共有化するための場としても活用す
る。図14は共同作業支援作業を行うためのシステムの
構成例を示す図である。サーバ内のデータ蓄積部40に
各種のデータを蓄積し、サーバにはストーリーボード記
述部302,304,306を有するクライアントを接
続する。各作業者はこれらクライアントからストーリー
ボードを参照することができる。
<Support for Joint Work by Sharing Storyboard> As an application of the storyboard system, a plurality of CG animators share a storyboard to support joint work. It will also be used as a place for multiple animators to share images. FIG. 14 is a diagram showing a configuration example of a system for performing a collaborative work support work. Various data is stored in the data storage unit 40 in the server, and a client having storyboard description units 302, 304, 306 is connected to the server. Each worker can refer to the storyboard from these clients.

【0032】図15は複数制作者による共同作業を支援
するための、ストーリーボードを利用した作業工程管理
とメッセージの伝達手法を示す図である。 作業工程管理 複数人でCGアニメーションを作成するときには、どの
部分がどの程度作業が進んでいるのかなどの作業工程の
進捗を把握することが重要である。本システムでは、ス
トーリーボードを利用して作業工程の管理に必要な情報
の記述を行う。例えば、モーションデータやモデルデー
タが得られていることを色などで示すことで、どこまで
アニメーション作成が進んでいるかを表示している。 メッセージボード 複数の作業者間で情報交換を支援する方法として、スト
ーリーボード記述部上にメッセージボード240を付加
することで、メッセージを添付する機能を追加すること
も可能である。例えば、各キャラクタの台詞、ト書きに
よる状況説明や、アニメーション作成時の様々な指定事
項を記述する。これらのメッセージは、メール送信機能
と連動することで、管理者等から特定の作業者に送るこ
ともできる。
FIG. 15 is a diagram showing a work process management and message transmission method using a storyboard for supporting collaborative work by a plurality of creators. Work process management When creating a CG animation by a plurality of people, it is important to grasp the progress of the work process such as which part is progressing the work. In this system, the storyboard is used to describe the information necessary for managing the work process. For example, the fact that motion data and model data have been obtained is indicated by a color or the like to show how far the animation creation is progressing. Message Board As a method of supporting information exchange among a plurality of workers, it is possible to add a message attachment function by adding a message board 240 on the storyboard description section. For example, the description of each character's dialogue, the situation written in G, and various specified items when creating an animation are described. These messages can be sent from a manager or the like to a specific worker by linking with the mail sending function.

【0033】上述の動作入力部、ストーリーボード記述
部、動作生成部、データ蓄積部、画像表示部のそれぞれ
の処理は、計算機上で実行することもできる。また、そ
の処理を行うためにプログラムを格納した記録媒体から
読み出したり、通信回線を介して受信等をしたプログラ
ムを実行する等により、本発明の構成を実現することも
できる。この記録媒体には、フロッピー(登録商標)・
ディスク、CD−ROM、磁気テープ、ROMカセット
等がある。また、通信回線としては、インターネット等
がある。
Each of the above-mentioned operation input section, storyboard description section, operation generation section, data storage section, and image display section can be executed on a computer. In addition, the configuration of the present invention can be realized by reading out from a recording medium storing a program for performing the processing, executing a program received through a communication line, or the like. Floppy (registered trademark)
There are disks, CD-ROMs, magnetic tapes, ROM cassettes, and the like. The communication line includes the Internet and the like.

【0034】[0034]

【発明の効果】2次元スケッチから3次元CGアニメー
ションを生成することができるため、アニメーション作
成の生産性を大幅に向上することが可能となる。そし
て、3次元のサンプル動作を自動的に分割して蓄積する
とともに、蓄積したサンプル動作を利用して、ストーリ
ーボードによる間欠的な動作から連続的な動作を生成す
ることにも利用することができる。また、ストーリーボ
ードに時間軸上の前後関係を記述する機能を付加するこ
とで、複数の仮想人物間の対話のタイミングを記述する
ことが容易になる。そのうえ、複数のCGアニメーター
の間でストーリーボードを共有することができるため、
共同作業の効率を大幅に向上させることが可能となる。
Since a three-dimensional CG animation can be generated from a two-dimensional sketch, it is possible to greatly improve the productivity of animation creation. The three-dimensional sample action can be automatically divided and accumulated, and the accumulated sample action can be used to generate a continuous action from an intermittent action by a storyboard. . Moreover, by adding a function of describing the context on the time axis to the storyboard, it becomes easy to describe the timing of the dialogue between the plurality of virtual persons. Plus, you can share storyboards among multiple CG animators,
It is possible to significantly improve the efficiency of collaborative work.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明のシステムの機能構成を示す図であ
る。
FIG. 1 is a diagram showing a functional configuration of a system of the present invention.

【図2】 仮想人物モデルを示す図である。FIG. 2 is a diagram showing a virtual person model.

【図3】 ストーリーボード上の線画(画面)と3次元
人物モデルの関係を示す図である。
FIG. 3 is a diagram showing a relationship between a line drawing (screen) on a storyboard and a three-dimensional human model.

【図4】 画面上の線分の関係と、それに対応する仮想
人物モデルのパーツとの関係を示す図である。
FIG. 4 is a diagram showing a relationship between a line segment on the screen and a corresponding part of the virtual person model.

【図5】 ストーリーボードに記述した絵コンテの線画
より人物モデルの初期位置を推定するまでの処理の過程
を示す図である。
FIG. 5 is a diagram showing a process of processing for estimating an initial position of a human model from a line drawing of a storyboard described on a storyboard.

【図6】 固有空間の動作曲線と、各座標値に対応する
3次元姿勢の例を示す図である。
FIG. 6 is a diagram showing an example of a motion curve of an eigenspace and a three-dimensional posture corresponding to each coordinate value.

【図7】 固有空間の動作曲線の分割手法を示す図であ
る。
FIG. 7 is a diagram showing a method of dividing a motion curve of an eigenspace.

【図8】 一連の動作を固有空間に投影したところを示
す図である。
FIG. 8 is a diagram showing a series of operations projected onto an eigenspace.

【図9】 図8に示す動作を分割したところを示す図で
ある。
FIG. 9 is a diagram showing a division of the operation shown in FIG. 8.

【図10】 分割した動作セグメントに対応した3次元
動作を示す図である。
FIG. 10 is a diagram showing a three-dimensional operation corresponding to a divided operation segment.

【図11】 3名のモデルに同じ動作をさせた場合を平
均化し、計算により新たな動作を生成したものを示す図
である。
FIG. 11 is a diagram showing an example in which three models are averaged when the same motion is performed, and a new motion is generated by calculation.

【図12】 ストーリーボードに入力した絵コンテから
生成したCGアニメーションの例を示す図である。
FIG. 12 is a diagram showing an example of a CG animation generated from a storyboard input to a storyboard.

【図13】 ストーリーボードに時間フレーム(タイム
ライン)を追加した例を示す図である。
FIG. 13 is a diagram showing an example in which a time frame (timeline) is added to a storyboard.

【図14】 共同作業支援作業を行うためのシステムの
構成例を示す図である。
FIG. 14 is a diagram illustrating a configuration example of a system for performing a collaborative work support work.

【図15】 ストーリーボードを利用した作業工程管理
とメッセージの伝達手法を示す図である。
FIG. 15 is a diagram showing a work process management and message transmission method using a storyboard.

【符号の説明】[Explanation of symbols]

10 動作入力部 12 動作信号入力部 14 動作分離部 20 ストーリーボード記述部 22,24,26 ストーリーボード 30 動作生成部 32 3次元姿勢推定部 34 3次元動作補間部 40 データ蓄積部 50 画像表示部 100 仮想人物モデル 150 画像面 212,214,216 ストーリーボード 220 タイムライン記述欄 222,224,226 ストーリーボード 240 メッセージ欄 302,304,306 ストーリーボード記述部 10 Motion input section 12 Operation signal input section 14 Motion separation unit 20 Storyboard description section 22, 24, 26 Story board 30 Motion generator 32 3D pose estimation unit 34 Three-dimensional motion interpolation unit 40 data storage 50 Image display section 100 virtual person model 150 image side 212, 214, 216 Storyboard 220 Timeline description field 222,224,226 Storyboard 240 Message field 302, 304, 306 Storyboard description section

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 2次元的な人物の線画から動画を生成す
ることができる動画像生成システムであって、 該システムは、人物の一連の動作に対する3次元の姿勢
パラメータである動作セグメントを複数蓄積するデータ
蓄積部を有しており、 動画を作成するために、2次元的な人物の線画により記
述するストーリーボード記述部と、 前記ストーリーボード記述部に入力した2次元的な線画
から、3次元の姿勢パラメータを推定する姿勢推定部
と、 前記姿勢推定部からの複数の姿勢パラメータに基づい
て、姿勢間の補間を行うために、前記データ蓄積部か
ら、複数の姿勢パラメータに当てはまる動作セグメント
を用いて補間することで、動作を生成する動作生成部
と、 前記生成した動作を表示する画像表示部とを備えること
を特徴とする動画像生成システム。
1. A moving image generation system capable of generating a moving image from a two-dimensional line drawing of a person, wherein the system stores a plurality of motion segments which are three-dimensional posture parameters for a series of motions of the person. A storyboard description part that describes a two-dimensional person's line drawing to create a moving image, and a two-dimensional line drawing input to the storyboard description part to create a moving image. A posture estimation unit that estimates the posture parameters of the posture estimation unit; and, based on the plurality of posture parameters from the posture estimation unit, a motion segment that applies to the plurality of posture parameters is used from the data storage unit to perform the interpolation between the postures. And a motion image generation unit that generates a motion by interpolating the motion image, and an image display unit that displays the generated motion. System.
【請求項2】 請求項1に記載の動画像生成システムに
おいて、 前記動作生成部は、前記姿勢推定部で得られた複数の姿
勢パラメータを固有空間に投影して、投影した固有空間
内の各点との距離がもっとも小さい動作セグメントを選
択することを特徴とする動画像生成システム。
2. The moving image generation system according to claim 1, wherein the motion generation unit projects a plurality of posture parameters obtained by the posture estimation unit onto an eigenspace, and A moving image generation system characterized by selecting a motion segment having the smallest distance to a point.
【請求項3】 請求項1又は2に記載の動画像生成シス
テムにおいて、 前記ストーリーボード記述部は、時間軸上の関係を記述
することができることを特徴とする動画像生成システ
ム。
3. The moving image generation system according to claim 1, wherein the storyboard description unit can describe a relationship on a time axis.
【請求項4】 請求項1〜3のいずれかに記載の動画像
生成システムにおいて、 ストーリーボード記述部を複数備え、各ストーリーボー
ド記述部で記述されたストーリーボードを共通の蓄積部
に蓄積することができることを特徴とする動画像生成シ
ステム。
4. The moving image generation system according to claim 1, further comprising a plurality of storyboard description parts, and the storyboards described by the storyboard description parts are accumulated in a common accumulation part. A moving image generation system characterized by being able to perform.
【請求項5】 請求項4に記載の動画像生成システムに
おいて、 前記蓄積するストーリーボードに対して、進行状態を示
すように、表示状態を変化させることができることを特
徴とする動画像生成システム。
5. The moving image generation system according to claim 4, wherein a display state of the accumulated storyboard can be changed so as to indicate a progress state.
【請求項6】 請求項1〜5のいずれかに記載の動画像
生成システムにおいて、 人物が動作している3次元の姿勢パラメータを入力し、
該姿勢パラメータを分割して動作セグメントとして、前
記データ蓄積部に蓄積する動作入力部をさらに備えるこ
とを特徴とする動画像生成システム。
6. The moving image generation system according to claim 1, wherein a three-dimensional posture parameter in which a person is operating is input,
The moving image generation system further comprising a motion input unit that divides the posture parameter into motion segments and stores the motion segments in the data storage unit.
【請求項7】 請求項1〜6のいずれかに記載の動画像
生成システムにおいて、 前記動作入力部における3次元の姿勢パラメータの分割
は、前記姿勢パラメータを固有空間に投影して動作曲線
を生成し、該動作曲線を最小記述規範により分割して、
動作セグメントを得ることにより行うことを特徴とする
動画像生成システム。
7. The moving image generation system according to claim 1, wherein the three-dimensional posture parameter division in the movement input unit projects the posture parameter onto an eigenspace to generate a movement curve. Then, the motion curve is divided according to the minimum description criterion,
A moving image generation system characterized by performing by obtaining a motion segment.
【請求項8】 請求項1〜7のいずれかに記載の動画像
生成システムをコンピュータ・システムに構成させるた
めのプログラム。
8. A program for causing a computer system to configure the moving image generation system according to any one of claims 1 to 7.
【請求項9】 請求項8に記載の動画像生成システムを
コンピュータ・システムに構成させるためのプログラム
を格納した記録媒体。
9. A recording medium storing a program for causing a computer system to configure the moving image generation system according to claim 8.
JP2001250583A 2001-08-21 2001-08-21 Human video creation system Expired - Fee Related JP4812063B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001250583A JP4812063B2 (en) 2001-08-21 2001-08-21 Human video creation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001250583A JP4812063B2 (en) 2001-08-21 2001-08-21 Human video creation system

Publications (2)

Publication Number Publication Date
JP2003058906A true JP2003058906A (en) 2003-02-28
JP4812063B2 JP4812063B2 (en) 2011-11-09

Family

ID=19079373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001250583A Expired - Fee Related JP4812063B2 (en) 2001-08-21 2001-08-21 Human video creation system

Country Status (1)

Country Link
JP (1) JP4812063B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122265A (en) * 2005-10-26 2007-05-17 Kazuhisa Shimodaira Animation editing system
JP2007164721A (en) * 2005-12-16 2007-06-28 Namco Bandai Games Inc Program, information storage medium and game device
JP2008119224A (en) * 2006-11-10 2008-05-29 Namco Bandai Games Inc Program, information storage medium, and game device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11345342A (en) * 1998-05-29 1999-12-14 Nippon Telegr & Teleph Corp <Ntt> Method and device for retrieving time series image, and recording medium having recorded time series image retrieval program
JP2000251078A (en) * 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab Method and device for estimating three-dimensional posture of person, and method and device for estimating position of elbow of person
JP2001155170A (en) * 1999-11-25 2001-06-08 Nippon Telegr & Teleph Corp <Ntt> Method of structuring handwritten line graphic, method of identifying part of the structure, and recording medium with program about those methods recorded thereon

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11345342A (en) * 1998-05-29 1999-12-14 Nippon Telegr & Teleph Corp <Ntt> Method and device for retrieving time series image, and recording medium having recorded time series image retrieval program
JP2000251078A (en) * 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab Method and device for estimating three-dimensional posture of person, and method and device for estimating position of elbow of person
JP2001155170A (en) * 1999-11-25 2001-06-08 Nippon Telegr & Teleph Corp <Ntt> Method of structuring handwritten line graphic, method of identifying part of the structure, and recording medium with program about those methods recorded thereon

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
横井 茂樹 SHIGEKI YOKOI: "コンピュータグラフィックス〔III・完〕 Computer Graphics [III Finish]", 電子情報通信学会誌 第76巻 第6号 THE JOURNAL OF THE INSTITUTE OF ELECTRONICS,INFORMATION AND CO, vol. 第76巻 第6号, JPN6011023282, 25 June 1993 (1993-06-25), JP, pages 627頁, ISSN: 0001915771 *
畑 幸一 KOICHI HATA: "複雑な輪郭の自動抽出・追跡法 Automatic Extraction and Tracking of Complex Contours", 電子情報通信学会論文誌 (J81−D−II) 第4号 THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONI, vol. 第J81-D-II巻 第4号, JPN6010075331, 25 April 1998 (1998-04-25), JP, pages 706 - 715, ISSN: 0001816651 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122265A (en) * 2005-10-26 2007-05-17 Kazuhisa Shimodaira Animation editing system
JP2007164721A (en) * 2005-12-16 2007-06-28 Namco Bandai Games Inc Program, information storage medium and game device
JP4659606B2 (en) * 2005-12-16 2011-03-30 株式会社バンダイナムコゲームス PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2008119224A (en) * 2006-11-10 2008-05-29 Namco Bandai Games Inc Program, information storage medium, and game device

Also Published As

Publication number Publication date
JP4812063B2 (en) 2011-11-09

Similar Documents

Publication Publication Date Title
Holden et al. A deep learning framework for character motion synthesis and editing
Chai et al. Vision-based control of 3 D facial animation
US8941665B1 (en) Model production for animation libraries
US20020041285A1 (en) Non-linear morphing of faces and their dynamics
US20130121526A1 (en) Computing 3d shape parameters for face animation
KR20220017900A (en) Single image-based real-time body animation
US8854376B1 (en) Generating animation from actor performance
US11605192B2 (en) Skeleton model update apparatus, skeleton model update method, and program
JP7335370B2 (en) Computer-implemented method, data processing apparatus and computer program for generating 3D pose estimation data
Gonzalez-Franco et al. Movebox: Democratizing mocap for the microsoft rocketbox avatar library
JP2008102972A (en) Automatic 3d modeling system and method
Mousas Performance-driven dance motion control of a virtual partner character
US11845006B2 (en) Skeleton model updating apparatus, skeleton model updating method, and program
KR20160097430A (en) Apparatus and methdo for generating animation
JP2002269580A (en) Animation creating system
US11763464B2 (en) Estimation apparatus, learning apparatus, estimation method, learning method, and program
Mousas et al. Performance-driven hybrid full-body character control for navigation and interaction in virtual environments
JP2008015713A (en) Motion deformation system and method for it
JP4812063B2 (en) Human video creation system
Huang et al. Planning motions and placements for virtual demonstrators
Choi et al. Processing motion capture data to achieve positional accuracy
US11544913B2 (en) Method and system for wearable device-based manual providing
Kaspersen et al. Generative Choreographies: The Performance Dramaturgy of the Machine.
US20210390750A1 (en) Skeleton model update apparatus, skeleton model update method, and program
JP3973995B2 (en) Animation creation system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110822

R150 Certificate of patent or registration of utility model

Ref document number: 4812063

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees