JP2013530457A - アニメーション著作システムおよびアニメーション著作方法 - Google Patents

アニメーション著作システムおよびアニメーション著作方法 Download PDF

Info

Publication number
JP2013530457A
JP2013530457A JP2013512515A JP2013512515A JP2013530457A JP 2013530457 A JP2013530457 A JP 2013530457A JP 2013512515 A JP2013512515 A JP 2013512515A JP 2013512515 A JP2013512515 A JP 2013512515A JP 2013530457 A JP2013530457 A JP 2013530457A
Authority
JP
Japan
Prior art keywords
path
window
user
animation
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013512515A
Other languages
English (en)
Other versions
JP5689953B2 (ja
Inventor
チョル チョイ、ユン
ウン ジョン、ジェ
ホ チャン、ヒョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020100048651A external-priority patent/KR101155045B1/ko
Priority claimed from KR1020100049780A external-priority patent/KR101155041B1/ko
Application filed by Individual filed Critical Individual
Publication of JP2013530457A publication Critical patent/JP2013530457A/ja
Application granted granted Critical
Publication of JP5689953B2 publication Critical patent/JP5689953B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/08Animation software package

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本発明は、アニメーション著作システムおよびアニメーション著作方法に関するものであり、初歩者も手軽に3次元アニメーションを制作することができ、3次元環境における入力の曖昧さの問題が解決されたアニメーション著作システムおよびアニメーション著作方法に関するものである。このような本発明に係るアニメーション著作システムは、a)予め決定された基準平面上でオブジェクトの平面経路をユーザから受信するステップと、b)前記平面経路に沿って形成されて基準平面と所定角度をなす動作ウィンドウを生成し、前記動作ウィンドウ上で前記オブジェクトの動作情報をユーザから受信するステップと、c)前記受信した動作情報に応じてアニメーションを実現するステップとを含む。

Description

本発明は、アニメーション著作システムおよびアニメーション著作方法に関するものであり、初歩者も手軽に3次元アニメーションを制作することができ、3次元環境における入力の曖昧さの問題が解決されたアニメーション著作システムおよびアニメーション著作方法に関するものである。
3次元アニメーションは、映画やテレビでよく登場しており、この3次元アニメーションの著作のためには、3次元アニメーション著作用ツール(tool)が利用されるが、前記3次元アニメーション著作用ツールは、使用が複雑で難しく、熟練した専門家によってのみ使用が可能である。
最近は、インターネットやマルチメディアの発達により、3次元アニメーションを見るだけにとどまらず、直接著作して使おうとする一般ユーザが増えている。
これにより、子供および初歩者を含む一般人が3次元アニメーションを直接著作できる非専門家用ツールが開発されており、この非専門家用ツールは、ユーザがオブジェクトの経路と動作を同時に画面上に描いて入力すると、その経路と動作に応じてオブジェクトに対するアニメーションを生成する特徴を有するが、オブジェクトの経路と動作が同時に入力されるため、経路と動作とも正確な入力が不可能な問題があり、入力可能な動作も非常に制限的であるしかなかった。
したがって、非専門家も手軽に3次元アニメーションを著作することができ、オブジェクトの経路と動作の正確な入力が可能なアニメーション著作ツールの開発に対する期待が高まっている。
本発明は、上記の従来の問題を解決するためのものであって、本発明の目的は、子供や初歩者をはじめとする非専門家も手軽に3次元アニメーションを著作することができ、オブジェクトの経路と動作の正確な入力が可能なアニメーション著作システムおよびアニメーション著作方法を提供することである。
上記の目的を達成するための、本発明の好ましい第1実施形態に係るアニメーション著作方法は、a)予め決定された基準平面上でオブジェクトの平面経路をユーザから受信するステップと、b)前記平面経路に沿って形成されて基準平面と所定の角度をなす動作ウィンドウを生成し、前記動作ウィンドウ上で前記オブジェクトの動作情報をユーザから受信するステップと、c)前記受信した動作情報に応じてアニメーションを実現するステップとを含んでなることを特徴とする。
このような構成および方法を有する本発明は、オブジェクトの経路および動作情報を、ユーザがタブレットペン、マウスおよびタッチ入力装置などのような簡便な入力手段を介してスケッチする方法で入力することができるため、子供や初歩者をはじめとする非専門家も手軽に3次元アニメーションを著作することができる利点がある。
このような構成および方法を有する本発明の好ましい第1実施形態は、オブジェクトの経路が入力された後に経路に沿った動作が入力されるため、オブジェクトの経路と動作の正確な入力が可能である利点がある。
このような構成および方法を有する本発明の好ましい第2実施形態は、オブジェクトの経路に対して、基準平面、第1動作ウィンドウおよび第2動作ウィンドウを介して入力されるため、オブジェクトの動きに対する情報の正確な入力が可能である利点がある。
本発明の好ましい第1実施形態に係るアニメーション著作システムを示すブロック図である。 図1のアニメーション著作システムの構成を説明するための参照図である。 図1のアニメーション著作システムの構成を説明するための参照図である。 図1のアニメーション著作システムの構成を説明するための参照図である。 図1のアニメーション著作システムの構成を説明するための参照図である。 図1のアニメーション著作システムの構成を説明するための参照図である。 図1のアニメーション著作システムの構成を説明するための参照図である。 図1のアニメーション著作システムの構成を説明するための参照図である。 本発明の好ましい第1実施形態に係るアニメーション著作方法を示すブロック図である。 本発明の好ましい第2実施形態に係るアニメーション著作システムを示すブロック図である。 図4のアニメーション著作システムの構成を説明するための参照図である。 図4のアニメーション著作システムの構成を説明するための参照図である。 本発明の好ましい第2実施形態に係るアニメーション著作方法を示すブロック図である。
以下、添付した図面を参照して、本発明の好ましい実施形態に係るアニメーション著作システムおよびアニメーション著作方法について説明する。
[第1実施形態]
まず、図1から図2Gを参照して、本発明の好ましい第1実施形態に係るアニメーション著作システムについて説明する。
図1に示すように、本発明の好ましい第1実施形態に係るアニメーション著作システムは、ユーザに基準平面を表示する第1画面を提供し、ユーザが基準平面上に描くオブジェクトの平面経路を受信する平面経路モジュール101と、前記平面経路に沿って動作ウィンドウを生成し、ユーザに動作ウィンドウを表示する第2画面を提供し、ユーザが動作ウィンドウ上にオブジェクトの動作に関するジェスチャを描くと、ジェスチャデータおよびパラメータを受信する動作ウィンドウモジュール102と、前記ジェスチャデータを予め格納された動作データの中で対応する動作データに変換した後、前記パラメータとともに時間によって整理して動作シーケンスを生成する分析モジュール103と、前記動作シーケンスに応じてアニメーションを実現するアニメーション実現部104とを含んで構成される。
以下、このような構成を有する本発明の好ましい第1実施形態に係るメモリ管理モジュールの各構成要素について詳細に説明する。
図1に示すように、前記平面経路モジュール101は、平面経路スケッチ部101aと、平面経路制御部101bとを含んで構成される。
前記平面経路モジュール101の平面経路スケッチ部101aは、3次元空間の基準平面を示す第1画面をユーザに提供し、ユーザがタブレットペン、マウスおよびタッチ入力装置などの入力手段を用いて前記第1画面の基準平面上に描くオブジェクト(例:関節を有するキャラクタ)の平面経路を受信してサンプリングし近似化して格納する。このとき、前記平面経路をサンプリングし近似化するにあたっては、ユニフォームキュービックBスプライン(Uniform cubic B−spline)補間法を利用することができるが、このユニフォームキュービックBスプライン補間法は、地域調整(local modification)の属性とアフィン不変(affine invariance)属性を有する利点がある。
図2Aには、前記平面経路スケッチ部101aが提供する第1画面に現れた基準平面上に、ユーザがタブレットペンを用いてオブジェクトの平面経路を描く様子を示した。ここで、x、y、z軸を含む3次元空間を基準とすれば、前記基準平面はx、y軸のなす底面(ground plane)である。
前記平面経路モジュール101の平面経路制御部101bは、ユーザが既に描いた平面経路と少なくとも1回交差する修正経路を入力すると、修正経路を、交差点を基準として複数の領域に区分した後、前記複数の領域の中で最も長い領域を平面経路の一部に代替し、残りの領域は使わない。
図1に示すように、前記動作ウィンドウモジュール102は、ジェスチャスケッチ部102aと、仮想カメラ部102bとを含んで構成される。
前記動作ウィンドウモジュール102のジェスチャスケッチ部102aは、平面経路モジュール101を介して入力された平面経路に沿って動作ウィンドウを生成し、ユーザに動作ウィンドウを表示する第2画面を仮想カメラ部102bを用いて提供し、ユーザがタブレットペン、マウスおよびタッチ入力装置などの入力手段を用いて前記動作ウィンドウ上にオブジェクトの動作に関するジェスチャを描くと、ジェスチャデータおよびパラメータが入力される。
ここで、前記パラメータは、オブジェクトの速度および高さなどを含むことができ、オブジェクトの速度は、ユーザがジェスチャを描く速度に対応し、オブジェクトの高さは、ユーザの描いたジェスチャの高さに対応する。このとき、前記ジェスチャの高さの基準は、ユーザの描いた平面経路からである。
図2Bには、前記動作ウィンドウモジュール102のジェスチャスケッチ部が提供する第2画面に現れた動作ウィンドウの様子を示した。
前記動作ウィンドウは、基準平面上にスケッチされた平面経路から垂直に上部方向に延びて形成された面であって、所定の上下幅を有して形成される。
図2Bには、前記動作ウィンドウが基準平面および平面経路と垂直をなす場合を例としたが、説明の便宜のためであって、本発明がこれに限定されるものではなく、前記動作ウィンドウは、基準平面および平面経路と垂直でない所定角度をなすこともできる。
前記動作ウィンドウモジュール102のジェスチャスケッチ部102aは、ユーザからオブジェクトの動作に関するジェスチャデータを受信するにあたり、動く動作(例:歩く動作、走る動作、跳ぶ動作など)と立ち動作(例:あいさつ動作、敬礼動作など)を含む多様な動作に関するジェスチャデータを受信することができる。
図2Cには、ジェスチャスケッチ部102aがオブジェクトの立ち動作に関するジェスチャデータをユーザから受信する場合、ユーザに表示される第2画面上の様子を示した。
図2Cに示すように、前記ジェスチャスケッチ部102aは、ユーザがジェスチャをスケッチする途中に、3次元空間のz軸に対応する方向に線を引き上げた後所定時間経過すると、立ち動作選択メニューをユーザに示し、ユーザから立ち動作の中の1つを選択/受信する。
前記動作ウィンドウモジュール102の仮想カメラ部102bは、動作ウィンドウと所定距離をおいてジェスチャの移動方向に沿って移動しながら撮影し、ユーザに動作ウィンドウおよびユーザのスケッチするジェスチャが第2画面上に表示されるようにする仮想カメラを含む。
図2Dには、前記仮想カメラが、図2Bに示すような動作ウィンドウに沿って移動する様子を示した。
図2Dに示すように、前記仮想カメラは、動作ウィンドウとは所定距離dをおいて動作ウィンドウの上下幅の半分にあたる高さhに位置して動作ウィンドウを撮影した様子を第2画面を通してユーザに提供する。ここで、前記仮想カメラが動作ウィンドウを撮影した様子を第2画面を通して表示するにあたっては、キャットマルロムスプライン(catmull−rom−spline)補間法を利用することができ、このキャットマルロムスプラインは、動作ウィンドウ上の制御点(control point)を通るため、ユーザにジェスチャのスケッチが容易な画面を表示できる利点がある。
図2Eには、ユーザの描くジェスチャが動作ウィンドウを外れる場合、仮想カメラがズームアウト(zoom out)を行う例と、ユーザがジェスチャを所定方向に進みながらスケッチしてから、反対方向に進行方向を変えてスケッチする場合、仮想カメラが左側または右側にスクローリング(scrolling)を行う例を併せて示した。
図2Eに示すように、前記仮想カメラは、ユーザのスケッチするジェスチャが動作ウィンドウ内にある場合には、実線の四角形に対応する領域、すなわち、動作ウィンドウの上下幅に対応する領域を第2画面を通してユーザに提供し、ユーザの描くジェスチャが動作ウィンドウを外れる場合には、ズームアウト(zoom out)を行い、点線の四角形に対応する領域、すなわち、動作ウィンドウの上下幅より長い領域を第2画面を通してユーザに提供する。
また、図2Eに示すように、前記仮想カメラは、ユーザがジェスチャを所定の方向(例:図2Eにて右側方向)に進みながらスケッチしてから、反対方向(例:図2Eにて左側方向)に進行方向を変えてスケッチをする場合、前記反対方向に対応する方向(例:図2Eにて左側方向)にスクローリングを行うことにより、ユーザがスケッチするジェスチャの進行方向に沿って進みながら動作ウィンドウを撮影した様子を第2画面を通してユーザに提供する。
前記仮想カメラは、動作ウィンドウと所定の距離をおいてジェスチャの移動方向に沿って移動する際に、動作ウィンドウの所定長さに対する仮想カメラの移動距離をチェックし、仮想カメラの移動距離が所定の閾値より長い場合には折れ曲がった領域と判断し、動作ウィンドウに沿うことなく最短経路で移動する。
図2Fの上側と図2Gの上側には、前記動作ウィンドウが所定の角度に折れ曲がった領域を有する様子の例を示し、図2Fの下側と図2Gの下側には、前記動作ウィンドウが所定の角度に折れ曲がった領域を有する場合、前記折れ曲がった領域a、dと、仮想カメラの移動経路b、eと、カメラオフセットセグメントc、fの例を示した。ここで、図2Fには、動作ウィンドウが所定の角度に折れ曲がった領域を有する場合、仮想カメラが前記折れ曲がった領域の外部に沿って移動(outside turn)する場合を示し、図2Gには、動作ウィンドウが所定の角度に折れ曲がった領域を有する場合、仮想カメラが前記折れ曲がった領域の内部に沿って移動(inside turn)する場合を示した。
図2Fに示すように、前記仮想カメラは、カメラオフセットセグメントc2つが交差せず、仮想カメラの移動長さlが第1閾値lより長い場合、仮想カメラが動作ウィンドウの折れ曲がった領域の外部に沿って移動していると判断し、動作ウィンドウでない最短経路に沿って移動して折れ曲がった領域を外れる。
図2Gに示すように、前記仮想カメラは、カメラオフセットセグメントf2つが交差し、仮想カメラの移動長さlが第2閾値lより長い場合には、仮想カメラが動作ウィンドウの折れ曲がった領域の内部に沿って移動していると判断し、動作ウィンドウでない最短経路に沿って移動して折れ曲がった領域を外れる。ここで、第1閾値lは第2閾値lより長い。
このように、仮想カメラが折れ曲がった領域の外部または内部に沿って移動していると判断した場合、前記動作ウィンドウモジュール102は、ユーザが現在スケッチしているジェスチャの位置に停止マークをつけてスケッチの速度を含む現在のスケッチ状態を格納し、前記仮想カメラが最短経路を通して移動して折れ曲がった領域を外れた後は、前記動作ウィンドウモジュール102は、ユーザが停止マークのついた位置で、前に格納していたスケッチ状態からスケッチを続けられるようにする。
図1に示すように、前記分析モジュール103は、ジェスチャ分析部103aと、ジェスチャ制御部103bとを含んで構成される。
前記分析モジュール103のジェスチャ分析部103aは、動作ウィンドウモジュール102からジェスチャデータおよびパラメータを受信し、ジェスチャデータの区域化(区域単位:1つのジェスチャ)を行った後、前記区域化した各ジェスチャデータを予め格納された動作データの中で対応する動作データに変換し、前記パラメータとともに時間によって整理して動作シーケンスを生成する。ここで、前記ジェスチャ分析部103aがジェスチャデータを予め格納された動作データの中で対応する動作データに変換するにあたっては、コーナー検出アルゴリズム(corner−detection algorithm)を利用することができる。
前記予め格納された動作データは、オブジェクトが取ることのできる複数の動作を含むが、類似する動作に関する動作データに対応するジェスチャデータが類似すれば、動作ウィンドウモジュール102のジェスチャスケッチ部102aを介してユーザがジェスチャをスケッチする上で便利に行うことができる。
前記分析モジュール103のジェスチャ分析部103aは、動作シーケンスにパラメータを含ませるにあたり、各動作データ間の境界に対応する所定時間の間には、前記パラメータ中の速度が緩やかな変化曲線を有し得るように変更することにより、以降にアニメーションを実現した際に、個体の動作が自然となるようにすることができる。
前記分析モジュール103のジェスチャ制御部103bは、ユーザが入力したジェスチャデータのうち、本発明に係るアニメーション著作システムで認識不可能なデータがある場合に、予め格納された基本動作に対応するジェスチャデータに代替する機能を果たす。
すなわち、前記ジェスチャ制御部103bは、ジェスチャ分析部103aからの各ジェスチャデータが予め格納された動作データの少なくとも1つに対応せず認識不可能であるかを判断し、認識不可能と判断されると、予め格納された基本動作に対応するジェスチャデータに代替した後、ジェスチャ分析部103aに出力する。
図1に示すように、前記アニメーション実現部104は、前記分析モジュール103から入力された動作シーケンスを用いて3次元アニメーションを実現する。
以下、図3を参照して、本発明の好ましい第1実施形態に係るアニメーション著作方法について説明する。
まず、平面経路モジュール101は、基準平面を表示する第1画面をユーザに提供し、ユーザがタブレットペン、マウスおよびタッチ入力装置などの入力手段を用いて前記第1画面の基準平面上にスケッチするオブジェクトの平面経路をサンプリングし近似化して格納する(S101)。このとき、前記平面経路をサンプリングし近似化するにあたっては、ユニフォームキュービックBスプライン(Uniform cubic B−spline)補間法を利用することができる。
次に、前記平面経路モジュール101は、ユーザが既に描いた平面経路と少なくとも1回交差する修正経路を入力するかを判断し(S102)、修正経路が入力されたと判断されると、修正経路を、交差点を基準として複数の領域に区分した後、前記複数の領域中の最も長い領域を平面経路の一部に代替する(S103)。
次に、動作ウィンドウモジュール102は、平面経路モジュール101を介して入力された平面経路に沿って動作ウィンドウを生成し(S104)、前記動作ウィンドウを表示する第2画面を仮想カメラを用いてユーザに提供し、ユーザがタブレットペン、マウスおよびタッチ入力装置などの入力手段を用いて前記動作ウィンドウ上にオブジェクトの動作に関するジェスチャをスケッチすれば、ジェスチャデータおよびパラメータが入力される(S105)。
ここで、前記動作ウィンドウは、基準平面および平面経路と垂直をなすか、または垂直でない所定の角度をなすことができる。
前記パラメータは、オブジェクトの速度および高さなどを含むことができ、オブジェクトの速度は、ユーザがジェスチャを描く速度に対応し、オブジェクトの高さは、ユーザの描いたジェスチャの高さに対応する。
前記動作ウィンドウモジュール102は、ユーザからオブジェクトの動作に関するジェスチャデータを受信するにあたり、動く動作(例:歩く動作、走る動作、跳ぶ動作など)と立ち動作(例:あいさつ動作、敬礼動作など)を含む多様な動作に関するジェスチャデータを受信することができ、立ち動作に関するジェスチャデータを受信するにあたっては、ユーザがジェスチャをスケッチする途中に、3次元空間のz軸に対応する方向に線を引き上げた後所定の時間が経過すると、立ち動作選択メニューをユーザに提供し、ユーザから立ち動作の中の1つを受信する。
前記仮想カメラは、平面経路と所定の距離をおいてジェスチャの移動方向に沿って移動しながら撮影し、ユーザに動作ウィンドウおよびユーザのスケッチするジェスチャが第2画面上に表示されるようにする。
前記仮想カメラは、動作ウィンドウとは所定の距離をおいて動作ウィンドウの上下幅の半分にあたる高さに位置して動作ウィンドウを撮影した様子を第2画面を通してユーザに提供する。ここで、前記仮想カメラが動作ウィンドウを撮影した様子を第2画面を通して表示するにあたっては、キャットマルロムスプライン(catmull−rom−spline)補間法を利用することができる。
前記仮想カメラは、ユーザのスケッチするジェスチャが動作ウィンドウ内にある場合には、動作ウィンドウの上下幅に対応する領域を第2画面を通してユーザに提供し、ユーザの描くジェスチャが動作ウィンドウを外れる場合には、ズームアウト(zoom out)を行い、動作ウィンドウの上下幅より長い領域を第2画面を通してユーザに提供する。
そして、前記仮想カメラは、ユーザがジェスチャを所定の方向に進みながらスケッチしてから、反対方向に進行方向を変えてスケッチをする場合、前記反対方向に対応する方向へのスクローリングを行うことにより、ユーザがスケッチするジェスチャの進行方向に沿って進みながら動作ウィンドウを撮影した様子を第2画面を通してユーザに提供する。
前記仮想カメラは、動作ウィンドウと所定の距離をおいてジェスチャの移動方向に沿って移動する際に、動作ウィンドウの所定長さに対する仮想カメラの移動距離をチェックし、仮想カメラの移動距離が所定の閾値より長い場合に折れ曲がった領域と判断し、動作ウィンドウに沿うことなく最短経路で移動する。これに関する詳細な説明は、上記本発明の第1実施形態に係るアニメーション著作システムについて図2Fから図2Gを参照して説明した部分を参照する。
このように、仮想カメラが動作ウィンドウの折れ曲がった領域に沿って移動していると判断した場合、前記動作ウィンドウモジュールは、ユーザが現在スケッチしているジェスチャの位置に停止マークをつけてスケッチの速度を含む現在のスケッチ状態を格納し、以降に前記仮想カメラが最短経路を通して移動して折れ曲がった領域を外れた後には、前記動作ウィンドウモジュールは、ユーザが停止マークのついた位置で、前に格納していたスケッチ状態からジェスチャスケッチを続けられるようにする。
次に、分析モジュール103は、動作ウィンドウモジュールから入力されたジェスチャデータの区域化(区域単位:1つのジェスチャ)を行う(S106)。
次に、前記分析モジュール103は、区域化された各ジェスチャデータが予め格納された動作データの少なくとも1つに対応して認識可能であるかを判断する(S107)。
次に、前記分析モジュール103は、区域化された各ジェスチャデータが予め格納された動作データの少なくとも1つに対応せず認識不可能と判断される場合には、予め格納された基本動作に対応するジェスチャデータに代替し(S108)、認識可能と判断される場合には、次のステップ(S109)に進む。
次に、前記分析モジュール103は、各ジェスチャデータを予め格納された動作データの中で対応するものに変換し、動作ウィンドウモジュールからのパラメータとともに時間によって整理して動作シーケンスを生成する(S110)。ここで、分析モジュール103がジェスチャデータを予め格納された動作データの中で対応するものに変換するにあたっては、コーナー検出アルゴリズム(corner−detection algorithm)を利用することができる。
このとき、前記分析モジュール103は、動作シーケンスにパラメータを含ませるにあたり、各動作データ間の境界に対応する所定時間の間には、前記パラメータ中の速度が緩やかな変化曲線を有し得るように変更することにより、以降にアニメーションを実現した際に、オブジェクトの動作が自然となるようにすることができる。
次に、アニメーション実現部104は、前記分析モジュール103から入力された動作シーケンスを用いて3次元アニメーションを実現する(S111)。
次に、前記動作ウィンドウモジュール103は、ユーザがオブジェクトの動作に関するジェスチャをスケッチする作業を終了したかを判断し(S112)、終了したと判断されると、アニメーションの著作を終了し、終了しなかったと判断されると、上述した動作ウィンドウモジュール103から入力されたジェスチャデータを区域化するステップ(S106)から繰り返し実行する。
[第2実施形態]
以下、添付した図面を参照して、本発明の好ましい第2実施形態に係るアニメーション著作システムおよびアニメーション著作方法について説明する。
まず、図4から図5Bを参照して、本発明の好ましい第2実施形態に係るアニメーション著作システムについて説明する。以下、本発明の好ましい第2実施形態に係るアニメーション著作システムについて説明するにあたり、本発明の第1実施形態に係るアニメーション著作システムについて説明する際に参照していた図2A、図2B、図2Dから図2Gも参照する。
図4に示すように、本発明の好ましい実施形態に係るアニメーション著作システムは、予め決定された基準平面上でオブジェクトの平面経路をユーザから受信する平面経路モジュール101と、前記平面経路から延びて基準平面と所定の角度をなす第1動作ウィンドウを生成し、前記第1動作ウィンドウ上で前記オブジェクトの主経路をユーザから受信する第1動作ウィンドウモジュール102と、前記主経路を貫通させる複数の第2動作ウィンドウを生成し、前記第2動作ウィンドウ上で前記オブジェクトの詳細経路をユーザから受信する第2動作ウィンドウモジュール103と、前記受信した詳細経路に沿ってアニメーションを実現するアニメーション実現部104とを含んで構成される。
以下、このような構成を有する本発明の好ましい第2実施形態に係るメモリ管理モジュールの各構成要素について詳細に説明する。
図4に示すように、前記平面経路モジュール101は、平面経路スケッチ部101aと、平面経路制御部101bとを含んで構成される。
前記平面経路モジュール101の平面経路スケッチ部101aは、3次元空間の基準平面を示す第1画面をユーザに提供し、ユーザがタブレットペン、マウスおよびタッチ入力装置などの入力手段を用いて前記第1画面の基準平面上に描くオブジェクト(例:関節のないオブジェクトであって、飛行機など)は、平面経路を受信してサンプリングし近似化して格納する。このとき、前記平面経路をサンプリングし近似化するにあたっては、ユニフォームキュービックBスプライン(Uniform cubic B−spline)補間法を利用することができるが、このユニフォームキュービックBスプライン補間法は、地域調整(local modification)の属性とアフィン不変(affine invariance)属性を有する利点がある。
図2Aには、前記平面経路スケッチ部101aが提供する第1画面に現れた基準平面上に、ユーザがタブレットペンを用いてオブジェクトの平面経路を描く様子を示した。ここで、x、y、z軸を含む3次元空間を基準とすれば、前記基準平面はx、y軸のなす底面(ground plane)である。
前記平面経路モジュール101の平面経路制御部101bは、ユーザが既に描いた平面経路と少なくとも1回交差する修正経路を入力すると、修正経路を、交差点を基準として複数の領域に区分した後、前記複数の領域の中の最も長い領域を平面経路の一部に代替し、残りの領域は使わない。
図4に示すように、前記第1動作ウィンドウモジュール102は、主経路スケッチ部102aと、第1仮想カメラ部102bとを含んで構成される。
前記第1動作ウィンドウモジュール102の主経路スケッチ部102aは、平面経路モジュール101を介して入力された平面経路に沿って第1動作ウィンドウを生成し、ユーザに動作ウィンドウを表示する第2画面を第1仮想カメラ部102bを用いて提供し、ユーザがタブレットペン、マウスおよびタッチ入力装置などの入力手段を用いて前記第1動作ウィンドウ上にオブジェクトの主経路をスケッチすれば、オブジェクトの主経路および速度情報が入力される。ここで、前記速度情報は、ユーザが主経路を描く速度に対応する。
本発明を説明するにあたり、アニメーションを実現するオブジェクトは、関節が存在しないオブジェクト、すなわち、飛行機などを例としたが、本発明がこれに限定されるものではなく、前記オブジェクトは、本発明の要旨を逸脱しない範囲内で関節のあるオブジェクトであり得、このように、前記オブジェクトが関節のあるオブジェクトである場合に、前記第1動作ウィンドウモジュール102の主経路スケッチ部102aは、ユーザからオブジェクトの主経路および速度情報だけでなく、ジェスチャ情報および高さ情報を併せて受信することもできる。
図2Bには、前記第1動作ウィンドウモジュール102の主経路スケッチ部102aが提供する第2画面に現れた第1動作ウィンドウの様子を示した。
前記第1動作ウィンドウは、基準平面上にスケッチされた平面経路から垂直に上部方向に延びて形成された面であって、所定の上下幅を有して形成される。
図2Bには、前記第1動作ウィンドウが基準平面および平面経路と垂直をなす場合を例としたが、説明の便宜のためであって、本発明がこれに限定されるものではなく、前記第1動作ウィンドウは、必要に応じて基準平面および平面経路と垂直でない所定の角度をなすこともできる。
前記第1動作ウィンドウモジュール102の第1仮想カメラ部102bは、動作ウィンドウと所定の距離をおいて主経路の移動方向に沿って移動しながら撮影し、ユーザに第1動作ウィンドウおよびユーザのスケッチする主経路が第2画面上に表示されるようにする第1仮想カメラを含む。
図2Dには、前記第1仮想カメラが、図2Bに示すような第1動作ウィンドウに沿って移動する様子を示した。
図2Dに示すように、前記第1仮想カメラは、第1動作ウィンドウとは所定の距離dをおいて第1動作ウィンドウの上下幅の半分にあたる高さhに位置して第1動作ウィンドウを撮影した様子を第2画面を通してユーザに提供する。ここで、前記第1仮想カメラが第1動作ウィンドウを撮影した様子を第2画面を通して表示するにあたっては、キャットマルロムスプライン(catmull−rom−spline)補間法を利用することができ、このキャットマルロムスプラインは、第1動作ウィンドウ上の制御点(control point)を通るため、ユーザに主経路のスケッチが容易な画面を表示できる利点がある。
図2Eには、ユーザの描く主経路が第1動作ウィンドウを外れる場合、第1仮想カメラがズームアウト(zoom out)を実行する例と、ユーザが主経路を所定の方向に進みながらスケッチしてから、反対方向に進行方向を変えてスケッチする場合、第1仮想カメラが左側または右側にスクローリング(scrolling)を実行する例を併せて示した。
図2Eに示すように、前記第1仮想カメラは、ユーザのスケッチする主経路が第1動作ウィンドウ内にある場合には、実線の四角形に対応する領域、すなわち、第1動作ウィンドウの上下幅に対応する領域を第2画面を通してユーザに提供し、ユーザの描く主経路が第1動作ウィンドウを外れる場合には、ズームアウト(zoom out)を行い、点線の四角形に対応する領域、すなわち、第1動作ウィンドウの上下幅より長い領域を第2画面を通してユーザに提供する。
また、図2Eに示すように、前記第1仮想カメラは、ユーザが主経路を所定の方向(例:図2Eにて右側方向)に進みながらスケッチしてから、反対方向(例:図2Eにて左側方向)に進行方向を変えてスケッチをする場合、前記反対方向に対応する方向(例:図2Eにて左側方向)にスクローリングを実行することにより、ユーザがスケッチする主経路の進行方向に沿って進みながら第1動作ウィンドウを撮影した様子を第2画面を通してユーザに提供する。
前記第1仮想カメラは、第1動作ウィンドウと所定の距離をおいて主経路の移動方向に沿って移動する際に、第1動作ウィンドウの所定長さに対する第1仮想カメラの移動距離をチェックし、第1仮想カメラの移動距離が所定の閾値より長い場合に折れ曲がった領域と判断し、第1動作ウィンドウに沿うことなく最短経路で移動する。
図2Fの上側と図2Gの上側には、前記第1動作ウィンドウが所定の角度に折れ曲がった領域を有する様子の例を示し、図2Fの下側と図2Gの下側には、前記第1動作ウィンドウが所定の角度に折れ曲がった領域を有する場合、前記折れ曲がった領域a、dと、第1仮想カメラの移動経路b、eと、カメラオフセットセグメントc、fの例を示した。ここで、図2Fには、第1動作ウィンドウが所定の角度に折れ曲がった領域を有する場合、第1仮想カメラが前記折れ曲がった領域の外部に沿って移動(outside turn)する場合を示し、図2Gには、第1動作ウィンドウが所定の角度に折れ曲がった領域を有する場合、第1仮想カメラが前記折れ曲がった領域の内部に沿って移動(inside turn)する場合を示した。
図2Fに示すように、前記第1仮想カメラは、カメラオフセットセグメントc2つが交差せず、第1仮想カメラの移動長さlが第1閾値lより長い場合、第1仮想カメラが第1動作ウィンドウの折れ曲がった領域の外部に沿って移動していると判断し、第1動作ウィンドウでない最短経路に沿って移動して折れ曲がった領域を外れる。
図2Gに示すように、前記第1仮想カメラは、カメラオフセットセグメントf2つが交差し、仮想カメラの移動長さlが第2閾値lより長い場合には、第1仮想カメラが第1動作ウィンドウの折れ曲がった領域の内部に沿って移動していると判断し、第1動作ウィンドウでない最短経路に沿って移動して折れ曲がった領域を外れる。ここで、第1閾値lは第2閾値lより長い。
このように、第1仮想カメラが折れ曲がった領域の外部または内部に沿って移動していると判断した場合、前記第1動作ウィンドウモジュール102は、ユーザが現在スケッチしている主経路の位置に停止マークをつけてスケッチの速度を含む現在のスケッチ状態を格納し、前記第1仮想カメラが最短経路を通して移動して折れ曲がった領域を外れた後には、前記第1動作ウィンドウモジュール102は、ユーザが停止マークのついた位置で、前に格納していたスケッチ状態からスケッチを続けられるようにする。
図4に示すように、前記第2動作ウィンドウモジュール103は、詳細経路スケッチ部103aと、第2仮想カメラ部103bとを含んで構成される。
前記第2動作ウィンドウモジュール103の詳細経路スケッチ部103aは、中心に前記主経路を垂直に貫通させる複数の第2動作ウィンドウを所定の間隔をおいて連続して生成し、前記第2動作ウィンドウを表示する第3画面を第2仮想カメラ部103bを介してユーザに提供することにより、ユーザがタブレットペン、マウスおよびタッチ入力装置などの入力手段を用いて前記第2動作ウィンドウ上にオブジェクトの詳細経路をスケッチすれば、オブジェクトの詳細経路が入力され、入力されたオブジェクトの詳細経路を近似化して格納する。このとき、前記詳細経路をサンプリングし近似化するにあたっては、ユニフォームキュービックBスプライン(Uniform cubic B−spline)補間法を利用することができる。
前記詳細経路スケッチ部103aで生成される複数の第2動作ウィンドウ間の間隔は、第1動作ウィンドウモジュール102を介して入力された速度情報によって決定される。
すなわち、前記第2動作ウィンドウモジュール103の詳細経路スケッチ部103aは、第1動作ウィンドウモジュール102を介して入力された主経路の中で高い速度に対応する領域では、第2動作ウィンドウを第3画面に表示する上で相対的に大きい間隔をおいて表示し、低い速度に対応する領域では、第2動作ウィンドウを第3画面に表示するにおいて相対的に小さい間隔をおいて表示する。
このような第2動作ウィンドウにスケッチされたオブジェクトの詳細経路は、オブジェクトが主経路に沿って移動する間に主経路の周りで詳細な移動(例:螺旋状の移動)をする場合にその詳細な移動を意味する。
本発明を説明するにあたり、アニメーションを実現するオブジェクトは、関節が存在しないオブジェクト、すなわち、飛行機などを例としたが、本発明がこれに限定されるものではなく、前記オブジェクトは、本発明の要旨を逸脱しない範囲内で関節があるオブジェクトであり得、このように、前記オブジェクトが関節のあるオブジェクトの場合に、第2動作ウィンドウモジュール103の詳細経路スケッチ部103aは、ユーザからオブジェクトの詳細経路だけでなく、ジェスチャ情報および高さ情報を併せて受信することもできる。
図5Aには、前記第2動作ウィンドウモジュール103の詳細経路スケッチ部103aで所定の間隔をおいて連続的に生成された第2動作ウィンドウの例を示し、第2動作ウィンドウが生成されることにより、第2仮想カメラが前進(または後進)しながら第2動作ウィンドウを撮影する様子も併せて示した。
図5Bには、平面経路に沿って形成された第1動作ウィンドウが大きく曲がっていることから、第2動作ウィンドウの一部領域が互いに重なる場合、第2動作ウィンドウにスケッチした詳細経路が所望しない逆行として認識されるといった問題の発生が憂慮される場合、第2動作ウィンドウモジュール103で実行する解決方策を説明するための平面図を示し、説明の便宜のために、図5Aを基準としてz軸の(+)方向から(−)方向に第2動作ウィンドウを見下ろした様子を示した。
図5Bに示すように、平面経路に沿って形成された第1動作ウィンドウが大きく曲がっていることから、連続した第2動作ウィンドウの一部領域が互いに重なる場合、ユーザが前記重なる領域に詳細経路をスケッチすれば、第2動作ウィンドウモジュール103の詳細経路スケッチ部103aでは、ユーザの意図とは異なって逆行すると認識される問題が発生し得るが、このような問題を解決するために、詳細経路スケッチ部103aは、第2動作ウィンドウ上にスケッチされた詳細経路(例:図5BのP1〜P6)ごとに前後に連続する所定数の第2動作ウィンドウ上にスケッチされた詳細経路とのタンジェント値を監視し、逆行が感知されると、逆行を誘発した詳細経路(例:図5BのP4)は無視(削除)する。これにより、以降にオブジェクトに対する3Dアニメーションを実現した際、オブジェクトがユーザの意図とは異なる異常動作をする問題が全く発生しなくなる。
図4に示すように、前記アニメーション実現部104は、上述したような第2動作ウィンドウモジュール103から入力された詳細経路に沿った3次元経路に対する美化(beautification)過程を行った後、前記美化した3次元経路に沿ってアニメーションを実現する。
このとき、前記オブジェクトが関節のあるオブジェクトである場合には、第2動作ウィンドウモジュール103から入力された詳細経路だけでなく、第1動作ウィンドウモジュール102または第2動作ウィンドウモジュール103から入力されたジェスチャ情報および高さ情報もアニメーションの実現の際に適用する。
以下、図6を参照して、本発明の好ましい第2実施形態に係るアニメーション著作方法について説明する。
まず、平面経路モジュール101は、基準平面を表示する第1画面をユーザに提供し、ユーザがタブレットペン、マウスおよびタッチ入力装置などの入力手段を用いて前記第1画面の基準平面上にスケッチするオブジェクト(例:関節が存在しないオブジェクトであって、飛行機など)の平面経路をサンプリングし近似化して格納する(S101)。このとき、前記平面経路をサンプリングし近似化するにあたっては、ユニフォームキュービックBスプライン(Uniform cubic B−spline)補間法を利用することができる。
次に、前記平面経路モジュール101は、ユーザが既に描いた平面経路と少なくとも1回交差する修正経路を入力するかを判断し(S102)、修正経路が入力されたと判断されると、修正経路を、交差点を基準として複数の領域に区分した後、前記複数の領域の中で最も長い領域を平面経路の一部に代替する(S103)。
次に、第1動作ウィンドウモジュール102は、平面経路モジュール101を介して入力された平面経路に沿って第1動作ウィンドウを生成し(S104)、前記第1動作ウィンドウを表示する第2画面を第1仮想カメラを用いてユーザに提供し、ユーザがタブレットペン、マウスおよびタッチ入力装置などの入力手段を用いて前記第1動作ウィンドウ上にオブジェクトの主経路をスケッチすれば、オブジェクトの主経路および速度情報が入力される(S105)。このとき、前記速度情報は、ユーザが主経路を描く速度に対応する。
本発明を説明するにあたり、アニメーションを実現するオブジェクトは、関節が存在しないオブジェクト、すなわち、飛行機などを例としたが、本発明がこれに限定されるものではなく、前記オブジェクトは、本発明の要旨を逸脱しない範囲内で関節があるオブジェクトであり得、このように、前記オブジェクトが関節のあるオブジェクトである場合に、前記第1動作ウィンドウモジュール102の主経路スケッチ部102aは、ユーザからオブジェクトの主経路および速度情報だけでなく、ジェスチャ情報および高さ情報も入力される。
前記第1動作ウィンドウは、基準平面および平面経路と垂直をなすか、または垂直でない所定の角度をなすことができる。
そして、前記第1仮想カメラは、平面経路と所定の距離をおいて主経路の移動方向に沿って移動しながら撮影し、ユーザに第1動作ウィンドウおよびユーザのスケッチする主経路が第2画面上に表示されるようにする。
前記第1仮想カメラは、第1動作ウィンドウとは所定の距離をおいて第1ウィンドウの上下幅の半分にあたる高さに位置して第1動作ウィンドウを撮影した様子を第2画面を通してユーザに提供する。ここで、前記第1仮想カメラが第1動作ウィンドウを撮影した様子を第2画面を通して表示するにあたっては、キャットマルロムスプライン(catmull−rom−spline)補間法を利用することができる。
前記第1仮想カメラは、ユーザのスケッチする主経路が第1動作ウィンドウ内にある場合には、第1動作ウィンドウの上下幅に対応する領域を第2画面を通してユーザに提供し、ユーザの描く主経路が第1動作ウィンドウを外れる場合には、ズームアウト(zoom out)を行い、第1動作ウィンドウの上下幅より長い領域を第2画面を通してユーザに提供する。
そして、前記第1仮想カメラは、ユーザが主経路を所定方向に進みながらスケッチしてから、反対方向に進行方向を変えてスケッチをする場合、前記反対方向に対応する方向へのスクローリングを実行することにより、ユーザがスケッチする主経路の進行方向に沿って進みながら第1動作ウィンドウを撮影した様子を第2画面を通してユーザに提供する。
前記第1仮想カメラは、第1動作ウィンドウと所定の距離をおいて主経路の移動方向に沿って移動する際に、第1動作ウィンドウの所定長さに対する第1仮想カメラの移動距離をチェックし、第1仮想カメラの移動距離が所定閾値より長い場合に折れ曲がった領域と判断し、第1動作ウィンドウに沿うことなく最短経路で移動する。これに関する詳細な説明は、上記本発明の実施形態に係るアニメーション著作システムについて説明する上で図2Fから図2Gを参照して説明した部分を参照する。
このように、第1仮想カメラが第1動作ウィンドウの折れ曲がった領域に沿って移動していると判断した場合、前記第1動作ウィンドウモジュールは、ユーザが現在スケッチしている主経路の位置に停止マークをつけてスケッチの速度を含む現在のスケッチ状態を格納し、以降に前記第1仮想カメラが最短経路を通して移動して折れ曲がった領域を外れた後には、前記第1動作ウィンドウモジュールは、ユーザが停止マークのついた位置で、前に格納していたスケッチ状態から主経路スケッチを続けられるようにする。
次に、オブジェクトの主経路に対する詳細経路を受信するかを決定する(S106)。
次に、オブジェクトの主経路に対する詳細経路を受信することが決定されると、前記第2動作ウィンドウモジュール103は、第1動作ウィンドウモジュール102を介して入力された主経路を中心として垂直に貫通させる複数の第2動作ウィンドウを所定の間隔をおいて連続して生成し(S107)、前記第2動作ウィンドウを表示する第3画面を第2仮想カメラを通してユーザに提供し、ユーザがタブレットペン、マウスおよびタッチ入力装置などの入力手段を用いて前記第2動作ウィンドウ上にオブジェクトの詳細経路をスケッチすれば、オブジェクトの詳細経路が入力され(S108)、入力されたオブジェクトの詳細経路を近似化して格納した後、次のステップ(S109)に進む。反面、オブジェクトの主経路に対する詳細経路を受信しないことが決定されると、オブジェクトの主経路に対する詳細経路を受信せず、次のステップ(S109)に進む。
前記詳細経路をサンプリングし近似化するにあたっては、ユニフォームキュービックBスプライン(Uniform cubic B−spline)補間法を利用することができる。
前記第2動作ウィンドウモジュールで生成される複数の第2動作ウィンドウ間の間隔は、第1動作ウィンドウモジュール102を介して入力された速度情報によって決定される。
すなわち、前記第2動作ウィンドウモジュール103は、第1動作ウィンドウモジュール102を介して入力された主経路の中で高い速度に対応する領域では、第2動作ウィンドウを第3画面に表示するにおいて相対的に大きい間隔をおいて表示し、低い速度に対応する領域では、第2動作ウィンドウを第3画面に表示するにおいて相対的に小さい間隔をおいて表示する。
このような第2動作ウィンドウにスケッチされたオブジェクトの詳細経路は、オブジェクトが主経路に沿って移動する間に主経路の周りで詳細な移動(例:螺旋状の移動)をする場合にその詳細な移動を意味する。
本発明を説明するにあたり、アニメーションを実現するオブジェクトは、関節が存在しないオブジェクト、すなわち、飛行機などを例としたが、本発明がこれに限定されるものではなく、前記オブジェクトは、本発明の要旨を逸脱しない範囲内で関節があるオブジェクトであり得、このように、前記オブジェクトが関節のあるオブジェクトである場合に、第2動作ウィンドウモジュール103の詳細経路スケッチ部103aは、ユーザからオブジェクトの詳細経路だけでなく、ジェスチャ情報および高さ情報も入力される。
そして、前記第2動作ウィンドウモジュール103がユーザから第2動作ウィンドウ上に詳細経路を受信するにあたり、第2動作ウィンドウ上にスケッチされた詳細経路ごとに前後に連続する所定数の第2動作ウィンドウ上にスケッチされた詳細経路とのタンジェント値を監視し、逆行が感知されると、逆行を誘発した詳細経路は無視(削除)する。これにより、第1動作ウィンドウが大きく曲がっていることから、第2動作ウィンドウの一部領域が互いに重なる場合、ユーザが前記重なる領域に詳細経路をスケッチしても、第2動作ウィンドウモジュール103は、ユーザの意図と同じ詳細経路をエラーなく認識することになる。
次に、前記アニメーション実現部104は、前記第2動作ウィンドウモジュール103から入力された詳細経路に沿った3次元経路、または前記第1動作ウィンドウモジュール102から入力された主経路に沿った3次元経路に対する美化(beautification)過程を行った後(S109)、前記美化した3次元経路に沿ってアニメーションを実現する(S110)。
このとき、前記オブジェクトが関節のあるオブジェクトの場合には、第2動作ウィンドウモジュール103から入力された詳細経路だけでなく、第1動作ウィンドウモジュール102または第2動作ウィンドウモジュール103から入力されたジェスチャ情報および高さ情報もアニメーションの実現の際に適用する。
一方、上述した本発明の実施形態は、コンピュータで実行できるプログラムで作成可能であり、コンピュータで読み込み可能な記録媒体を用いてプログラムを動作させる汎用デジタルコンピュータで実現できる。コンピュータで読み込み可能な記録媒体は、マグネチック格納媒体(例:ROM、プロッピィーディスク、ハードディスク、磁気テープなど)、光学的読取媒体(例:CD−ROM、DVD、光データ格納装置など)および搬送波(例えば、インターネットを介した伝送)のような格納媒体を含む。
以上の説明は、本発明の技術思想を例示して説明したに過ぎないものであって、本発明の属する技術分野における通常の知識を有する者であれば、本発明の本質的な特性を逸脱しない範囲内で多様な修正、変更および置換が可能である。したがって、本発明に開示された実施形態および添付した図面は、本発明の技術思想を限定するためではなく、説明するためのものであって、このような実施形態および添付した図面によって本発明の技術思想の範囲が限定されるものではない。本発明の保護範囲は、以下の請求の範囲によって解釈されなければならず、それと同等の範囲内にあるすべての技術思想は本発明の権利範囲に含まれると解釈されなければならない。

Claims (1)

  1. a)予め決定された基準平面上でオブジェクトの平面経路をユーザから受信するステップと、
    b)前記平面経路に沿って形成されて基準平面と所定の角度をなす動作ウィンドウを生成し、前記動作ウィンドウ上で前記オブジェクトの動作情報をユーザから受信するステップと、
    c)前記受信した動作情報に応じてアニメーションを実現するステップとを含むことを特徴とするアニメーション著作方法。
JP2013512515A 2010-05-25 2010-11-10 アニメーション著作システムおよびアニメーション著作方法 Active JP5689953B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2010-0048651 2010-05-25
KR1020100048651A KR101155045B1 (ko) 2010-05-25 2010-05-25 애니메이션 저작 시스템 및 애니메이션 저작 방법
KR10-2010-0049780 2010-05-27
KR1020100049780A KR101155041B1 (ko) 2010-05-27 2010-05-27 애니메이션 저작 시스템 및 애니메이션 저작 방법
PCT/KR2010/007926 WO2011149160A1 (ko) 2010-05-25 2010-11-10 애니메이션 저작 시스템 및 애니메이션 저작 방법

Publications (2)

Publication Number Publication Date
JP2013530457A true JP2013530457A (ja) 2013-07-25
JP5689953B2 JP5689953B2 (ja) 2015-03-25

Family

ID=45004129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013512515A Active JP5689953B2 (ja) 2010-05-25 2010-11-10 アニメーション著作システムおよびアニメーション著作方法

Country Status (5)

Country Link
US (2) US10152817B2 (ja)
EP (1) EP2579216B1 (ja)
JP (1) JP5689953B2 (ja)
CN (1) CN103038797B (ja)
WO (1) WO2011149160A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016509722A (ja) * 2013-01-24 2016-03-31 アニペン インコーポレイテッドAnipen Inc. アニメーションのモーションシーケンスを生成するための方法、システム及びコンピュータ読み取り可能な記録媒体
KR20170135624A (ko) 2016-05-31 2017-12-08 (주) 젤리피쉬월드 스마트 단말을 이용하여 동작 컨텐트를 자동으로 생성하는 장치 및 방법
JP2018160260A (ja) * 2012-10-16 2018-10-11 ジョン、ジェ ウンJEON, Jae Woong 3次元の仮想空間内で仮想カメラを制御するための方法、システムおよびコンピュータ読取可能な記録媒体

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10182141B2 (en) * 2011-12-22 2019-01-15 Nokia Technologies Oy Apparatus and method for providing transitions between screens
US9626742B2 (en) 2011-12-22 2017-04-18 Nokia Technologies Oy Apparatus and method for providing transitions between screens
JP6222830B2 (ja) * 2013-12-27 2017-11-01 マクセルホールディングス株式会社 画像投射装置
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
CN104700443A (zh) * 2015-03-26 2015-06-10 金陵科技学院 一种优化模糊输入状态的三维动画制作系统及方法
US10373392B2 (en) * 2015-08-26 2019-08-06 Microsoft Technology Licensing, Llc Transitioning views of a virtual model
WO2017164511A1 (ko) * 2016-03-25 2017-09-28 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR101979754B1 (ko) * 2016-03-25 2019-05-17 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
CN106327582A (zh) * 2016-08-22 2017-01-11 深圳马顿科技有限公司 3d模型的图形绘制系统
US10438414B2 (en) 2018-01-26 2019-10-08 Microsoft Technology Licensing, Llc Authoring and presenting 3D presentations in augmented reality
CN114782595B (zh) * 2022-06-21 2022-09-13 山东捷瑞数字科技股份有限公司 一种基于三维引擎的最短距离轨迹确定方法、装置及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000036057A (ja) * 1998-07-21 2000-02-02 Hitachi Ltd キャラクタの動作生成方法
JP2002083317A (ja) * 2000-09-07 2002-03-22 Sony Corp 画像処理システム及び画像処理方法、並びに記憶媒体
JP2002163676A (ja) * 2000-11-28 2002-06-07 Namco Ltd ゲームシステム及びプログラム
JP2005326989A (ja) * 2004-05-13 2005-11-24 Sony Corp アニメーション生成装置、アニメーション生成方法およびアニメーション生成プログラム
JP2007025979A (ja) * 2005-07-14 2007-02-01 Nippon Telegr & Teleph Corp <Ntt> 動画像編集システム、動画像編集方法、動画像編集プログラム及び記録媒体
JP2008536234A (ja) * 2005-04-11 2008-09-04 サムスン エレクトロニクス カンパニー リミテッド 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594856A (en) * 1994-08-25 1997-01-14 Girard; Michael Computer user interface for step-driven character animation
US5830066A (en) * 1995-05-19 1998-11-03 Kabushiki Kaisha Sega Enterprises Image processing device, image processing method, and game device and storage medium using the same
US5854634A (en) * 1995-12-26 1998-12-29 Imax Corporation Computer-assisted animation construction system using source poses within a pose transformation space
US7391420B1 (en) * 2000-09-28 2008-06-24 At&T Corp. Graphical user interface graphics-based interpolated animation performance
US7454717B2 (en) * 2004-10-20 2008-11-18 Microsoft Corporation Delimiters for selection-action pen gesture phrases
US7750911B2 (en) * 2006-02-21 2010-07-06 Chrysler Group Llc Pen-based 3D drawing system with 3D mirror symmetric curve drawing
KR100916706B1 (ko) * 2008-01-09 2009-09-11 에스케이 텔레콤주식회사 가상 캐릭터의 동작 애니메이션 재생 방법 및 시스템
US8223152B2 (en) * 2008-11-13 2012-07-17 Samsung Electronics Co., Ltd. Apparatus and method of authoring animation through storyboard
US20100134499A1 (en) * 2008-12-03 2010-06-03 Nokia Corporation Stroke-based animation creation
US20120206419A1 (en) * 2011-02-11 2012-08-16 Massachusetts Institute Of Technology Collapsible input device
US20130222363A1 (en) * 2012-02-23 2013-08-29 Htc Corporation Stereoscopic imaging system and method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000036057A (ja) * 1998-07-21 2000-02-02 Hitachi Ltd キャラクタの動作生成方法
JP2002083317A (ja) * 2000-09-07 2002-03-22 Sony Corp 画像処理システム及び画像処理方法、並びに記憶媒体
JP2002163676A (ja) * 2000-11-28 2002-06-07 Namco Ltd ゲームシステム及びプログラム
JP2005326989A (ja) * 2004-05-13 2005-11-24 Sony Corp アニメーション生成装置、アニメーション生成方法およびアニメーション生成プログラム
JP2008536234A (ja) * 2005-04-11 2008-09-04 サムスン エレクトロニクス カンパニー リミテッド 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置
JP2007025979A (ja) * 2005-07-14 2007-02-01 Nippon Telegr & Teleph Corp <Ntt> 動画像編集システム、動画像編集方法、動画像編集プログラム及び記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018160260A (ja) * 2012-10-16 2018-10-11 ジョン、ジェ ウンJEON, Jae Woong 3次元の仮想空間内で仮想カメラを制御するための方法、システムおよびコンピュータ読取可能な記録媒体
JP2016509722A (ja) * 2013-01-24 2016-03-31 アニペン インコーポレイテッドAnipen Inc. アニメーションのモーションシーケンスを生成するための方法、システム及びコンピュータ読み取り可能な記録媒体
JP2018198083A (ja) * 2013-01-24 2018-12-13 アニペン インコーポレイテッドAnipen Inc. アニメーションのモーションシーケンスを生成するための方法、システム及びコンピュータ読み取り可能な記録媒体
KR20170135624A (ko) 2016-05-31 2017-12-08 (주) 젤리피쉬월드 스마트 단말을 이용하여 동작 컨텐트를 자동으로 생성하는 장치 및 방법

Also Published As

Publication number Publication date
US20130135316A1 (en) 2013-05-30
EP2579216B1 (en) 2020-04-22
EP2579216A4 (en) 2017-08-23
EP2579216A1 (en) 2013-04-10
CN103038797B (zh) 2016-05-04
JP5689953B2 (ja) 2015-03-25
US10152817B2 (en) 2018-12-11
CN103038797A (zh) 2013-04-10
WO2011149160A1 (ko) 2011-12-01
US10783692B2 (en) 2020-09-22
US20190073818A1 (en) 2019-03-07
AU2010354148A1 (en) 2013-01-24

Similar Documents

Publication Publication Date Title
JP5689953B2 (ja) アニメーション著作システムおよびアニメーション著作方法
US11616919B2 (en) Three-dimensional stabilized 360-degree composite image capture
CN110944727B (zh) 控制虚拟照相机的系统和方法
De Araùjo et al. Mockup Builder: 3D modeling on and above the surface
US9703446B2 (en) Zooming user interface frames embedded image frame sequence
US9153062B2 (en) Systems and methods for sketching and imaging
KR101155045B1 (ko) 애니메이션 저작 시스템 및 애니메이션 저작 방법
WO2015003544A1 (zh) 多深度区间的重聚焦方法、装置及电子设备
US20140267600A1 (en) Synth packet for interactive view navigation of a scene
US20200106967A1 (en) System and method of configuring a virtual camera
Walther-Franks et al. Dragimation: direct manipulation keyframe timing for performance-based animation
KR101155041B1 (ko) 애니메이션 저작 시스템 및 애니메이션 저작 방법
Ablett et al. Portal rendering and creation interactions in virtual reality
KR101743888B1 (ko) 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
Zhang Vision-based interaction with fingers and papers
Choi et al. Dynamic comics for hierarchical abstraction of 3d animation data
KR101691434B1 (ko) 영상 저작 장치 및 영상 저작 방법
Agrawal et al. HoloLabel: Augmented reality user-in-the-loop online annotation tool for as-is building information
KR101363331B1 (ko) 애니메이션 수정 방법 및 장치
JP5876409B2 (ja) 映像再生装置及び映像再生プログラム
KR102705094B1 (ko) 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
EP3776160A1 (en) Device operation control
Matthews Sketch-based Digital Storyboards and Floor Plans for Authoring Computer-Generated Film Pre-visualisations
KR20180045668A (ko) 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
Lockwood High Degree of Freedom Input and Large Displays for Accessible Animation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130605

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140812

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141112

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150129

R150 Certificate of patent or registration of utility model

Ref document number: 5689953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250