JPH09147135A - アニメーション作成装置 - Google Patents
アニメーション作成装置Info
- Publication number
- JPH09147135A JPH09147135A JP30471795A JP30471795A JPH09147135A JP H09147135 A JPH09147135 A JP H09147135A JP 30471795 A JP30471795 A JP 30471795A JP 30471795 A JP30471795 A JP 30471795A JP H09147135 A JPH09147135 A JP H09147135A
- Authority
- JP
- Japan
- Prior art keywords
- animation
- data
- corresponding point
- point information
- motion data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
(57)【要約】
【課題】 コンピュータグラフィックスを用いたアニメ
ーションにおいて、複数のアニメーション動作データを
合成して新たなアニメーション動作データを作成するこ
とにより、表現の自由度の増大とアニメーション作成作
業の簡略化を可能にする。 【解決手段】 対応点情報入力手段1により合成する2
つのアニメーション動作データの対応するフレームを入
力し、アニメーションデータ格納手段2に格納する。ア
ニメーション調整手段3は、アニメーションデータ格納
手段2から対応点情報とアニメーション動作データを取
り出して、対応点情報に応じてアニメーション動作デー
タを調整する。アニメーション合成手段4は調整された
アニメーション動作データを合成して新しいアニメーシ
ョン動作データを作成する。合成された新しいアニメー
ション動作データは、アニメーション再生手段5で再生
されて、アニメーション表示手段6に表示されたり、あ
るいはアニメーションデータ格納手段2に格納される。
ーションにおいて、複数のアニメーション動作データを
合成して新たなアニメーション動作データを作成するこ
とにより、表現の自由度の増大とアニメーション作成作
業の簡略化を可能にする。 【解決手段】 対応点情報入力手段1により合成する2
つのアニメーション動作データの対応するフレームを入
力し、アニメーションデータ格納手段2に格納する。ア
ニメーション調整手段3は、アニメーションデータ格納
手段2から対応点情報とアニメーション動作データを取
り出して、対応点情報に応じてアニメーション動作デー
タを調整する。アニメーション合成手段4は調整された
アニメーション動作データを合成して新しいアニメーシ
ョン動作データを作成する。合成された新しいアニメー
ション動作データは、アニメーション再生手段5で再生
されて、アニメーション表示手段6に表示されたり、あ
るいはアニメーションデータ格納手段2に格納される。
Description
【0001】
【発明の属する技術分野】本発明は、コンピュータ・グ
ラフィックスにおけるアニメーション作成装置に関する
ものである。
ラフィックスにおけるアニメーション作成装置に関する
ものである。
【0002】
【従来の技術】従来のアニメーション作成装置では、モ
ーションキャプチャー等の技術を用いてリアルなアニメ
ーションを作成することができる。しかし、得られたア
ニメーションデータは、手入力等による調整が行われる
ものの、基本的にそのデータがそのまま用いられるた
め、得られたアニメーションデータ以外の動きを作成で
きず、アニメーションの表現に制限があり、また膨大な
量のデータを必要とするものであった。
ーションキャプチャー等の技術を用いてリアルなアニメ
ーションを作成することができる。しかし、得られたア
ニメーションデータは、手入力等による調整が行われる
ものの、基本的にそのデータがそのまま用いられるた
め、得られたアニメーションデータ以外の動きを作成で
きず、アニメーションの表現に制限があり、また膨大な
量のデータを必要とするものであった。
【0003】従来のアニメーション作成装置は、例えば
図9に示すような構成をしている。図9において、90は
アニメーションデータ格納手段、91はアニメーション再
生手段、92はアニメーション表示手段であって、以下に
説明する動作によってアニメーションの作成を行う。
図9に示すような構成をしている。図9において、90は
アニメーションデータ格納手段、91はアニメーション再
生手段、92はアニメーション表示手段であって、以下に
説明する動作によってアニメーションの作成を行う。
【0004】すなわち、アニメーションデータ格納手段
90にモーションキャプチャー等の技術を利用して作成し
たアニメーションデータを一旦格納する。そして、アニ
メーション再生手段91はアニメーションデータ格納手段
90からアニメーションデータを順次取り出し、アニメー
ションデータを再生して画像データに変換し、アニメー
ション表示手段92に転送する。アニメーション表示手段
92は転送された画像データを表示する。
90にモーションキャプチャー等の技術を利用して作成し
たアニメーションデータを一旦格納する。そして、アニ
メーション再生手段91はアニメーションデータ格納手段
90からアニメーションデータを順次取り出し、アニメー
ションデータを再生して画像データに変換し、アニメー
ション表示手段92に転送する。アニメーション表示手段
92は転送された画像データを表示する。
【0005】
【発明が解決しようとする課題】しかしながら、前記従
来のような構成では、基本的にモーションキャプチャー
等の技術を利用して得られたアニメーションデータの組
み合わせでのみしかアニメーションを表現できないた
め、アニメーションの表現に制限がある。
来のような構成では、基本的にモーションキャプチャー
等の技術を利用して得られたアニメーションデータの組
み合わせでのみしかアニメーションを表現できないた
め、アニメーションの表現に制限がある。
【0006】例えば、人が部屋の中で歩き回って、椅子
に座ったりするアニメーションを作成することを考えて
みると、従来のアニメーション作成装置では、「まっす
ぐ歩いて右に曲がって、椅子の前まで行って座る」とい
った1連の動作を全てデータとして用意しなければなら
なかった。さらに、椅子の位置を少し動かしたりする
と、これらの動作が1つながりになっているため、対応
することが非常に困難である。
に座ったりするアニメーションを作成することを考えて
みると、従来のアニメーション作成装置では、「まっす
ぐ歩いて右に曲がって、椅子の前まで行って座る」とい
った1連の動作を全てデータとして用意しなければなら
なかった。さらに、椅子の位置を少し動かしたりする
と、これらの動作が1つながりになっているため、対応
することが非常に困難である。
【0007】本発明は係る点に鑑み、従来のアニメーシ
ョン作成装置のように、得られたアニメーションデータ
をそのまま使用するのではなく、いくつかのデータを合
成することにより、新しいデータを作成し、アニメーシ
ョンに使用することにより、少ないデータ量で、自由な
動作ができるアニメーションを容易に作成できるアニメ
ーション作成装置を提供することを目的とする。
ョン作成装置のように、得られたアニメーションデータ
をそのまま使用するのではなく、いくつかのデータを合
成することにより、新しいデータを作成し、アニメーシ
ョンに使用することにより、少ないデータ量で、自由な
動作ができるアニメーションを容易に作成できるアニメ
ーション作成装置を提供することを目的とする。
【0008】
【課題を解決するための手段】前記目的を達成するた
め、本発明に係るアニメーション作成装置の第1の発明
は、アニメーション動作データ間の対応点情報を入力す
る対応点情報入力手段と、アニメーション動作データお
よび前記対応点情報入力手段により入力された前記対応
点情報を格納するアニメーションデータ格納手段と、こ
のアニメーションデータ格納手段から2つのアニメーシ
ョン動作データと対応点情報を取り出してアニメーショ
ン動作データの調整を行うアニメーション調整手段と、
このアニメーション調整手段から転送されたアニメーシ
ョン動作データを合成するアニメーション合成手段と、
このアニメーション合成手段から転送されたアニメーシ
ョン動作データを再生して画像データに変換するアニメ
ーション再生手段と、このアニメーション再生手段から
転送された画像データに基づいてアニメーション表示を
行うアニメーション表示手段とを備えたものであり、従
来のアニメーション作成装置では困難であった、少ない
データで自由なアニメーションを作成することを可能に
したものである。
め、本発明に係るアニメーション作成装置の第1の発明
は、アニメーション動作データ間の対応点情報を入力す
る対応点情報入力手段と、アニメーション動作データお
よび前記対応点情報入力手段により入力された前記対応
点情報を格納するアニメーションデータ格納手段と、こ
のアニメーションデータ格納手段から2つのアニメーシ
ョン動作データと対応点情報を取り出してアニメーショ
ン動作データの調整を行うアニメーション調整手段と、
このアニメーション調整手段から転送されたアニメーシ
ョン動作データを合成するアニメーション合成手段と、
このアニメーション合成手段から転送されたアニメーシ
ョン動作データを再生して画像データに変換するアニメ
ーション再生手段と、このアニメーション再生手段から
転送された画像データに基づいてアニメーション表示を
行うアニメーション表示手段とを備えたものであり、従
来のアニメーション作成装置では困難であった、少ない
データで自由なアニメーションを作成することを可能に
したものである。
【0009】第2の発明は第1の発明に加えて、対応点
情報パラメータ入力手段と、対応点を判別する対応点判
別手段とを備え、前記対応点情報パラメータ入力手段に
より対応点を判別するためのパラメータを入力し、この
入力されたパラメータに応じて前記対応点判別手段が対
応点を自動判別して前記アニメーションデータ格納手段
に格納するものであり、少ないデータで自由なアニメー
ションをより簡単に作成することを可能にしたものであ
る。
情報パラメータ入力手段と、対応点を判別する対応点判
別手段とを備え、前記対応点情報パラメータ入力手段に
より対応点を判別するためのパラメータを入力し、この
入力されたパラメータに応じて前記対応点判別手段が対
応点を自動判別して前記アニメーションデータ格納手段
に格納するものであり、少ないデータで自由なアニメー
ションをより簡単に作成することを可能にしたものであ
る。
【0010】第3の発明は、アニメーション動作データ
間の対応点情報を入力する対応点情報入力手段と、アニ
メーション動作データおよび前記対応点情報入力手段に
より入力された前記対応点情報を格納するアニメーショ
ンデータ格納手段と、このアニメーションデータ格納手
段から2つのアニメーション動作データと対応点情報を
取り出し、一方のアニメーション動作データのどの時点
のデータともう一方のどの時点のデータを合成して、ど
の時点のアニメーション動作データを作成するかを決め
る合成フレームデータを算出して前記アニメーションデ
ータ格納手段に格納する合成フレームデータ算出手段
と、前記アニメーションデータ格納手段からアニメーシ
ョン動作データと合成フレームデータを取り出してアニ
メーション動作データを合成するアニメーション合成手
段と、このアニメーション合成手段から転送されたアニ
メーション動作データを再生して画像データに変換する
アニメーション再生手段と、このアニメーション再生手
段から転送された画像データに基づいてアニメーション
表示を行うアニメーション表示手段とを備えたものであ
り、従来のアニメーション作成装置では困難であった、
少ないデータで自由で、しかも自然なアニメーションを
作成することを可能にしたものである。
間の対応点情報を入力する対応点情報入力手段と、アニ
メーション動作データおよび前記対応点情報入力手段に
より入力された前記対応点情報を格納するアニメーショ
ンデータ格納手段と、このアニメーションデータ格納手
段から2つのアニメーション動作データと対応点情報を
取り出し、一方のアニメーション動作データのどの時点
のデータともう一方のどの時点のデータを合成して、ど
の時点のアニメーション動作データを作成するかを決め
る合成フレームデータを算出して前記アニメーションデ
ータ格納手段に格納する合成フレームデータ算出手段
と、前記アニメーションデータ格納手段からアニメーシ
ョン動作データと合成フレームデータを取り出してアニ
メーション動作データを合成するアニメーション合成手
段と、このアニメーション合成手段から転送されたアニ
メーション動作データを再生して画像データに変換する
アニメーション再生手段と、このアニメーション再生手
段から転送された画像データに基づいてアニメーション
表示を行うアニメーション表示手段とを備えたものであ
り、従来のアニメーション作成装置では困難であった、
少ないデータで自由で、しかも自然なアニメーションを
作成することを可能にしたものである。
【0011】第4の発明は第3の発明に加えて、対応点
情報パラメータ入力手段と、対応点を判別する対応点判
別手段とを備え、前記対応点情報パラメータ入力手段に
より対応点を判別するためのパラメータを入力し、この
入力されたパラメータに応じて前記対応点判別手段が対
応点を自動判別して前記アニメーションデータ格納手段
に格納するものであり、少ないデータで自由で、しかも
自然なアニメーションをより簡単に作成することを可能
にしたものである。
情報パラメータ入力手段と、対応点を判別する対応点判
別手段とを備え、前記対応点情報パラメータ入力手段に
より対応点を判別するためのパラメータを入力し、この
入力されたパラメータに応じて前記対応点判別手段が対
応点を自動判別して前記アニメーションデータ格納手段
に格納するものであり、少ないデータで自由で、しかも
自然なアニメーションをより簡単に作成することを可能
にしたものである。
【0012】
【発明の実施の形態】以下、本発明の好適な実施形態を
図面に基づいて説明する。
図面に基づいて説明する。
【0013】図1は本発明のアニメーション作成装置の
第1実施形態を説明するための構成を示すブロック図で
あり、1は対応点情報入力手段、2はアニメーションデ
ータ格納手段、3はアニメーション調整手段、4はアニ
メーション合成手段、5はアニメーション再生手段、6
はアニメーション表示手段である。
第1実施形態を説明するための構成を示すブロック図で
あり、1は対応点情報入力手段、2はアニメーションデ
ータ格納手段、3はアニメーション調整手段、4はアニ
メーション合成手段、5はアニメーション再生手段、6
はアニメーション表示手段である。
【0014】図1において、まず、ユーザは、対応点情
報入力手段1により合成しようとする2つのアニメーシ
ョン動作データがどのように対応しているかの対応点情
報を入力する。そして対応点情報入力手段1は、入力さ
れた対応点情報をアニメーションデータ格納手段2に格
納する。
報入力手段1により合成しようとする2つのアニメーシ
ョン動作データがどのように対応しているかの対応点情
報を入力する。そして対応点情報入力手段1は、入力さ
れた対応点情報をアニメーションデータ格納手段2に格
納する。
【0015】アニメーションデータ格納手段2には、モ
ーションキャプチャー等で得られたアニメーション動作
データ,形状データ,アニメーションの提示順序を指定
するシナリオデータ、そして骨格アニメーションを行う
場合には骨格データ等のデータが予め格納されている。
ーションキャプチャー等で得られたアニメーション動作
データ,形状データ,アニメーションの提示順序を指定
するシナリオデータ、そして骨格アニメーションを行う
場合には骨格データ等のデータが予め格納されている。
【0016】次にアニメーション調整手段3は、図2
(a),(b)のアニメーション調整手段における処理の一例
を示す説明図のように、アニメーションデータ格納手段
2に格納された対応点情報とアニメーション動作データ
とから、アニメーション動作データの対応点の時間間隔
が2つのアニメーション動作データ間で等しくなるよう
に、アニメーション動作データの各フレームのデータを
補間して調整を行う(後で詳述する)。その後、アニメー
ション調整手段3は、調整を行ったアニメーション動作
データをアニメーション合成手段4に転送し、必要であ
ればアニメーション格納手段2に格納する。
(a),(b)のアニメーション調整手段における処理の一例
を示す説明図のように、アニメーションデータ格納手段
2に格納された対応点情報とアニメーション動作データ
とから、アニメーション動作データの対応点の時間間隔
が2つのアニメーション動作データ間で等しくなるよう
に、アニメーション動作データの各フレームのデータを
補間して調整を行う(後で詳述する)。その後、アニメー
ション調整手段3は、調整を行ったアニメーション動作
データをアニメーション合成手段4に転送し、必要であ
ればアニメーション格納手段2に格納する。
【0017】アニメーション合成手段4は、転送された
それぞれのアニメーション動作データを各フレームごと
に補間することにより、アニメーション動作データの合
成を行い、合成したアニメーション動作データをアニメ
ーション再生手段5に転送し、必要であればアニメーシ
ョンデータ格納手段2に格納する。
それぞれのアニメーション動作データを各フレームごと
に補間することにより、アニメーション動作データの合
成を行い、合成したアニメーション動作データをアニメ
ーション再生手段5に転送し、必要であればアニメーシ
ョンデータ格納手段2に格納する。
【0018】アニメーション再生手段5は、転送された
アニメーション動作データを再生し、必要であればアニ
メーションデータ格納手段2よりアニメーション動作デ
ータを直接取り出し、再生して画像データに変換し、こ
の画像データをアニメーション表示手段6に転送する。
アニメーション表示手段6は転送された画像データを表
示することによってアニメーションの作成を行う。
アニメーション動作データを再生し、必要であればアニ
メーションデータ格納手段2よりアニメーション動作デ
ータを直接取り出し、再生して画像データに変換し、こ
の画像データをアニメーション表示手段6に転送する。
アニメーション表示手段6は転送された画像データを表
示することによってアニメーションの作成を行う。
【0019】次に、第1実施形態を具体的なモデルを設
定して説明する。本例では、人が道路に沿って歩くアニ
メーションを作成する場合について説明する。図3はア
ニメーションの一例を示す説明図であり、31はメイン画
面、32は道路、33,34は合成前のアニメーション動作デ
ータを示すキャラクタの軌跡、35は合成後のアニメーシ
ョン動作データを示すキャラクタの軌跡、36は人であ
る。
定して説明する。本例では、人が道路に沿って歩くアニ
メーションを作成する場合について説明する。図3はア
ニメーションの一例を示す説明図であり、31はメイン画
面、32は道路、33,34は合成前のアニメーション動作デ
ータを示すキャラクタの軌跡、35は合成後のアニメーシ
ョン動作データを示すキャラクタの軌跡、36は人であ
る。
【0020】アニメーションデータ格納手段2にはモー
ションキャプチャーにより得られたまっすぐに歩くアニ
メーション動作データ33と、90度右に曲がるアニメーシ
ョン動作データ34と、人36を構成する形状データ,骨格
データおよび道路を表す形状データが格納されている。
ションキャプチャーにより得られたまっすぐに歩くアニ
メーション動作データ33と、90度右に曲がるアニメーシ
ョン動作データ34と、人36を構成する形状データ,骨格
データおよび道路を表す形状データが格納されている。
【0021】まず、ユーザは対応点情報入力手段1によ
り、アニメーション動作データ33,34により、右足ある
いは左足が地面に完全につく瞬間のフレームのそれぞれ
のアニメーション動作データにおけるフレーム番号を入
力する(図2(a)参照)。対応点情報入力手段1は入力さ
れた対応点情報をアニメーションデータ格納手段2に格
納する。
り、アニメーション動作データ33,34により、右足ある
いは左足が地面に完全につく瞬間のフレームのそれぞれ
のアニメーション動作データにおけるフレーム番号を入
力する(図2(a)参照)。対応点情報入力手段1は入力さ
れた対応点情報をアニメーションデータ格納手段2に格
納する。
【0022】次に、アニメーション調整手段3は、アニ
メーションデータ格納手段2に格納された対応点情報と
アニメーション動作データ33,34とから、アニメーショ
ン動作データ33,34の対応点の時間間隔が2つのアニメ
ーション動作データ33,34間で等しくなるように、アニ
メーション動作データ33,34の各フレームのデータを補
間して調整を行う(図2(b)参照)。その後、アニメーシ
ョン調整手段3は、調整を行ったアニメーション動作デ
ータをアニメーション合成手段4に転送する。
メーションデータ格納手段2に格納された対応点情報と
アニメーション動作データ33,34とから、アニメーショ
ン動作データ33,34の対応点の時間間隔が2つのアニメ
ーション動作データ33,34間で等しくなるように、アニ
メーション動作データ33,34の各フレームのデータを補
間して調整を行う(図2(b)参照)。その後、アニメーシ
ョン調整手段3は、調整を行ったアニメーション動作デ
ータをアニメーション合成手段4に転送する。
【0023】アニメーション合成手段4はアニメーショ
ン調整手段3より転送された「まっすぐ歩く」と「右に
90度曲がる」の調整後のアニメーション動作データを各
フレームごとに補間することにより、合成アニメーショ
ン動作データ35を作成し、この合成アニメーション動作
データ35をアニメーション再生手段5に転送する。
ン調整手段3より転送された「まっすぐ歩く」と「右に
90度曲がる」の調整後のアニメーション動作データを各
フレームごとに補間することにより、合成アニメーショ
ン動作データ35を作成し、この合成アニメーション動作
データ35をアニメーション再生手段5に転送する。
【0024】アニメーション再生手段5はアニメーショ
ン合成手段4より転送された合成アニメーション動作デ
ータ35を再生して画像データに変換し、画像データをア
ニメーション表示手段6に転送する。アニメーション表
示手段6は転送された画像データを表示することによっ
てアニメーションの作成を行う。
ン合成手段4より転送された合成アニメーション動作デ
ータ35を再生して画像データに変換し、画像データをア
ニメーション表示手段6に転送する。アニメーション表
示手段6は転送された画像データを表示することによっ
てアニメーションの作成を行う。
【0025】本例では、予め決められたシナリオでアニ
メーションが再生されるフィルム型アニメーションを作
成する場合について説明したが、これをアニメーション
再生中においてユーザの入力に対してインタラクティブ
に反応して、アニメーションの進行状況が変化する対話
型アニメーションを作成する場合についても応用するこ
とができる。
メーションが再生されるフィルム型アニメーションを作
成する場合について説明したが、これをアニメーション
再生中においてユーザの入力に対してインタラクティブ
に反応して、アニメーションの進行状況が変化する対話
型アニメーションを作成する場合についても応用するこ
とができる。
【0026】このようにすることによって、基本的なア
ニメーション動作データを用意するだけで、さまざまな
アニメーション動作データを合成することができ、デー
タ量の削減と動作の自由度の増大という点で非常に有効
である。
ニメーション動作データを用意するだけで、さまざまな
アニメーション動作データを合成することができ、デー
タ量の削減と動作の自由度の増大という点で非常に有効
である。
【0027】図4は本発明のアニメーション作成装置の
第2実施形態を説明するための構成を示すブロック図で
あり、前記第1実施形態とは、アニメーションデータ格
納手段2に対して対応点判別手段7と対応点情報パラメ
ータ入力手段8とが設けられた点が異なり、既に第1実
施形態において説明した部材に対応する部材には同一符
号を付して詳しい説明を省略する。
第2実施形態を説明するための構成を示すブロック図で
あり、前記第1実施形態とは、アニメーションデータ格
納手段2に対して対応点判別手段7と対応点情報パラメ
ータ入力手段8とが設けられた点が異なり、既に第1実
施形態において説明した部材に対応する部材には同一符
号を付して詳しい説明を省略する。
【0028】まず、ユーザは対応点の情報を判別するた
めに必要なパラメータを対応点情報パラメータ入力手段
8より入力する。対応点情報パラメータ入力手段8は入
力された対応点情報パラメータをアニメーションデータ
格納手段2に格納し、対応点判別手段7に転送する。
めに必要なパラメータを対応点情報パラメータ入力手段
8より入力する。対応点情報パラメータ入力手段8は入
力された対応点情報パラメータをアニメーションデータ
格納手段2に格納し、対応点判別手段7に転送する。
【0029】対応点判別手段7はアニメーションデータ
格納手段2よりアニメーション動作データを2つ取り出
し、対応点情報パラメータ入力手段8より転送された対
応点情報を判別するためのパラメータと、アニメーショ
ンデータ格納手段2より取り出したアニメーション動作
データとにより、それぞれのアニメーション動作データ
の対応点を判別して対応点情報を生成し、アニメーショ
ンデータ格納手段2に格納する。
格納手段2よりアニメーション動作データを2つ取り出
し、対応点情報パラメータ入力手段8より転送された対
応点情報を判別するためのパラメータと、アニメーショ
ンデータ格納手段2より取り出したアニメーション動作
データとにより、それぞれのアニメーション動作データ
の対応点を判別して対応点情報を生成し、アニメーショ
ンデータ格納手段2に格納する。
【0030】この後に前記第1実施形態によって説明し
た手順に沿ってアニメーションの作成を行う。
た手順に沿ってアニメーションの作成を行う。
【0031】次に、第2実施形態を具体的なモデルを設
定して説明する。この例では、前記図3と同様のアニメ
ーションを例として説明する。図5(a)〜(c)は対応点情
報判別手段7の動作を説明するための概念図であり、図
5(a)において、51は前記人36の骨格データ、53は右足
の末端サイト、54は左足の末端サイト、図5(b)におい
て、55は地面、実線の58は左足の末端サイト54の描く軌
跡、破線の59は右足の末端サイト53の描く軌跡、図5
(c)において、56は人が歩くアニメーション動作デー
タ、57は対応点フレームである。
定して説明する。この例では、前記図3と同様のアニメ
ーションを例として説明する。図5(a)〜(c)は対応点情
報判別手段7の動作を説明するための概念図であり、図
5(a)において、51は前記人36の骨格データ、53は右足
の末端サイト、54は左足の末端サイト、図5(b)におい
て、55は地面、実線の58は左足の末端サイト54の描く軌
跡、破線の59は右足の末端サイト53の描く軌跡、図5
(c)において、56は人が歩くアニメーション動作デー
タ、57は対応点フレームである。
【0032】アニメーションデータ格納手段2には、モ
ーションキャプチャーにより得られたまっすぐに歩くア
ニメーション動作データ33と、90度右に曲がるアニメー
ション動作データ34と、人36を構成する形状データ,骨
格データおよび道路を表す形状データが格納されてい
る。
ーションキャプチャーにより得られたまっすぐに歩くア
ニメーション動作データ33と、90度右に曲がるアニメー
ション動作データ34と、人36を構成する形状データ,骨
格データおよび道路を表す形状データが格納されてい
る。
【0033】まず、ユーザは対応点情報パラメータ入力
手段8より対応点情報を判別するために必要なパラメー
タを入力する。対応点情報を判別するために必要なパラ
メータは、この例の場合では以下のものである。
手段8より対応点情報を判別するために必要なパラメー
タを入力する。対応点情報を判別するために必要なパラ
メータは、この例の場合では以下のものである。
【0034】人36は前記51に示すような骨格データ51を
持っており、この骨格データ51をアニメーション動作デ
ータ56によって動かすことにより、人36は地面55の上を
歩くようになる。このとき左右の足の末端サイトに注目
すると、58,59に示すような軌跡を描いていることがわ
かる。この軌跡58,59に基づいて対応点判別手段7は対
応点を判別する。そのために骨格データ51のうち注目す
るサイトの番号53,54とこれらのサイトがどの位置に来
たときを、対応点フレームとするかをパラメータとして
入力する。この例の場合、これらのサイトが最下点にき
た瞬間を対応点フレームとする。
持っており、この骨格データ51をアニメーション動作デ
ータ56によって動かすことにより、人36は地面55の上を
歩くようになる。このとき左右の足の末端サイトに注目
すると、58,59に示すような軌跡を描いていることがわ
かる。この軌跡58,59に基づいて対応点判別手段7は対
応点を判別する。そのために骨格データ51のうち注目す
るサイトの番号53,54とこれらのサイトがどの位置に来
たときを、対応点フレームとするかをパラメータとして
入力する。この例の場合、これらのサイトが最下点にき
た瞬間を対応点フレームとする。
【0035】対応点情報パラメータ入力手段8は、入力
された対応点情報パラメータをアニメーションデータ格
納手段2に格納し、かつ対応点判別手段7に転送する。
された対応点情報パラメータをアニメーションデータ格
納手段2に格納し、かつ対応点判別手段7に転送する。
【0036】対応点判別手段7はアニメーションデータ
格納手段2より「まっすぐに歩く」と「右に90度曲が
る」の2つのアニメーション動作データ33,34と骨格デ
ータ51とを取り出し、対応点情報パラメータ入力手段8
より転送された対応点情報パラメータと、アニメーショ
ンデータ格納手段2より取り出したアニメーション動作
データ33,34と骨格データ51とにより左右の足が最下点
に来た瞬間のフレームを、それぞれのアニメーション動
作データ33,34の対応点として対応点情報を生成し、ア
ニメーションデータ格納手段2に格納する。
格納手段2より「まっすぐに歩く」と「右に90度曲が
る」の2つのアニメーション動作データ33,34と骨格デ
ータ51とを取り出し、対応点情報パラメータ入力手段8
より転送された対応点情報パラメータと、アニメーショ
ンデータ格納手段2より取り出したアニメーション動作
データ33,34と骨格データ51とにより左右の足が最下点
に来た瞬間のフレームを、それぞれのアニメーション動
作データ33,34の対応点として対応点情報を生成し、ア
ニメーションデータ格納手段2に格納する。
【0037】この後に前記第1実施形態において説明し
た手順に沿ってアニメーションの作成を行う。
た手順に沿ってアニメーションの作成を行う。
【0038】このようにすることによって、アニメーシ
ョン動作データを用意するだけで、さまざまなアニメー
ション動作データを合成することができ、データ量の削
減と動作の自由度の増大という点で非常に効果を発揮す
るだけでなく、対応点判別手段7により、対応点情報の
入力作業が非常に簡略化され、アニメーションの作成が
より容易になる。
ョン動作データを用意するだけで、さまざまなアニメー
ション動作データを合成することができ、データ量の削
減と動作の自由度の増大という点で非常に効果を発揮す
るだけでなく、対応点判別手段7により、対応点情報の
入力作業が非常に簡略化され、アニメーションの作成が
より容易になる。
【0039】図6は本発明のアニメーション作成装置の
第3実施形態を説明するための構成を示すブロック図で
あり、この第3実施形態は前記第1実施形態におけるア
ニメーション調整手段3に替えて合成フレームデータ算
出手段9を設けた点で異なっており、既に第1実施形態
において説明した部材に対応する部材には同一符号を付
して詳しい説明は省略する。
第3実施形態を説明するための構成を示すブロック図で
あり、この第3実施形態は前記第1実施形態におけるア
ニメーション調整手段3に替えて合成フレームデータ算
出手段9を設けた点で異なっており、既に第1実施形態
において説明した部材に対応する部材には同一符号を付
して詳しい説明は省略する。
【0040】まず、ユーザは、対応点情報入力手段1に
より合成しようとする2つのアニメーション動作データ
がどのように対応しているかの対応点情報を入力する。
そして対応点情報入力手段1は入力された対応点情報を
アニメーションデータ格納手段2に格納する。
より合成しようとする2つのアニメーション動作データ
がどのように対応しているかの対応点情報を入力する。
そして対応点情報入力手段1は入力された対応点情報を
アニメーションデータ格納手段2に格納する。
【0041】次に合成フレームデータ算出手段9は、ア
ニメーションデータ格納手段2より、2つのアニメーシ
ョン動作データと対応点情報とを取り出し、一方のアニ
メーション動作データの何フレーム目と他方のアニメー
ション動作データの何フレーム目を合成して、合成アニ
メーション動作データの何フレーム目を作成するかを表
す合成フレームデータを算出する。合成フレームデータ
算出手段9は算出した合成フレームデータをアニメーシ
ョン合成手段4に転送し、アニメーションデータ格納手
段2に格納する。
ニメーションデータ格納手段2より、2つのアニメーシ
ョン動作データと対応点情報とを取り出し、一方のアニ
メーション動作データの何フレーム目と他方のアニメー
ション動作データの何フレーム目を合成して、合成アニ
メーション動作データの何フレーム目を作成するかを表
す合成フレームデータを算出する。合成フレームデータ
算出手段9は算出した合成フレームデータをアニメーシ
ョン合成手段4に転送し、アニメーションデータ格納手
段2に格納する。
【0042】アニメーション合成手段4はアニメーショ
ンデータ格納手段2より、2つのアニメーション動作デ
ータを取り出し、転送された合成フレームデータとアニ
メーションデータ格納手段2より取り出したアニメーシ
ョン動作データとによりアニメーション動作データの合
成を行い、合成したアニメーション動作データをアニメ
ーション再生手段5に転送し、必要であればアニメーシ
ョンデータ格納手段2に格納する。
ンデータ格納手段2より、2つのアニメーション動作デ
ータを取り出し、転送された合成フレームデータとアニ
メーションデータ格納手段2より取り出したアニメーシ
ョン動作データとによりアニメーション動作データの合
成を行い、合成したアニメーション動作データをアニメ
ーション再生手段5に転送し、必要であればアニメーシ
ョンデータ格納手段2に格納する。
【0043】次に、第3実施形態を具体的なモデルを設
定して説明する。この例では、人が歩くアニメーション
と人が走るアニメーションとから、その中間の早さで歩
く、あるいは走るアニメーションを作成する場合につい
て説明する。
定して説明する。この例では、人が歩くアニメーション
と人が走るアニメーションとから、その中間の早さで歩
く、あるいは走るアニメーションを作成する場合につい
て説明する。
【0044】図7(a)〜(d)は前記合成フレームデータ算
出手段の動作を説明する概念図であって、71は人36が歩
くアニメーション動作データ、72は人36が走るアニメー
ション動作データ、73は合成後のアニメーション動作デ
ータ、74は具体的な合成フレームデータである。
出手段の動作を説明する概念図であって、71は人36が歩
くアニメーション動作データ、72は人36が走るアニメー
ション動作データ、73は合成後のアニメーション動作デ
ータ、74は具体的な合成フレームデータである。
【0045】アニメーションデータ格納手段2にはモー
ションキャプチャーにより得られた歩くアニメーション
動作データ71と走るアニメーション動作データ72と人36
を構成する形状データ,骨格データおよび道路を表す形
状データが格納されている。
ションキャプチャーにより得られた歩くアニメーション
動作データ71と走るアニメーション動作データ72と人36
を構成する形状データ,骨格データおよび道路を表す形
状データが格納されている。
【0046】まず、ユーザは、対応点情報入力手段1に
よりアニメーション動作データ71,72に基づいて、右足
あるいは左足が地面に完全につく瞬間のフレームのそれ
ぞれのアニメーション動作データにおけるフレーム番号
を入力する。そして対応点情報入力手段1は入力された
対応点情報をアニメーションデータ格納手段2に格納す
る。
よりアニメーション動作データ71,72に基づいて、右足
あるいは左足が地面に完全につく瞬間のフレームのそれ
ぞれのアニメーション動作データにおけるフレーム番号
を入力する。そして対応点情報入力手段1は入力された
対応点情報をアニメーションデータ格納手段2に格納す
る。
【0047】次に合成フレームデータ算出手段9は、ア
ニメーションデータ格納手段2より、2つのアニメーシ
ョン動作データ71,72と対応点情報とを取り出し、図7
に示すように、歩くアニメーション動作データ71の何フ
レーム目と、走るアニメーション動作データ72の何フレ
ーム目を合成して、合成アニメーション動作データ73の
何フレーム目を作成するかを表す合成フレームデータ74
を算出する。合成フレームデータ算出手段9は算出した
合成フレームデータ74をアニメーション合成手段4に転
送し、アニメーションデータ格納手段2に格納する。
ニメーションデータ格納手段2より、2つのアニメーシ
ョン動作データ71,72と対応点情報とを取り出し、図7
に示すように、歩くアニメーション動作データ71の何フ
レーム目と、走るアニメーション動作データ72の何フレ
ーム目を合成して、合成アニメーション動作データ73の
何フレーム目を作成するかを表す合成フレームデータ74
を算出する。合成フレームデータ算出手段9は算出した
合成フレームデータ74をアニメーション合成手段4に転
送し、アニメーションデータ格納手段2に格納する。
【0048】アニメーション合成手段4は、アニメーシ
ョンデータ格納手段2より「歩く」と「走る」の2つの
アニメーション動作データ71,72を取り出し、転送され
た合成フレームデータ74で指定されたフレーム同士をア
ニメーションデータ格納手段2より取り出したアニメー
ション動作データ71,72の間で補間することによりアニ
メーション動作データの合成を行い、合成したアニメー
ション動作データ73をアニメーション再生手段5に転送
する。ここで、合成方法としては、フレーム番号が小数
値の場合は整数値にしてから合成を行う方法、あるいは
そのフレーム番号を挾む2つのフレームを使用して補間
したフレームを用いて合成を行う等の方法が考えられ
る。
ョンデータ格納手段2より「歩く」と「走る」の2つの
アニメーション動作データ71,72を取り出し、転送され
た合成フレームデータ74で指定されたフレーム同士をア
ニメーションデータ格納手段2より取り出したアニメー
ション動作データ71,72の間で補間することによりアニ
メーション動作データの合成を行い、合成したアニメー
ション動作データ73をアニメーション再生手段5に転送
する。ここで、合成方法としては、フレーム番号が小数
値の場合は整数値にしてから合成を行う方法、あるいは
そのフレーム番号を挾む2つのフレームを使用して補間
したフレームを用いて合成を行う等の方法が考えられ
る。
【0049】アニメーション再生手段5は転送されたア
ニメーション動作データ73を再生し、画像データに変換
し、画像データをアニメーション表示手段6に転送す
る。アニメーション表示手段6は転送された画像データ
を表示することによってアニメーションの作成を行う。
ニメーション動作データ73を再生し、画像データに変換
し、画像データをアニメーション表示手段6に転送す
る。アニメーション表示手段6は転送された画像データ
を表示することによってアニメーションの作成を行う。
【0050】このようにすることにより、前記第1実施
形態の特徴に加えて、合成する2つのアニメーション動
作データの対応点の間隔が非常に異なり、かつその間隔
の差が重要である場合にも自然に合成を行うことができ
る。
形態の特徴に加えて、合成する2つのアニメーション動
作データの対応点の間隔が非常に異なり、かつその間隔
の差が重要である場合にも自然に合成を行うことができ
る。
【0051】図8は本発明のアニメーション作成装置の
第4実施形態を説明するための構成を示すブロック図で
あり、前記第3実施形態とは、アニメーションデータ格
納手段2に対して対応点判別手段7と対応点情報パラメ
ータ入力手段8とが設けられた点が異なり、既に第3実
施形態において説明した部材に対応する部材には同一符
号を付して詳しい説明を省略する。
第4実施形態を説明するための構成を示すブロック図で
あり、前記第3実施形態とは、アニメーションデータ格
納手段2に対して対応点判別手段7と対応点情報パラメ
ータ入力手段8とが設けられた点が異なり、既に第3実
施形態において説明した部材に対応する部材には同一符
号を付して詳しい説明を省略する。
【0052】まず、第2実施形態において説明したのと
同様に、ユーザは、対応点の情報を判別するために必要
なパラメータを対応点情報パラメータ入力手段8より入
力する。対応点情報パラメータ入力手段8は入力された
対応点情報パラメータをアニメーションデータ格納手段
2に格納し、対応点判別手段7に転送する。
同様に、ユーザは、対応点の情報を判別するために必要
なパラメータを対応点情報パラメータ入力手段8より入
力する。対応点情報パラメータ入力手段8は入力された
対応点情報パラメータをアニメーションデータ格納手段
2に格納し、対応点判別手段7に転送する。
【0053】対応点判別手段7はアニメーションデータ
格納手段2よりアニメーション動作データを2つ取り出
し、対応点情報パラメータ入力手段8より転送された対
応点情報を判別するためのパラメータとアニメーション
データ格納手段2より取り出したアニメーション動作デ
ータよりそれぞれのアニメーション動作データの対応点
を判別して、対応点情報を生成し、アニメーションデー
タ格納手段2に格納する。
格納手段2よりアニメーション動作データを2つ取り出
し、対応点情報パラメータ入力手段8より転送された対
応点情報を判別するためのパラメータとアニメーション
データ格納手段2より取り出したアニメーション動作デ
ータよりそれぞれのアニメーション動作データの対応点
を判別して、対応点情報を生成し、アニメーションデー
タ格納手段2に格納する。
【0054】さらに、この後に前記第3実施形態にて説
明した手順に沿ってアニメーションの作成を行う。
明した手順に沿ってアニメーションの作成を行う。
【0055】次に、第4実施形態を具体的なモデルを設
定して説明する。この例では、前記第3実施形態と同様
に、人が歩くアニメーションと、人が走るアニメーショ
ンとから、その中間の早さで歩く、あるいは走るアニメ
ーションを作成する場合について説明する(図5,図7
参照)。
定して説明する。この例では、前記第3実施形態と同様
に、人が歩くアニメーションと、人が走るアニメーショ
ンとから、その中間の早さで歩く、あるいは走るアニメ
ーションを作成する場合について説明する(図5,図7
参照)。
【0056】アニメーションデータ格納手段2には、モ
ーションキャプチャーにより得られた歩くアニメーショ
ン動作データ71と走るアニメーション動作データ72と人
36を構成する形状データ,骨格データが格納されてい
る。
ーションキャプチャーにより得られた歩くアニメーショ
ン動作データ71と走るアニメーション動作データ72と人
36を構成する形状データ,骨格データが格納されてい
る。
【0057】まず、ユーザは対応点情報パラメータ入力
手段8より対応点情報を判別するために必要なパラメー
タを入力する。対応点情報を判別するために必要なパラ
メータは、この例の場合では以下のものである。
手段8より対応点情報を判別するために必要なパラメー
タを入力する。対応点情報を判別するために必要なパラ
メータは、この例の場合では以下のものである。
【0058】すなわち、第2実施形態にて説明したのと
同様に、図5(b)の軌跡58,59に基づいて対応点判別手
段7は対応点を判別する。そのために骨格データ51のう
ち注目するサイトの番号53,54とこれらのサイトが、ど
の位置に来たときを対応点フレームとするかをパラメー
タとして入力する。この例の場合、これらのサイトが最
下点にきた瞬間を対応点フレームとする。
同様に、図5(b)の軌跡58,59に基づいて対応点判別手
段7は対応点を判別する。そのために骨格データ51のう
ち注目するサイトの番号53,54とこれらのサイトが、ど
の位置に来たときを対応点フレームとするかをパラメー
タとして入力する。この例の場合、これらのサイトが最
下点にきた瞬間を対応点フレームとする。
【0059】対応点情報パラメータ入力手段8は、入力
された対応点情報パラメータをアニメーションデータ格
納手段2に格納し、対応点判別手段7に転送する。
された対応点情報パラメータをアニメーションデータ格
納手段2に格納し、対応点判別手段7に転送する。
【0060】対応点判別手段7は、アニメーションデー
タ格納手段2より「歩く」と「走る」の2つのアニメー
ション動作データ71,72と骨格データ51とを取り出し、
対応点情報パラメータ入力手段8より転送された対応点
情報パラメータと、アニメーションデータ格納手段2よ
り取り出したアニメーション動作データ71,72と骨格デ
ータ51より左右の足が最下点に来た瞬間のフレームを、
それぞれのアニメーション動作データ71,72の対応点と
して対応点情報を生成し、アニメーションデータ格納手
段2に格納する。
タ格納手段2より「歩く」と「走る」の2つのアニメー
ション動作データ71,72と骨格データ51とを取り出し、
対応点情報パラメータ入力手段8より転送された対応点
情報パラメータと、アニメーションデータ格納手段2よ
り取り出したアニメーション動作データ71,72と骨格デ
ータ51より左右の足が最下点に来た瞬間のフレームを、
それぞれのアニメーション動作データ71,72の対応点と
して対応点情報を生成し、アニメーションデータ格納手
段2に格納する。
【0061】この後に前記第3実施形態にて説明した手
順に沿ってアニメーションの作成を行う。
順に沿ってアニメーションの作成を行う。
【0062】このようにすることによって、前記第3実
施形態の特徴に加えて、対応点判別手段7により、対応
点情報の入力作業が非常に簡略化されており、アニメー
ションの作成がより容易になる。
施形態の特徴に加えて、対応点判別手段7により、対応
点情報の入力作業が非常に簡略化されており、アニメー
ションの作成がより容易になる。
【0063】
【発明の効果】以上説明したように、本発明のアニメー
ション作成装置によれば、2つの動作データを合成し
て、新しい動作を作成できるようになったため、限られ
た動作データを用いながらも、非常に自由な表現を実現
することができる。
ション作成装置によれば、2つの動作データを合成し
て、新しい動作を作成できるようになったため、限られ
た動作データを用いながらも、非常に自由な表現を実現
することができる。
【0064】また、動作データを合成して用いることに
より、予め用意するアニメーションデータの量を減らす
ことができるため、アニメーションの作成が容易にな
る。
より、予め用意するアニメーションデータの量を減らす
ことができるため、アニメーションの作成が容易にな
る。
【図1】本発明のアニメーション作成装置の第1実施形
態を説明するための構成を示すブロック図である。
態を説明するための構成を示すブロック図である。
【図2】第1実施形態におけるアニメーション調整手段
の動作の説明図である。
の動作の説明図である。
【図3】本実施形態により作成されるアニメーションの
一例を示す説明図である。
一例を示す説明図である。
【図4】本発明のアニメーション作成装置の第2実施形
態を説明するための構成を示すブロック図である。
態を説明するための構成を示すブロック図である。
【図5】第2実施形態における対応点判別手段の動作を
示す説明図である。
示す説明図である。
【図6】本発明のアニメーション作成装置の第3実施形
態を説明するための構成を示すブロック図である。
態を説明するための構成を示すブロック図である。
【図7】第3実施形態における合成フレームデータ算出
手段の動作の説明図である。
手段の動作の説明図である。
【図8】本発明のアニメーション作成装置の第4実施形
態を説明するための構成を示すブロック図である。
態を説明するための構成を示すブロック図である。
【図9】従来のアニメーション作成装置の構成を示すブ
ロック図である。
ロック図である。
1…対応点情報入力手段、 2…アニメーションデータ
格納手段、 3…アニメーション調整手段、 4…アニ
メーション合成手段、 5…アニメーション再生手段、
6…アニメーション表示手段、 7…対応点判別手
段、 8…対応点情報パラメータ入力手段、 9…合成
フレームデータ算出手段。
格納手段、 3…アニメーション調整手段、 4…アニ
メーション合成手段、 5…アニメーション再生手段、
6…アニメーション表示手段、 7…対応点判別手
段、 8…対応点情報パラメータ入力手段、 9…合成
フレームデータ算出手段。
Claims (4)
- 【請求項1】 アニメーション動作データ間の対応点情
報を入力する対応点情報入力手段と、アニメーション動
作データおよび前記対応点情報入力手段により入力され
た前記対応点情報を格納するアニメーションデータ格納
手段と、このアニメーションデータ格納手段から2つの
アニメーション動作データと対応点情報を取り出してア
ニメーション動作データの調整を行うアニメーション調
整手段と、このアニメーション調整手段から転送された
アニメーション動作データを合成するアニメーション合
成手段と、このアニメーション合成手段から転送された
アニメーション動作データを再生して画像データに変換
するアニメーション再生手段と、このアニメーション再
生手段から転送された画像データに基づいてアニメーシ
ョン表示を行うアニメーション表示手段とを備えたこと
を特徴とするアニメーション作成装置。 - 【請求項2】 対応点情報パラメータ入力手段と、対応
点を判別する対応点判別手段とを備え、前記対応点情報
パラメータ入力手段により対応点を判別するためのパラ
メータを入力し、この入力されたパラメータに応じて前
記対応点判別手段が対応点を自動判別して前記アニメー
ションデータ格納手段に格納することを特徴とする請求
項1記載のアニメーション作成装置。 - 【請求項3】 アニメーション動作データ間の対応点情
報を入力する対応点情報入力手段と、アニメーション動
作データおよび前記対応点情報入力手段により入力され
た前記対応点情報を格納するアニメーションデータ格納
手段と、このアニメーションデータ格納手段から2つの
アニメーション動作データと対応点情報を取り出し、一
方のアニメーション動作データのどの時点のデータとも
う一方のどの時点のデータを合成して、どの時点のアニ
メーション動作データを作成するかを決める合成フレー
ムデータを算出して前記アニメーションデータ格納手段
に格納する合成フレームデータ算出手段と、前記アニメ
ーションデータ格納手段からアニメーション動作データ
と合成フレームデータを取り出してアニメーション動作
データを合成するアニメーション合成手段と、このアニ
メーション合成手段から転送されたアニメーション動作
データを再生して画像データに変換するアニメーション
再生手段と、このアニメーション再生手段から転送され
た画像データに基づいてアニメーション表示を行うアニ
メーション表示手段とを備えたことを特徴とするアニメ
ーション作成装置。 - 【請求項4】 対応点情報パラメータ入力手段と、対応
点を判別する対応点判別手段とを備え、前記対応点情報
パラメータ入力手段により対応点を判別するためのパラ
メータを入力し、この入力されたパラメータに応じて前
記対応点判別手段が対応点を自動判別して前記アニメー
ションデータ格納手段に格納することを特徴とする請求
項3記載のアニメーション作成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30471795A JPH09147135A (ja) | 1995-11-22 | 1995-11-22 | アニメーション作成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30471795A JPH09147135A (ja) | 1995-11-22 | 1995-11-22 | アニメーション作成装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09147135A true JPH09147135A (ja) | 1997-06-06 |
Family
ID=17936371
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30471795A Pending JPH09147135A (ja) | 1995-11-22 | 1995-11-22 | アニメーション作成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09147135A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100374914B1 (ko) * | 2000-08-30 | 2003-03-06 | 송대호 | 출판만화를 이용한 애니메이션 제작방법 |
JP2008015713A (ja) * | 2006-07-04 | 2008-01-24 | Kyushu Institute Of Technology | 動作変形システム及びその方法 |
JP2016164782A (ja) * | 2015-03-03 | 2016-09-08 | 株式会社カカオ | インスタントメッセージサービスを通じたシナリオエモーティコンの表示方法及びそのためのユーザ端末 |
JP2018027216A (ja) * | 2016-08-18 | 2018-02-22 | 株式会社カプコン | ゲームプログラム及びゲームシステム |
-
1995
- 1995-11-22 JP JP30471795A patent/JPH09147135A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100374914B1 (ko) * | 2000-08-30 | 2003-03-06 | 송대호 | 출판만화를 이용한 애니메이션 제작방법 |
JP2008015713A (ja) * | 2006-07-04 | 2008-01-24 | Kyushu Institute Of Technology | 動作変形システム及びその方法 |
JP2016164782A (ja) * | 2015-03-03 | 2016-09-08 | 株式会社カカオ | インスタントメッセージサービスを通じたシナリオエモーティコンの表示方法及びそのためのユーザ端末 |
US10761680B2 (en) | 2015-03-03 | 2020-09-01 | Kakao Corp. | Display method of scenario emoticon using instant message service and user device therefor |
JP2018027216A (ja) * | 2016-08-18 | 2018-02-22 | 株式会社カプコン | ゲームプログラム及びゲームシステム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100339764B1 (ko) | 애니메이션작성장치및애니메이션작성방법 | |
US6898759B1 (en) | System of generating motion picture responsive to music | |
US6078329A (en) | Virtual object display apparatus and method employing viewpoint updating for realistic movement display in virtual reality | |
US7739086B2 (en) | Information delivering method | |
US5267154A (en) | Biological image formation aiding system and biological image forming method | |
JP2001512268A (ja) | 動画データから3dアニメーションを作成する方法 | |
WO2002080111A1 (fr) | Systeme formant un modele d'emotion par infographie 3d basee sur les emotions | |
US8180613B1 (en) | Wrinkles on fabric software | |
EP1031945A2 (en) | Animation creation apparatus and method | |
EP0829847A1 (en) | Conduct-along system | |
JP5408205B2 (ja) | 制御点設定方法、制御点設定装置及びプログラム | |
JP2011210285A (ja) | 創作物作成支援方法及びその装置並びに記録媒体 | |
JPH09147135A (ja) | アニメーション作成装置 | |
JP2006196017A (ja) | アニメーション作成装置および方法、記憶媒体 | |
JP3588883B2 (ja) | カラオケ装置 | |
US9299180B2 (en) | Image creation method, image creation apparatus and recording medium | |
JP3505361B2 (ja) | アニメーション作成装置および記録媒体 | |
JP3822929B2 (ja) | 画像合成方法及び画像合成装置 | |
JP4521101B2 (ja) | 表示制御装置および方法、ならびに、表示制御プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
Izani et al. | Keyframe animation and motion capture for creating animation: a survey and perception from industry people | |
KR102557953B1 (ko) | 안무 분석 시스템 | |
JP2999455B1 (ja) | ビデオゲームにおけるアニメーション表示方法及びこれを用いたビデオゲーム装置並びにビデオゲームにおけるアニメーション表示プログラムを記録したコンピュータ読み取り可能な媒体 | |
JPH11133987A (ja) | 振り付け動画表示に特徴を有するカラオケ装置 | |
JPH08315170A (ja) | アニメーション・データ作成装置 | |
JP2012155731A (ja) | 検索システム |