JP2000322590A - アニメーション処理方法、アニメーション処理装置、及び、アニメーション処理プログラムを記録した記録媒体 - Google Patents
アニメーション処理方法、アニメーション処理装置、及び、アニメーション処理プログラムを記録した記録媒体Info
- Publication number
- JP2000322590A JP2000322590A JP11133914A JP13391499A JP2000322590A JP 2000322590 A JP2000322590 A JP 2000322590A JP 11133914 A JP11133914 A JP 11133914A JP 13391499 A JP13391499 A JP 13391499A JP 2000322590 A JP2000322590 A JP 2000322590A
- Authority
- JP
- Japan
- Prior art keywords
- animation
- recording
- processing
- data
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Television Signal Processing For Recording (AREA)
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
Abstract
(57)【要約】
【課題】 個人でも複数の人物が登場するせりふ入りの
アニメーションを作成できる方法を提供すること。 【解決手段】 本発明のアニメーション処理方法は、ア
ニメーションを再生するステップS2と、アニメーショ
ン再生中に録音開始が指示されたかを判定するステップ
と、録音終了が指示されたかを判定するステップS3を
備えている。本発明によれば、アニメーションを再生す
るステップS2によりアニメーション再生を行い、その
アニメーションを見ながら、アニメーション再生中に録
音開始が指示されたかを判定するステップS2により録
音開始を行い、録音終了が指示されたかを判定するステ
ップにより録音終了を行う。したがって、アニメーショ
ン再生を行いながらせりふの入力の開始、終了を制御で
きるため、アニメーションと同期した音声入力を行うこ
とができるので、個人でも複数の人物が登場するせりふ
入りのアニメーションを作成できる。
アニメーションを作成できる方法を提供すること。 【解決手段】 本発明のアニメーション処理方法は、ア
ニメーションを再生するステップS2と、アニメーショ
ン再生中に録音開始が指示されたかを判定するステップ
と、録音終了が指示されたかを判定するステップS3を
備えている。本発明によれば、アニメーションを再生す
るステップS2によりアニメーション再生を行い、その
アニメーションを見ながら、アニメーション再生中に録
音開始が指示されたかを判定するステップS2により録
音開始を行い、録音終了が指示されたかを判定するステ
ップにより録音終了を行う。したがって、アニメーショ
ン再生を行いながらせりふの入力の開始、終了を制御で
きるため、アニメーションと同期した音声入力を行うこ
とができるので、個人でも複数の人物が登場するせりふ
入りのアニメーションを作成できる。
Description
【0001】
【発明の属する技術分野】本発明は、アニメーションと
同期したせりふを入力するアニメーション処理方法、ア
ニメーション処理装置、及び、アニメーション処理プロ
グラムを記録した記録媒体に関するものである。
同期したせりふを入力するアニメーション処理方法、ア
ニメーション処理装置、及び、アニメーション処理プロ
グラムを記録した記録媒体に関するものである。
【0002】
【従来の技術】従来、コンピュータグラフィックスによ
るアニメーション製作技法の1つにキーフレームアニメ
ーションと呼ばれる手法がある。キーフレームアニメー
ションでは、アニメーションを時間的に変化する複数の
「物体」の集まりとして捉える。アニメーションを作成
するときは、すべてのフレームを作成することはせず
に、まず、動きの要となるフレーム(「キーフレーム」
と呼ぶ)のみを作成する。次にキーフレーム以外のフレ
ームの物体を、キーフレームに含まれる物体を補間計算
することにより自動的に生成する。
るアニメーション製作技法の1つにキーフレームアニメ
ーションと呼ばれる手法がある。キーフレームアニメー
ションでは、アニメーションを時間的に変化する複数の
「物体」の集まりとして捉える。アニメーションを作成
するときは、すべてのフレームを作成することはせず
に、まず、動きの要となるフレーム(「キーフレーム」
と呼ぶ)のみを作成する。次にキーフレーム以外のフレ
ームの物体を、キーフレームに含まれる物体を補間計算
することにより自動的に生成する。
【0003】アニメーションにせりふを入れる場合は、
アニメーションを作成した後で、音声を入力するための
アフレコという作業を行うのが一般的である。このアフ
レコという作業では、登場人物に対応した複数の声優が
アニメーションと同時にしゃべり、それを録音するとい
う方法をとる。一方、複数の声優がしゃべる声を先に録
音しておき、その音に合わせてアニメーションを後から
作成するという方法もある。例えば、特開平9−198
522号公報には、音声入力手段によって入力した音声
データを解析しアニメーションと同期させる装置が示さ
れている。
アニメーションを作成した後で、音声を入力するための
アフレコという作業を行うのが一般的である。このアフ
レコという作業では、登場人物に対応した複数の声優が
アニメーションと同時にしゃべり、それを録音するとい
う方法をとる。一方、複数の声優がしゃべる声を先に録
音しておき、その音に合わせてアニメーションを後から
作成するという方法もある。例えば、特開平9−198
522号公報には、音声入力手段によって入力した音声
データを解析しアニメーションと同期させる装置が示さ
れている。
【0004】
【発明が解決しようとする課題】上述したような従来の
アニメーション作成方法では、音声の入力方法について
あまり考慮されていなかった。すなわち、アニメーショ
ンに複数の人物が登場する場合、複数の声優がしゃべっ
た声を同時に録音した音声を前提としていた。しかし、
この前提は、個人でアニメーションを作成する場合に問
題となる。個人でアニメーションを作成する場合、複数
の声優を集めることは難しい。従って、1人又は少数の
人間で登場人物を分担してせりふを入力することになる
が、一人の人間が複数の人物の声を同時に演じることは
困難である。従って、複数の人物が登場するせりふ入り
のアニメーションを個人で作成することは事実上不可能
であった。
アニメーション作成方法では、音声の入力方法について
あまり考慮されていなかった。すなわち、アニメーショ
ンに複数の人物が登場する場合、複数の声優がしゃべっ
た声を同時に録音した音声を前提としていた。しかし、
この前提は、個人でアニメーションを作成する場合に問
題となる。個人でアニメーションを作成する場合、複数
の声優を集めることは難しい。従って、1人又は少数の
人間で登場人物を分担してせりふを入力することになる
が、一人の人間が複数の人物の声を同時に演じることは
困難である。従って、複数の人物が登場するせりふ入り
のアニメーションを個人で作成することは事実上不可能
であった。
【0005】本発明は、上記問題点に鑑み、個人でも複
数の人物が登場するせりふ入りのアニメーションを作成
できるアニメーション処理方法、アニメーション処理装
置、及び、アニメーション処理プログラムを記録した記
録媒体を提供することを目的とする。
数の人物が登場するせりふ入りのアニメーションを作成
できるアニメーション処理方法、アニメーション処理装
置、及び、アニメーション処理プログラムを記録した記
録媒体を提供することを目的とする。
【0006】
【課題を解決するための手段】本発明のアニメーション
処理方法は、状態が変化し得る少なくとも1つ以上の物
体を有するアニメーションを処理するアニメーション処
理方法であって、前記アニメーションを再生する再生ス
テップと、前記アニメーション再生中に録音開始が指示
されたかを判定する開始指示ステップと、録音終了が指
示されたかを判定する終了指示ステップと、を備えるア
ニメーション処理方法である。また、録音された音声フ
ァイルのシンボルをアニメーションデータの編集画面に
表示し、該音声ファイルのシンボルの画面上の位置情報
により左右の音の大きさを調整する左右調整ステップを
備えることで、音声の左右のバランスを簡単に調整する
ことができる。
処理方法は、状態が変化し得る少なくとも1つ以上の物
体を有するアニメーションを処理するアニメーション処
理方法であって、前記アニメーションを再生する再生ス
テップと、前記アニメーション再生中に録音開始が指示
されたかを判定する開始指示ステップと、録音終了が指
示されたかを判定する終了指示ステップと、を備えるア
ニメーション処理方法である。また、録音された音声フ
ァイルのシンボルをアニメーションデータの編集画面に
表示し、該音声ファイルのシンボルの画面上の位置情報
により左右の音の大きさを調整する左右調整ステップを
備えることで、音声の左右のバランスを簡単に調整する
ことができる。
【0007】さらに、前記録音された複数の音声ファイ
ルに時間的な重なりがあった場合に音声の統合化を行う
統合化ステップを備えることで、別々に録音された音声
をひとつの音声ファイルとして再生することができる。
また、本発明は、状態が変化し得る少なくとも1つ以上
の物体を有するアニメーションを処理するアニメーショ
ン処理装置であって、前記アニメーションを再生する再
生手段と、前記アニメーション再生中における録音の開
始及び録音の終了の指示を行う録音制御手段と、を備え
るものである。
ルに時間的な重なりがあった場合に音声の統合化を行う
統合化ステップを備えることで、別々に録音された音声
をひとつの音声ファイルとして再生することができる。
また、本発明は、状態が変化し得る少なくとも1つ以上
の物体を有するアニメーションを処理するアニメーショ
ン処理装置であって、前記アニメーションを再生する再
生手段と、前記アニメーション再生中における録音の開
始及び録音の終了の指示を行う録音制御手段と、を備え
るものである。
【0008】また、本発明は、状態が変化し得る少なく
とも1つ以上の物体を有するアニメーションを処理する
アニメーション処理プログラムを記録した記録媒体であ
って、前記アニメーションを再生する再生ステップと、
前記アニメーション再生中に録音開始が指示されたかを
判定する開始指示ステップと、録音終了が指示されたか
を判定する終了指示ステップとを、実行させるためのア
ニメーション処理プログラムを記録したことを特徴とす
るコンピュータ読み取り可能な記録媒体である。
とも1つ以上の物体を有するアニメーションを処理する
アニメーション処理プログラムを記録した記録媒体であ
って、前記アニメーションを再生する再生ステップと、
前記アニメーション再生中に録音開始が指示されたかを
判定する開始指示ステップと、録音終了が指示されたか
を判定する終了指示ステップとを、実行させるためのア
ニメーション処理プログラムを記録したことを特徴とす
るコンピュータ読み取り可能な記録媒体である。
【0009】また、本発明によれば、音声ファイルのシ
ンボルをキーフレームの図形と同じように処理でき、ま
た、その場所によって音声の左右のバランスをコントロ
ールできるため、アニメーションと音声の聞こえてくる
場所の関連付けが容易になる。ここで、録音された複数
の音声ファイルの時間的な重なりを考慮し、左右の音声
の統合を行うことにより別々に録音された音声を左右の
バランスを考慮してひとつの音声のように再生すること
ができるため、複数の人物のせりふを別々に録音するこ
とが可能となる。その結果、個人でも複数の人物のせり
ふをアニメーションと同期して入力することが可能にな
る。
ンボルをキーフレームの図形と同じように処理でき、ま
た、その場所によって音声の左右のバランスをコントロ
ールできるため、アニメーションと音声の聞こえてくる
場所の関連付けが容易になる。ここで、録音された複数
の音声ファイルの時間的な重なりを考慮し、左右の音声
の統合を行うことにより別々に録音された音声を左右の
バランスを考慮してひとつの音声のように再生すること
ができるため、複数の人物のせりふを別々に録音するこ
とが可能となる。その結果、個人でも複数の人物のせり
ふをアニメーションと同期して入力することが可能にな
る。
【0010】
【発明の実施の形態】以下、本発明の一実施の形態を添
付図面を用いて説明する。図9は、本実施の形態のシス
テム構成を示すブロック図である。まず、アニメーショ
ンデータや音声データを記録したり、読み出したりする
ための、ハードディスク、フロッピーディスク等の書き
込み読み取り装置であると共に、本発明のアニメーショ
ン処理プログラムを記録したCD−ROM40等の読み
取り装置である外部記憶装置1、アニメーションを表示
するために、CRT、液晶ディスプレイなどのディスプ
レイ装置2が、コンピュータ3に接続されている。ま
た、アニメーションデータや各種の編集操作を入力する
ための、タブレット、ディジタイザ、マウス等の座標入
力装置4もコンピュータ3に接続されている。座標入力
装置4としては、ディスプレイとタブレットが一体とな
った表示一体型タブレットも考えられる。場合によって
は、入力装置としてキーボード5が備えられる場合もあ
る。また、本発明ではマイクなどの音声入力装置9、ス
ピーカなどの音声出力装置10が接続されている。
付図面を用いて説明する。図9は、本実施の形態のシス
テム構成を示すブロック図である。まず、アニメーショ
ンデータや音声データを記録したり、読み出したりする
ための、ハードディスク、フロッピーディスク等の書き
込み読み取り装置であると共に、本発明のアニメーショ
ン処理プログラムを記録したCD−ROM40等の読み
取り装置である外部記憶装置1、アニメーションを表示
するために、CRT、液晶ディスプレイなどのディスプ
レイ装置2が、コンピュータ3に接続されている。ま
た、アニメーションデータや各種の編集操作を入力する
ための、タブレット、ディジタイザ、マウス等の座標入
力装置4もコンピュータ3に接続されている。座標入力
装置4としては、ディスプレイとタブレットが一体とな
った表示一体型タブレットも考えられる。場合によって
は、入力装置としてキーボード5が備えられる場合もあ
る。また、本発明ではマイクなどの音声入力装置9、ス
ピーカなどの音声出力装置10が接続されている。
【0011】コンピュータ3の内部は、マイクロプロセ
ッサ等の演算処理装置6、プログラムや、アニメーショ
ンデータなど、処理に必要なデータを格納するROM、
RAMなどのメモリ7、音声入力装置9からの電気信号
をデジタルデータに変換するA/Dコンバータ11、ま
た、デジタルデータを音声信号に変換し音声出力装置1
0に伝えるためのD/Aコンバータ12、各外部装置と
の接続を行うインタフェース回路8等から構成される。
本発明の装置は、外部記憶装置1、ディスプレイ装置
2、座標入力装置4、音声入力装置9、音声出力装置1
0が別の筐体に分かれている構成も考えられるが、携帯
型の装置として一体化している場合も考えられる。ま
た、テレビのような他の機能を持った装置とディスプレ
イを共有することも考えられる。
ッサ等の演算処理装置6、プログラムや、アニメーショ
ンデータなど、処理に必要なデータを格納するROM、
RAMなどのメモリ7、音声入力装置9からの電気信号
をデジタルデータに変換するA/Dコンバータ11、ま
た、デジタルデータを音声信号に変換し音声出力装置1
0に伝えるためのD/Aコンバータ12、各外部装置と
の接続を行うインタフェース回路8等から構成される。
本発明の装置は、外部記憶装置1、ディスプレイ装置
2、座標入力装置4、音声入力装置9、音声出力装置1
0が別の筐体に分かれている構成も考えられるが、携帯
型の装置として一体化している場合も考えられる。ま
た、テレビのような他の機能を持った装置とディスプレ
イを共有することも考えられる。
【0012】次に図5〜9を用いて本発明の処理を説明
する。図6は、本実施の形態のアニメーションデータの
例を示す図である。これは図9のメモリ7に格納されて
いる。このデータは、3つのキーフレームデータからで
きており、それぞれ時刻t1、t2、t3で再生される
よう設定されている。また、各キーフレームには、A
1、B1、A2、B2、A3、B3の図形データが格納
されている。それぞれの図形A、図形Bは対応する点が
関連づけられており、中間のフレームのデータを作成す
ることができる。この中間データを再生する仕組みは特
開平10−275244号公報に述べられている。
する。図6は、本実施の形態のアニメーションデータの
例を示す図である。これは図9のメモリ7に格納されて
いる。このデータは、3つのキーフレームデータからで
きており、それぞれ時刻t1、t2、t3で再生される
よう設定されている。また、各キーフレームには、A
1、B1、A2、B2、A3、B3の図形データが格納
されている。それぞれの図形A、図形Bは対応する点が
関連づけられており、中間のフレームのデータを作成す
ることができる。この中間データを再生する仕組みは特
開平10−275244号公報に述べられている。
【0013】図7は、本実施の形態のアニメーションデ
ータの実例を示す図である。t1、t2、t3がそれぞ
れ時刻t1、t2、t3のキーフレームの内容を示す。
ここでは、時刻t2では人物A2が「あれはなんだ」と
いうせりふをしゃべり、時刻t3では人物B3が「UF
Oよ」というせりふをしゃべるというアニメーションを
作るとする。
ータの実例を示す図である。t1、t2、t3がそれぞ
れ時刻t1、t2、t3のキーフレームの内容を示す。
ここでは、時刻t2では人物A2が「あれはなんだ」と
いうせりふをしゃべり、時刻t3では人物B3が「UF
Oよ」というせりふをしゃべるというアニメーションを
作るとする。
【0014】図8は、本実施の形態のせりふを入力する
順序を説明する図である。横軸は時間で、この時間軸に
沿ってどのような処理が行われるかを説明する。時刻t
1でアニメーション再生がスタートする。アニメーショ
ンは図9のディスプレイ2に表示される。このアニメー
ションを見ながら「あれはなんだ」というせりふを入力
したい瞬間に音声入力開始を指定するボタンを押す。こ
の操作は図9のキーボード5でもかまわないし、図9の
ディスプレイ2の画面上に図5のような図形30を表示
しておき、そのONボタン31を図9の座標入力装置
4、例えばマウス等で選択するという方法でもかまわな
い。その後、「あれはなんだ」というせりふを図9の音
声入力装置9に入力する。入力された音声は、A/Dコ
ンバータ11を通じてデジタルデータに変換され、図9
のメモリ7に格納される。せりふの入力が終了した時点
で入力終了を指定するOFFボタン32を押す。
順序を説明する図である。横軸は時間で、この時間軸に
沿ってどのような処理が行われるかを説明する。時刻t
1でアニメーション再生がスタートする。アニメーショ
ンは図9のディスプレイ2に表示される。このアニメー
ションを見ながら「あれはなんだ」というせりふを入力
したい瞬間に音声入力開始を指定するボタンを押す。こ
の操作は図9のキーボード5でもかまわないし、図9の
ディスプレイ2の画面上に図5のような図形30を表示
しておき、そのONボタン31を図9の座標入力装置
4、例えばマウス等で選択するという方法でもかまわな
い。その後、「あれはなんだ」というせりふを図9の音
声入力装置9に入力する。入力された音声は、A/Dコ
ンバータ11を通じてデジタルデータに変換され、図9
のメモリ7に格納される。せりふの入力が終了した時点
で入力終了を指定するOFFボタン32を押す。
【0015】図8の例では、1回目の録音ではキーフレ
ーム(t2)より時間d2だけ遅れた時刻に録音が開始
され、「あれはなんだ」というせりふを記録した後でO
FFボタン32が押された。次に、2回目の録音に関し
て説明する。2回目の録音では、アニメーション再生と
共に、1回目に入力した音声が再生される。デジタルデ
ータで記録された音声データは図9のメモリ7からD/
Aコンバータ12を通じて電気信号に変換され、図9の
音声出力装置10から「あれはなんだ」という声になっ
て再生される。このせりふを聞きながら、また、図9の
ディスプレイに表示されたアニメーションを見ながら、
次の「UFOよ」というせりふを入力する。先の説明と
同じく、「UFOよ」というせりふを入力する直前に音
声入力開始ボタン31、せりふをしゃべり終わった後
で、音声入力終了ボタン32を押す。図8の例では3番
目のキーフレーム(t3)より時間d3だけ遅れた時刻
に録音が開始され、「UFOよ」というせりふを記録し
た後でOFFボタン32が押された。
ーム(t2)より時間d2だけ遅れた時刻に録音が開始
され、「あれはなんだ」というせりふを記録した後でO
FFボタン32が押された。次に、2回目の録音に関し
て説明する。2回目の録音では、アニメーション再生と
共に、1回目に入力した音声が再生される。デジタルデ
ータで記録された音声データは図9のメモリ7からD/
Aコンバータ12を通じて電気信号に変換され、図9の
音声出力装置10から「あれはなんだ」という声になっ
て再生される。このせりふを聞きながら、また、図9の
ディスプレイに表示されたアニメーションを見ながら、
次の「UFOよ」というせりふを入力する。先の説明と
同じく、「UFOよ」というせりふを入力する直前に音
声入力開始ボタン31、せりふをしゃべり終わった後
で、音声入力終了ボタン32を押す。図8の例では3番
目のキーフレーム(t3)より時間d3だけ遅れた時刻
に録音が開始され、「UFOよ」というせりふを記録し
た後でOFFボタン32が押された。
【0016】図4は、本実施の形態の編集画面例を示す
図である。本実施の形態では、音声データの編集を行う
ために、キーフレームの編集画面上に、音声ファイルの
シンボル表示を行う。図4(a)はキーフレーム(t
2)の編集画面で、中央に「♪あれは」という音声ファ
イルのシンボル20が表示されている。本実施の形態で
は、音声ファイルのシンボル20の位置情報を使って音
の左右のバランスを入力するのが特徴である。「あれは
なんだ」というせりふは、人物A2が左側にいるため、
音声も左側から聞こえるべきなので同じく図形編集ソフ
トと同じように音声ファイルのシンボル20を選択し図
4(b)ように左側の人物の位置に移動させる。また、
キーフレーム(t3)で2回目に入力された「UFO
よ」という音声ファイルのシンボル20は右側の人物の
声なので、図4(c)のように右側の人物B3の位置に
移動させる。
図である。本実施の形態では、音声データの編集を行う
ために、キーフレームの編集画面上に、音声ファイルの
シンボル表示を行う。図4(a)はキーフレーム(t
2)の編集画面で、中央に「♪あれは」という音声ファ
イルのシンボル20が表示されている。本実施の形態で
は、音声ファイルのシンボル20の位置情報を使って音
の左右のバランスを入力するのが特徴である。「あれは
なんだ」というせりふは、人物A2が左側にいるため、
音声も左側から聞こえるべきなので同じく図形編集ソフ
トと同じように音声ファイルのシンボル20を選択し図
4(b)ように左側の人物の位置に移動させる。また、
キーフレーム(t3)で2回目に入力された「UFO
よ」という音声ファイルのシンボル20は右側の人物の
声なので、図4(c)のように右側の人物B3の位置に
移動させる。
【0017】図1は、本発明の実施の形態の全体の動作
を説明するフローチャートである。ステップS1(以下
ステップという呼称は省略する)は、今までに録音され
た音データに対し統合化を行い、直接再生可能なデータ
に変換するステップである。S2は、アニメーション再
生と録音を行うステップである。S3は記録された音声
データを選択し、音声の左右のバランスを設定する処理
である。この3つのステップを繰り返すことによりアニ
メーションと同期した音声データを入力していく。
を説明するフローチャートである。ステップS1(以下
ステップという呼称は省略する)は、今までに録音され
た音データに対し統合化を行い、直接再生可能なデータ
に変換するステップである。S2は、アニメーション再
生と録音を行うステップである。S3は記録された音声
データを選択し、音声の左右のバランスを設定する処理
である。この3つのステップを繰り返すことによりアニ
メーションと同期した音声データを入力していく。
【0018】図2は、本実施の形態の音声変換/統合処
理の動作の詳細を説明するフローチャートである。まず
S10では、入力された音声データの番号Lを初期値1
に設定する。また、再生用の音声データ番号Kを初期値
1に設定する。次にS11ではL番目の音声データが存
在するかどうかを調べる。存在しなければ終了する。存
在すればS12に進む。S12では、L番目の音声デー
タをT1とする。
理の動作の詳細を説明するフローチャートである。まず
S10では、入力された音声データの番号Lを初期値1
に設定する。また、再生用の音声データ番号Kを初期値
1に設定する。次にS11ではL番目の音声データが存
在するかどうかを調べる。存在しなければ終了する。存
在すればS12に進む。S12では、L番目の音声デー
タをT1とする。
【0019】次のステップS14ではL番目の音声デー
タシンボル20がエディタ画面上のどこに配置されてい
るかという情報に従って、T1の音声データを比率r
1:r2に分割し、左用の音声データTL、右用の音声
データTRを作成する。比率r1:r2は以下のように
定める。エディタの画面の幅をW、音声データのシンボ
ル20の中心座標を (x,y) としたとき、x<0とな
り得ることを考慮して、 z=Max(x,0) Max(a,b) はa,bのうち
大きい値 とし、また、W<x (=z) となり得ることを考慮し
て、 z=Min(z,W) Min(a,b) はa,bのうち
小さい値 としたとき、 r1:r2=W−z:z とする。T1の音の大きさをr1/(r1+r2) にし
たものがTL、T1の音の大きさをr2/(r1+r2)
にしたものがTRである。この式に従えば、シンボル
20の中心のx座標が0のときに音声データTR=0
(無音)となる。逆にシンボル20の中心のx座標がW
(右端)に来た場合音声データTL=0(無音)とな
る。音声データのシンボル20をエディタ画面の中心に
配置すれば左右から同じ音が出ることになる。
タシンボル20がエディタ画面上のどこに配置されてい
るかという情報に従って、T1の音声データを比率r
1:r2に分割し、左用の音声データTL、右用の音声
データTRを作成する。比率r1:r2は以下のように
定める。エディタの画面の幅をW、音声データのシンボ
ル20の中心座標を (x,y) としたとき、x<0とな
り得ることを考慮して、 z=Max(x,0) Max(a,b) はa,bのうち
大きい値 とし、また、W<x (=z) となり得ることを考慮し
て、 z=Min(z,W) Min(a,b) はa,bのうち
小さい値 としたとき、 r1:r2=W−z:z とする。T1の音の大きさをr1/(r1+r2) にし
たものがTL、T1の音の大きさをr2/(r1+r2)
にしたものがTRである。この式に従えば、シンボル
20の中心のx座標が0のときに音声データTR=0
(無音)となる。逆にシンボル20の中心のx座標がW
(右端)に来た場合音声データTL=0(無音)とな
る。音声データのシンボル20をエディタ画面の中心に
配置すれば左右から同じ音が出ることになる。
【0020】次に、S15では音声データTR、TLと
時間的に重なっているデータがファイル登録リストUに
すでに登録されているかを検索する。もし時間的に重な
るデータが登録されていなければS16に進む。S16
では音声データTR、TLを左右の音声データの登録番
号Kを用いてTR(K)、TL(K) とし登録リストUに
登録する。さらにS18に進む。もしS15で時間的に
重なっている音声データが登録されていたならばS17
に進む。S17では見つかった登録番号をHとする。入
力後左右に分配された音声データTR、TLは、すでに
登録されている音声データTR(H)、TL(H)と時間的
な重なりを考慮して合成を行い、その結果の音声ファイ
ルを新たな音声データTR、TLとする。時間的に重な
りのあった登録ファイルTR(H)、TL(H) は中身を
空にする。このデータは以後無視されることになる。そ
の後S15に移り、音声データTR、TLが時間的に重
なっているファイルが残っていないか検索する。このS
17の処理は複数の音声データを右用、左用の2本の音
声データに統合する処理である。S17の合成は次のよ
うに行う。
時間的に重なっているデータがファイル登録リストUに
すでに登録されているかを検索する。もし時間的に重な
るデータが登録されていなければS16に進む。S16
では音声データTR、TLを左右の音声データの登録番
号Kを用いてTR(K)、TL(K) とし登録リストUに
登録する。さらにS18に進む。もしS15で時間的に
重なっている音声データが登録されていたならばS17
に進む。S17では見つかった登録番号をHとする。入
力後左右に分配された音声データTR、TLは、すでに
登録されている音声データTR(H)、TL(H)と時間的
な重なりを考慮して合成を行い、その結果の音声ファイ
ルを新たな音声データTR、TLとする。時間的に重な
りのあった登録ファイルTR(H)、TL(H) は中身を
空にする。このデータは以後無視されることになる。そ
の後S15に移り、音声データTR、TLが時間的に重
なっているファイルが残っていないか検索する。このS
17の処理は複数の音声データを右用、左用の2本の音
声データに統合する処理である。S17の合成は次のよ
うに行う。
【0021】TRとTR(H) が時間的に重なっている
時間: TR=TR+TR(H) TRしか存在しない時間: TR=TR TR(H) しか存在しない時間: TR=TR(H) TLとTL(H)が時間的に重なっている時間: TL=TL+TL(H) TRしか存在しない時間: TL=TL TL(H) しか存在しない時間: TL=TL(H)
時間: TR=TR+TR(H) TRしか存在しない時間: TR=TR TR(H) しか存在しない時間: TR=TR(H) TLとTL(H)が時間的に重なっている時間: TL=TL+TL(H) TRしか存在しない時間: TL=TL TL(H) しか存在しない時間: TL=TL(H)
【0022】S18では処理を行う音声ファイルの番号
L、再生用の音声データ番号Kを1増やし、S11に戻
る。音声統合処理の結果、再生用のデータは登録リスト
Uに登録される。登録リストの中には統合処理の結果、
空になったデータと、統合された結果のデータが格納さ
れている。登録リストに登録された再生用音声データは
時間の重なりがないため、重なりを気にせずに再生する
ことができる。
L、再生用の音声データ番号Kを1増やし、S11に戻
る。音声統合処理の結果、再生用のデータは登録リスト
Uに登録される。登録リストの中には統合処理の結果、
空になったデータと、統合された結果のデータが格納さ
れている。登録リストに登録された再生用音声データは
時間の重なりがないため、重なりを気にせずに再生する
ことができる。
【0023】図3は、本実施の形態のアニメーション再
生・録音処理の動作の詳細を説明するフローチャートで
ある。S20では音声入力状態INをOFFに設定す
る。また、音声統合処理で得られた登録リストUに含ま
れる変換後の音声ファイルをすべて未再生の状態に初期
設定しておく。次のS21ではアニメーションが開始し
てからの経過時間TTを獲得する。さらに経過時間TT
からTTを越えず、かつTTに最も近いキーフレーム番
号Fを求める。S22では、Fが最後のキーフレームか
どうかチェックし、最後のキーフレームだった場合、S
40の終了処理に移る。最後のキーフレームでない場合
には、S23に進む。
生・録音処理の動作の詳細を説明するフローチャートで
ある。S20では音声入力状態INをOFFに設定す
る。また、音声統合処理で得られた登録リストUに含ま
れる変換後の音声ファイルをすべて未再生の状態に初期
設定しておく。次のS21ではアニメーションが開始し
てからの経過時間TTを獲得する。さらに経過時間TT
からTTを越えず、かつTTに最も近いキーフレーム番
号Fを求める。S22では、Fが最後のキーフレームか
どうかチェックし、最後のキーフレームだった場合、S
40の終了処理に移る。最後のキーフレームでない場合
には、S23に進む。
【0024】S23では音声入力状態INが変化してい
ないか調べる。変化している場合S24に進む。変化し
ていない場合S30に進む。S24では音声入力スイッ
チがONになったかどうか調べる。OFFからONにな
った場合S25に進む。そうでない場合S26に進む。
S25では、音声入力を開始する。音声を格納するファ
イルを開きマイクなどの音声入力手段から入力される音
データをそこに格納するサブプログラムを実行させる。
通常、この音声入力処理はOS(Operating System)が
行う。
ないか調べる。変化している場合S24に進む。変化し
ていない場合S30に進む。S24では音声入力スイッ
チがONになったかどうか調べる。OFFからONにな
った場合S25に進む。そうでない場合S26に進む。
S25では、音声入力を開始する。音声を格納するファ
イルを開きマイクなどの音声入力手段から入力される音
データをそこに格納するサブプログラムを実行させる。
通常、この音声入力処理はOS(Operating System)が
行う。
【0025】また、キーフレーム番号Fのキーフレーム
データの中に音声データV(F) を追加する。そこにキ
ーフレームFの時刻とその時刻との差の時間を記録す
る。また、音声入力中のキーフレーム番号F0をFにす
る。また入力開始した音声データV(F) をVF0とす
る。その後S30に進む。S26では、音声入力処理を
終了する。音声入力を開始したキーフレーム番号F0に
音声データVF0のファイル名と録音時間を記録する。
その後S30に進む。
データの中に音声データV(F) を追加する。そこにキ
ーフレームFの時刻とその時刻との差の時間を記録す
る。また、音声入力中のキーフレーム番号F0をFにす
る。また入力開始した音声データV(F) をVF0とす
る。その後S30に進む。S26では、音声入力処理を
終了する。音声入力を開始したキーフレーム番号F0に
音声データVF0のファイル名と録音時間を記録する。
その後S30に進む。
【0026】S30では、登録リストに含まれる変換後
の音声ファイルの中から未再生の音声データを選ぶ。も
し未再生の音声データがなければS35に進む。もし未
再生の音声データがあった場合S31に進む。S31で
は、未再生音声データの開始時間と現在の時間TTを比
較し、現在の時間TTが未再生の音声データの再生時間
を超えていればS32に進みその音声データの再生を開
始させる。また音声データを再生済みという状態にす
る。音声を再生する方法は公知の技術である。
の音声ファイルの中から未再生の音声データを選ぶ。も
し未再生の音声データがなければS35に進む。もし未
再生の音声データがあった場合S31に進む。S31で
は、未再生音声データの開始時間と現在の時間TTを比
較し、現在の時間TTが未再生の音声データの再生時間
を超えていればS32に進みその音声データの再生を開
始させる。また音声データを再生済みという状態にす
る。音声を再生する方法は公知の技術である。
【0027】S35ではキーフレーム番号Fの時間と現
在の時間TTの差、及びキーフレーム番号F+1の時間
と現在の時間TTの差を比率として、キーフレームFと
キーフレームF+1の中間の画像を作成し表示する。そ
の後S21から処理を繰り返す。S40は終了処理であ
る。音声入力状態INがONかどうか調べる。ONでな
ければ終了する。ONならばS41に進む。S41では
音声入力を開始したキーフレーム番号F0の音声データ
V(F0)に音声ファイル名と録音時間を記録する。その
後、終了する。
在の時間TTの差、及びキーフレーム番号F+1の時間
と現在の時間TTの差を比率として、キーフレームFと
キーフレームF+1の中間の画像を作成し表示する。そ
の後S21から処理を繰り返す。S40は終了処理であ
る。音声入力状態INがONかどうか調べる。ONでな
ければ終了する。ONならばS41に進む。S41では
音声入力を開始したキーフレーム番号F0の音声データ
V(F0)に音声ファイル名と録音時間を記録する。その
後、終了する。
【0028】次に音の左右バランスの設定方法である
が、先に図4(a)(b)(c)を用いて説明したとお
りである。画面上に図形データとあわせて音声ファイル
のシンボル20が「♪」とともに表示されている。通常
の図形編集ソフトと同じ仕組みを用いて音声ファイルの
シンボル20を選択し、任意の場所に移動させることに
より左右のバランスを設定する。本発明では、この移動
後のシンボル20の中心位置のx座標を用いて、左右の
音声データの割合を指定する。なお、本発明は上記実施
の形態に限定されるものではない。
が、先に図4(a)(b)(c)を用いて説明したとお
りである。画面上に図形データとあわせて音声ファイル
のシンボル20が「♪」とともに表示されている。通常
の図形編集ソフトと同じ仕組みを用いて音声ファイルの
シンボル20を選択し、任意の場所に移動させることに
より左右のバランスを設定する。本発明では、この移動
後のシンボル20の中心位置のx座標を用いて、左右の
音声データの割合を指定する。なお、本発明は上記実施
の形態に限定されるものではない。
【0029】以上説明したアニメーション処理方法は、
このアニメーション処理方法を実行させるためのプログ
ラムでも実現される。このプログラムはコンピュータで
読み取り可能な記録媒体に格納されている。本発明で
は、この記録媒体として、図9に示されているメモリ7
そのものがプログラムメディアであってもよいし、また
外部記憶装置1としてプログラム読み取り装置が設けら
れ、そこに記録媒体を挿入することで読み取り可能なC
D−ROM40等のプログラムメディアであってもよ
い。いずれの場合においても、格納されているプログラ
ムは演算処理装置6がアクセスして実行させる構成であ
ってもよいし、あるいはいずれの場合もプログラムを読
み出し、読み出されたプログラムは、図示されていない
プログラム記憶エリアにダウンロードされて、そのプロ
グラムが実行される方式であってもよい。このダウンロ
ード用のプログラムは予め本体装置に格納されているも
のとする。
このアニメーション処理方法を実行させるためのプログ
ラムでも実現される。このプログラムはコンピュータで
読み取り可能な記録媒体に格納されている。本発明で
は、この記録媒体として、図9に示されているメモリ7
そのものがプログラムメディアであってもよいし、また
外部記憶装置1としてプログラム読み取り装置が設けら
れ、そこに記録媒体を挿入することで読み取り可能なC
D−ROM40等のプログラムメディアであってもよ
い。いずれの場合においても、格納されているプログラ
ムは演算処理装置6がアクセスして実行させる構成であ
ってもよいし、あるいはいずれの場合もプログラムを読
み出し、読み出されたプログラムは、図示されていない
プログラム記憶エリアにダウンロードされて、そのプロ
グラムが実行される方式であってもよい。このダウンロ
ード用のプログラムは予め本体装置に格納されているも
のとする。
【0030】ここで、上記プログラムメディアは、本体
と分離可能に構成される記録媒体であり、磁気テープや
カセットテープ等のテープ系、フロッピーディスクやハ
ードディスク等の磁気ディスクやCD−ROM/MO/
MD/DVD等の光ディスクのディスク系、ICカード
/光カード等のカード系、あるいはマスクROM、EP
ROM、EEPROM、フラッシュROM等による半導
体メモリを含めた固定的にプログラムを担持する媒体で
あってもよい。
と分離可能に構成される記録媒体であり、磁気テープや
カセットテープ等のテープ系、フロッピーディスクやハ
ードディスク等の磁気ディスクやCD−ROM/MO/
MD/DVD等の光ディスクのディスク系、ICカード
/光カード等のカード系、あるいはマスクROM、EP
ROM、EEPROM、フラッシュROM等による半導
体メモリを含めた固定的にプログラムを担持する媒体で
あってもよい。
【0031】さらに、図示されていないが、外部の通信
ネットワークとの接続が可能な手段を備えている場合に
は、その通信接続手段を介して通信ネットワークからプ
ログラムをダウンロードするように、流動的にプログラ
ムを担持する媒体であってもよい。なお、このように通
信ネットワークからプログラムをダウンロードする場合
には、そのダウンロード用プログラムは予め本体装置に
格納しておくか、あるいは別な記録媒体からインストー
ルされるものであってもよい。なお、記録媒体に格納さ
れている内容としてはプログラムに限定されず、データ
であってもよい。
ネットワークとの接続が可能な手段を備えている場合に
は、その通信接続手段を介して通信ネットワークからプ
ログラムをダウンロードするように、流動的にプログラ
ムを担持する媒体であってもよい。なお、このように通
信ネットワークからプログラムをダウンロードする場合
には、そのダウンロード用プログラムは予め本体装置に
格納しておくか、あるいは別な記録媒体からインストー
ルされるものであってもよい。なお、記録媒体に格納さ
れている内容としてはプログラムに限定されず、データ
であってもよい。
【0032】
【発明の効果】本発明によれば、アニメーション再生を
行いながらせりふの入力の開始、終了を制御できるた
め、アニメーションと同期した音声入力を行うことがで
きる。したがって、個人でも複数の人物が登場するせり
ふ入りのアニメーションを作成できる。
行いながらせりふの入力の開始、終了を制御できるた
め、アニメーションと同期した音声入力を行うことがで
きる。したがって、個人でも複数の人物が登場するせり
ふ入りのアニメーションを作成できる。
【図1】本発明の実施の形態の全体の動作を説明するフ
ローチャートである。
ローチャートである。
【図2】本実施の形態の音声変換/統合処理の動作の詳
細を説明するフローチャートである。
細を説明するフローチャートである。
【図3】本実施の形態のアニメーション再生・録音処理
の動作の詳細を説明するフローチャートである。
の動作の詳細を説明するフローチャートである。
【図4】本実施の形態の編集画面例を示す図である。
【図5】本実施の形態の音声記録の開始終了を入力する
スイッチの例を示す図である。
スイッチの例を示す図である。
【図6】本実施の形態のアニメーションデータの例を示
す図である。
す図である。
【図7】本実施の形態のアニメーションデータの実例を
示す図である。
示す図である。
【図8】本実施の形態のせりふを入力する順序を説明す
る図である。
る図である。
【図9】本実施の形態のシステム構成を示すブロック図
である。
である。
1 外部記憶装置 2 ディスプレイ装置 3 コンピュータ 4 座標入力装置 5 キーボード 6 演算処理装置 7 メモリ 8 インタフェース回路 9 音声入力装置 10 音声出力装置 11 A/Dコンバータ 12 D/Aコンバータ
Claims (5)
- 【請求項1】 状態が変化し得る少なくとも1つ以上の
物体を有するアニメーションを処理するアニメーション
処理方法であって、前記アニメーションを再生する再生
ステップと、前記アニメーション再生中に録音開始が指
示されたかを判定する開始指示ステップと、録音終了が
指示されたかを判定する終了指示ステップと、を備える
ことを特徴とするアニメーション処理方法。 - 【請求項2】 請求項1に記載のアニメーション処理方
法において、録音された音声ファイルのシンボルをアニ
メーションデータの編集画面に表示し、該音声ファイル
のシンボルの画面上の位置情報により左右の音の大きさ
を調整する左右調整ステップを備えることを特徴とする
アニメーション処理方法。 - 【請求項3】 請求項2記載の前記アニメーション処理
方法において、前記録音された複数の音声ファイルに時
間的な重なりがあった場合に音声の統合化を行う統合化
ステップを備えることを特徴とするアニメーション処理
方法。 - 【請求項4】 状態が変化し得る少なくとも1つ以上の
物体を有するアニメーションを処理するアニメーション
処理装置であって、前記アニメーションを再生する再生
手段と、前記アニメーション再生中における録音の開始
及び録音の終了の指示を行う録音制御手段と、を備える
ことを特徴とするアニメーション処理装置。 - 【請求項5】 状態が変化し得る少なくとも1つ以上の
物体を有するアニメーションを処理するアニメーション
処理プログラムを記録した記録媒体であって、前記アニ
メーションを再生する再生ステップと、前記アニメーシ
ョン再生中に録音開始が指示されたかを判定する開始指
示ステップと、録音終了が指示されたかを判定する終了
指示ステップとを、実行させるためのアニメーション処
理プログラムを記録したことを特徴とするコンピュータ
読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11133914A JP2000322590A (ja) | 1999-05-14 | 1999-05-14 | アニメーション処理方法、アニメーション処理装置、及び、アニメーション処理プログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11133914A JP2000322590A (ja) | 1999-05-14 | 1999-05-14 | アニメーション処理方法、アニメーション処理装置、及び、アニメーション処理プログラムを記録した記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000322590A true JP2000322590A (ja) | 2000-11-24 |
Family
ID=15116051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11133914A Pending JP2000322590A (ja) | 1999-05-14 | 1999-05-14 | アニメーション処理方法、アニメーション処理装置、及び、アニメーション処理プログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000322590A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012530404A (ja) * | 2009-06-13 | 2012-11-29 | ロールスター インコーポレイテッド | 別々に記録された場面を順次並置するシステム |
JP2021182369A (ja) * | 2020-05-18 | 2021-11-25 | 株式会社イルニIlluni Inc. | 使用者のプレイングに基づいて再プログラミングされるインタラクティブコンテンツ提供方法および装置 |
-
1999
- 1999-05-14 JP JP11133914A patent/JP2000322590A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012530404A (ja) * | 2009-06-13 | 2012-11-29 | ロールスター インコーポレイテッド | 別々に記録された場面を順次並置するシステム |
JP2021182369A (ja) * | 2020-05-18 | 2021-11-25 | 株式会社イルニIlluni Inc. | 使用者のプレイングに基づいて再プログラミングされるインタラクティブコンテンツ提供方法および装置 |
US11402975B2 (en) | 2020-05-18 | 2022-08-02 | Illuni Inc. | Apparatus and method for providing interactive content |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20070091962A (ko) | 애니메이션을 이용한 디엠비 데이터 방송의 나레이션 제공방법 및 이를 구현하기 위한 프로그램이 저장된 컴퓨터로판독 가능한 기록매체 | |
JPH11341350A (ja) | マルチメディア情報編集および再生装置、マルチメディア情報再生プログラムを記録した記録媒体ならびにシーケンス情報を記録した記録媒体 | |
JP6641045B1 (ja) | コンテンツ生成システム、及びコンテンツ生成方法 | |
US5621538A (en) | Method for synchronizing computerized audio output with visual output | |
JP2007295218A (ja) | ノンリニア編集装置およびそのプログラム | |
JP2009122667A (ja) | 台詞音声作成装置、発話音声収録装置、及びコンピュータプログラム | |
JPH10243351A (ja) | 映像再生装置 | |
JPH0991928A (ja) | 映像の編集方法 | |
JP2007165959A (ja) | 画像表示装置 | |
JP2000322590A (ja) | アニメーション処理方法、アニメーション処理装置、及び、アニメーション処理プログラムを記録した記録媒体 | |
JP4382045B2 (ja) | データ出力装置、データ出力方法、データ出力プログラム、および記録媒体 | |
JP2558746B2 (ja) | データ編集装置 | |
JP2000048222A (ja) | アニメーション作成方法、アニメーション作成装置、及びアニメーション作成プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP4235635B2 (ja) | データ検索装置及びその制御方法 | |
JP2000089789A (ja) | 音声認識装置及び記録媒体 | |
JP2003141859A (ja) | 画像音声再生システム、プログラム、及び記録媒体 | |
JP2005352330A (ja) | 音声分割記録装置 | |
JP2002084505A (ja) | 映像閲覧時間短縮装置及び方法 | |
JP7156748B1 (ja) | 情報処理システム及び情報処理方法 | |
JP6646172B1 (ja) | 多言語コンテンツの教育用再生方法、そのためのデータ構造及びプログラム | |
JP4351127B2 (ja) | カラオケシステム | |
JP2000099308A (ja) | 電子ブックプレーヤ | |
JP3426957B2 (ja) | 映像中への音声録音支援表示方法及び装置及びこの方法を記録した記録媒体 | |
JP2006157692A (ja) | 映像再生方法及び装置及びプログラム | |
JP2008154258A (ja) | 動画再生装置、動画再生方法及びそのコンピュータ・プログラム |