JP2004029862A - 動画像生成装置及び動画像生成方法並びにそのプログラム - Google Patents
動画像生成装置及び動画像生成方法並びにそのプログラム Download PDFInfo
- Publication number
- JP2004029862A JP2004029862A JP2002149748A JP2002149748A JP2004029862A JP 2004029862 A JP2004029862 A JP 2004029862A JP 2002149748 A JP2002149748 A JP 2002149748A JP 2002149748 A JP2002149748 A JP 2002149748A JP 2004029862 A JP2004029862 A JP 2004029862A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- moving image
- data
- visual content
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【解決手段】MP3データ記憶部4に記録されたデジタル音データを、伸長部11が伸長し、周波数帯域ごとの音圧値データとして出力する。感性データ算出部12のリズム解析部14が、音圧値データを基に単位時間あたり拍数を求める。感情解析部13は、音圧値データを基に、数種類の感情パラメータ値を求め、この感情パラメータ値と上記の単位時間あたり拍数とを基に、感情種類および感情レベルを判定し、その結果を感性データ蓄積部2に書き込む。アニメーション画像生成部3が感性データに基づいてアニメーションを生成し表示部7に出力する。
【選択図】 図1
Description
【発明の属する技術分野】
この発明は、再生される音楽のオーディオ信号を解析してその解析結果をモニタなどの画面に表示する動画像生成装置に係り、特に、動画像生成装置及び生成方法並びにそのプログラムに関するものである。
【0002】
【従来の技術】
従来、ゲーム機などの画面に人間や動物などのアニメーションのキャラクタ画像を表示して音楽の演奏が始まると同時にそのキャラクタが動く仕組みの動画像は、そのキャラクタの一定の動作をプログラムして動画像として表示させていた。
【0003】
【発明が解決しようとする課題】
しかしながら、上述のプログラムによってキャラクタを動作させる方法では、キャラクタの動作が一定となってしまうので、動画像を見るユーザにとっては退屈なものとなってしまう。
そこでこの発明は、再生される音楽から感情を表現する感情パラメータを抽出し、その感情パラメータに応じてキャラクタの動作が生成されることで、何通りものパターンでキャラクタの動画像を表示できる動画像生成装置及び生成方法並びにそのプログラムを提供することを目的としている。
【0004】
【課題を解決するための手段】
上記の課題を解決するために、本発明は、分割された周波数帯域毎の音圧値として音を表現したデジタルデータを記憶するデータ記憶部と、前記データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する感性データ算出部と、前記感性データ算出部によって算出された前記感情種類と、前記感情レベルの組み合わせに応じてビジュアルコンテンツの動画像を生成するビジュアルコンテンツ生成部と、前記ビジュアルコンテンツ生成部の生成したビジュアルコンテンツの動画像を表示する表示部と、前記ビジュアルコンテンツ生成部が生成するビジュアルコンテンツの動画像に同期させて前記デジタルデータをデコードしオーディオ信号を出力するデコーダ部とを備えることを特徴とする動画像生成装置である。
【0005】
上述の構成によれば、感性データ算出部がデータ記憶部に記憶するデジタルデータを読み込んで、そのデジタルデータから感性データを算出する。そして、感性データに基づいて、ビジュアルコンテンツ生成部がビジュアルコンテンツの複数のフレームを用いて動画像を生成し表示部に表示するので、これにより、デジタルデータに応じてビジュアルコンテンツの動作を生成することが出来、そして、何通りものパターンでビジュアルコンテンツ画像を表示部に表示する事が出来る。
【0006】
また、請求項2に記載の発明は、請求項1に記載の動画像生成装置において、前記ビジュアルコンテンツ生成部が前記感性データ算出部によって算出された前記感情種類と前記感情レベルの組み合わせに応じて、人や動物などのキャラクタの顔の表情を変化させることにより動画像を生成することを特徴とする。
【0007】
また、請求項3に記載の発明は、請求項1に記載の動画像生成装置において、前記ビジュアルコンテンツ生成部は前記感性データ算出部によって算出された前記感情種類と前記感情レベルの組み合わせに応じて、人や動物などのキャラクタのダンスステップの動作を変化させることにより動画像を生成することを特徴とする。
【0008】
また、請求項4に記載の発明は、請求項1に記載の動画像生成装置において、前記ビジュアルコンテンツ生成部は前記感性データ算出部によって算出された前記感情種類と前記感情レベルの組み合わせに応じて、前記動画像となる風景や背景の明るさや、視点位置、向き、画角、動きなどのカメラワークを変化させることにより動画像を生成することを特徴とする。
【0009】
また、請求項5に記載の発明は、分割された周波数帯域毎の音圧値として音を表現したデジタルデータを記憶するデータ記憶部を備えた動画像生成装置における動画像生成方法において、前記データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する第1の過程と、前記第1の過程によって算出された前記感情種類と、前記感情レベルの組み合わせに応じてビジュアルコンテンツの動画像を生成する第2の過程と、前記第2の過程において生成されたビジュアルコンテンツの動画像を表示部に表示する第3の過程と、前記第3の過程で表示部に表示されるビジュアルコンテンツの動画像に同期させて前記デジタルデータをデコードしオーディオ信号を出力する第4の過程とを備えることを特徴とする動画像生成方法である。
【0010】
また、請求項6に記載の発明は、分割された周波数帯域毎の音圧値として音を表現したデジタルデータを記憶するデータ記憶部を備えた動画像生成装置における動画像構プログラムであって、前記動画像生成装置に、前記データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する第1の処理と、前記第1の処理によって算出された前記感情種類と、前記感情レベルの組み合わせに応じてビジュアルコンテンツの動画像を生成する第2の処理と、前記第2の処理において生成されたビジュアルコンテンツの動画像を表示部に表示する第3の処理と、前記第3の処理で表示部に表示されるビジュアルコンテンツの動画像に同期させて前記デジタルデータをデコードしオーディオ信号を出力する第4の処理とを実行させるためのプログラムである。
【0011】
【発明の実施の形態】
以下、図面を参照しこの発明の一実施形態について説明する。図1は、同実施形態による感性データ算出方法を応用した動画像生成装置の構成を示すブロック図である。この動画像生成装置は、MP3(MPEG Audio Layer 3)の形式で記録された音楽(聴覚データ)を再生するとともに、この音楽を基に感性データを算出するものである。
【0012】
図1において、符号4は、MP3形式の音楽データを記憶するMP3データ記憶部である。1は、MP3データ記憶部4から読み出された音楽データを基に感性データを算出して出力するスペクトラム解析部である。2は、スペクトラム解析部1によって算出された感性データを蓄積する感性データ蓄積部である。3は、感性データ蓄積部2に蓄積された感性データを順次読み出し、この感性データに基づくアニメーション画像(ビジュアルコンテンツ)を生成するアニメーション画像生成部(ビジュアルコンテンツ生成部)である。
【0013】
また、5は、MP3データ記憶部4から読み出された音楽データをデコードして時系列的な音圧レベルのデジタル信号(デジタルオーディオ信号)を出力するMP3デコーダ部である。6は、MP3デコーダ部5から出力されたデジタル信号を変換してアナログオーディオ信号を出力するD/A(デジタル/アナログ)変換部である。7はアニメーション画像生成部3が生成したアニメーションを表示する表示部であり、液晶画面やテレビモニタなどである。
【0014】
MP3データ記憶部4に記憶されている音楽データは、所定のサンプリング周波数(例えば、44100Hz(ヘルツ))でサンプリングされ量子化された音圧レベルが、所定のフレーム長(例えば、約0.0261秒)を1フレームとするフレーム単位で、所定数(例えば、576本)に分割された周波数帯域ごとの音圧値に変換され、さらに圧縮されたものである。
【0015】
スペクトラム解析部1は、このような音楽データを時系列的に順次読み出し、読み出したデータをまず伸長してから、後述する所定の手順により解析を行い、その結果を感性データとして順次出力していく。スペクトラム解析部1によって出力される感性データも時系列的なデータであり、順次、感性データ蓄積部2に蓄積されていく。
【0016】
アニメーション画像生成部3は、再生する音楽に合ったアニメーションを生成してビデオ信号として出力するものである。生成されるアニメーションの一例は、あるキャラクタ(少女)が再生される音楽のリズムに合わせてダンスをするものであり、感性データ蓄積部2から読み取った感性データに応じて、そのキャラクタの手足の振り付けや顔の表情が変わるようになっている。なお、アニメーションで描かれるキャラクタの顔の表情を変えるためには、例えば、口(唇)や、目や、その周辺の筋肉に相当する部分の計上を変えて描くようにする。
【0017】
再生される音楽の進行と生成されるアニメーションの進行のタイミングが合うように、スペクトラム解析部1とアニメーション画像生成部3とMP3デコーダ5との間で互いに同期を取るようにする。
また、スペクトラム解析部1による感性データ算出の演算に時間がかかっても音楽とアニメーションとのタイミングがずれないように、音楽の再生が指示された後にスペクトラム解析部1による感性データ算出を先行して行い、数秒から数十秒程度遅れて後追いの形で、MP3デコータ5による音楽の再生とアニメーション画像生成部3からのビデオ信号の出力とを行うようする。但し、スペクトラム解析部1による感性データ算出の演算が充分に速く行える場合には、上記の遅延を設けずにリアルタイムで再生するようにしても良い。
【0018】
MP3データ記憶部4は、磁気ディスクやCD−ROM(コンパクトディスクを用いた読み出し専用メモリ)あるいはCD−R(CD Recordable )やDVD(Digital Versatile Disk)や光磁気ディスクや半導体メモリなどといった記録媒体とそれを読み取る読取装置によって実現する。
【0019】
スペクトラム解析部1は、コンピュータを用いて実現する。つまり、後述する感性データ算出等の処理の手順をコンピュータプログラムの形式でコンピュータ読み取り可能な記録媒体に記録しておき、このプログラムをコンピュータの中央処理装置が読み取ってその命令を実行することにより感性データ算出等の機能を実現する。ここで、コンピュータ読み取り可能な記録媒体とは、例えば、磁気ディスクや、CD−ROMあるいはCD−Rや、半導体メモリなどである。あるいは、専用ロジックを搭載した集積回路としてスペクトラム解析部1を実現するようにしても良い。あるいは、コンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録しておく代わりに、通信を用いて配信するようにして、配信を受けたコンピュータの中央処理装置がこのプログラムを実行するようにしても良い。
感性データ蓄積部2は、半導体メモリや磁気ディスクなど、高速に書換え可能な記録媒体を用いて実現する。
【0020】
次に、スペクトラム解析部1の内部生成、およびその処理の詳細について説明する。図1に示すように、スペクトラム解析部1は、伸長部11と感性データ算出部12とを備えている。伸長部11は、MP3データ記憶部から読み取られた音楽データを伸長する。つまり、図1のAの部分では、圧縮された状態のデータが伝達される。また、図1のBの部分では、前述の周波数帯域(音域)ごとの音圧値の情報が伸長済みの状態で伝達される。感性データ算出部12は、さらに、感情解析部13とリズム解析部14とを備えている。
【0021】
次に、感情解析部13とリズム解析部14の詳細な処理手順について説明する。
【0022】
図2は、感情解析部13による処理の手順を示すフローチャートである。図2に示すように、感情解析部13は、まずステップS1において入力されるデータを基に5つの音域への分割の処理を行い、ステップS2においてこれら5つの音域の音圧値を基に感情パラメータを算出する処理を行い、ステップS3において算出された感情パラメータを基に判定を行う。判定結果として、インデックス、感情種類、感情レベル、継続時間、補間フラグの組の時系列データが出力される。
【0023】
上記インデックスは、0から始まるシーケンシャルな値である。
上記感情種類は、「無表情(default )」、「快感(pleasure)」、「驚き(surprise)」、「怯え(fear)」、「嬉しい(happy )」、「哀しい(sad )」のいずれかである。
感情種類が「快感」、「驚き」、「怯え」、「嬉しい」、「哀しい」のいずれかであるとき、上記感情レベルは1以上5以下のいずれかの整数の値を取る。また、感情種類が「無表情」のとき、感情レベルの値は「なし」である。
上記継続時間は、秒単位の数値であり、1以上の値を取る。
上記補間フラグは、0(「OFF」を表わす)あるいは1(「ON」を表わす)のいずれかの値を取る。
【0024】
時系列の音楽データを処理する際の初期値は、インデックス=0、感情種類=「無表情」、感情レベル=「なし」、継続時間=「1」、補間フラグ=「1」とする。
【0025】
以下に、処理をさらに詳細に説明する。
図2の符号D1は、感情解析部13に入力される周波数帯域ごとの音圧値情報である。この段階では、576本の周波数帯域それぞれの音圧値情報が保持されている。また、元のMP3データのサンプリング周波数は44100Hzである。つまり、分割された周波数帯域ごとの音圧値として音を表現したデジタルデータを入力として、周波数帯域ごとの音圧値の分布を以下の方法で解析することにより、前記の音に関連する感性データを算出する。
【0026】
ステップS1においては、音圧値情報(D1)を基に、次の5段階の音域ごとの平均音圧値を算出し、音圧値情報(D2)として出力する。その5段階の音域とは、低音部(0Hz〜76.5625Hz)、中低音部(229.6875Hz〜1990.625Hz)、中高音部(7005.469Hz〜10029.69Hz)、高音部(10029.69Hz〜14967.97Hz)、最高音部(15006.25Hz〜17992.19Hz)の5つである。
つまり、ここでは、周波数帯域全体を、10個以下の周波数帯域グループに分割し、この周波数帯域グループごとの音圧値を用いた解析を行う。
【0027】
また、ステップS1においては、音階分割により、長音要素と短音要素の抽出を行う。この抽出のために、まず、0Hz〜497.6563Hzの帯域を13の領域に均等分割し、497.6563Hz〜22050Hzの帯域を63の領域に音階分割する。そして、そのうちの497.6563Hz〜2028.906Hzの2オクターブ分の24個の音階領域の音圧値が所定の閾値より大きいかどうかを判断する。
【0028】
上記24個の音階領域のうち、1番目、3番目、5番目、8番目、10番目、12番目、13番目、15番目、17番目、20番目、22番目、24番目の領域が長音要素である。これらの長音要素のうち、1番目と13番目とは1オクターブ離れた領域であるため、この2つの領域の音圧値が共に閾値より大きければ、長音要素を+1としてカウントする。また同様に、3番目と15番目の領域、5番目と17番目の領域、8番目と20番目の領域、10番目と22番目の領域、12番目と24番目の領域がそれぞれ互いに1オクターブ離れた領域であり、2つの領域の音圧値が共に閾値より大きい場合に、それぞれ長音要素を+1としてカウントする。
また、上記24個の音階領域のうち、2番目と14番目、4番目と16番目、6番目と18番目、7番目と19番目、9番目と21番目、11番目と23番目がそれぞれ互いに1オクターブ離れた領域のペアであり、各ペアごとに、2つの領域の音圧値が共に閾値より大きい場合に、それぞれ短音要素を+1としてカウントする。
この抽出の処理の結果、長音要素および短音要素は、それぞれ0以上6以下のいずれかの整数の値を取る。
【0029】
次に、ステップS2では、音圧値情報D2を基に感情パラメータを算出する処理を行う。感情パラメータには優先順位が設定されており、「快感」の優先度が1、「驚き」の優先度が2、「怯え」の優先度が3、「嬉しい」および「哀しい」の優先度がともに4となっている。
なお、上記5種類の感情パラメータ値がすべて「0」のときは、「無表情」に該当する。
【0030】
また、ステップS3では、算出された感情パラメータに基づく判定を行い、感性データを求める処理を行う。また、この判定においては、図1に示したリズム解析部14によるリズム解析の結果も一部で用いられる。リズム解析の結果とは、例えば、ビート間の時間間隔がどの程度の長さかといったことである。
なお、感情パラメータ値算出の際には、音圧値がL1以下の音を無視する。
【0031】
「快感(Pleasure)」に関する処理は、次の通りである。
[条件1] ビート間の時間間隔がT3以上で、かつ、中低音部から高音部までのいずれかの音圧のピークが高音方向に時間的にT4以上移動した場合は、「快感」の感情パラメータのカウントを+1する。この条件に合致するとき、当該感情は、対象の音が鳴り始めてから時間T4経過時点から、対象の音が鳴りやんでから時間T2経過時点まで継続するものとする。つまり、本実施形態においては、この継続時間の間は、「快感」データに基づくアニメーションが生成され、出力される。
[条件2] 低音域の音圧値がL7以上で、かつ、高音部の平均音圧値がL4以上である場合で、平均音圧値がL6以上の時、前回までのビート間の平均時間間隔から今回のビート間の時間間隔を差し引いた値がT1以上である、または、前回の判定結果が「驚き」の場合は「快感」の感情パラメータのカウントを+2する。この条件に合致するとき、当該感情は、対象の音が鳴り始めてから時間T4が経過した時点から始まるものとする。
【0032】
つまり、上記条件2が適用される場合には、分割された周波数帯域グループごとの平均音圧値に基づいて感性データが算出される。
また、上記条件1が適用される場合には、周波数帯域グループ内において、音圧値のピークとなる周波数帯域が時間的にどのように推移するかに基づいて感性データが算出される。
また、上記条件1が適用される場合には、元のデジタルデータに基づき音に含まれるリズムの単位時間あたりの拍数が求められ、この単位時間あたり拍数に基づいて感性データが算出される。上記の「ビート間の時間間隔」は単位時間あたり拍数の逆数から求められる。
なお、「快感」の感情の優先順位は最も高い「1」であるため、上記の条件1あるいは条件2のいずれかにあてはまる場合は、他の感情を無視する。
【0033】
「驚き(Surprise)」に関する処理は、次の通りである。
上述した「快感」の条件に該当しない場合は、下記の条件により「驚き」に該当するかどうかをチェックする。
【0034】
[条件1] 全音域の平均音圧値がL3以下の音が無い状態から、低音部のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+4し、その音が鳴りつづけた時間を継続時間とする。ただし、下記の条件2を満たす場合は無視をする。
[条件2] 全音域の平均音圧値がL2以下の音が無い状態から、低音部のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+5し、その音が鳴りつづけた時間を継続時間とする。
【0035】
[条件3] 全音域の平均音圧値がL3以下の音が無い状態から、低音部以外のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+1し、その音が鳴りつづけた時間を継続時間とする。ただし、下記の条件4を満たす場合は無視をする。
[条件4] 全音域の平均音圧値がL2以下の音が無い状態から、低音部以外のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+2し、その音が鳴りつづけた時間を継続時間とする。
[条件5] 最高音部の音が時間T4以上続いた場合、または最高音部の音が存在し、かつ中高音部の平均音圧値がL4以下の場合は、「驚き」の感情パラメータのカウントを+3し、その音が鳴りつづけた時間を継続時間とする。
なお、「驚き」の感情の優先順位は「快感」のそれに次ぐ「2」であるため、上記の条件1から5までのいずれかにあてはまる場合は、他の優先順位の低い感情を無視する。
【0036】
「怯え(Fear)」に関する処理は、次の通りである。
上述した「快感」あるいは「驚き」のいずれの条件にも該当しない場合は、下記の条件により「怯え」に該当するかどうかをチェックする。
【0037】
[条件1] 中低音部から高音部までのいずれかの音圧値のピークが低音方向に時間的にT4以上移動した場合は、「怯え」の感情パラメータのカウントを+1する。
[条件2] 中低音部から高音部までのいずれかの音圧値のピークが低音方向に時間的にT4以上移動し、続けて高音方向に時間的にT4以上移動した場合は、「怯え」の感情パラメータのカウントを+4する。
[条件3] 中低音部から高音部までのいずれかの音圧値のピークが低音方向に移動中に高音方向に揺れた回数Nが42以上の場合、「怯え」の感情パラメータのカウントを+(N/16)する。
【0038】
なお、「怯え」データに基づくアニメーションの変化の始点は対象の音が鳴り始めてから時間T4経過後とし、同じくアニメーションの変化の終点は対象の音が鳴りやんでから時間T2経過後とする。
なお、「怯え」の感情の優先順位は「驚き」のそれに次ぐ「3」であるため、上記の条件1から3までのいずれかにあてはまる場合は、他の優先順位の低い感情を無視する。
【0039】
上述した「快感」、「驚き」、「怯え」のいずれの条件にも該当しない場合は、下記の条件により「嬉しい」または「哀しい」に該当するかどうかをチェックする。
【0040】
「嬉しい(Happy)」に関する処理は、次の通りである。
[条件1] ビートがある場合は、「嬉しい」の感情パラメータのカウントを+1する。
[条件2] ビート間の時間間隔がT7以下の場合は、「嬉しい」の感情パラメータのカウントを+1する。
[条件3] 高音部の平均音圧値がL4以上の場合は、「嬉しい」の感情パラメータのカウントを+1する。
[条件4] 上記の条件3を満たし、かつ、中低音部の音圧値のピークが5つ以上あった場合は、「嬉しい」の感情パラメータのカウントを+2する。
[条件5] 上記の条件3を満たし、かつ、上記の条件4をみたし、かつ、低音部の平均音圧値がL5以下の場合は、「嬉しい」の感情パラメータのカウントを+2をする。
[条件6] 抽出された長調要素−短調要素の数値が2以上の場合は、「嬉しい」の感情パラメータのカウントを+1する。
【0041】
なお、「嬉しい」データに基づくアニメーションの変化の始点の時間的な誤差は±T2とする。また、同じくアニメーションの変化の終点の時間的な誤差も±T2とする。
【0042】
「哀しい(Sad)」に関する処理は、次の通りである。
[条件1] ビート間の時間間隔がT5以上である場合+は、「哀しい」の感情パラメータのカウントを+1する。
[条件2] ビートがない場合は、「哀しい」の感情パラメータのカウントを+2する。
[条件3] 中低音部に時間T4以上続く音圧値のピークがあった場合は、「哀しい」の感情パラメータを+1し、音が鳴り続けている時間を継続時間とする。ただし、下記の条件4を満たす場合は無視をする。
[条件4] 中低音部に時間T6以上続く音圧値のピークがあった場合は、「哀しい」の感情パラメータを+2し、音が鳴り続けている時間を継続時間とする。
【0043】
[条件5] 高音部に音圧値のピークが3つ以上あった場合は、「哀しい」の感情パラメータを+1する。
[条件6] 全領域の平均音圧値がL3以上の音が無い状態の場合は、「哀しい」の感情パラメータを+1する。
[条件7] 全領域の平均音圧値がL3以上の音が時間T2以上無い場合は、「哀しい」の感情パラメータを+1する。
[条件8] 中高音部と高音部の平均音圧値がL3以下であり、中低音部の音のみを取得した場合は、「哀しい」の感情パラメータを+2する。
[条件9] 短調要素−長調要素の数値が2以上の場合は、「哀しい」の感情パラメータを+1する。
【0044】
なお、「哀しい」データに基づくアニメーションの変化の始点の時間的な誤差は±T2とする。また、同じくアニメーションの変化の終点の時間的な誤差も±T2とする。
【0045】
以上述べたように、「快感」、「驚き」、「怯え」、「嬉しい」、「哀しい」の感情について、それぞれ定義された条件でのチェックが行われる。
そして、優先順位の高い感情から順に、「快感」、「驚き」、「怯え」のいずれかのカウント結果が1以上である場合に、その感情が感情種類として判定される。また、そのときのカウント値が感情レベルとされるので、感情レベルはレベル1〜レベル5(Lv=1〜5)となる。但し、カウントが5を超える場合は、感情レベルを5とする。
【0046】
なお、感情種類が「怯え」で、かつ同一の感情レベルである状態が時間T5以上継続した場合には、時間T5ごとに再チェックを行う。
また、感情種類が「快感」のまま、感情レベルが2から1へ移行した場合は、以後の感情レベルも2とみなし、感情レベル2を継続させるものとする。
【0047】
「快感」、「驚き」、「怯え」のカウント値がいずれも0である場合で、「嬉しい」あるいは「哀しい」のカウント値の少なくとも一方が1以上である場合には、次に述べる方法で「嬉しい」および「哀しい」のカウント値を比較する。まず、前回の「嬉しい」のカウント値と現在の「嬉しい」のカウント値とから、これらの平均値を求める。次に、前回の「哀しい」のカウント値と現在の「哀しい」のカウント値とから、これらの平均値を求める。そして、「嬉しい」の平均値と「哀しい」の平均値とを比較する。
【0048】
上記の「嬉しい」の平均カウント値のほうが大きい場合には、感情種類を「嬉しい」とするとともに、「嬉しい」の平均カウント値から「哀しい」の平均カウント値を引いた値を感情レベルとする。逆に、「哀しい」の平均カウント値のほうが大きい場合には、感情種類を「哀しい」とするとともに、「哀しい」の平均カウント値から「嬉しい」の平均カウント値を引いた値を感情レベルとする。
「嬉しい」の平均カウント値と「哀しい」の平均カウント値とが等しい場合には、前回のカウント値同士を比較し、大きい方のカウント値を持つほうを感情種類として選択するとともに、この場合の感情レベルを1とする。
【0049】
但し、「嬉しい」と「哀しい」のカウント値を用いた判定に関して、上記の規則に関わらず、次の2つの例外パターンに該当する場合には、これを適用するものとする。
第1の例外パターンは、「嬉しい」のカウント値が5で、かつ、「哀しい」のカウント値が5である場合であり、このときは、感情種類を「快感」とし、感情レベルを2とする。
第2の例外パターンは、「怯え」のカウント値が3以上で、かつ、「哀しい」のカウント値が4以上の場合であり、このときは、感情種類を「哀しい」とし、感情レベルを5とする。
【0050】
なお、上記5種類のいずれの感情についても、カウント値の結果がすべて0である場合には、感情種類は「無表情」であると判定される。
【0051】
次に、補間フラグに関する判定方法を説明する。補間フラグのデフォルト値は1(ON)であるが、次の2通りのいずれかに該当する場合に限り、補間フラグを0(OFF)とする。第1に、同じ感情種類が時間T6以上継続した場合には補間フラグを0とする。第2に、前回の感情種類が「嬉しい」または「哀しい」であり、そこから感情種類「快感」に遷移する場合には補間フラグを0とする。
【0052】
上述した感情パラメータの算出および感情の判定等の処理において、時間T1〜T6については、T1<T2<T3<T4<T5<T6の関係を満たす適切な値を用いることとする。なお、T1はほぼ数百ミリ秒程度、T6はほぼ数千ミリ秒程度である。また、音圧値レベルL1〜L7については、L1<L2<L3<L4<L5<L6<L7の関係を満たす適切な値を用いることとする。一例としては、L1は−50dB(デシベル)程度、L7は−20dB程度の値を用いる。
【0053】
次に、図1に示したリズム解析部14における処理について説明する。
リズム解析部14には、伸長部によって伸長されたデータが入力される。この入力データは、前述のように、周波数領域ごとの音圧値情報を時系列的に持つものである。このような入力データを基に、リズム解析部14は音楽のリズムを解析し、その音楽のbpm値(beats per minute,1分あたりビート数,単位時間あたり拍数)を算出して出力する。
【0054】
リズム解析の処理においては、次の事項を前提とする。第1に、少なくとも一定時間以上は曲のリズムは一定のbpm値で正確に刻まれることとする。第2に、1拍あたり2回、ノイズ系の音が含まれることとする。例えば、曲が4分の4拍子である場合には、4拍の間に8回ノイズ系の音が含まれる。ここで、ノイズ系の音とは、例えばシンバル等の音である。
ノイズ系の音は、ほぼ全周波数帯域に渡って音圧変化があることが特徴である。従って、周波数帯域ごとにフレーム間の音圧変化量を求め、全周波数にわたって連続的に音圧変化量が所定の閾値以上となる場合にこれをノイズ系の音として検出できる。
【0055】
そして、ノイズ系の音はリズムに応じて所定のタイミングの箇所に多く集中するという傾向があることから、このノイズ系の音を検出し、この検出間隔をフレーム(1フレームは約0.0261秒)単位で求める。この段階では、検出される間隔は、一定ではなく、フレーム数ごとの度数の分布として得られる。得られた分布を基に、補正を加えて、拍の間隔を決定することによってbpm値を求めることとする。
つまり、前記第2の前提によると1拍あたり2回のノイズ系の音が含まれるため、求められたノイズ間隔F(フレーム単位)を用いると、bpm値は、次の式で得られる。すなわち、
bpm値=60 [秒/分] / (2*F [フレーム] *0.0261 [秒/フレーム])
【0056】
図3は、上述した動画像生成装置におけるデータの流れを示す概略図である。図示するように、音声データ51を基に、これを各周波数帯域に分解する処理(61)を行うことによって、分解された音声のデータ52が得られる。そしてこのデータを基に、感性データを算出する処理(62)を行うことによって感性データ53が得られる。そして、この感性データ53に基づいて、ビジュアルコンテンツを生成する処理(63)を行うことによって、例えばアニメーションなどのビジュアルコンテンツデータ54が生成される。
【0057】
ここで、アニメーション画像生成部3は感性データ蓄積部2に蓄積する感性データに基づいて、アニメーション画像生成部3で記憶している複数のフレームから画像を生成する。この画像はステージ上で少女がダンスのステップをしている場面をカメラで映した情景を映した画像である。またこの画像は少女の顔の表情が変化する画像である。
図4は感性データの感情種類が「嬉しい」の場合のアニメーション画像生成部3が生成するアニメーションの概要をレベルごとに示した表である。この、図4には各レベルにおける画像の「フレーム数」、「少女のステップ形態」、「キャラクタ表情変化」、「プログラム効果」、「カメラワーク」、「照明」、「特殊オブジェクト」の特徴が示されている。
例えば、感性データにおいて、感情種類が「嬉しい」で感情レベルが「Lv1(レベル1)」の場合には、図4に示すように、「フレーム数」=32、「少女のステップ形態」=基本、「キャラクタ表情変化」=目が少し微笑み、口元がニッコリ、「プログラム効果」=なし、「カメラワーク」=通常、「照明」=通常、「特殊オブジェクト」=なし、で画像が構成される。ここで、カメラワークが通常とは少女を前面から映すことであり、また照明が通常というのは、照明の位置と明るさが基本設定値である場合の事を示している。
また「Lv2」の場合には、「フレーム数」=32、「少女のステップ形態」=基本、「キャラクタ表情変化」=髪が上下し、口元がニッコリ、「プログラム効果」=なし、「カメラワーク」=アップ気味、「照明」=通常、「特殊オブジェクト」=なし、で画像が構成される。
また「Lv3」の場合には、「フレーム数」=56、「少女のステップ形態」=特殊、「キャラクタ表情変化」=少女が回転し、動きに合わせて髪が動く、「プログラム効果」=ラスターを切る、「カメラワーク」=通常、「照明」=通常、「特殊オブジェクト」=なし、で画像が構成される。
また「Lv4」の場合には、「フレーム数」=32、「少女のステップ形態」=基本、「キャラクタ表情変化」=Lv2に同じ、「プログラム効果」=七色の紙吹雪が落ちてくる、「カメラワーク」=アップ気味、「照明」=フラッシング、「特殊オブジェクト」=なし、で画像が構成される。
また「Lv5」の場合には、「フレーム数」=64、「少女のステップ形態」=特殊、「キャラクタ表情変化」=ニッコリ顔からバラバラに爆発する、「プログラム効果」=ワープトンネル(青白の模様)、「カメラワーク」=通常、「照明」=黄色、「特殊オブジェクト」=キャラクタの骸骨、爆発用の頭部、で画像が構成される。
【0058】
また、図5は、感性データの感情種類が「嬉しい」の場合のアニメーション画像生成部3が生成するアニメーションの詳細な内容をレベルごとに示した表である。図5より、レベル1の時は、少女が基本ステップで踊ると同時に表情が変化をするシーンの動画像であり、この時、耳がひくひく動き、目がニッコリした顔で踊る。また、レベル2の時は、少女が基本ステップで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女の髪が上下して口元はニッコリした笑顔で踊っている。また、レベル3の時は、少女が特殊モーションで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女は嬉しさのあまり飛び上がり空中で回転する。また、レベル4の時は、少女が基本ステップで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女は紙ふぶきの中でニッコリした顔で踊る。また、レベル5の時は、少女が特殊モーションで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女の頭は嬉しさで爆発する。
【0059】
図6は感性データの感情種類が「快感」の場合のアニメーション画像生成部3が生成するアニメーションの概要をレベルごとに示した表である。この、図6には各レベルにおける画像の「フレーム数」、「少女のステップ形態」、「キャラクタ表情変化」、「プログラム効果」、「カメラワーク」、「照明」、「特殊オブジェクト」の特徴が示されている。
例えば、感性データにおいて、感情種類が「快感」で感情レベルが「Lv1」の場合には、図6に示すように、「フレーム数」=64、「少女のステップ形態」=基本、「キャラクタ表情変化」=とろんとした顔で視点が定まらない、「プログラム効果」=なし、「カメラワーク」=溶けた状態のキャラクタの顔をアップで映す、「照明」=通常、「特殊オブジェクト」=なし、で画像が構成される。
また「Lv2」の場合には、「フレーム数」=64、「少女のステップ形態」=特殊、「キャラクタ表情変化」=口をだらしなく開き、よだれが垂れている、「プログラム効果」=ワープトンネル(虹の模様)、「カメラワーク」=よだれを垂らしている顔のアップ、「照明」=通常、「特殊オブジェクト」=よだれ、水溜り、で画像が構成される。
【0060】
また、図7は、感性データの感情種類が「快感」の場合のアニメーション画像生成部3が生成するアニメーションの詳細な内容をレベルごとに示した表である。図7より、レベル1の時は、少女が特殊モーションで踊ると同時に表情が変化をするシーンの動画像であり、気持ちよさのあまり少女の体が溶けてしまう画像となる。また、レベル2の時は、少女が特殊モーションで踊ると同時に表情が変化をするシーンの動画像であり、少女はだらしない顔でよだれを垂らし、別の世界へ行ってしまう画像となる。
【0061】
図8は感性データの感情種類が「哀しい」の場合のアニメーション画像生成部3が生成するアニメーションの概要をレベルごとに示した表である。この、図8には各レベルにおける画像の「フレーム数」、「少女のステップ形態」、「キャラクタ表情変化」、「プログラム効果」、「カメラワーク」、「照明」、「特殊オブジェクト」の特徴が示されている。
例えば、感性データにおいて、感情種類が「哀しい」で感情レベルが「Lv1」の場合には、図8に示すように、「フレーム数」=32、「少女のステップ形態」=基本、「キャラクタ表情変化」=目が下を向きながら悲しそう、「プログラム効果」=なし、「カメラワーク」=通常、「照明」=通常、「特殊オブジェクト」=なし、で画像が構成される。
また「Lv2」の場合には、「フレーム数」=32、「少女のステップ形態」=基本、「キャラクタ表情変化」=目玉がウルウルゆがみ涙を流す、「プログラム効果」=なし、「カメラワーク」=アップ気味、「照明」=通常、「特殊オブジェクト」=ウルウル目玉、で画像が構成される。
また「Lv3」の場合には、「フレーム数」=64、「少女のステップ形態」=特殊、「キャラクタ表情変化」=目をパチパチして、鼻をヒクヒクさせる、「プログラム効果」=なし、「カメラワーク」=少し見下ろし気味、「照明」=氷風に、青っぽく、「特殊オブジェクト」=氷柱、で画像が構成される。
また「Lv4」の場合には、「フレーム数」=32、「少女のステップ形態」=基本、「キャラクタ表情変化」=Lv1に同じ、「プログラム効果」=破れたハートがキャラクタから吹き出る、「カメラワーク」=ハートを見せる為あおり気味、「照明」=ハートを強調するために暗め、「特殊オブジェクト」=なし、で画像が構成される。
また「Lv5」の場合には、「フレーム数」=96、「少女のステップ形態」=特殊、「キャラクタ表情変化」=めそめそ涙を流す、「プログラム効果」=床から水が押し迫っていく、「カメラワーク」=通常、「照明」=水の中らしく、青っぽく、「特殊オブジェクト」=水面、で画像が構成される。
【0062】
また、図9は、感性データの感情種類が「哀しい」の場合のアニメーション画像生成部3が生成するアニメーションの詳細な内容をレベルごとに示した表である。図9より、レベル1の時は、少女が基本ステップで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女は悲しそうな表情で踊る。また、レベル2の時は、少女が基本ステップで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女はウルウル目で涙を流しながら踊る。また、レベル3の時は、少女が特殊モーションで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女はがっくり肩を落とし体が凍りつく。また、レベル4の時は、少女が基本ステップで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女の胸からは敗れたハートが現れ、目からは大粒の涙を流して踊る。また、レベル5の時は、少女が特殊モーションで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女は、地面から水面が上がってきて深く海の底に沈んでしまう。そして、座り込んでめそめそ顔を押さえて泣く。
【0063】
図10は感性データの感情種類が「怯え」の場合のアニメーション画像生成部3が生成するアニメーションの概要をレベルごとに示した表である。この、図10には各レベルにおける画像の「フレーム数」、「少女のステップ形態」、「キャラクタ表情変化」、「プログラム効果」、「カメラワーク」、「照明」、「特殊オブジェクト」の特徴が示されている。
例えば、感性データにおいて、感情種類が「怯え」で感情レベルが「Lv1」の場合には、図10に示すように、「フレーム数」=32、「少女のステップ形態」=基本、「キャラクタ表情変化」=目と髪が上下にヒクヒク動く、「プログラム効果」=なし、「カメラワーク」=通常、「照明」=通常、「特殊オブジェクト」=なし、で画像が構成される。
また「Lv2」の場合には、「フレーム数」=32、「少女のステップ形態」=基本、「キャラクタ表情変化」=口を大きく開き、目と髪を上下させる、「プログラム効果」=なし、「カメラワーク」=アップ気味、「照明」=通常、「特殊オブジェクト」=なし、で画像が構成される。
また「Lv3」の場合には、「フレーム数」=64、「少女のステップ形態」=特殊、「キャラクタ表情変化」=Lv1に同じ、「プログラム効果」=なし、「カメラワーク」=幽霊キャラクタを強調するアングルで、「照明」=紫に変更、「特殊オブジェクト」=死神のキャラクタ、で画像が構成される。
また「Lv4」の場合には、「フレーム数」=32、「少女のステップ形態」=基本、「キャラクタ表情変化」=Lv2に同じ、「プログラム効果」=床から幽霊がわきあがる、「カメラワーク」=見下ろし気味、「照明」=全体を暗めに、「特殊オブジェクト」=なし、で画像が構成される。
また「Lv5」の場合には、「フレーム数」=64、「少女のステップ形態」=特殊、「キャラクタ表情変化」=Lv2に同じ、「プログラム効果」=ワープトンネル(赤黒模様)、「カメラワーク」=あおり気味、「照明」=通常、「特殊オブジェクト」=邪眼10個、で画像が構成される。
【0064】
また、図11は、感性データの感情種類が「怯え」の場合のアニメーション画像生成部3が生成するアニメーションの詳細な内容をレベルごとに示した表である。図11より、レベル1の時は、少女が基本ステップで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女は情けない顔でびくびくして踊る。また、レベル2の時は、少女が基本ステップで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女は嫌そうに顔を左右に振って踊る。また、レベル3の時は、少女が特殊モーションで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女の背後から死神が出現し、少女は辺りをキョロキョロ見回す。また、レベル4の時は、少女が基本ステップで踊ると同時に表情が変化をするシーンの動画像であり、この時、地面から幽霊が浮き出し、少女は不安げな顔で踊る。また、レベル5の時は、少女が特殊モーションで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女は異常に気付く動作をし、邪眼に囲まれて石化する。
【0065】
図12は感性データの感情種類が「驚き」の場合のアニメーション画像生成部3が生成するアニメーションの概要をレベルごとに示した表である。この、図12には各レベルにおける画像の「フレーム数」、「少女のステップ形態」、「キャラクタ表情変化」、「プログラム効果」、「カメラワーク」、「照明」、「特殊オブジェクト」の特徴が示されている。
例えば、感性データにおいて、感情種類が「驚き」で感情レベルが「Lv1」の場合には、図12に示すように、「フレーム数」=32、「少女のステップ形態」=基本、「キャラクタ表情変化」=目が飛び出し、口が大きく開く、「プログラム効果」=なし、「カメラワーク」=通常、「照明」=通常、「特殊オブジェクト」=なし、で画像が構成される。
また「Lv2」の場合には、「フレーム数」=32、「少女のステップ形態」=基本、「キャラクタ表情変化」=目が飛び出し、口が大きく開く、「プログラム効果」=なし、「カメラワーク」=アップ気味、「照明」=通常、「特殊オブジェクト」=舌、飛び出した目、で画像が構成される。
また「Lv3」の場合には、「フレーム数」=64、「少女のステップ形態」=特殊、「キャラクタ表情変化」=Lv1に同じ、「プログラム効果」=なし、「カメラワーク」=通常、「照明」=通常、「特殊オブジェクト」=100tの重石1個、舌、飛び出した目、で画像が構成される。
また「Lv4」の場合には、「フレーム数」=32、「少女のステップ形態」=基本、「キャラクタ表情変化」=Lv1&Lv2を激しく切り替える、「プログラム効果」=打ち上げ花火、「カメラワーク」=ロング気味、「照明」=少し暗め(花火を強調)、「特殊オブジェクト」=舌、飛び出した目、で画像が構成される。
また「Lv5」の場合には、「フレーム数」=44、「少女のステップ形態」=特殊、「キャラクタ表情変化」=Lv2に同じ、「プログラム効果」=雷、「カメラワーク」=感電状態をアップ、「照明」=雷に合わせてフラッシング、「特殊オブジェクト」=舌、飛び出した目、骨の体、雷、で画像が構成される。
【0066】
また、図13は、感性データの感情種類が「驚き」の場合のアニメーション画像生成部3が生成するアニメーションの詳細な内容をレベルごとに示した表である。図13より、レベル1の時は、少女が基本ステップで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女の目が飛び出し、また少女は口を開いたまま踊る。また、レベル2の時は、少女が基本ステップで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女の目が飛び出し、また少女は舌が飛び出したまま踊る。また、レベル3の時は、少女が特殊モーションで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女の頭上から100tの重石が落ちてきて、少女がペチャンコにつぶれて目をパチパチする。また、レベル4の時は、少女が特殊モーションで踊ると同時に表情が変化をするシーンの動画像であり、この時、少女は背景で花火が打ち上げられる中で踊る。また、レベル5の時は、少女が特殊モーションで踊ると同時に表情が変化をするシーンの動画像であり、この時、空から雷が落ちてきて少女は感電する。
【0067】
以上、図面を参照してこの発明の実施形態を詳述してきたが、具体的な構成はこれらの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
【0068】
【発明の効果】
以上説明したように、この発明によれば、分割された周波数帯域ごとの音圧値として音を表現したデジタルデータを入力し、前記周波数帯域ごとの音圧値の分布を解析することにより、前記音に関連する感性データを算出し、その感性データに基づいてアニメーション画像生成部がアニメーション画像を生成するので、再生される音楽に応じてキャラクタの動作を生成することが出来、そして、何通りものキャラクタの動作のアニメーション画像を表示する事が出来る。
【図面の簡単な説明】
【図1】この発明の一実施形態による感性データ算出方法を応用した動画像生成装置の構成を示すブロック図である。
【図2】同実施形態による動画像生成装置が備える感情解析部13による解析処理の手順を示すフローチャートである。
【図3】同実施形態による動画像生成装置におけるデータの流れを示す概略図である。
【図4】同実施形態による感性データの感情種類が「嬉しい」の場合のアニメーション画像生成部3が生成するアニメーションの概要をレベルごとに示した表である。
【図5】動実施形態による感性データの感情種類が「嬉しい」の場合のアニメーション画像生成部3が生成するアニメーションの詳細な内容をレベルごとに示した表である。
【図6】同実施形態による感性データの感情種類が「快感」の場合のアニメーション画像生成部3が生成するアニメーションの概要をレベルごとに示した表である。
【図7】動実施形態による感性データの感情種類が「快感」の場合のアニメーション画像生成部3が生成するアニメーションの詳細な内容をレベルごとに示した表である。
【図8】同実施形態による感性データの感情種類が「哀しい」の場合のアニメーション画像生成部3が生成するアニメーションの概要をレベルごとに示した表である。
【図9】動実施形態による感性データの感情種類が「哀しい」の場合のアニメーション画像生成部3が生成するアニメーションの詳細な内容をレベルごとに示した表である。
【図10】同実施形態による感性データの感情種類が「怯え」の場合のアニメーション画像生成部3が生成するアニメーションの概要をレベルごとに示した表である。
【図11】動実施形態による感性データの感情種類が「怯え」の場合のアニメーション画像生成部3が生成するアニメーションの詳細な内容をレベルごとに示した表である。
【図12】同実施形態による感性データの感情種類が「驚き」の場合のアニメーション画像生成部3が生成するアニメーションの概要をレベルごとに示した表である。
【図13】動実施形態による感性データの感情種類が「驚き」の場合のアニメーション画像生成部3が生成するアニメーションの詳細な内容をレベルごとに示した表である。
【符号の説明】
1 スペクトラム解析部
2 感性データ蓄積部
3 アニメーション画像生成部
4 MP3データ記憶部
5 MP3デコーダ部
6 D/A変換部
7 表示部
11 伸長部
12 感性データ算出部
13 感情解析部
14 リズム解析部
Claims (6)
- 分割された周波数帯域毎の音圧値として音を表現したデジタルデータを記憶するデータ記憶部と、
前記データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する感性データ算出部と、
前記感性データ算出部によって算出された前記感情種類と、前記感情レベルの組み合わせに応じてビジュアルコンテンツの動画像を生成するビジュアルコンテンツ生成部と、
前記ビジュアルコンテンツ生成部の生成したビジュアルコンテンツの動画像を表示する表示部と、
前記ビジュアルコンテンツ生成部が生成するビジュアルコンテンツの動画像に同期させて前記デジタルデータをデコードしオーディオ信号を出力するデコーダ部と、
を備えることを特徴とする動画像生成装置。 - 前記ビジュアルコンテンツ生成部は前記感性データ算出部によって算出された前記感情種類と前記感情レベルの組み合わせに応じて、人や動物などのキャラクタの顔の表情を変化させることにより動画像を生成することを特徴とする請求項1に記載の動画像生成装置。
- 前記ビジュアルコンテンツ生成部は前記感性データ算出部によって算出された前記感情種類と前記感情レベルの組み合わせに応じて、人や動物などのキャラクタのダンスステップの動作を変化させることにより動画像を生成することを特徴とする請求項1に記載の動画像生成装置。
- 前記ビジュアルコンテンツ生成部は前記感性データ算出部によって算出された前記感情種類と前記感情レベルの組み合わせに応じて、前記動画像となる風景や背景の明るさや、視点位置、向き、画角、動きなどのカメラワークを変化させることにより動画像を生成することを特徴とする請求項1に記載の動画像生成装置。
- 分割された周波数帯域毎の音圧値として音を表現したデジタルデータを記憶するデータ記憶部を備えた動画像生成装置における動画像生成方法において、
前記データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する第1の過程と、
前記第1の過程によって算出された前記感情種類と、前記感情レベルの組み合わせに応じてビジュアルコンテンツの動画像を生成する第2の過程と、
前記第2の過程において生成されたビジュアルコンテンツの動画像を表示部に表示する第3の過程と、
前記第3の過程で表示部に表示されるビジュアルコンテンツの動画像に同期させて前記デジタルデータをデコードしオーディオ信号を出力する第4の過程と、
を備えることを特徴とする動画像生成方法。 - 分割された周波数帯域毎の音圧値として音を表現したデジタルデータを記憶するデータ記憶部を備えた動画像生成装置における動画像構プログラムであって、
前記コンピュータに、
前記データ記憶部から読み出された前記デジタルデータを基に前記周波数帯域毎の音圧値の分布を解析し、この解析結果に基づいて感情種類と、前記感情種類毎の感情レベルなどからなる感性データを算出する第1の処理と、
前記第1の処理によって算出された前記感情種類と、前記感情レベルの組み合わせに応じてビジュアルコンテンツの動画像を生成する第2の処理と、
前記第2の処理において生成されたビジュアルコンテンツの動画像を表示部に表示する第3の処理と、
前記第3の処理で表示部に表示されるビジュアルコンテンツの動画像に同期させて前記デジタルデータをデコードしオーディオ信号を出力する第4の処理と、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002149748A JP2004029862A (ja) | 2002-05-23 | 2002-05-23 | 動画像生成装置及び動画像生成方法並びにそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002149748A JP2004029862A (ja) | 2002-05-23 | 2002-05-23 | 動画像生成装置及び動画像生成方法並びにそのプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004029862A true JP2004029862A (ja) | 2004-01-29 |
Family
ID=31170868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002149748A Pending JP2004029862A (ja) | 2002-05-23 | 2002-05-23 | 動画像生成装置及び動画像生成方法並びにそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004029862A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010016283A1 (ja) * | 2008-08-08 | 2010-02-11 | 株式会社スクウェア・エニックス | メディア再生装置 |
EP2204774A2 (en) | 2008-12-05 | 2010-07-07 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP2022022222A (ja) * | 2018-03-19 | 2022-02-03 | Kddi株式会社 | 端末装置、当該端末装置における方法、サーバ装置及びプログラム |
WO2022260432A1 (ko) * | 2021-06-08 | 2022-12-15 | 네오사피엔스 주식회사 | 자연어로 표현된 스타일 태그를 이용한 합성 음성 생성 방법 및 시스템 |
-
2002
- 2002-05-23 JP JP2002149748A patent/JP2004029862A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010016283A1 (ja) * | 2008-08-08 | 2010-02-11 | 株式会社スクウェア・エニックス | メディア再生装置 |
JP2010057888A (ja) * | 2008-08-08 | 2010-03-18 | Square Enix Co Ltd | メディア再生装置 |
EP2204774A2 (en) | 2008-12-05 | 2010-07-07 | Sony Corporation | Information processing apparatus, information processing method, and program |
US8706274B2 (en) | 2008-12-05 | 2014-04-22 | Sony Corporation | Information processing apparatus, information processing method, and program |
US9557956B2 (en) | 2008-12-05 | 2017-01-31 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP2022022222A (ja) * | 2018-03-19 | 2022-02-03 | Kddi株式会社 | 端末装置、当該端末装置における方法、サーバ装置及びプログラム |
JP7144588B2 (ja) | 2018-03-19 | 2022-09-29 | Kddi株式会社 | 端末装置、当該端末装置における方法、サーバ装置及びプログラム |
WO2022260432A1 (ko) * | 2021-06-08 | 2022-12-15 | 네오사피엔스 주식회사 | 자연어로 표현된 스타일 태그를 이용한 합성 음성 생성 방법 및 시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10681408B2 (en) | Systems and methods for creating composite videos | |
JP2895932B2 (ja) | アニメーション合成表示装置 | |
US8825483B2 (en) | Apparatus and method for transforming audio characteristics of an audio recording | |
US5847303A (en) | Voice processor with adaptive configuration by parameter setting | |
JP3560936B2 (ja) | 感性データ算出方法および感性データ算出装置 | |
CN107124624A (zh) | 视频数据生成的方法和装置 | |
CN104202540B (zh) | 一种利用图片生成视频的方法及系统 | |
JPH08263077A (ja) | 音声変換機能付カラオケ装置 | |
KR19990066862A (ko) | 캐릭터 화상의 표시 제어방법 및 장치, 기록매체 | |
WO2017154894A1 (ja) | 装置、プログラム及び情報処理方法 | |
JP2001190835A (ja) | ゲームシステムおよびゲーム用プログラムが記憶されたコンピュータ読み取り可能な記録媒体 | |
JP2020127714A (ja) | ビデオゲーム映像からオーディオビジュアルコンテンツを生成する方法およびシステム | |
JPH08194495A (ja) | カラオケ装置 | |
US20230053899A1 (en) | Music generation device, music generation method, and recording medium | |
US20070256548A1 (en) | Music Information Calculation Apparatus and Music Reproduction Apparatus | |
JP2003122358A (ja) | 音響信号出力方法、音響信号生成装置及びプログラム | |
KR101193362B1 (ko) | 문자열을 발음 단위로 분할하는 방법, 이를 이용하는 문자열의 어조 표현 방법 및 문자열의 어조를 표현하는 동영상 데이터가 저장된 저장매체 | |
JP2004029862A (ja) | 動画像生成装置及び動画像生成方法並びにそのプログラム | |
JP3674875B2 (ja) | アニメーションシステム | |
JP3645716B2 (ja) | アニメーション作成方法、アニメーション作成装置、及びアニメーション作成プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP4170087B2 (ja) | ゲーム装置およびゲームプログラム | |
KR20060054678A (ko) | 음향에 동기 된 캐릭터 동영상 구현 장치 및 구현 방법 | |
JP2006126300A (ja) | カラオケ装置 | |
JPH10319957A (ja) | キャラクタ舞踏動作表示装置、方法および記録媒体 | |
Fetveit | Mutable temporality in and beyond the music video: an aesthetic of post-production |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050419 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050506 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20050506 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20051101 |