JP2004029047A - デジタルオーディオ再生装置およびデジタルオーディオ再生方法 - Google Patents
デジタルオーディオ再生装置およびデジタルオーディオ再生方法 Download PDFInfo
- Publication number
- JP2004029047A JP2004029047A JP2002173049A JP2002173049A JP2004029047A JP 2004029047 A JP2004029047 A JP 2004029047A JP 2002173049 A JP2002173049 A JP 2002173049A JP 2002173049 A JP2002173049 A JP 2002173049A JP 2004029047 A JP2004029047 A JP 2004029047A
- Authority
- JP
- Japan
- Prior art keywords
- data
- digital audio
- unit
- decoder
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Signal Processing For Digital Recording And Reproducing (AREA)
- Auxiliary Devices For Music (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
【解決手段】オーディオデータをデコードする処理を行う第1のデコーダ部と、第1のデコーダ部と並行してデコードする処理を行う第2のデコーダ部と、第2のデコーダ部によって出力されたオーディオデータを再生するオーディオ再生部と、第1のデコーダ部によってデコードされたオーディオデータに基づいて、当該デジタルオーディオデータに対応した感性を表す感性データを算出する感性データ算出部と、感性データを蓄積する感性データ蓄積部と、感性データ蓄積部から感性データを読み出し、この読み出された感性データに基づいて、オーディオ再生部によるデジタルオーディオデータの再生と同期的に画像を生成して出力する画像生成部とを具備する。
【選択図】 図1
Description
【発明の属する技術分野】
この発明は、デジタルデータを再生するデジタルデータ再生装置に関する。特に、例えばMP3(Mpeg 1 AudioLayer3、Mpeg 2 AudioLayer3、Mpeg 2.5 AudioLayer3)の形式などでデジタルデータとして記録されたオーディオデータを再生するためのデジタルオーディオ再生装置およびデジタルオーディオ再生方法に関する。
【0002】
【従来の技術】
従来技術において、デジタルオーディオ再生装置がデジタルオーディオデータを再生するためには、デジタルオーディオデータを記録媒体等から読み出し、そのデータを所定の方法に従ってデコードし、その結果得られる音声信号を出力する方法が取られる。
【0003】
【発明が解決しようとする課題】
本願発明者らのグループは、デジタルオーディオデータを解析することによってその音が表す感性をデータとして算出する装置及び方法を考案し、既に特許出願している。そのような感性データ算出装置の応用例のひとつとして、デジタルオーディオを再生しながら、同時に、その再生される音楽の感性にあった視覚(ビジュアル)表現を生成し、画面等に表示出力するようなデジタルオーディオ再生装置が考えられる。
しかし、このようなデジタルオーディオ再生装置を実用化するためには、次のような課題を解決しなければならない。すなわちその課題とは、オーディオ出力と視覚表現の出力とのタイミングを合わせて利用者に不自然な感じを与えないようにするとともに、感性データの算出に要する処理時間をできるだけ利用者に意識させないようにすることである。
【0004】
本発明は、上記のような課題を解決するためになされたものであり、感性データの算出や視覚表現の生成に要する処理時間によって利用者に不自然な感じを与えることなく、オーディオ出力と視覚表現出力とに一体感を持たせることを可能とするデジタルオーディオ再生装置およびデジタルオーディオ再生方法を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記の課題を解決するために、本発明は、デジタルデータをデコードする処理を行う第1のデコーダ部と、前記第1のデコーダ部と並行してデジタルデータをデコードして出力する処理を行う第2のデコーダ部と、前記第2のデコーダ部によって出力されたデジタルデータを再生する再生部と、前記第1のデコーダ部によってデコードされたデジタルデータに基づいて、当該デジタルデータに対応した感性を表す感性データを算出する感性データ算出部と、前記感性データを蓄積する感性データ蓄積部と、前記感性データ蓄積部に蓄積されている前記感性データを読み出し、この読み出された感性データに基づいて、前記再生部によるデジタルデータの再生と同期的に他のコンテンツを生成して出力するコンテンツ生成部とを具備することを特徴とするデジタルデータ再生装置を要旨とする。
【0006】
また、本発明のデジタルオーディオ再生装置は、デジタルオーディオデータをデコードする処理を行う第1のデコーダ部と、前記第1のデコーダ部と並行してデジタルオーディオデータをデコードして出力する処理を行う第2のデコーダ部と、前記第2のデコーダ部によって出力されたデジタルオーディオデータを再生するオーディオ再生部と、前記第1のデコーダ部によってデコードされたデジタルオーディオデータに基づいて、当該デジタルオーディオデータに対応した感性を表す感性データを算出する感性データ算出部と、前記感性データを蓄積する感性データ蓄積部と、前記感性データ蓄積部に蓄積されている前記感性データを読み出し、この読み出された感性データに基づいて、前記オーディオ再生部によるデジタルオーディオデータの再生と同期的に画像を生成して出力する画像生成部とを具備することを特徴とする。
本発明のこのような構成によれば、第2のデコーダ部がデコードして出力するデジタルオーディオデータは、そのまま即座にオーディオ再生部によって再生される。一方、第1のデコーダ部は、第2のデコーダ部とは並行して独立に他のデジタルオーディオデータをデコードすることができる。そして、第1のデコーダ部によってデコードされたデジタルオーディオデータを基に、感性データ算出部が感性データを算出し、この算出された感性データは、一旦感性データ蓄積部に蓄積される。つまり、予め算出した感性データを感性データ蓄積部に蓄積しておくことができる。よって、感性データの算出の処理に時間がかかる場合にも、感性データ蓄積部に蓄積された感性データを画像生成部が読み出して前記のオーディオ再生部によるオーディオデータの再生と同期的に画像を生成して出力することができる。よって、利用者にとっては、本デジタルオーディオ再生装置が、オーディオデータの再生と同期的にリアルタイムに感性データを算出してこの感性データに基づいた画像を出力しているような効果を与える。また、第1のデコーダ部と第2のデコーダ部とは同時並行的にそれぞれ独立にデジタルオーディオデータを再生することができるため、デジタルオーディオデータのある部分を再生してオーディオ信号として出力しながら、同時に、第1のデコーダ部がデジタルオーディオデータの他の部分を先読みして、予め当該他の部分に対応した感性データを算出して蓄積しておくことができる。
【0007】
また、本発明のデジタルオーディオ再生装置は、上記のデジタルオーディオ再生装置において、複数のトラックのデジタルオーディオデータを記憶するデジタルオーディオデータ記憶部を具備し、前記第2のデコーダ部は、前記デジタルオーディオデータ記憶部から所定の順序に従って前記複数のトラックのデジタルオーディオデータを順次読み出して、この読み出されたトラックのデジタルオーディオデータをデコードして出力するものであり、前記第1のデコーダ部は、前記第1のデコーダ部によってデコードされているトラックからNトラック(Nは自然数)先までのトラックのデジタルオーディオデータを前記デジタルオーディオデータ記憶部から先読みしてデコードするものであり、前記感性データ蓄積部は、前記第1のデコーダ部によってデコードされているトラックからNトラック(Nは自然数)先までのトラックのデジタルオーディオデータに対応した感性データを蓄積するものであることを特徴とする。
本発明のこのような構成によれば、現在再生されているトラックからNトラック先までのデジタルオーディオデータを先読みして当該先読みされたデジタルオーディオデータに対応した感性データを蓄積しておくことができるため、利用者がトラックをスキップして次以降のトラックに再生位置が移動したときにも、即座にオーディオ再生と画像生成およびその出力とを同期的に開始することができる。
【0008】
また、本発明のデジタルオーディオ再生装置は、上記のデジタルオーディオ再生装置において、前記感性データ蓄積部は、前記第1のデコーダ部によってデコードされているトラックからMトラック(Mは自然数)前までのトラックのデジタルオーディオデータに対応した感性データを保存しておくとともに、それより更に前のトラックのデジタルオーディオデータに対応した感性データを消去するものであることを特徴とする。
本発明のこのような構成によれば、現在再生されているトラックからMトラック前までのデジタルオーディオデータに対応した感性データを保存しておくことができるため、利用者がトラックを前に戻して他のトラックに再生位置が戻ったときにも、即座にオーディオ再生と画像生成およびその出力とを同期的に開始することができる。また、Mトラック前よりもさらに前のトラックのデジタルオーディオデータに対応する感性データは消去されるため、感性データ蓄積部の記憶容量を小さくすることが可能となる。
【0009】
また、本発明のデジタルオーディオ再生装置は、上記のデジタルオーディオ再生装置において、N=2であり、M=1であることを特徴とする。
通常、デジタルオーディオ再生装置の利用者は、次のトラックにスキップするか前のトラックに戻ることが多い。本発明において、N=2とすることにより、たとえ現トラックの再生開始直後であっても、次のトラックにスキップした際にも既に感性データは感性データ蓄積部に蓄積されている。また、M=1とすることにより、前のトラックにスキップした際にも感性データは感性データ蓄積部に保存されている。これら蓄積された感性データを利用して、即座に画像の生成及び出力が可能となる。また、N=2,M=1とすることにより、あまり使われない余分な感性データを感性データ蓄積部に保存しておく必要が無いため、上記即時性を維持したまま、感性データ蓄積部の記憶容量を最小化することが可能となる。
【0010】
また、本発明のデジタルオーディオ再生装置は、上記のデジタルオーディオ再生装置において、前記感性データは、前記デジタルオーディオデータの再生位置に関する情報と当該再生位置において生成すべき画像に関する情報との組を時系列的に表すデータを含むものであることを特徴とする。
本発明のこのような構成により、オーディオ再生と画像生成とを容易に同期させることができる。
【0011】
また、本発明のデジタルオーディオ再生装置は、上記のデジタルオーディオ再生装置において、前記第1のデコーダ部によってデコードされたデジタルオーディオデータは、分割された周波数帯域ごとの音圧値として音を表現したデータであり、前記感性データ算出部は、前記周波数帯域ごとの音圧値の分布を解析することにより、前記デジタルオーディオデータに対応した感性データを算出することを特徴とする。
【0012】
また、本発明のデジタルオーディオ再生装置は、上記のデジタルオーディオ再生装置において、前記感性データ算出部は、前記周波数帯域ごとの音圧値の分布の時間的な推移に基づいて前記感性データを算出することを特徴とする。
【0013】
また、本発明のデジタルオーディオ再生装置は、上記のデジタルオーディオ再生装置において、前記感性データ算出部は、前記デジタルオーディオデータに含まれるリズムの単位時間あたり拍数を求め、この単位時間あたり拍数に基づいて前記感性データを算出することを特徴とする。
なお、上記感性データには、感情種別のデータ、感情レベルのデータ、リズムのデータが含まれる。
【0014】
また、本発明のデジタルオーディオ再生装置は、上記のデジタルオーディオ再生装置において、前記感性データ算出部は、前記周波数帯域ごとの音圧値の分布に基づき、「快感」、「驚き」、「怯え」、「嬉しい」、「哀しい」の5種類の感情パラメータ値を算出し、これらの感情パラメータ値に基づいて感性データを算出することを特徴とする。
【0015】
また、本発明のデジタルオーディオ再生方法は、第1のデコーダ部が、デジタルオーディオデータをデコードする処理を行い、第2のデコーダ部が、前記第1のデコーダ部と並行してデジタルオーディオデータをデコードして出力する処理を行い、前記第2のデコーダ部によって出力されたデジタルオーディオデータを再生してオーディオ信号を出力するとともに、前記第1のデコーダ部によってデコードされたデジタルオーディオデータに基づいて、当該デジタルオーディオデータに対応した感性を表す感性データを算出し、前記感性データを蓄積しておき、この蓄積されている前記感性データを読み出し、この読み出された感性データに基づいて、前記オーディオ再生部によるデジタルオーディオデータの再生と同期的に画像を生成して出力することを特徴とするものである。
【0016】
また、本発明は、上記のデジタルオーディオ再生方法の処理をコンピュータに実行させるコンピュータプログラムである。
【0017】
【発明の実施の形態】
以下、図面を参照しこの発明の一実施形態について説明する。
図1は、この実施形態によるデジタルオーディオ再生装置の機能構成を示すブロック図である。図1において、符号1は、MP3形式のデジタルオーディオデータを記憶するMP3データ記憶部である。11は、MP3データ記憶部1から読み出されたMP3データをデコードするMP3デコーダ部(#1)である。具体的には、MP3デコーダ部(#1)11は、所定の方法によって圧縮されているMP3データを伸張することによって、周波数帯域毎のエネルギーの強さを表すデータを出力する。12は、MP3デコーダ部(#1)11から出力されるデータを基に感性データを算出する感性データ算出部である。感性データ算出部12は、内部に、感情の解析を行って種類およびそのレベルを出力する感情解析部121と、リズムの解析を行って単位時間あたりのリズム拍数(BPM、Beats Per Minute)を求めるとともにそのリズムのタイミングを出力するリズム解析部122とを備えている。この感性データ算出部12による具体的な感性データの算出方法は後で述べる。14は、感性データ算出部12によって出力される感性データを蓄積するための感性データ蓄積部である。15は、感性データ蓄積部14に蓄積された感性データを読み出して、その感性データに合ったアニメーション画像(視覚表現)を生成し、後述するオーディオ再生部22と同期しながらそのアニメーション画像をビデオ信号として出力するアニメーション画像生成部である。
【0018】
また、21は、オーディオ再生の目的で、MP3データ記憶部1から読み出されたMP3データをデコードするMP3デコーダ部(#2)21である。22は、MP3デコーダ部(#2)21によってデコードされたデータを基にオーディオを再生するオーディオ再生部である。具体的には、オーディオ再生部22は、MP3デコーダ部(#2)21から出力される周波数帯域毎のエネルギーの強さを表すデータを基に、逆フーリエ変換の処理を行うことによって時系列的な音圧レベルのデータを出力する。23は、オーディオ再生部22から出力されるデジタルデータをアナログ変換してアナログオーディオ信号として出力するD/A変換部である。
【0019】
次に、MP3データ記憶部(図1の符号1)に格納されているデータについて説明する。図2は、MP3データ記憶部に格納されるデジタルオーディオデータの構造の概略を示す概略図である。図2に示すように、デジタルオーディオデータは、通常、複数のトラックのデータから構成されている。本例では、トラック1から12までのデータが記憶されている。1トラックは、通常、音楽の1曲分あるいは1楽章分のデータに相当する。各トラックのデータそのもの(図2におけるトラック1データ,トラック2データ,・・・,トラック12データ)は、曲あるいは楽章など(以下、単に「曲等」という。)の時間的な長さや、データの圧縮率などによって異なる。つまり各トラックのデータそのものは可変長データである。また、各トラックのデータにダイレクトアクセスを可能にするために各トラックのデータの先頭へのポインタ(図2におけるトラック1ポインタ,トラック2ポインタ,・・・,トラック12ポインタ)が設けられている。
【0020】
次に、本実施形態におけるデジタルオーディオ再生装置の処理のタイミングについて説明する。図3は、MP3デコーダ部(#1)とMP3デコーダ部(#2)による処理のタイミングの関係を示すタイミングチャートである。なお、前述の通り、MP3デコーダ部(#1)によってデコードされたデータは感性データの算出のために用いられ、MP3デコーダ部(#2)によってデコードされたデータはオーディオ再生のために用いられる。以下、図3に沿って時系列的に説明する。
【0021】
まず、本デジタルオーディオ再生装置の利用者が、トラック1〜12を順次再生させるための操作を行うと、時刻t0において、MP3デコーダ部(#1)がトラック(TRK)1のデータを読み出しそのデコード処理を開始する。ここでデコードされたデータは感性データ算出のために用いられる。そして、時刻t1において、トラック1のデータのデコードおよびその感性データの算出が完了する。なお、算出された感性データは、感性データ蓄積部に一時的に蓄積されている。
次に、時刻t1から、MP3デコーダ部(#1)が、次のトラック2のデータを読み出しそのデコード処理を開始する。トラック1のときと同様に、デコードされたデータは感性データの算出のために用いられ、その感性データが順次、感性データ蓄積部に蓄積されていく。また、これと並行して、時刻t1から、MP3デコーダ部(#2)がトラック1のデータのデコード処理を開始する。このデコードされたデータは、オーディオ再生部によってオーディオ再生のために用いられる。つまり、時刻t1から、トラック1の曲等の再生が開始される。このとき、トラック1の曲等の再生と同期しながら、アニメーション画像生成部がトラック1用のアニメーション画像を生成し、ビデオ信号として出力する。
なお、トラックのデータを基に感性データの算出するために要する時間は、その再生の時間よりも短く、例えば、3分〜5分間程度の曲等に相当する感性データの算出は、5秒〜10秒程度で完了する。
【0022】
次に、時刻t2において、トラック1の曲等の再生の途中で、MP3デコーダ部(#1)によるトラック2のデコード処理およびそれに伴うトラック2の感性データの算出処理が完了すると、MP3デコーダ部(#1)は、トラック3のデコード処理を開始する。これに伴って、感性データ算出部はトラック3の感性データの算出を開始する。
時刻t3において、トラック1の曲等の再生の途中で、MP3デコーダ部(#1)によるトラック3のデコード処理およびそれに伴うトラック3の感性データの算出処理が完了したとき、MP3デコーダ部(#1)は、すぐにはトラック4のデコード処理を開始せず、処理を休止する。これは、本デジタルオーディオ再生装置が、現在再生中のトラック(相対値:0)を基準として、2トラック先のトラック(相対値:+2)まで先読みして感性データの算出を行うようになっているためである。
【0023】
次に、時刻t4において、MP3デコーダ部(#2)によるトラック1のデコード処理およびそれに伴うトラック1の再生処理が完了したとき、MP3デコーダ部(#2)は次のトラック2のデータのデコード処理を開始する。また、これに伴い、オーディオ再生部は、トラック2(相対値:0)の曲等の再生を開始する。
また、これと同時に、時刻t4において、MP3デコーダ部(#1)は、トラック4(相対値:+2)のデータのデコード処理を開始する。これに伴って、トラック4のデータの感性データの算出も開始される。
そして、時刻t5において、MP3デコーダ部(#1)によるトラック4のデータのデコード処理、および、感性データ算出部によるトラック4の感性データの算出が完了する。
【0024】
以下、同様に、新たなトラック(相対値:0)のデータのデコード処理がMP3デコーダ部(#2)によって開始され、それに伴ってそのトラック(相対値:0)の再生が開始されたときには、2トラック先のトラック(相対値:+2)のデータのデコード処理がMP3デコーダ部(#1)によって開始され、それに伴ってそのトラック(相対値:+2)の感性データの算出が開始される。
なお、最後のトラックまで感性データの算出が完了しているときには、もう、それ以上は感性データの算出は行われない。
また、あるトラック(相対値:0)の曲等の再生中は、その前のトラック(相対値:−1)の感性データまでは感性データ蓄積部にまだ保存されている。
つまり、定常状態において、感性データ蓄積部には、相対値が−1と0と+1と+2との4トラック分の感性データが蓄積されている。相対値が−2以下のトラックについては,記憶領域を有効活用するために感性データが削除される。
【0025】
次に、感性データ蓄積部(図1の符号14)に蓄積されるデータの構造について説明する。図4は、感性データ蓄積部に格納される感性データの構造の概略を示す概略図である。図4に示すように、感性データ蓄積部は、相対値(−1)から(+2)までのトラックについて、バッファ記憶領域内に各トラックの感性データを格納している。図示する例では、相対値:−1がトラック3、相対値:0がトラック4、相対値:+1がトラック5、相対値:+2がトラック6である。また、これらの各トラックの感性データへのポインタを設けることによって、各トラックの感性データの先頭にダイレクトにアクセスできるようになっている。なお、新たなトラックの感性データが算出される際には、空いている未使用領域が使用される。また、感性データが不要となったトラックについては、ポインタがはずれることによってそのトラック用の感性データが格納されていた領域が未使用領域に変わる。つまり、感性データが不要となったトラックについては、そのトラック用の感性データが実質的に消去される。
【0026】
以上のように、相対値(−1)から(+2)までのトラックの感性データを感性データ蓄積部に格納しておくことにより、再生対象のトラックが前のトラックまたは後のトラックに移動されたときにも、即座に感性データの利用したアニメーション画像の生成を開始できる。つまり、利用者の操作によって再生対象がトラック4からトラック3に移ったとき、即座にトラック3用の感性データの利用が開始できる。また、同様に、トラック4からトラック5に移ったとき、即座にトラック5用の感性データの利用が開始できる。また、トラック4の再生が終了してトラック5の再生が開始された時点で利用者の操作によってトラック6に移ったときも、既にトラック6の感性データはできているので、即座にトラック6用の感性データの利用が開始できる。
このような方法で、算出された感性データを蓄積することにより、前後のトラックへの移動が行われたときにも、感性データの算出のために利用者を待たせることなく、スムーズにトラックの移動を行って、曲等のオーディオ信号とアニメーションのビデオ信号の両方の出力を開始することができる。
【0027】
次に、アニメーション画像生成部(図1の符号15)がアニメーション画像を生成してビデオ信号を出力する際に、オーディオ再生部(図1の符号22)によるオーディオ再生と同期を取るための方法について説明する。
図5は、感性データ蓄積部(図1の符号14)に蓄積されている1トラック分(図示する例ではトラック3)の感性データの構造の概略を示す概略図である。図示するように、1トラック分の感性データには、3種類の配列が含まれている。
配列「Beat」は、当該トラックにおけるリズムに関する情報を格納するための配列である。配列「Emotion」は、当該トラックにおける感情に関する情報を格納するための配列である。これら「Beat」および「Emotion」を、まとめてアニメーションデータと称する。配列「Beat」および「Emotion」の各要素には、それぞれ、前回の動作を継続する時間の長さを表す数値(ミリ秒単位)と今回開始すべき動作の内容の情報とをセットで持っている。
配列「Anchor」には、ビデオとオーディオとの同期のために必要な情報が格納されており、この配列「Anchor」の要素は、次に説明する構造体である。
【0028】
図6は、上記の構造体データ(Anchor(アンカー)構造体)の内部構造を示す概略図である。なお、ここで、生成されるアニメーション画像は、ボディ(身体)およびフェイス(顔)の状態が変化するキャラクタを表す画像である。そして、この構造体のメンバである「dwBodyIndex」は、アニメーションデータ内のボディに関する参照位置である。また、メンバ「dwBodyAdjust」は、ボディの動きのための調整時間をミリ秒単位の数値で保持する。また、メンバ「dwFaceIndex」は、同じくアニメーションデータ内のフェイスに関する参照位置である。また、メンバ「dwFaceAdjust」は、フェイスの動きのための調整時間をミリ秒単位の数値で保持する。また、メンバ「dwFilePointer」は、デコードされたオーディオデータ(MP3データ)内の参照位置へのポインタ(約38分の1秒の長さを持つ「フレーム」の先頭位置へのポインタ)である。また、メンバ「dwTime」は、当該トラックのここまでの演奏時間をミリ秒単位の数値で保持する。メンバ「dwReserve1」および「dwReserve2」は、未使用の予約領域である。
【0029】
つまり、上記のアンカー構造体は、MP3データの再生位置に関する情報(dwFilePointerおよびdwTime)と当該再生位置において生成すべき画像に関する情報(dwBodyIndex、dwBodyAdjust、dwFaceIndex、dwFaceAdjust)との組を表すデータである。そして、このアンカー構造体を要素とする配列は、上記組を時系列的に表すデータである。
【0030】
オーディオデータのシーク位置と、動作の開始時点とが常に一致するとは限らないため、それを補正する必要がある。この補正情報が、それぞれ、上記構造体におけるメンバ「dwBodyAdjust」および「dwFaceAdjust」である。
【0031】
シーク時の同期のための処理手順の概要は、次の通りである。
(1)「dwBodyIndex」、「dwFaceIndex」の位置にアニメーションデータの参照位置を移動する。
(2)その位置の「Beat」、「Emotion」の「dwTime」から、「dwBodyAdjust」あるいは「dwFaceAdjust」を引いた数値を出力する。このとき、前回のモーションが何であるかはわからないので、シーク前の動きを引き継ぐ。
(3)後は通常の流れ通りにアニメーションデータを取得しながら再生する。
【0032】
「dwTime」は、今の動きが完成するまでの時間であり、前回の動きを継続する時間である。例えば、「間奏:0、1stリズム:2000」と指定されたとき、アニメーション画像生成部は、2000ミリ秒後に1stリズムの動きを完了するようにアニメーション画像を生成する。
【0033】
次に、感情解析部(図1の符号121)の詳細な処理手順について説明する。図7は、感情解析部による処理の手順を示すフローチャートである。図示するように、感情解析部は、まずステップS1において入力されるデータを基に5つの音域への分割の処理を行い、ステップS2においてこれら5つの音域の音圧値を基に感情パラメータを算出する処理を行い、ステップS3において算出された感情パラメータを基に判定を行う。判定結果として、インデックス、感情種類、感情レベル、継続時間、補間フラグの組の時系列データが出力される。
【0034】
上記インデックスは、0から始まるシーケンシャルな値である。
上記感情種類は、「無表情(default )」、「快感(pleasure)」、「驚き(surprise)」、「怯え(fear)」、「嬉しい(happy )」、「哀しい(sad )」のいずれかである。
感情種類が「快感」、「驚き」、「怯え」、「嬉しい」、「哀しい」のいずれかであるとき、上記感情レベルは1以上5以下のいずれかの整数の値を取る。また、感情種類が「無表情」のとき、感情レベルの値は「なし」である。
上記継続時間は、秒単位の数値であり、1以上の値を取る。
上記補間フラグは、0(「OFF」を表わす)あるいは1(「ON」を表わす)のいずれかの値を取る。
【0035】
時系列の音楽データを処理する際の初期値は、インデックス=0、感情種類=「無表情」、感情レベル=「なし」、継続時間=「1」、補間フラグ=「1」とする。
【0036】
以下に、処理をさらに詳細に説明する。図7の符号D1は、感情解析部に入力される周波数帯域ごとの音圧値情報である。この段階では、576本の周波数帯域それぞれの音圧値情報が保持されている。また、元のMP3データのサンプリング周波数は44100Hzである。つまり、分割された周波数帯域ごとの音圧値として音を表現したデジタルデータを入力として、周波数帯域ごとの音圧値の分布を以下の方法で解析することにより、前記の音に関連する感性データを算出する。
【0037】
ステップS1においては、音圧値情報(D1)を基に、次の5段階の音域ごとの平均音圧値を算出し、音圧値情報(D2)として出力する。その5段階の音域とは、低音部(0Hz〜76.5625Hz)、中低音部(229.6875Hz〜1990.625Hz)、中高音部(7005.469Hz〜10029.69Hz)、高音部(10029.69Hz〜14967.97Hz)、最高音部(15006.25Hz〜17992.19Hz)の5つである。
つまり、ここでは、周波数帯域全体を、10個以下の周波数帯域グループに分割し、この周波数帯域グループごとの音圧値を用いた解析を行う。
【0038】
また、ステップS1においては、音階分割により、長音要素と短音要素の抽出を行う。この抽出のために、まず、0Hz〜497.6563Hzの帯域を13の領域に均等分割し、497.6563Hz〜22050Hzの帯域を63の領域に音階分割する。そして、そのうちの497.6563Hz〜2028.906Hzの2オクターブ分の24個の音階領域の音圧値が所定の閾値より大きいかどうかを判断する。
【0039】
上記24個の音階領域のうち、1番目、3番目、5番目、8番目、10番目、12番目、13番目、15番目、17番目、20番目、22番目、24番目の領域が長音要素である。これらの長音要素のうち、1番目と13番目とは1オクターブ離れた領域であるため、この2つの領域の音圧値が共に閾値より大きければ、長音要素を+1としてカウントする。また同様に、3番目と15番目の領域、5番目と17番目の領域、8番目と20番目の領域、10番目と22番目の領域、12番目と24番目の領域がそれぞれ互いに1オクターブ離れた領域であり、2つの領域の音圧値が共に閾値より大きい場合に、それぞれ長音要素を+1としてカウントする。
また、上記24個の音階領域のうち、2番目と14番目、4番目と16番目、6番目と18番目、7番目と19番目、9番目と21番目、11番目と23番目がそれぞれ互いに1オクターブ離れた領域のペアであり、各ペアごとに、2つの領域の音圧値が共に閾値より大きい場合に、それぞれ短音要素を+1としてカウントする。
この抽出の処理の結果、長音要素および短音要素は、それぞれ0以上6以下のいずれかの整数の値を取る。
【0040】
次に、ステップS2では、音圧値情報D2を基に感情パラメータを算出する処理を行う。感情パラメータには優先順位が設定されており、「快感」の優先度が1、「驚き」の優先度が2、「怯え」の優先度が3、「嬉しい」および「哀しい」の優先度がともに4となっている。
なお、上記5種類の感情パラメータ値がすべて「0」のときは、「無表情」に該当する。
【0041】
また、ステップS3では、算出された感情パラメータに基づく判定を行い、感性データを求める処理を行う。また、この判定においては、図1に示したリズム解析部によるリズム解析の結果も一部で用いられる。リズム解析の結果とは、例えば、ビート間の時間間隔がどの程度の長さかといったことである。
なお、感情パラメータ値算出の際には、音圧値がL1以下の音を無視する。
【0042】
「快感(Pleasure)」に関する処理は、次の通りである。
[条件1] ビート間の時間間隔がT3以上で、かつ、中低音部から高音部までのいずれかの音圧のピークが高音方向に時間的にT4以上移動した場合は、「快感」の感情パラメータのカウントを+1する。この条件に合致するとき、当該感情は、対象の音が鳴り始めてから時間T4経過時点から、対象の音が鳴りやんでから時間T2経過時点まで継続するものとする。つまり、本実施形態においては、この継続時間の間は、「快感」データに基づくアニメーションが生成され、出力される。
[条件2] 低音域の音圧値がL7以上で、かつ、高音部の平均音圧値がL4以上である場合で、平均音圧値がL6以上の時、前回までのビート間の平均時間間隔から今回のビート間時間間隔を差し引いた値がT1以上である、または、前回の判定結果が「驚き」の場合は「快感」の感情パラメータのカウントを+2する。この条件に合致するとき、当該感情は、対象の音が鳴り始めてから時間T4が経過した時点から始まるものとする。
【0043】
つまり、上記条件2が適用される場合には、分割された周波数帯域グループごとの平均音圧値に基づいて感性データが算出される。
また、上記条件1が適用される場合には、周波数帯域グループ内において、音圧値のピークとなる周波数帯域が時間的にどのように推移するかに基づいて感性データが算出される。
また、上記条件1が適用される場合には、元のデジタルデータに基づき音に含まれるリズムの単位時間あたり拍数が求められ、この単位時間あたり拍数に基づいて感性データが算出される。上記の「ビート間の時間間隔」は単位あたり拍数の逆数から求められる。
なお、「快感」の感情の優先順位は最も高い「1」であるため、上記の条件1あるいは条件2のいずれかにあてはまる場合は、他の感情を無視する。
【0044】
「驚き(Surprise)」に関する処理は、次の通りである。
上述した「快感」の条件に該当しない場合は、下記の条件により「驚き」に該当するかどうかをチェックする。
【0045】
[条件1] 全音域の平均音圧値がL3以下の音が無い状態から、低音部のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+4し、その音が鳴りつづけた時間を継続時間とする。ただし、下記の条件2を満たす場合は無視をする。
[条件2] 全音域の平均音圧値がL2以下の音が無い状態から、低音部のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+5し、その音が鳴りつづけた時間を継続時間とする。
【0046】
[条件3] 全音域の平均音圧値がL3以下の音が無い状態から、低音部以外のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+1し、その音が鳴りつづけた時間を継続時間とする。ただし、下記の条件4を満たす場合は無視をする。
[条件4] 全音域の平均音圧値がL2以下の音が無い状態から、低音部以外のピークの音圧値がL7以上の音を最初に取得した場合は、「驚き」の感情パラメータのカウントを+2し、その音が鳴りつづけた時間を継続時間とする。
[条件5] 最高音部の音が時間T4以上続いた場合、または最高音部の音が存在し、かつ中高音部の平均音圧値がL4以下の場合は、「驚き」の感情パラメータのカウントを+3し、その音が鳴りつづけた時間を継続時間とする。
なお、「驚き」の感情の優先順位は「快感」のそれに次ぐ「2」であるため、上記の条件1から5までのいずれかにあてはまる場合は、他の優先順位の低い感情を無視する。
【0047】
「怯え(Fear)」に関する処理は、次の通りである。
上述した「快感」あるいは「驚き」のいずれの条件にも該当しない場合は、下記の条件により「怯え」に該当するかどうかをチェックする。
【0048】
[条件1] 中低音部から高音部までのいずれかの音圧値のピークが低音方向に時間的にT4以上移動した場合は、「怯え」の感情パラメータのカウントを+1する。
[条件2] 中低音部から高音部までのいずれかの音圧値のピークが低音方向に時間的にT4以上移動し、続けて高音方向に時間的にT4以上移動した場合は、「怯え」の感情パラメータのカウントを+4する。
[条件3] 中低音部から高音部までのいずれかの音圧値のピークが低音方向に移動中に高音方向に揺れた回数Nが42以上の場合、「怯え」の感情パラメータのカウントを+(N/16)する。
【0049】
なお、「怯え」データに基づくアニメーションの変化の始点は対象の音が鳴り始めてから時間T4経過後とし、同じくアニメーションの変化の終点は対象の音が鳴りやんでから時間T2経過後とする。
なお、「怯え」の感情の優先順位は「驚き」のそれに次ぐ「3」であるため、上記の条件1から3までのいずれかにあてはまる場合は、他の優先順位の低い感情を無視する。
【0050】
上述した「快感」、「驚き」、「怯え」のいずれの条件にも該当しない場合は、下記の条件により「嬉しい」または「哀しい」に該当するかどうかをチェックする。
【0051】
「嬉しい(Happy)」に関する処理は、次の通りである。
[条件1] ビートがある場合は、「嬉しい」の感情パラメータのカウントを+1する。
[条件2] ビート間の時間間隔がT7以下の場合は、「嬉しい」の感情パラメータのカウントを+1する。
[条件3] 高音部の平均音圧値がL4以上の場合は、「嬉しい」の感情パラメータのカウントを+1する。
[条件4] 上記の条件3を満たし、かつ、中低音部の音圧値のピークが5つ以上あった場合は、「嬉しい」の感情パラメータのカウントを+2する。
[条件5] 上記の条件3を満たし、かつ、上記の条件4をみたし、かつ、低音部の平均音圧値がL5以下の場合は、「嬉しい」の感情パラメータのカウントを+2をする。
[条件6] 抽出された長調要素−短調要素の数値が2以上の場合は、「嬉しい」の感情パラメータのカウントを+1する。
【0052】
なお、「嬉しい」データに基づくアニメーションの変化の始点の時間的な誤差は±T2とする。また、同じくアニメーションの変化の終点の時間的な誤差も±T2とする。
【0053】
「哀しい(Sad)」に関する処理は、次の通りである。
[条件1] ビート間の時間間隔がT5以上である場合+は、「哀しい」の感情パラメータのカウントを+1する。
[条件2] ビートがない場合は、「哀しい」の感情パラメータのカウントを+2する。
[条件3] 中低音部に時間T4以上続く音圧値のピークがあった場合は、「哀しい」の感情パラメータを+1し、音が鳴り続けている時間を継続時間とする。ただし、下記の条件4を満たす場合は無視をする。
[条件4] 中低音部に時間T6以上続く音圧値のピークがあった場合は、「哀しい」の感情パラメータを+2し、音が鳴り続けている時間を継続時間とする。
【0054】
[条件5] 高音部に音圧値のピークが3つ以上あった場合は、「哀しい」の感情パラメータを+1する。
[条件6] 全領域の平均音圧値がL3以上の音が無い状態の場合は、「哀しい」の感情パラメータを+1する。
[条件7] 全領域の平均音圧値がL3以上の音が時間T2以上無い場合は、「哀しい」の感情パラメータを+1する。
[条件8] 中高音部と高音部の平均音圧値がL3以下であり、中低音部の音のみを取得した場合は、「哀しい」の感情パラメータを+2する。
[条件9] 短調要素−長調要素の数値が2以上の場合は、「哀しい」の感情パラメータを+1する。
【0055】
なお、「哀しい」データに基づくアニメーションの変化の始点の時間的な誤差は±T2とする。また、同じくアニメーションの変化の終点の時間的な誤差も±T2とする。
【0056】
以上述べたように、「快感」、「驚き」、「怯え」、「嬉しい」、「哀しい」の感情について、それぞれ定義された条件でのチェックが行われる。
そして、優先順位の高い感情から順に、「快感」、「驚き」、「怯え」のいずれかのカウント結果が1以上である場合に、その感情が感情種類として判定される。また、そのときのカウント値が感情レベルとされる。但し、カウントが5を超える場合は、感情レベルを5とする。
【0057】
なお、感情種類が「怯え」で、かつ同一の感情レベルである状態が時間T5以上継続した場合には、時間T5ごとに再チェックを行う。
また、感情種類が「快感」のまま、感情レベルが2から1へ移行した場合は、以後の感情レベルも2とみなし、感情レベル2を継続させるものとする。
【0058】
「快感」、「驚き」、「怯え」のカウント値がいずれも0である場合で、「嬉しい」あるいは「哀しい」のカウント値の少なくとも一方が1以上である場合には、次に述べる方法で「嬉しい」および「哀しい」のカウント値を比較する。まず、前回の「嬉しい」のカウント値と現在の「嬉しい」のカウント値とから、これらの平均値を求める。次に、前回の「哀しい」のカウント値と現在の「哀しい」のカウント値とから、これらの平均値を求める。そして、「嬉しい」の平均値と「哀しい」の平均値とを比較する。
【0059】
上記の「嬉しい」の平均カウント値のほうが大きい場合には、感情種類を「嬉しい」とするとともに、「嬉しい」の平均カウント値から「哀しい」の平均カウント値を引いた値を感情レベルとする。逆に、「哀しい」の平均カウント値のほうが大きい場合には、感情種類を「哀しい」とするとともに、「哀しい」の平均カウント値から「嬉しい」の平均カウント値を引いた値を感情レベルとする。
「嬉しい」の平均カウント値と「哀しい」の平均カウント値とが等しい場合には、前回のカウント値同士を比較し、大きい方のカウント値を持つほうを感情種類として選択するとともに、この場合の感情レベルを1とする。
【0060】
但し、「嬉しい」と「哀しい」のカウント値を用いた判定に関して、上記の規則に関わらず、次の2つの例外パターンに該当する場合には、これを適用するものとする。
第1の例外パターンは、「嬉しい」のカウント値が5で、かつ、「哀しい」のカウント値が5である場合であり、このときは、感情種類を「快感」とし、感情レベルを2とする。
第2の例外パターンは、「怯え」のカウント値が3以上で、かつ、「哀しい」のカウント値が4以上の場合であり、このときは、感情種類を「哀しい」とし、感情レベルを5とする。
【0061】
なお、上記5種類のいずれの感情についても、カウント値の結果がすべて0である場合には、感情種類は「無表情」であると判定される。
【0062】
次に、補間フラグに関する判定方法を説明する。補間フラグのデフォルト値は1(ON)であるが、次の2通りのいずれかに該当する場合に限り、補間フラグを0(OFF)とする。第1に、同じ感情種類が時間T6以上継続した場合には補間フラグを0とする。第2に、前回の感情種類が「嬉しい」または「哀しい」であり、そこから感情種類「快感」に遷移する場合には補間フラグを0とする。
【0063】
上述した感情パラメータの算出および感情の判定等の処理において、時間T1〜T6については、T1<T2<T3<T4<T5<T6の関係を満たす適切な値を用いることとする。なお、T1はほぼ数百ミリ秒程度、T6はほぼ数千ミリ秒程度である。また、音圧値レベルL1〜L7については、L1<L2<L3<L4<L5<L6<L7の関係を満たす適切な値を用いることとする。一例としては、L1は−50dB(デシベル)程度、L7は−20dB程度の値を用いる。
【0064】
次に、リズム解析部(図1の符号122)における処理について説明する。
リズム解析部には、伸長部によって伸長されたデータが入力される。この入力データは、前述のように、周波数領域ごとの音圧値情報を時系列的に持つものである。このような入力データを基に、リズム解析部は音楽のリズムを解析し、その音楽のbpm値(beats per minute,1分あたりビート数,単位時間あたり拍数)を算出して出力する。
【0065】
リズム解析の処理においては、次の事項を前提とする。第1に、少なくとも一定時間以上は曲のリズムは一定のbpm値で正確に刻まれることとする。第2に、1拍あたり2回、ノイズ系の音が含まれることとする。例えば、曲が4分の4拍子である場合には、4拍の間に8回ノイズ系の音が含まれる。ここで、ノイズ系の音とは、例えばシンバル等の音である。
ノイズ系の音は、ほぼ全周波数帯域に渡って音圧変化があることが特徴である。従って、各周波数帯域ごとにフレーム間の音圧変化量を求め、全周波数にわたって連続的に音圧変化量が所定の閾値以上となる場合にこれをノイズ系の音として検出できる。
【0066】
そして、ノイズ系の音はリズムに応じて所定のタイミングの箇所に多く集中するという傾向があることから、このノイズ系の音を検出し、この検出間隔をフレーム(1フレームは約0.0261秒)単位で求める。この段階では、検出される間隔は、一定ではなく、フレーム数ごとの度数の分布として得られる。得られた分布を基に、補正を加えて、拍の間隔を決定することによってbpm値を求めることとする。
つまり、前記第2の前提によると1拍あたり2回のノイズ系の音が含まれるため、求められたノイズ間隔F(フレーム単位)を用いると、bpm値は、次の式で得られる。すなわち、
bpm値=60 [秒/分] / (2*F [フレーム] *0.0261 [秒/フレーム])
【0067】
上述のデジタルオーディオ再生装置は内部に、コンピュータシステムを有している。そして、上述したデコード、感性データ算出、アニメーション画像生成などの各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
【0068】
以上、図面を参照してこの発明の実施形態を詳述してきたが、具体的な構成はこれらの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
たとえば、上記実施形態では、+2トラック先まで先読みして感性データを算出したが、一般にNトラック(Nは自然数)先まで先読みするようにしても良い。また、上記実施形態では、1トラック前(つまり、−1トラック先)まで感性データを保存して、さらにそれ以前のトラックの感性データは消去するようにしたが、一般にMトラック(Mは自然数)前までの感性データを保存するようにしても良い。
また、上記実施形態ではデジタルオーディオデータを入力することとしたが、オーディオデータに限らず、デジタルデータとして表された他のコンテンツデータを入力としても良い。また、上記実施形態ではアニメーション画像を生成することとしたが、アニメーションに限らず、一般に画像又は映像、あるいは画像以外のデジタルコンテンツを生成するようにしても良い。
【0069】
【発明の効果】
以上説明したように、この発明によれば、オーディオ再生と画像生成とを容易に同期させることができる。また、同時並行的に動作する第1および第2のデコーダ部を備え、第1のデコーダ部によってデコードされたデータを基に算出される感性データを蓄積しておくため、トラックを移動した際にも、即座に蓄積された感性データを読み出して、オーディオ再生と画像生成とを同期的に開始することができる。
よって、感性データの算出や視覚表現の生成に要する処理時間によって利用者に不自然な感じを与えることなく、オーディオ出力と視覚表現出力とに一体感を持たせることが可能となる。
【図面の簡単な説明】
【図1】この発明の一実施形態によるデジタルオーディオ再生装置の機能構成を示すブロック図である。
【図2】同実施形態においてMP3データ記憶部に格納されるデジタルオーディオデータの構造の概略を示す概略図である。
【図3】同実施形態におけるMP3デコーダ部(#1)とMP3デコーダ部(#2)による処理のタイミングの関係を示すタイミングチャートである。
【図4】同実施形態において感性データ蓄積部に格納される感性データの構造の概略を示す概略図である。
【図5】同実施形態による感性データ(1トラック分)の構造の概略を示す概略図である。
【図6】同実施形態による感性データに含まれる構造体データ(Anchor構造体)の内部構造を示す概略図である。
【図7】同実施形態による感情解析部による感情解析処理の手順を示すフローチャートである。
【符号の説明】
1 MP3データ記憶部
11 MP3デコーダ部(#1)
12 感性データ算出部
14 感性データ蓄積部
15 アニメーション画像生成部
21 MP3デコーダ部(#2)
22 オーディオ再生部
23 D/A変換部
121 感情解析部
122 リズム解析部
Claims (12)
- デジタルデータをデコードする処理を行う第1のデコーダ部と、
前記第1のデコーダ部と並行してデジタルデータをデコードして出力する処理を行う第2のデコーダ部と、
前記第2のデコーダ部によって出力されたデジタルデータを再生する再生部と、
前記第1のデコーダ部によってデコードされたデジタルデータに基づいて、当該デジタルデータに対応した感性を表す感性データを算出する感性データ算出部と、
前記感性データを蓄積する感性データ蓄積部と、
前記感性データ蓄積部に蓄積されている前記感性データを読み出し、この読み出された感性データに基づいて、前記再生部によるデジタルデータの再生と同期的に他のコンテンツを生成して出力するコンテンツ生成部と
を具備することを特徴とするデジタルデータ再生装置。 - デジタルオーディオデータをデコードする処理を行う第1のデコーダ部と、
前記第1のデコーダ部と並行してデジタルオーディオデータをデコードして出力する処理を行う第2のデコーダ部と、
前記第2のデコーダ部によって出力されたデジタルオーディオデータを再生するオーディオ再生部と、
前記第1のデコーダ部によってデコードされたデジタルオーディオデータに基づいて、当該デジタルオーディオデータに対応した感性を表す感性データを算出する感性データ算出部と、
前記感性データを蓄積する感性データ蓄積部と、
前記感性データ蓄積部に蓄積されている前記感性データを読み出し、この読み出された感性データに基づいて、前記オーディオ再生部によるデジタルオーディオデータの再生と同期的に画像を生成して出力する画像生成部と
を具備することを特徴とするデジタルオーディオ再生装置。 - 請求項2に記載のデジタルオーディオ再生装置において、
前記デジタルオーディオ再生装置は、複数のトラックのデジタルオーディオデータを記憶するデジタルオーディオデータ記憶部を具備し、
前記第2のデコーダ部は、前記デジタルオーディオデータ記憶部から所定の順序に従って前記複数のトラックのデジタルオーディオデータを順次読み出して、この読み出されたトラックのデジタルオーディオデータをデコードして出力するものであり、
前記第1のデコーダ部は、前記第1のデコーダ部によってデコードされているトラックからNトラック(Nは自然数)先までのトラックのデジタルオーディオデータを前記デジタルオーディオデータ記憶部から先読みしてデコードするものであり、
前記感性データ蓄積部は、前記第1のデコーダ部によってデコードされているトラックからNトラック(Nは自然数)先までのトラックのデジタルオーディオデータに対応した感性データを蓄積するものである
ことを特徴とするデジタルオーディオ再生装置。 - 請求項3に記載のデジタルオーディオ再生装置において、
前記感性データ蓄積部は、前記第1のデコーダ部によってデコードされているトラックからMトラック(Mは自然数)前までのトラックのデジタルオーディオデータに対応した感性データを保存しておくとともに、それより更に前のトラックのデジタルオーディオデータに対応した感性データを消去するものであることを特徴とするデジタルオーディオ再生装置。 - 請求項4に記載のデジタルオーディオ再生装置において、
N=2であり、M=1であることを特徴とするデジタルオーディオ再生装置。 - 請求項2に記載のデジタルオーディオ再生装置において、
前記感性データは、前記デジタルオーディオデータの再生位置に関する情報と当該再生位置において生成すべき画像に関する情報との組を時系列的に表すデータを含むものであることを特徴とするデジタルオーディオデータ再生装置。 - 請求項2に記載のデジタルオーディオ再生装置において、
前記第1のデコーダ部によってデコードされたデジタルオーディオデータは、分割された周波数帯域ごとの音圧値として音を表現したデータであり、
前記感性データ算出部は、前記周波数帯域ごとの音圧値の分布を解析することにより、前記デジタルオーディオデータに対応した感性データを算出する
ことを特徴とするデジタルオーディオ再生装置。 - 請求項7に記載のデジタルオーディオ再生装置において、
前記感性データ算出部は、前記周波数帯域ごとの音圧値の分布の時間的な推移に基づいて前記感性データを算出することを特徴とするデジタルオーディオ再生装置。 - 請求項7に記載のデジタルオーディオ再生装置において、
前記感性データ算出部は、前記デジタルオーディオデータに含まれるリズムの単位時間あたり拍数を求め、この単位時間あたり拍数に基づいて前記感性データを算出することを特徴とするデジタルオーディオ再生装置。 - 請求項7に記載のデジタルオーディオ再生装置において、
前記感性データ算出部は、前記周波数帯域ごとの音圧値の分布に基づき、「快感」、「驚き」、「怯え」、「嬉しい」、「哀しい」の5種類の感情パラメータ値を算出し、これらの感情パラメータ値に基づいて感性データを算出することを特徴とするデジタルオーディオ再生装置。 - 第1のデコーダ部が、デジタルオーディオデータをデコードする処理を行い、
第2のデコーダ部が、前記第1のデコーダ部と並行してデジタルオーディオデータをデコードして出力する処理を行い、
前記第2のデコーダ部によって出力されたデジタルオーディオデータを再生してオーディオ信号を出力するとともに、
前記第1のデコーダ部によってデコードされたデジタルオーディオデータに基づいて、当該デジタルオーディオデータに対応した感性を表す感性データを算出し、
前記感性データを蓄積しておき、
この蓄積されている前記感性データを読み出し、この読み出された感性データに基づいて、前記オーディオ再生部によるデジタルオーディオデータの再生と同期的に画像を生成して出力する
ことを特徴とするデジタルオーディオ再生方法。 - 請求項11に記載のデジタルオーディオ再生方法の処理をコンピュータに実行させるコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002173049A JP2004029047A (ja) | 2002-06-13 | 2002-06-13 | デジタルオーディオ再生装置およびデジタルオーディオ再生方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002173049A JP2004029047A (ja) | 2002-06-13 | 2002-06-13 | デジタルオーディオ再生装置およびデジタルオーディオ再生方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004029047A true JP2004029047A (ja) | 2004-01-29 |
Family
ID=31172449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002173049A Pending JP2004029047A (ja) | 2002-06-13 | 2002-06-13 | デジタルオーディオ再生装置およびデジタルオーディオ再生方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004029047A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010134908A (ja) * | 2008-10-31 | 2010-06-17 | Sony Computer Entertainment Inc | 端末装置、画像表示方法、およびプログラム |
-
2002
- 2002-06-13 JP JP2002173049A patent/JP2004029047A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010134908A (ja) * | 2008-10-31 | 2010-06-17 | Sony Computer Entertainment Inc | 端末装置、画像表示方法、およびプログラム |
US9529493B2 (en) | 2008-10-31 | 2016-12-27 | Sony Corporation | Terminal, image display method and program for displaying music-related images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9147388B2 (en) | Automatic performance technique using audio waveform data | |
JP3560936B2 (ja) | 感性データ算出方法および感性データ算出装置 | |
GB2422755A (en) | Audio signal processing | |
JPH07140991A (ja) | カラオケ装置 | |
CN102811330B (zh) | 对运动图像配上音乐来再生的运动图像再生装置及其方法 | |
JP2009063714A (ja) | オーディオ再生装置およびオーディオ早送り再生方法 | |
JP2002108382A (ja) | リップシンクを行うアニメーション方法および装置 | |
JP2010113278A (ja) | 楽曲処理装置およびプログラム | |
JP7367835B2 (ja) | 録音再生装置、録音再生装置の制御方法及び制御プログラム並びに電子楽器 | |
JP2004029047A (ja) | デジタルオーディオ再生装置およびデジタルオーディオ再生方法 | |
JP2011059419A (ja) | 再生速度同期装置、再生速度同期方法、呼吸分布付きコンテンツのデータ構造、プログラム及び記録媒体 | |
Driedger | Time-scale modification algorithms for music audio signals | |
JP3843199B2 (ja) | 音の時間伸長装置、方法、および音の時間伸長プログラムを記録した記録媒体 | |
JP2970396B2 (ja) | 波形処理装置 | |
WO2010146624A1 (ja) | 音声信号処理装置のタイムスケーリング方法、音声信号処理装置のピッチシフト方法、音声信号処理装置およびプログラム | |
JP5359203B2 (ja) | 楽曲処理装置およびプログラム | |
JP4537490B2 (ja) | オーディオ再生装置およびオーディオ早送り再生方法 | |
JP4152502B2 (ja) | 音響信号の符号化装置および符号データの編集装置 | |
JP4714230B2 (ja) | 音声処理装置、音声処理方法、ならびに、プログラム | |
JP4422538B2 (ja) | 音付映像の再生装置 | |
JP4043126B2 (ja) | 波形再生装置の制御データ生成装置 | |
JP3659121B2 (ja) | 楽音信号の分析・合成方法、楽音信号合成方法、楽音信号合成装置および記録媒体 | |
JP3862839B2 (ja) | 波形圧縮伸長装置 | |
JP2017021212A (ja) | 音声生成方法、音声生成装置、プログラム、及び記録媒体 | |
De Poli et al. | Sound modeling: signal-based approaches |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050118 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050322 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050506 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051004 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060214 |