JP2003330477A - 音響処理装置および音響処理用データの配信方法 - Google Patents

音響処理装置および音響処理用データの配信方法

Info

Publication number
JP2003330477A
JP2003330477A JP2002140135A JP2002140135A JP2003330477A JP 2003330477 A JP2003330477 A JP 2003330477A JP 2002140135 A JP2002140135 A JP 2002140135A JP 2002140135 A JP2002140135 A JP 2002140135A JP 2003330477 A JP2003330477 A JP 2003330477A
Authority
JP
Japan
Prior art keywords
sound
data
processing
impulse response
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002140135A
Other languages
English (en)
Other versions
JP4055054B2 (ja
Inventor
Takashi Matsushige
隆 松重
Yoshiyuki Kobayashi
由幸 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002140135A priority Critical patent/JP4055054B2/ja
Publication of JP2003330477A publication Critical patent/JP2003330477A/ja
Application granted granted Critical
Publication of JP4055054B2 publication Critical patent/JP4055054B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

(57)【要約】 【課題】 聴き手により豊かな臨場感を与えることがで
きる音響処理が簡単にできる音響処理装置、および、そ
れに用いる音響処理用データをユーザが手軽に手に入れ
られるようにする音響処理用データの配信方法を提供す
る。 【解決手段】 現実の音響空間で採取されたインパルス
応答データを含む処理用コンテンツデータ8Cをオーデ
ィオソース7からの原音にたたみ込むという音響処理を
施すと共に、音響処理音の出力と並行して、その出力中
の音響処理音が形作る音場に対応した画像を表示装置3
に表示する。ユーザは、聴覚的にも視覚的にも臨場感の
あるリアルな仮想視聴体験ができる。たたみ込み処理は
ソフトウェアを用いて行う。ユーザは、自分の所持して
いるパーソナルコンピュータを用いて自分が既に所有し
ているCD等に収録された音楽等に対して手軽に音響処
理を施すことができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、収録済の原音に対
して所定の音響処理を施すための音響処理装置、およ
び、実在の音響空間の響きに対応して得られた音響処理
用データの配信に適用される音響処理用データの配信方
法に関する。
【0002】
【従来の技術】オーディオ信号に対して効果音を付加す
るための装置の1つとして、残響付加装置(リバーブレ
ータ:reverberator)が知られている。この装置は、例
えば録音スタジオでオーディオ信号に残響音を付加し、
音に広がりや深みを出すために多く用いられている。ス
タジオ等で録音された音に残響音を付加することで、実
際にホールで演奏されているような効果や、さらに特殊
な効果を与えることができる。
【0003】古くは、残響音の付加は、実際にホール等
の残響音を得られるような場所で録音を行うか、あるい
は、鉄板やスプリング等の機械的振動を利用して残響音
的な効果を得るようにした鉄板エコー装置やスプリング
エコー装置等を用いて行われていた。
【0004】実際にホール等で録音を行うと、より自然
な残響音を得ることができる。しかしながら、実際のホ
ールでは、残響音に関するパラメータ(例えば、残響時
間等)を変更できないこと、瞬時にマイクロホンの位置
や銘柄(特性)を変えることができないこと、膨大な機
材が必要なこと、および空調機器等の騒音がありS/N
が悪いこと、等の問題点がある。また、鉄板エコー装置
やスプリングエコー装置のような機械式の残響付加装置
は、経年変化がありメンテナンスが大変であると共に、
機械式なので、振動や外来のノイズに弱い。さらに、残
響時間の調整可能範囲が制限されることに加え、再現性
にも乏しい。さらに、装置自身が重厚長大であること、
およびS/Nが悪いこと、等の問題点もある。
【0005】近年の残響付加装置では、これらの効果が
電気的に実現されている。さらに、最近では、ディジタ
ル信号処理技術の発達に伴い、ディジタル的に残響音を
合成するような方法が普及してきている。この方法の1
つに、例えば巡回型のディジタルフィルタを用いる方法
がある。この方法では、入力されたディジタルオーディ
オ信号が減衰されながら巡回され、残響音が生成され
る。この残響音を元のディジタルオーディオ信号に混合
する。実際には、直接音に対して所定期間遅延された位
置に初期反射音が加えられ、さらに所定期間後に残響音
が加えられる。直接音に対する残響音の遅延時間は、プ
リディレイと称される。この方法によれば、残響時間の
調整、副残響音の付加、および細かなレベル調整等を行
うことが可能で、幅広い音作りができる。
【0006】ところで、実際のホール等での残響音は、
ホールの形状や音源の位置等により、音が様々に反射や
干渉等を起こし、より複雑な波形となっている。しかし
ながら、上記した方法のように、ディジタルフィルタを
用いて元のディジタルオーディオ信号をフィルタ処理す
るようにした場合には、単純に減衰した波形が得られる
だけなので、どうしても人工的な印象を免れなかった。
また、上記の方法では、元の信号をフィルタ処理により
巡回させるようにしているので、入力がなくなった後の
最終的な残響音のピッチが、巡回型フィルタ内部のフィ
ードバックループのピッチとなってしまい、高品位で自
然な残響音を得ることができなかった。
【0007】
【発明が解決しようとする課題】そこで、実際にホール
や鉄板エコー等で残響音を発生させて、この残響音に基
づきインパルス応答を収集し、収集されたインパルス応
答をフィルタ処理により入力データと共にたたみ込むと
いう方法が既に提案されている。ここで、インパルス応
答とは、一般に、あるシステムに単位インパルス(所定
の高さの細いパルス状の入力)を与えたときにそのシス
テムから出力される応答パルス列をいう。上記のような
たたみ込み法により、実際の空間や装置のインパルス応
答に基づいた、より自然でリアルな残響音を得ることが
できる。そのようなたたみ込み処理を実現するハードウ
ェア回路構成の一例が、例えば特開2000−9776
2号公報に記載されている。この公報に開示されたハー
ドウェア回路は、FIR(Finite Impulse Response) フ
ィルタを用いて、時間軸上でインパルス応答をたたみ込
むようにしたものである。
【0008】しかしながら、上記のように、時間軸方向
にインパルス応答をたたみ込む方法では、膨大な数の遅
延回路と係数乗算器とが必要になり、回路規模が極めて
大きくなってしまうという問題点がある。
【0009】これを解決するために、例えば同公報に示
されているように、入力ディジタルオーディオ信号およ
びインパルス応答データをそれぞれハードウェア回路を
用いてフーリエ変換することにより周波数要素データに
変換し、この周波数軸上で両者をたたみ込むという方法
が提案されている。この方法では、上記した時間軸上で
たたみ込みを行う方法に比べて、ハードウェア回路の規
模が小さくて済むという利点がある。
【0010】また、インパルス応答のたたみ込みに関す
る上記の諸問題を解決するため、例えば特表平8−50
1667号公報に記載されているように、インパルス応
答データを時間軸上で分割し、分割されたそれぞれのイ
ンパルス応答によって入力データのたたみ込みを行う方
法も提案されている。
【0011】このように、従来より、オーディオ信号に
関する処理については様々な試みがなされていたもの
の、必ずしも十分な臨場感をユーザに与え得るものでは
なかった。例えば、一部のクラシック音楽ファンやロッ
ク音楽ファンのような熱狂的な音楽ファンにあっては、
実際のコンサートホールでの名演奏の視聴を希望しなが
らも、その場に行くことができないことがある。そのよ
うなとき、彼らは、そのコンサートホールの雰囲気を仮
想的に体験したいと希望する場合が多い。しかしなが
ら、上記したいずれの方法においても、音響効果のみが
考慮されており、その他の要素についてはまったく配慮
がなされていなかった。
【0012】また、上記のいずれの方法においても、イ
ンパルス応答のたたみ込み処理にハードウェア回路を用
いていることから、一般のコンスーマ(例えば、PC
(パーソナルコンピュータ)ユーザ等)にとっては、手
持ちのコンテンツ(例えばCDに記録された形で保有し
ている既存の楽曲)に簡単に音響効果処理を施して臨場
感のある音場を手軽に生成することは技術面およびコス
ト面の両面で困難であった。
【0013】本発明はかかる問題点に鑑みてなされたも
ので、その第1の目的は、記録媒体に記録された音楽等
の収録音を、ユーザが十分な臨場感をもって楽しむこと
を可能とする音響処理装置を提供することにある。ま
た、本発明の第2の目的は、音楽等の既存の収録音に対
する音響処理を容易かつ低コストで行うことを可能にす
る音響処理装置を提供することにある。また、本発明の
第3の目的は、記録媒体に記録された音楽等の収録音を
再生する際に、ユーザに不自然な違和感を与えることな
く音響処理を施すことが可能な音響処理装置を提供する
ことにある。また、本発明の第4の目的は、上記のよう
な音響処理装置に用いられる音響処理用データをユーザ
が手軽に手に入れることを可能にする音響処理用データ
の配信方法を提供することにある。
【0014】
【課題を解決するための手段】本発明の第1の観点に係
る音響処理装置は、原音に対して、実在する音響空間の
響きに対応したインパルス応答データをたたみ込むこと
により、効果音を生成するたたみ込み手段と、画像を再
生して出力する画像再生手段と、画像再生手段からの再
生画像の出力に沿って、原音とたたみ込み手段からの効
果音とを重畳させて音響処理音を生成し出力するように
画像再生手段およびたたみ込み手段を制御する制御手段
とを備えたものである。この場合において、少なくとも
たたみ込み手段はソフトウェアにより構成するのが好ま
しく、また、インパルス応答データは、画像再生手段か
らの再生画像と関連したものであることが好ましい。こ
こで、原音とは、対象となる音響処理が未だ施されてい
ない音響をいい、音響処理音とは、原音に基づいて作ら
れた効果音をその原音に重畳して得られる音響をいう。
効果音とは、原音にインパルス応答データをたたみ込む
ことにより得られる音響をいう。以下、本明細書におい
て同様である。
【0015】本発明の第2の観点に係る音響処理装置
は、原音に対して、実在する音響空間の響きに対応した
インパルス応答データをたたみ込むことにより、効果音
を生成するたたみ込み手段と、インパルス応答データの
たたみ込み処理を行う際に生ずる遅延時間に相当する箇
所から原音に対するたたみ込み処理を開始するようにた
たみ込み手段の制御を行うと共に、音響処理の開始が指
示された時点から遅延時間の経過時点までの間は原音を
そのまま外部に出力する外部出力制御を行う一方、遅延
時間の経過時点以降は原音と効果音とを重畳させて音響
処理音を生成し出力する重畳制御を行う制御手段とを備
えたものである。
【0016】本発明の第3の観点に係る音響処理装置
は、実在する第1の音響空間の響きに対応して得られた
第1のインパルス応答データを保持する手段と、音響処
理が施された音の再生出力が行われる予定の実在する第
2の音響空間の響きに対応して得られた第2のインパル
ス応答データを保持する手段と、原音に対して第1およ
び第2のインパルス応答データをたたみ込むことによ
り、効果音を生成するたたみ込み手段と、原音とたたみ
込み手段からの効果音とを重畳させて音響処理音を生成
し出力するようにたたみ込み手段を制御する制御手段と
を備えたものである。
【0017】本発明に係る音響処理用データの配信方法
は、様々な実在の音響空間について提供されたインパル
ス応答データをサーバシステムに蓄積し、ユーザシステ
ムからの要求に応じて、サーバシステム内の選択された
インパルス応答データを、通信路を介して、その要求を
したユーザシステムに配信し、インパルス応答データの
配信に応じた料金をユーザシステムに課金する課金処理
を行うようにしたものである。この場合において、サー
バシステムにおいて、広域通信ネットワークに接続され
たコンテンツ提供システムから通信路を介してインパル
ス応答データの提供を受けて蓄積するようにするのが好
ましく、さらに、ユーザシステムに対するインパルス応
答データの配信回数に応じた料金をその配信されたイン
パルス応答データを提供したコンテンツ提供システムに
支払うために必要な支払処理を行うようにするのが好ま
しい。
【0018】本発明の第1の観点に係る音響処理装置で
は、たたみ込み手段によって原音にインパルス応答デー
タをたたみ込むことにより効果音が生成され、さらに、
この効果音が原音に重畳されて音響処理音が生成され
る。この音響処理音は、画像再生手段からの再生画像の
出力に合わせて出力される。インパルス応答データは実
在する音響空間の響きに対応したものなので、実際にそ
の音響空間で音響を聴いているかのような臨場感を聴き
手に与えることになる。しかも、音響処理音に連動して
再生画像が出力されるので、聴き手に視覚的な臨場感を
も与えることになる。
【0019】本発明の第2の観点に係る音響処理装置で
は、たたみ込み手段によって原音にインパルス応答デー
タをたたみ込むことにより効果音が生成される。このた
たみ込み処理の際に遅延が生ずる。このたたみ込み処理
は、原音のうち、上記の遅延した時間を差し引いた箇所
(遅延分をオフセットした位置)から開始される。そし
て、音響処理開始が指示された時点から遅延時間の経過
時点までの間は原音がそのまま外部に出力される一方、
遅延時間の経過時点以降は原音と効果音とを重畳させて
生成された音響処理音が出力される。この結果、聴き手
は、遅延時間に相当する当初の期間は原音を、その後は
音響処理音を聴くことになる。このため、たたみ込み処
理による遅延に起因する再生開始直後の無音期間がなく
なる。
【0020】本発明の第3の観点に係る音響処理装置で
は、実在する第1の音響空間の響きに対応して得られた
第1のインパルス応答データと、音響処理が施された音
の再生出力が行われる予定の実在する第2の音響空間の
響きに対応して得られた第2のインパルス応答データと
を原音にたたみ込むことにより、効果音が生成される。
そして、この効果音が原音に重畳されて音響処理音が生
成され、出力される。すなわち、収録空間としての第1
の音響空間のみならず、再生空間としての第2の音響空
間の音響特性をも加味した音響処理が行われることにな
る。このため、視聴する空間の良し悪しに左右されるこ
となく、ほぼ一定の安定した音響特性を保った臨場感を
聴き手に与えることになる。
【0021】本発明の音響処理用データの配信方法で
は、サーバシステムに蓄積された様々な実在の音響空間
についてのインパルス応答データのうち、ユーザシステ
ムから要求されたインパルス応答データが、通信路を介
して、そのユーザシステムに配信される。そして、イン
パルス応答データの配信に応じた利用料金がユーザシス
テムに課金される。
【0022】
【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照して詳細に説明する。
【0023】[音響処理装置] 《第1の実施の形態》図1は、本発明の第1の実施の形
態に係る音響処理装置を用いて構成したオーディオビジ
ュアルシステム(以下、AVシステムという。)の概略
構成を表すものである。このAVシステムは、収録済の
原音に所定の音響処理を施して音響処理音を生成する音
響処理装置1と、生成された音響処理音(オーディオデ
ータ)を出力する4つのスピーカ2A〜2Dと、音響処
理装置1により再生された画像(以下、適宜、映像とも
いう。)を表示する表示装置3とを含んで構成されてい
る。スピーカ2A〜2Dは、それぞれ、信号増幅機能を
有するオーディオアンプ4A〜4Dを介して、音響処理
装置1に接続されている。表示装置3もまた音響処理装
置1に接続されている。
【0024】音響処理装置1は、例えばパーソナルコン
ピュータ等で構成されるが、その他の情報処理装置を用
いて構成することも可能である。4つのスピーカのう
ち、スピーカ2A,2Bは、このシステムのユーザ(視
聴者)Uの前方に配置されるフロントスピーカであり、
スピーカ2C,2Dは、ユーザUの後方に配置されるリ
アスピーカである。これらの4つのスピーカによって、
いわゆるサラウンドシステム(surround system )が実
現されるようになっている。
【0025】ここで、サラウンドシステムとは、一般
に、周囲に4個以上のスピーカーを配して、音の到達時
間を変えたり、壁や天井からの反射による間接音や残響
に相当する音を出したりすることにより、視聴者が感じ
る音の像に左右の広がりだけでなく、奥行も感じられる
ようにした音響再生システムであり、コンサートホール
や映画館の臨場感を出すことを目的として用いられる。
このサラウンドシステムでは、左右の音声信号の時間的
ずれ、位相差と音量差によって、リアエフェクト音声を
作り出し、これを後方や横に置かれたエフェクトスピー
カから再生することにより、できる限り実際の音声に近
づけることができる。
【0026】表示装置3は、通常、ユーザUの正面に配
置される。表示装置3としては、例えば、大画面のCR
T(cathode −ray tube)ディスプレイ、液晶ディスプ
レイ、プラズマディスプレイ、EL(electoroluminesc
ence)ディスプレイ、FED(Field Emission Displa
y)、あるいは液晶プロジェクタ等が用いられる。
【0027】このAVシステムには、音響処理装置1に
よる音響処理の結果生成された音響処理音および画像
(ビデオデータ)を記録・再生することが可能な記録再
生装置5を含めることも可能である。この記録再生装置
5としては、例えば、追記型または書き替え可能型のD
VD( Digital Versatile Disk )装置や、ビデオカセ
ットレコーダ(VTR)等が用いられる。この記録再生
装置5には、ヘッドフォン6が接続可能である。ユーザ
Uは、記録再生装置5から再生されて表示装置3に表示
される画像を見ながら、記録再生装置5から再生された
音響処理音をヘッドフォン6を通じて聴取することがで
きるようになっている。なお、記録再生装置5として
は、音声の記録・再生のみが可能な装置、例えばMD
(Mini Disc )やカセットテープレコーダ等のような携
帯可能な小型の装置を用いるようにしてもよい。また、
記録再生装置5を音響処理装置1に内蔵するようにして
もよく、その場合には、この記録再生装置5が本発明の
「着脱可能記録媒体に記録する記録手段」の一具体例に
対応する。
【0028】音響処理装置1は、オーディオソース(音
源)7からオーディオデータ7Aを取り込むと共に、コ
ンテンツソース(素材源)8から処理用コンテンツデー
タ8Cを取り込み、この処理用コンテンツデータ8Cを
用いてオーディオデータ7Aに所定の音響処理(リバー
ブ処理、より具体的には、たたみ込み処理)を施すとい
う機能を有している。
【0029】オーディオソース7は、例えば、CD(Co
mpact Disc)、MDおよびDVDのような音声記録媒体
であってもよいし、あるいはインターネットウェブサイ
ト(すなわち、インターネット上に開設されている音楽
配信サイト)のホームページ(HP)であってもよい。
コンテンツソース8は、処理用コンテンツデータ8Cを
提供するためのものであり、例えばCD−ROMやフロ
ッピー(登録商標)ディスク等のデータ記録媒体の形で
配布されるものであってもよいし、あるいは、インター
ネットウェブサイト(すなわち、インターネット上に開
設されているコンテンツ配信サイト)のホームページ
(HP)であってもよい。そのようなコンテンツ配信サ
イトについては後述する。
【0030】オーディオデータ7Aは、既に収録された
各種の音楽や音色(例えば楽器の音や鐘の音等)を表す
データである。処理用コンテンツデータ8Cは、リバー
ブデータ、画像データ、付帯データおよびリンクデータ
の4者よりなる複合データである。なお、以下の説明で
は、「処理用コンテンツデータ8C」を単に「コンテン
ツデータ8C」と略記する。
【0031】リバーブデータは、音声データに対して後
述の音響処理(たたみ込み処理)を施すときに用いられ
る音響処理用データ(具体的には、インパルス応答デー
タ)であり、実在する音響空間において採取されたもの
である。音響空間およびインパルス応答データについて
は後述する(図9参照)。
【0032】画像データは、リバーブデータと関連した
内容の画像を表すデータであり、静止画もしくは動画の
いずれか一方または双方を含むデータである。画像デー
タには、例えば、インパルス応答データが採取された音
響空間自体を撮影して得られる静止画または動画を表す
データや、その音響空間を想起させるような絵画または
意匠等を表すデータ等が含まれる。この画像データは、
圧縮されたデータである。具体的には、静止画の場合に
は、例えばjpeg(joint photographic expert grou
p )形式等の圧縮データが用いられ、動画の場合には、
例えばMPEG(motion pictures expert group)形式
等の圧縮データが用いられる。
【0033】付帯データは、コンテンツデータ8Cの内
容に関する補足情報であり、リバーブデータのタイトル
と、画像データのタイトルと、画像データに関わる説明
とを含む。ここで、「画像データに関わる説明」として
は、例えば、そのリバーブデータが採取された施設(音
響空間)の紹介(例えば、その施設の規模や歴史)や、
その施設がある都市の紹介、さらには、その施設や都市
にまつわる人物やエピソード等の紹介が挙げられる。
【0034】リンクデータは、リバーブデータと画像デ
ータおよび付帯データとをリンクさせる(関連付ける)
ための定義付け情報である。
【0035】なお、リバーブデータ、画像データ、付帯
データおよびリンクデータの具体的内容、ならびにそれ
らのデータの相互関係については後述する(図4参照)
【0036】ここで、図9を参照して、リバーブデータ
として用いられるインパルス応答データの意義について
説明する。
【0037】図9は、ある音響空間について得られたイ
ンパルス応答データの一例を表すものである。なお、こ
こにいう音響空間とは、例えば、ウイーン・コンツェル
トハウスやライプツィヒ・ゲヴァントハウスのような著
名なコンサートホール、東京ドームのようなイベントホ
ール、さらには、グランドキャニオンのような地表の壮
大な空間や、鍾乳洞あるいは鉱石採掘跡のような地下空
間等、およそ自然界に存在して音を伝播可能なすべての
空間を意味するものとする。
【0038】図9において、横軸は時間軸を表し、縦軸
はデータの値を表す。ここにいうインパルス応答データ
とは、ある音響空間に単位インパルス音を与えたときに
そこに生ずる残響音を所定の時間間隔でサンプリングし
て得られるパルス列のデータをいい、その音響空間がも
つ固有の音響特性、具体的には残響音特性を表してい
る。なお、図9では、サンプリングポイント数をNs
(Nsは正の整数)として描いている。この図に示した
ように、インパルス応答データは、一般に、時間の経過
と共にほぼ指数関数的に減衰する形を有している。但
し、その厳密な形は、音響空間の大きさ、形状、構造お
よび構成材料等に応じて音響空間ごとに異なるのが普通
であり、それぞれ独特の形をしている。
【0039】このように、インパルス応答データは、そ
れが得られた音響空間と一体不可分の関係にある。そこ
で、本実施の形態では、画像データとして、例えば、そ
の音響空間自体を撮影して得られる静止画または動画を
表すデータや、その音響空間を想起させるような絵画ま
たは意匠等を表すデータを用い、この画像データを各音
響空間に対応付けて提供すると共に、インパルス応答デ
ータを用いて生成した音響処理音に関連付けて画像デー
タを取り扱うようにしている。その詳細については後述
する。
【0040】図2は、図1に示した音響処理装置1の概
略構成を表すものである。この音響処理装置1は、CP
U(中央処理装置)11と、CPU11が行うデータ処
理に必要な作業データ等の随時書き込みと随時読み出し
とが可能なRAM12と、BIOS(Basic Input/Outp
ut System )等が格納された読み出し専用のROM(Re
ad Only Memory)13とを備えている。音響処理装置1
はまた、OS(operating system)およびアプリケー
ションプログラム等のプログラムを含む様々なデータを
格納すると共にこれらのデータのランダム読出が可能な
ハードディスクドライブ(HDD)14と、インターネ
ットに接続可能な通信I/F15と、CDドライブ16
と、オーディオビジュアルインタフェイス(AV−I/
F)17とを備えている。音響処理装置1は、さらに、
データ入力用のキーボード18Kおよびマウス18M
と、表示デバイス(DPLY)19とを備えている。以
上列挙した各部は、バスBによって相互に接続されてい
る。
【0041】CPU11は、この音響処理装置1の全体
に係わる動作を制御するほか、後述するたたみ込み演算
等を高速で処理する機能を有する。CPU11として
は、動作クロックが例えば500MHz以上の高速タイ
プのデバイスを用いるのが好ましい。ここで、CPU1
1が、本発明における「たたみ込み手段」、「画像再生
手段」および「制御手段」を実現するハードウェアの一
具体例に対応する。
【0042】HDD14は、上記したOSのほかに、少
なくともリバーブアプリケーションプログラム14P
と、コンテンツライブラリ14Cとを格納できるだけの
記憶容量を有する。リバーブアプリケーションプログラ
ム14Pは、オーディオソース7(図1)から供給され
る原音(オーディオデータ7A)に音響処理であるリバ
ーブ処理(たたみ込み処理)を施すためのプログラムで
あり、例えばCDドライブ16を用いてCD−ROM1
6PからHDD14にインストールされるようになって
いる。コンテンツライブラリ14Cは、コンテンツソー
ス8(図1)から供給された、リバーブデータ、画像デ
ータ、付帯データおよびリンクデータからなるコンテン
ツデータ8Cを集めたファイルライブラリである。な
お、図2に示した例では、オーディオソースは音楽CD
16Aであり、コンテンツソースはインターネット上の
ウェブサイトである。
【0043】AV−I/F17は、オーディオアンプ4
A〜4D、表示装置3および記録再生装置5(図1)と
バスBとの間を接続し、ディジタル信号(ディジタルオ
ーディオデータおよびディジタル画像データ)を、アナ
ログ信号(アナログオーディオデータおよびアナログ画
像データ)に変換する信号変換機能等を有している。通
信I/F15としては、例えば、ISDN回線用であれ
ばターミナルアダプタ(TA)、アナログ回線用であれ
ばモデム(modem )等が用いられる。CDドライブ16
は、通常の音楽CD16Aを駆動してオーディオデータ
7AをHDD14に取り込むことができるほか、プログ
ラムが記録されたCD−ROM16Pを駆動してリバー
ブアプリケーションプログラム14PをHDD14に取
り込むことができるようになっている。なお、CDドラ
イブ16は、読み出し専用メディアであるCDやCD−
ROMを駆動可能なもののほか、追記型メディアである
CD−R(Recordable)や、書き替え可能型メディアで
あるCD−RW(Rewitable )等の駆動が可能な複合型
ドライブであってもよい。さらに、CDドライブ16に
代えて、書込専用DVDや書き替え可能型DVDの駆動
が可能なDVDドライブを用いるようにしてもよい。
【0044】図3は、音響処理装置1がHDD14内の
コンテンツライブラリ14Cを用いて行う機能の要部を
表したものである。なお、図3において、「データ」と
いう用語は、意味的なまとまりをもった一連の情報を意
味し、「ファイル」という用語は、記憶装置に格納され
た複数の同種データの集合体を意味するものとする。例
えば、リバーブファイルRFは、複数種類のリバーブデ
ータRDi (i=1,2,3,…) を含むデータファイ
ルであり、画像ファイルIMFは、複数種類の画像デー
タIMj (j=1,2,3,…) を含むデータファイル
である。付帯ファイルAXFは、複数の付帯データAX
i (i=1,2,3,…) を含むデータファイルであ
り、リンクファイルLFは、複数のリンクデータLi
(i=1,2,3,…) を含むデータファイルである。
【0045】図4は、リンクファイルの内容の一具体例
を表すものである。リンクファイルLFは、複数のリン
クデータL1,L2,L3,…を含んでいる。各リンク
データLi (i=1,2,3,…)は、1つのリバーブ
データと、1または複数の画像データと、1つの付帯デ
ータとを相互に対応付ける定義付けデータである。例え
ば、リンクデータL1は、リバーブデータRD1と、3
つの画像データ[IM1,IM2,IM3]と、付帯デ
ータAX1 とを対応付けており、リンクデータL2は、
リバーブデータRD2と、3つの画像データ[IM4,
IM5,IM6]と、付帯データAX2 とを対応付けて
いる。リンクデータL3は、リバーブデータRD3と、
4つの画像データ[IM4,IM5,IM6,IM1]
と、付帯データAX3 とを対応付けている。なお、図4
におけるRDi,IMj ,AXiの表記は各データの中
身自体を示すものではなく、データの中身が実際に格納
されている場所(ハードディスク14上のアドレス)を
表しているにすぎない。
【0046】画像データIM1〜IM6の実際のデータ
内容は、例えば、 IM1:IMAGE1.bmp,IM2:IMAGE2.bmp,IM3:IM
AGE3.bmp IM4:VIDEO1.mpg,IM5:VIDEO2.mpg,IM6:VI
DEO3.mpg である。ここで、拡張子「bmp 」はビットマップ形式の
静止画データであることを示し、拡張子「mpg 」はMP
EG(Moving Picture Experts Group)形式で圧縮された
動画データであることを示す。
【0047】図4に示した例において、リンクデータL
1は、「リバーブデータRD1が選択された場合に、3
つの静止画像データIMAGE1.bmp,IMAGE2.bmp,IMAGE3.b
mpをそれぞれ所定の時間ずつ順次表示させると共に、こ
れらの静止画像の表示に同期して付帯データAX1の内
容を表示する」ことを意味している。リンクデータL2
は、「リバーブデータRD2が選択された場合に、3つ
の動画像データVIDEO1.mpg,VIDEO2.mpg,VIDEO3.mpgを
順次表示させると共に、これらの静止画像の表示に同期
して付帯データAX2の内容をオーバーラップ表示す
る」ことを意味している。リンクデータL3は、「リバ
ーブデータRD3が選択された場合に、3つの動画像デ
ータVIDEO1.mpg,VIDEO2.mpg,VIDEO3.mpgを順次表示さ
せたのち、静止画像データIMAGE1.bmpを所定時間表示さ
せ、その後、2番目の動画像データVIDEO2.mpgを表示さ
せると共に、これらの静止画像の表示に同期して付帯デ
ータAX3の内容をオーバーラップ表示する」ことを意
味している。その他のリンクデータについても同様であ
る。なお、リンクデータL3における「Go To #2」は、
2番目の画像データに制御を移すことを意味するが、こ
のような記述が存在しない場合には、先頭の画像データ
に制御を移すようになっている。
【0048】図3に示したように、リバーブアプリケー
ションプログラム14Pは、少なくとも、リバーブモジ
ュールREV、画像再生モジュールREPおよびリンク
制御モジュールLCという3つのプログラムモジュール
を含んで構成されている。リンク制御モジュールLC
は、ユーザによって指定されたリンクデータLi をリン
クファイルLFから読み出し、このリンクデータLi の
内容に従って、リバーブモジュールREVおよび画像再
生モジュールREPを制御するようになっている。リバ
ーブモジュールREVおよび画像再生モジュールREP
は、それぞれ、リンク制御モジュールLCによる制御の
下、互いに同期して、リバーブデータRDi と、画像デ
ータIMi および付帯データAXi とを読み出し、以下
に述べる処理を行うようになっている。画像再生モジュ
ールREPが、本発明における「画像再生手段」の一具
体例に対応し、リンク制御モジュールLCが本発明にお
ける「制御手段」の一具体例に対応する。
【0049】すなわち、リバーブモジュールREVは、
リバーブファイルRFからリバーブデータRDi を読み
出し、このリバーブデータRDi を用いて、音楽CD1
6A(図2、図3参照)から出力されるオーディオデー
タ7A(図1〜図3参照)に対して、後述するリバーブ
処理(たたみ込み処理)を行い、スピーカ2A〜2Dに
出力するという音響処理機能を有する。
【0050】一方、画像再生モジュールREPは、画像
ファイルIMFから画像データIMj を読み出してその
圧縮状態を解凍し、これをリバーブモジュールREVの
出力に合わせて表示装置3に出力するという画像デコー
ド機能を有する。画像再生モジュールREPはまた、付
帯ファイルAXFから付帯データAXi を読み出し、画
像再生出力に同期して表示装置3に出力するという機能
も有している。リバーブモジュールREVは以下に述べ
るような構造を有している。
【0051】図5は、図3に示したリバーブモジュール
REVの機能構造を詳細に表すものである。なお、この
図に示した各機能ブロックは、いずれもソフトウェアに
よって実現されるものである。
【0052】このリバーブモジュールREVは、ステレ
オ入力/ステレオ出力の機能を有する。すなわち、この
リバーブモジュールREVは、Lチャンネル(左チャン
ネル)の入力オーディオデータLinとRチャンネル(右
チャンネル)の入力オーディオデータRinとからなるオ
ーディオデータ7A(図1、図2,図3参照)を入力と
し、Lチャンネルの出力オーディオデータLout とRチ
ャンネルの出力オーディオデータRout とからなる音響
処理データ7Bを出力するようになっている。
【0053】リバーブモジュールREVは、Lチャンネ
ルの入力オーディオデータLinに対してたたみ込み処理
を行うための2つのたたみ込み処理部51L1,51L
2と、Rチャンネルの入力オーディオデータRinに対し
てたたみ込み処理を行うための2つのたたみ込み処理部
51R1,51R2とを含んで構成されている。リバー
ブモジュールREVはまた、Lチャンネルの入力オーデ
ィオデータLinを遅延させるための遅延処理部52L
と、Rチャンネルの入力オーディオデータRinを遅延さ
せるための遅延処理部52Rとを含んでいる。Lチャン
ネルの入力オーディオデータLinは3経路に分岐されて
入力され、各分岐されたデータが、それぞれ、たたみ込
み処理部51L1,51L2および遅延処理部52Lに
入力されるようになっている。同様に、Rチャンネルの
入力オーディオデータRinは3経路に分岐されて入力さ
れ、各分岐されたデータが、それぞれ、たたみ込み処理
部51R1,51R2および遅延処理部52Rに入力さ
れるようになっている。ここで、たたみ込み処理部51
L1,51L2,51R1,51R2が本発明における
「たたみ込み手段」の一具体例に対応する。
【0054】たたみ込み処理部51L1,51L2,5
1R1,51R2には、リバーブデータRDi (図3〜
図5参照)が個別に供給され、これを用いて、入力オー
ディオデータLin,Rinに対するたたみ込み処理が行わ
れるようになっている。たたみ込み処理部51L1,5
1L2,51R1,51R2にはまた、リバーブ時間調
整データ56が供給され、これにより、リバーブ時間を
個別に設定できるようになっている。このリバーブ時間
は、入力オーディオデータLin,Rinに対して実際にた
たみ込み処理を施す時間の長さであり、通常、リバーブ
データが採取された音響空間が有する固有の残響時間の
長短に応じて設定される。なお、一般に、残響時間は音
が止まってから音圧レベルが60dB減衰するまでの時
間を意味する。
【0055】たたみ込み処理部51L1の出力とたたみ
込み処理部51R2の出力とは、加算部53L1に入力
され、ここで互いに加算されて、効果音(ウェット音)
データWLとして出力されるようになっている。一方、
たたみ込み処理部51L2の出力とたたみ込み処理部5
1R1の出力とは、加算部53R1に入力され、ここで
互いに加算されて、効果音データWRとして出力され
る。加算部53L1から出力された効果音データWLは
乗算部54L1に入力され、ここで、Lチャンネル用の
ウェット成分調整データ57Lと乗ぜられる。一方、加
算部53R1から出力された効果音データWRは乗算部
54R1に入力され、ここで、Rチャンネル用のウェッ
ト成分調整データ57Rと乗ぜられるようになってい
る。ここで、ウェット成分調整データとは、最終的に視
聴に供される音響処理済みの音の全体(すなわち、音響
処理音)に占める効果音の割合を決定する係数である。
具体的には、ウェット成分調整データ57Lは、出力オ
ーディオデータLout のうち効果音データWLが占める
割合を表し、ウェット成分調整データ57Rは出力オー
ディオデータRout のうち効果音データWRが占める割
合を表す。
【0056】遅延処理部52Lから出力された原音(た
たみ込みがなされていないドライ音)データDLは乗算
部54L2に入力され、ここでLチャンネル用のドライ
成分調整データ58Lと乗ぜられるようになっている。
一方、遅延処理部52Rから出力された原音データDR
は乗算部54R2に入力され、ここでRチャンネル用の
ドライ成分調整データ58Rと乗ぜられる。ここで、ド
ライ成分調整データとは、最終的に視聴に供される音響
処理音に占める原音の割合を表す係数である。具体的に
は、ドライ成分調整データ57Lは、出力オーディオデ
ータLout のうち原音データDLが占める割合を表す係
数であり、ドライ成分調整データ57Rは、出力オーデ
ィオデータRout のうち原音データDRが占める割合を
表す係数である。
【0057】乗算部54L1,54L2の各出力は、加
算部53L2で互いに加算(重畳)され、これにより、
Lチャンネルの原音データDLと効果音データWLとが
所定の比率(すなわち、ドライ成分調整データ58Lと
ウェット成分調整データ57Lの比)で混合された出力
オーディオデータLout が生成される。一方、乗算部5
4R1,54R2の各出力は、加算部53R2で互いに
加算(重畳)され、これにより、Rチャンネルの原音デ
ータDRと効果音データWRとが所定の比率で混合され
た出力オーディオデータRout が生成されるようになっ
ている。
【0058】図6は、図5におけるたたみ込み処理部5
1L1の機能構造をより詳細に表すものである。このた
たみ込み処理部51L1は、Lチャンネルの入力オーデ
ィオデータLinが入力されるバッファ処理ブロック61
と、バッファ処理ブロック61の出力が供給されるFF
T(Fast Fourier Transformation )処理ブロック62
と、リバーブデータRDi (i=1,2,3,…;図3
〜図5参照)が入力されるバッファ処理ブロック63
と、バッファ処理ブロック63の出力が供給されるFF
T処理ブロック64とを含んで構成されている。たたみ
込み処理部51L1はまた、FFT処理ブロック62の
出力とFFT処理ブロック62の出力とが供給される乗
算ブロック65と、乗算ブロック65の出力が供給され
るIFFT処理ブロック66とを含んでいる。
【0059】バッファ処理ブロック61は、音楽CD1
6A(図2,図3)からLチャンネルの入力オーディオ
データLinを読み出し、これをメモリ(図2;RAM1
2)に所定量蓄積したのちに出力する処理を行うブロッ
クである。このバッファ処理ブロック61によってメモ
リに蓄積されるデータの量は、リバーブ時間調整データ
56によって設定されるようになっている。具体的に
は、例えば512k(=219=524,288)ポイン
ト分のサンプリングデータがバッファ処理ブロック61
に格納される。
【0060】バッファ処理ブロック63は、HDD14
(図2)のリバーブファイルRF(図3)からいずれか
のリバーブデータRDi を読み出し、これをメモリ(図
2;RAM12)に所定量蓄積したのち出力する処理を
行うブロックである。このバッファ処理ブロック63に
よってメモリに蓄積されるデータ量もまた、リバーブ時
間調整データ56によって設定される。
【0061】FFT処理ブロック62は、バッファ処理
ブロック61から出力された時間軸上のオーディオデー
タを高速フーリエ変換(FFT) によって周波数軸上のデー
タに変換する処理を行うブロックである。このブロック
により、Lチャンネルの入力オーディオデータLinは、
例えば、0.1Hz毎の周波数要素データに変換される
ようになっている。FFT処理ブロック64は、バッフ
ァ処理ブロック63から出力された時間軸上のリバーブ
データRDi を高速フーリエ変換によって周波数軸上の
データに変換する処理を行うブロックである。
【0062】乗算ブロック65は、FFT処理ブロック
62の出力にFFT処理ブロック64の出力を乗ずるた
たみ込み演算処理を行うブロックである。このときの乗
算は、互いに周波数成分が一致するデータ同士で行われ
る。
【0063】IFFT処理ブロック66は、乗算ブロッ
ク65から出力された周波数軸上のデータを逆高速フー
リエ変換(IFFT ;Inverse Fast Fourier Transformatio
n) によって時間軸上のデータに変換し、効果音(ウェ
ット音)67として出力する処理を行うブロックであ
る。
【0064】なお、他のたたみ込み処理部51L2は、
たたみ込み処理部51L1と同様のブロック構造および
機能を有する。また、たたみ込み処理部51R1,51
R2は、入力がRチャンネルの入力オーディオデータR
inである点を除き、たたみ込み処理部51L1と同様の
ブロック構造および機能を有する。但し、これらの4つ
のたたみ込み処理部51L1〜51R2で行われる処理
は、実際には、CPU11(図2)によって時分割的に
実行される処理である。
【0065】次に、主に図7および図8を参照して、以
上のような構成の音響処理装置の全体動作および作用を
説明する。
【0066】図7は、ユーザU(図1)が音響処理装置
1を用いて音響処理を行う場合の操作を含めた全体の流
れを表し、図8は、リバーブモジュールREV(図3,
図5参照)における音響処理のタイミングを表すもので
ある。ここでは、図2に示したように、ユーザUはすで
に、CD−ROM16Pによって提供されたリバーブア
プリケーションプログラム14PをCDドライブ16を
用いてHDD14にインストールする作業を終了してい
るものとする。このリバーブアプリケーションプログラ
ム14Pを記録したCD−ROM16Pは、例えば音楽
雑誌の付録として提供するようにしてもよい。なお、リ
バーブアプリケーションプログラム14Pは、CD−R
OM以外の記憶媒体で提供されるようにしたり、あるい
はインターネットのホームページからダウンロードによ
り提供されるようにすることも可能である。
【0067】ユーザUはまず、音響処理装置1を操作し
て、コンテンツソース8(図1)から、リバーブデー
タ、画像データ、付帯データおよびリンクデータからな
るコンテンツデータ8Cを取得する。ここでは、コンテ
ンツソース8がインターネット上の任意のコンテンツ配
信サイトのサーバ(図示せず)であるものとする。この
場合、ユーザUは、コンテンツ配信サイトのホームペー
ジ(図示せず)にアクセスして、コンテンツデータ8C
をダウンロードし(図7;ステップS101)、これを
HDD14のコンテンツライブラリ14C(図2)に格
納する。このとき、ユーザUは、1つのサイトから複数
種類のコンテンツデータ8Cをダウンロードしたり、あ
るいは、複数のサイトからコンテンツデータ8Cをダウ
ンロードすることにより、HDD14のコンテンツライ
ブラリ14Cに複数のコンテンツデータ8Cを蓄積する
ことができる。なお、コンテンツデータ8CをCD−R
OM等の物理的な記憶媒体を介して取得することも可能
である。
【0068】次に、ユーザUが、CDドライブ16(図
2)にオーディオソースである音楽CD16Aをセット
し、HDD14内のリバーブアプリケーションプログラ
ム14Pを起動して所定の操作を行うと(ステップS1
02)、リバーブアプリケーションプログラム14P
は、HDD14のコンテンツライブラリ14Cの内容を
ディスプレイ19にリスト表示すると共に、音楽CD1
6Aの中の楽曲(音楽プログラム)のリストを表示する
(ステップS103)。
【0069】コンテンツライブラリ14Cの内容表示
は、次のようにして行われる。すなわち、リバーブアプ
リケーションプログラム14Pのリンク制御モジュール
LC(図3)は、コンテンツライブラリ14C内のリン
クファイルLF(図3,図4)に含まれるすべての付帯
データAXiの内容を参照し、リバーブデータRDi の
タイトルと、このリバーブデータRDi に対応する画像
データIMj のタイトルとをリスト形式でディスプレイ
19に表示する。具体的には、リバーブデータRDi の
タイトルとして、例えばそのリバーブデータRDi が採
取された音響空間(施設や場所)の名称(例えば、「ウ
ィーンコンツェルトハウス」等)が表示され、画像デー
タIMj のタイトルとして、その画像の内容を簡潔に表
すタイトル(例えば、「ウィーンコンツェルトハウスの
全景とウィーンの春の風景」等)が表示される。
【0070】こうして表示された楽曲リストおよびコン
テンツライブラリリストの中から、ユーザUによってい
ずれかの楽曲とリバーブデータRDi とが選択されると
(ステップS104;Y)、リバーブアプリケーション
プログラム14Pは、選択された楽曲の再生と、選択さ
れたリバーブデータRDi が指し示す画像の再生とを開
始する。
【0071】具体的には、リンク制御モジュールLC
は、まず、リンクファイルLFから、その選択されたリ
バーブデータRDi に関するリンクデータLi を読み出
し、このリンクデータLi の内容に従って、選択された
リバーブデータRDi に対応する画像データIMj の再
生表示を開始するよう、画像再生モジュールREP(図
3)に指示する。さらに、リンク制御モジュールLC
は、選択されたリバーブデータRDi を用いて、選択さ
れた楽曲のオーディオデータ7A(図1〜図3)にリバ
ーブ音響処理を行うよう、リバーブモジュールREV
(図3,図5)に指示する。
【0072】例えばリバーブデータR1が選択されたと
すると、リンク制御モジュールLCは、コンテンツライ
ブラリ14CのリンクファイルLFから、対応するリン
クデータL1を読み出す。そして、そのリンクデータL
1中に列挙されている画像データIMj (図4に示した
例では、静止画データIMAGE1.bmp,IMAGE2.bmp,IMAGE
3.bmp)の再生出力を画像再生モジュールREPに指示
する。さらに、リンク制御モジュールLCは、ユーザに
よって選択された楽曲(オーディオデータ7A)を音楽
CD16Aから読み出し、このオーディオデータ7Aに
対し、リバーブデータR1を用いたリバーブ音響処理を
開始するよう、リバーブモジュールREVに指示する。
【0073】リンク制御モジュールLCからの指示を受
けた画像再生モジュールREPは、画像再生を開始する
(ステップS105)。具体的には、指示された圧縮状
態の画像データIMj を画像ファイルIMF(図3)か
ら読み出し、これを伸長(デコード)し、AV−I/F
17を介して表示装置3に出力する。これにより、表示
装置3に、画像データIMj の内容(静止画IMAGE1.bm
p,IMAGE2.bmp,IMAGE3.bmp)が、所定の時間間隔で順
次表示される。なお、ユーザUによる指示があった場合
には、リンク制御モジュールLCは、リンクデータL1
の付帯データAX1をも読み出し、これを画像再生モジ
ュールREPに渡す。画像再生モジュールREPは、付
帯データAX1の内容を静止画と共に表示装置3にオー
バーラップさせて表示する(図3では図示せず)。
【0074】例えば、選択されたリバーブデータR1の
タイトルが上記したように「ウィーンコンツェルトハウ
ス」であったとすると、表示装置3には、ウィーンコン
ツェルトハウスの外観、内観およびウィーンの春の景色
等が、このウィーンコンツェルトハウスの規模および歴
史の解説や音楽の都ウィーンにまつわる作曲家のエピソ
ード等の付帯データAXi と共に表示されることにな
る。
【0075】一方、リンク制御モジュールLCからの指
示を受けたリバーブモジュールREVは、選択された楽
曲に対するリバーブ処理を開始する(ステップS10
6)。具体的には、まず、オーディオデータ7Aに対
し、その曲頭から、リバーブデータRD1 によるたたみ
込み処理を開始すると共に、この開始時点から所定の時
間τが経過したところで、原音(ドライ音)に効果音
(ウェット音)が重畳した音響処理音の出力を開始する
(ステップS107)。なお、上記した「所定の時間
τ」については後述する。
【0076】こうして原音に効果音が重畳されて出力さ
れた音響処理音は、各チャンネルごとにオーディオアン
プ4A,4B(図1)によって増幅されたのち、スピー
カ2A,2B(図1,図3)から出力され、ユーザUに
よって聴取される。この音響処理音は、ユーザUが選択
したリバーブデータRDi が採取された現実の音響空間
(例えば、ウィーンコンツェルトハウス)においてその
曲を演奏した場合に得られるものと同等の残響音を含ん
だ臨場感のある音響になっている。このため、ユーザU
は、あたかも、実際にその音響空間に行ってその曲を聞
いているかのような疑似的聴取体験をすることができ
る。
【0077】さらに、このような臨場感のある音響処理
音の出力と並行して、表示装置3には、画像再生モジュ
ールREPによって再生された画像(例えば、ウィーン
コンツェルトハウスの内観やウィーンの町並み等を表す
絵や写真)が表示される。この再生画像の内容は、ユー
ザUの選択に応じたもの(例えば、現にスピーカから出
力されている音響処理音が形作る音場と対応したもの)
になっているため、ユーザUは、その音響空間の情景を
イメージとして描きながら音楽を聞くことができる。す
なわち、ユーザUは、聴覚的な効果に加えて、視覚的に
も臨場感のあるリアルな仮想体験をすることができる。
しかも、ユーザUの選択により、再生画像と共に、その
擬似的創出の対象となった現実の音響空間に関する解説
文もまた表示装置3に表示されるので、ユーザUは、そ
の音響空間等についての知識や理解を深めることができ
る。
【0078】次に、図5,図6および図8を参照して、
リバーブモジュールREVが行うリバーブ音響処理につ
いて詳細に説明する。
【0079】図5において、音楽CD16A(図3参
照)から読み出されたオーディオデータ7Aのうち、L
チャンネルの入力オーディオデータLinは、たたみ込み
処理部51L1,51L2および遅延処理部52Lに入
力され、Rチャンネルの入力オーディオデータRinは、
たたみ込み処理部51R1,51R2および遅延処理部
52Rに入力される。たたみ込み処理部51L1,51
L2,51R1,51R2には、ユーザUによって選択
されたリバーブデータRDi も入力される。
【0080】たたみ込み処理部51L1,51R2は、
それぞれ、リバーブデータRDi に基づいて、入力オー
ディオデータLin,Rinに対してたたみ込み処理(図6
参照)を行い、その処理結果を、共に加算部53L1に
供給する。加算部53L1は、たたみ込み処理部51L
1,51R2の各出力同士を加算(混合)し、その結果
を乗算部54L1に供給する。
【0081】一方、たたみ込み処理部51L2,51R
1は、それぞれ、リバーブデータRDi に基づき、入力
オーディオデータLin,Rinに対して、たたみ込み処理
を行い、その処理結果を、共に加算部53R1に供給す
る。加算部53R1は、たたみ込み処理部51L2,5
1R1の各出力同士を加算(混合)し、その結果を乗算
部54R1に供給する。
【0082】遅延処理部52Lは、入力オーディオデー
タLinに対して所定時間τの遅延を与える処理を行い、
その出力を原音データDLとして乗算部54L2に供給
する。一方、遅延処理部52Rは、入力オーディオデー
タRinに対して所定時間τの遅延を与える処理を行い、
その出力を原音データDRとして乗算部54R2に供給
する。
【0083】原音データDL,DRに遅延を与える理由
は次の通りである。すなわち、たたみ込み処理部51L
1(図5)では、後述するように、バッファ処理ブロッ
ク61(図6)において、必要な残響時間に対応する分
の入力オーディオデータLinを、一旦メモリ(図2のR
AM12)に所定量蓄積したのちに読み出して、この読
み出したデータにたたみ込み処理を行うようになってい
るため、効果音データ(ウェット音)WLには所定の時
間遅延が生ずる。そこで、効果音とドライ音との間のマ
ッチング(曲ずれ防止)を図るために、効果音データ
(ウェット音)WLの遅延量と同一の時間遅延を、遅延
処理部52L(図5)によって原音(ドライ音)データ
DLにも与えるようにしているのである。
【0084】なお、遅延時間τは、オーディオデータ7
Aのサンプリング周波数、たたみ込みのサンプル数、お
よびたたみ込み処理部51L1,51L2,51R1,
51R2における処理速度(すなわち、CPU11の動
作周波数)等に依存して決まるが、通常は6秒程度に設
定される。
【0085】乗算部54L1は、加算部53L1からの
出力に対して、予め設定されたウェット成分調整データ
57Lを乗じ、その結果を加算部53L2に供給する。
乗算部54L2は、遅延処理部52Lからの出力に対し
て、予め設定されたドライ成分調整データ58Lを乗
じ、その結果を加算部53L2に供給する。加算部53
L2は、乗算部54L1,54L2の各出力同士を加算
(重畳)し、その結果をLチャンネルの出力オーディオ
データLout として出力する。出力オーディオデータL
out は、オーディオアンプ4A(図1)によって増幅さ
れ、スピーカ2A(図1)から出力される。
【0086】一方、乗算部54R1は、加算部53R1
からの出力に対して、予め設定されたウェット成分調整
データ57Rを乗じ、その結果を加算部53R2に供給
する。乗算部54R2は、遅延処理部52Rからの出力
に対して、予め設定されたドライ成分調整データ58R
を乗じ、その結果を加算部53R2に供給する。加算部
53R2は、乗算部54R1,54R2の各出力同士を
加算(重畳)し、その結果をRチャンネルの出力オーデ
ィオデータRout として出力する。出力オーディオデー
タRout は、オーディオアンプ4B(図1)によって増
幅され、スピーカ2B(図1)から出力される。
【0087】ここで、図6を参照して、たたみ込み処理
部51L1における処理内容を詳細に説明する。なお、
他のたたみ込み処理部51L2,51R1,51R2に
おける処理も同様であるので、その説明を省略する。
【0088】図6に示したたたみ込み処理部51L1に
おいて、バッファ処理ブロック61は、Lチャンネルの
入力オーディオデータLinを一旦蓄積したのち、FFT
処理ブロック62に供給する。一方、バッファ処理ブロ
ック63は、リバーブデータRDi を一旦蓄積したの
ち、FFT処理ブロック64に供給する。その際、バッ
ファ処理ブロック61,63は、蓄積するデータの量を
リバーブ時間調整データ56に応じて決定する。この蓄
積データ量は、遅延処理部52Lでの遅延時間τに対応
したものである。
【0089】FFT処理ブロック62は、バッファ処理
ブロック61の出力に対して高速フーリエ変換を行うこ
とにより、時間軸上のデータである入力オーディオデー
タLinを周波数軸上のデータに変換し、乗算ブロック6
5へと出力する。一方、FFT処理ブロック64は、バ
ッファ処理ブロック63の出力に対して高速フーリエ変
換を行うことにより、時間軸上のデータであるリバーブ
データRDi を周波数軸上のデータに変換し、乗算ブロ
ック65に供給する。
【0090】乗算ブロック65は、FFT処理ブロック
62からの出力にFFT処理ブロック64からの出力を
乗ずるたたみ込み演算を行い、その結果をIFFT処理
ブロック66に供給する。このとき、乗算ブロック65
は、互いに周波数成分が一致するデータ同士で乗算を行
う。
【0091】例えば、入力オーディオデータLinのサン
プリング周波数が48kHzであり、必要とされる残響
時間に対応するサンプル数が218=256kであったと
すると、遅延時間τは約5.3秒程度となる。CPU1
1は、このようなたたみ込み処理を、4つのたたみ込み
処理部51L1,51L2,51R1,51R2におい
て時分割的に並行して行うことになる。この場合、CP
U11として動作周波数が500MHz程度のものを用
い、32ビットのフローティングポイント演算を行うよ
うにすれば、十分実現可能である。
【0092】IFFT処理ブロック66は、乗算ブロッ
ク65の出力に対して逆高速フーリエ変換を行うことに
より、周波数軸上のデータであるたたみ込み演算の結果
を時間軸上のデータに戻して出力する。このようにし
て、Lチャンネル用の加算部53L1(図5)に供給さ
れるべきデータが生成される。
【0093】次に、図8を参照して、図3,図5に示し
たリバーブモジュールREVにおけるデータ処理のタイ
ミングを説明する。この図の(A)は、リバーブモジュ
ールREVに原音 (=ドライ音=入力オーディオデー
タLin, Rin)が入力されるタイミングを表し、(B)
は、遅延処理部52L,52Rからドライ音が出力され
るタイミングを表す。(C)は、リバーブモジュールR
EVのたたみ込み処理部51L1,51L2,51R
1,51R2におけるたたみ込み処理のタイミングを表
し、(D)は、たたみ込み処理部51L1,51L2,
51R1,51R2の出力タイミングを表す。(E)
は、加算部53L2,53R2の出力タイミング、すな
わち、リバーブモジュールREVから最終的に音響処理
音(ドライ音+ウェット音)が出力されるタイミングを
表す。なお、図8において、加算部53L1,53R
1,53L2,53R2、および乗算部54L1,54
L2,54R1,54R2における演算時間は、たたみ
込み処理部51L1等における演算時間に比べて十分小
さいので、これを無視して描いている。
【0094】この図の(C)に示したように、時刻T0
において、原音の曲頭からたたみ込み処理部51L1に
おけるたたみ込み処理が開始し、これから時間τだけ遅
れて、(E)に示したように、時刻T1において、最初
の処理済みデータ(音響処理音)が出力される。この遅
延は、上記したように、時間軸に沿って入力された原音
およびリバーブデータRDi をそれぞれバッファ処理ブ
ロック61,62に一旦蓄積してから周波数軸上のデー
タに変換するようにしていること、および、4つのたた
み込み処理部51L1,51L2,51R1,51R2
の演算処理がソフトウェアによって行われるためCPU
11の処理能力に応じた遅延が生ずること、等の理由に
よる。
【0095】このように、たたみ込み処理部51L1,
51L2,51R1,51R2では入力に対して出力が
時間τだけ遅れることから、遅延処理部52L,52R
は、(A),(B)に示したように、その遅れ分に対応
した時間τだけドライ音を遅延させて出力するようにし
ている。この結果、リバーブ処理が開始してから時間τ
が経過するまでは無音期間となる。そして、この無音期
間τの経過後に、(E)に示したように、ドライ音とウ
ェット音とが重畳された音響処理音の出力が開始する。
【0096】以上のように、本実施の形態に係る音響処
理装置1によれば、現実の音響空間において採取された
リバーブデータRDi を用いた音響処理を原音に施して
出力するようにしたので、臨場感のある音響を得ること
ができる。さらに、本実施の形態では、音響処理音の出
力と並行して、ユーザUの選択に応じ、出力中の音響処
理音が形作る音場と対応した画像を表示装置3に表示す
ることを可能にしたので、ユーザUは、その音響空間の
情景をイメージとして描きながら音楽を聞くこともでき
る。このため、ユーザUは、聴覚的にも視覚的にも臨場
感のあるリアルな仮想体験、すなわち、あたかも、実際
にその音響空間に身を置いてその曲を聞いているかのよ
うな疑似的聴取体験をすることができる。さらに、ユー
ザUの選択により、再生画像と共に解説文もまた表示装
置3に表示されるようにしたので、その音響空間等につ
いての知識や理解を深めることもでき、仮想体験のリア
ル性を高めることができる。
【0097】また、本実施の形態の音響処理装置1によ
れば、たたみ込み処理をソフトウェアを用いて行うよう
にしたので、ユーザUは、自分の所持しているパーソナ
ルコンピュータにアプリケーションプログラム14Pを
インストールするだけでよく、特別のハードウェア装置
を購入する必要がない。したがって、ユーザUは、自分
が既に所有しているCD等に収録された音楽等に対する
音響処理を、容易かつ低コストで行うことが可能にな
る。
【0098】次に、第1の実施の形態における音響処理
装置1についてのいくつかの変形例を説明する。
【0099】〈変形例1−1〉本変形例の音響処理装置
は、図5のリバーブモジュールREVに代えて、図10
のようなモノラル入力/ステレオ出力の機能を有するリ
バーブモジュールREV−Aを用いるようにしたもので
あり、CPU11の処理能力が不足している場合に好適
である。この図で、図5における要素と同一要素には同
一の符号を付し、適宜説明を省略するものとする。
【0100】図10に示したように、本変形例のリバー
ブモジュールREV−Aは、L,Rの両チャンネルの入
力オーディオデータを1つに合成してモノラルの入力オ
ーディオデータとし、このモノラルのオーディオデータ
を2分岐して、それぞれについてたたみ込み処理を行う
ようにしたものである。以下、詳細に説明する。
【0101】このリバーブモジュールREV−Aは、L
チャンネルの入力オーディオデータLinの一部とRチャ
ンネルの入力オーディオデータRinの一部とを合成して
モノラルの入力オーディオデータを生成する加算部53
と、Lチャンネルの入力オーディオデータLinを遅延さ
せるための遅延処理部52Lと、Rチャンネルの入力オ
ーディオデータRinを遅延させるための遅延処理部52
Rとを備えている。Lチャンネルの入力オーディオデー
タLinは2分岐されて、一方は加算部53に入力され、
他方は遅延処理部52Lに入力される。Rチャンネルの
入力オーディオデータRinもまた2分岐されて、一方が
加算部53に入力され、他方が遅延処理部52Rに入力
されるようになっている。加算部53から出力されたモ
ノラルの入力オーディオデータは2分岐されて、それぞ
れ、たたみ込み処理部51L1,51R1に入力される
ようになっている。たたみ込み処理部51L1,51R
1には、それぞれ、リバーブデータRDi およびリバー
ブ時間調整データ56が供給され、これらのデータに基
づき、モノラルの入力オーディオデータに対するリバー
ブ処理が行われるようになっている。
【0102】たたみ込み処理部51L1から出力された
効果音データWLは、乗算部54L1に入力され、ここ
でウェット成分調整データ57Lが乗ぜられる。たたみ
込み処理部51R1から出力された効果音データWR
は、乗算部54R1に入力され、ここでドライ成分調整
データ57Rが乗ぜられるようになっている。
【0103】遅延処理部52Lから出力された原音デー
タDLは、乗算部54L2に入力され、ここでLチャン
ネル用のドライ成分調整データ58Lが乗ぜられる。遅
延処理部52Rから出力された原音データDRは、乗算
部54R2に入力され、ここでRチャンネル用のドライ
成分調整データ58Rが乗ぜられる。
【0104】乗算部54L1,54L2の各出力は、加
算部53L2で加算され、これにより、Lチャンネルの
原音と効果音とが所定の比率で混合された出力オーディ
オデータLout が生成され、出力されるようになってい
る。乗算部54R1,54R2の各出力は、加算部53
R2で加算され、これにより、Rチャンネルの原音と効
果音とが所定の比率で混合された出力オーディオデータ
Rout が生成され、出力されるようになっている。
【0105】その他の構成は上記第1の実施の形態と同
様である。
【0106】上記第1の実施の形態では、LおよびRチ
ャンネルの入力オーディオデータLin,Rinに対して、
4つのたたみ込み処理部51L1,51L2,51R
1,51R2によってたたみ込み処理を行うようにして
いる。これに対し、本変形例では、Lチャンネルの入力
オーディオデータLinとRチャンネルの入力オーディオ
データRinとを、一旦、加算部53によってモノラルの
入力オーディオデータに合成し、このモノラルの入力オ
ーディオデータに対して、2つのたたみ込み処理部51
L1,51R1によってたたみ込み処理を行うようにし
ている。このため、これをソフトウェアで実行するCP
U11への負担が軽減されるという利点がある。したが
って、さほど高速でないマイクロプロセッサであっても
実現可能である。
【0107】〈変形例1−2〉本変形例の音響処理装置
は、図5のリバーブモジュールREVに代えて、図11
に示したようなモノラル入力/4チャンネル出力(サラ
ウンド出力)の機能を有するリバーブモジュールREV
−Bを用いるようにしたものである。その他の構成は上
記第1の実施の形態と同様である。
【0108】図11に示したように、本変形例に係るリ
バーブモジュールREV−Bは、上記〈変形例1−1〉
のリバーブモジュールREV−A(図10)に、たたみ
込み処理部51L2,51R2と、加算部54L3,5
4R3とを追加したものである。本変形例では、加算部
53の出力を4分岐し、そのうちの2つをたたみ込み処
理部51L1,51R1に入力し、他の2つをたたみ込
み処理部51L2,51R2に入力するようにしてい
る。
【0109】たたみ込み処理部51L2の出力WLR
は、加算部54L3に入力され、ここで、Lチャンネル
用のドライ成分調整データ59Lが乗ぜられて、リアL
チャンネルの出力オーディオデータLout (R)が生成
される。たたみ込み処理部51R2の出力WRRは、加
算部54R3に入力され、ここで、Rチャンネル用のド
ライ成分調整データ59Rが乗ぜられて、リアRチャン
ネルの出力オーディオデータRout (R)が生成され
る。これらの出力オーディオデータLout (R),Rou
t (R)は、それスピーカ2C,2D(図1,図3)に
出力される。
【0110】一方、加算部53L2,53R2の各出力
は、それぞれ、フロントLチャンネルの出力オーディオ
データLout (F)およびフロントRチャンネルの出力
オーディオデータRout (F)として、それぞれ、スピ
ーカ2A,2B(図1,図3)に出力される。
【0111】このようにして、本変形例では、モノラル
入力に対するたたみ込み処理を行うことにより、4チャ
ンネルの出力が得られ、サラウンドモードでの聴取が可
能になるので、ユーザは、図10の場合よりも一層豊か
な臨場感を享受することができる。なお、本変形例の音
響処理装置は、サラウンド対応のオーディオ機器を所有
しているユーザにとって特に利用価値が高い。一般に、
ステレオ録音されたCDは多く出回っているが、サラウ
ンド対応で録音されたCDは少ないという現実があるか
らである。すなわち、高価なサラウンド対応オーディオ
機器を折角所有しながら、サラウンド対応の音楽ソフト
の流通量が寡少であることによって、そのような高価な
機器を十分に生かしきれていないユーザにとって、ステ
レオ録音CDを用いてサラウンドオーディオを聞くこと
ができるのは願ってもない福音だからである。
【0112】なお、音響空間が、例えば音楽スタジオの
ような空間の場合には、残響時間が比較的短いので、そ
こで得られたリバーブデータRDi については3秒程度
のたたみ込みで十分である。このような短い残響音の空
間においては、モノラル入力に対してたたみ込み処理を
行うよりも、ステレオ入力に対してたたみ込み処理を行
うようにした方が、特に前方での定位がはっきりする。
すなわち、ユーザの前方位置にはっきりした音像ができ
る。3秒のたたみ込み処理は6秒のたたみ込み処理に比
べて半分の時間で行うことができるので、少なくとも前
方についてはステレオ入力/ステレオ出力とするのが好
ましい。
【0113】さらに、バーチャルサウンド処理をすれ
ば、2本のスピーカのみを用いて出力した場合や、ヘッ
ドホーンを用いた場合でも、リアルな響きに包まれるよ
うな臨場感のある効果を期待することができる。
【0114】《第2の実施の形態》次に、本発明の第2
の実施の形態に係る音響処理装置について説明する。
【0115】上記第1の実施の形態において説明したよ
うに、リバーブモジュールREVのたたみ込み処理部5
1L1(図5)では、バッファ処理ブロック61(図
6)において、必要な残響時間に対応する分の入力オー
ディオデータLinを、一旦メモリ(図2のRAM12)
に所定量蓄積したのちに読み出して、この読み出したデ
ータにたたみ込み処理を行うようになっているため、効
果音データ(ウェット音)WLには所定の時間遅延τが
生ずる。そこで、この効果音データ(ウェット音)WL
の遅延量に相当する時間を、遅延処理部52L(図5)
によって原音(ドライ音)データDLにも与え、効果音
とドライ音との間のマッチング(曲ずれ防止)を図って
いる。したがって、第1の実施の形態においては、ユー
ザが楽曲再生開始の操作を行ってから最初の音が出力さ
れるまでに比較的長い時間(例えば数秒)がかかり、ユ
ーザにとっては曲頭の無音期間が異常に長く感じられる
結果、視聴時の快適さが損われる。
【0116】本実施の形態は、この点に改善を加えたも
ので、曲頭の長い無音期間をなくすように構成したもの
である。以下、図12〜図14を参照して、本実施の形
態を詳細に説明する。
【0117】図12は、本実施の形態の音響処理装置に
おけるリバーブモジュールREV−Cの構成を表すもの
で、上記第1の実施の形態のリバーブモジュールREV
(図5)に代わるものである。
【0118】このリバーブモジュールREV−Cは、上
記第1の実施の形態のリバーブモジュールREV(図
5)から遅延処理部52L,52Rを除いた構成となっ
ている。したがって、入力オーディオデータLinは、遅
延されることなく、Lチャンネルの原音データである入
力オーディオデータLin(T0)として加算部54L2
に入力され、入力オーディオデータRinは、遅延される
ことなく、Rチャンネルの原音データである入力オーデ
ィオデータRin(T0)として加算部54R2に入力さ
れるようになっている。
【0119】本実施の形態の音響処理装置では、入力オ
ーディオデータLin,Rinは、音楽CD16Aからリバ
ーブモジュールREV−Cに直接入力されるのではな
く、一旦、「記録再生手段」としてのHDD14に書き
込まれたのちに、所定のタイミングで読み出され、リバ
ーブモジュールREV−Cに供給されるようになってい
る。なお、上記した「所定のタイミング」については後
述する。
【0120】本実施の形態に係る音響処理装置における
上記以外の構成は、第1の実施の形態の場合(図1〜図
4,図6)と同様である。また、処理の概要について
は、音楽CD16AとリバーブモジュールREV−Cと
の間にHDD14(図2)が配置されている点、およ
び、リバーブモジュールREV−Cに入力オーディオデ
ータLin,Rinが供給されるタイミング(後述)が異な
る点を除き、上記第1の実施の形態(図3)と同様であ
る。
【0121】次に、本実施の形態の音響処理装置の動作
を説明する。
【0122】図13は、ユーザU(図1)が音響処理装
置1を用いて音響処理を行う場合の操作を含めた全体の
流れを表し、図14は、リバーブモジュールREV−C
(図3,図12参照)における音響処理のタイミングを
表すものである。なお、図13に示した処理のうち、ス
テップS201〜S205については、第1の実施の形
態の場合(図7)と同様であるので、説明を省略する。
【0123】図13のステップS205において、画像
再生モジュールREP(図3)は、リンク制御モジュー
ルLCからの指示に基づいて画像再生を開始するが、こ
れと同時に、リバーブモジュールREVは、リンク制御
モジュールLCからの指示に基づいて、選択された楽曲
についての原音(ドライ音)再生とリバーブ処理とを同
時に開始する(ステップS206)。
【0124】具体的には、図12に示したように、ま
ず、音楽CD16Aからオーディオデータ7Aを入力オ
ーディオデータLin,RinとしてHDD14に一旦書き
込んだのち、Lチャンネルの入力オーディオデータLin
を2つの互いに異なるタイミング(図14の時刻T0,
T1)で読み出すと共に、Rチャンネルの入力オーディ
オデータRinを2つの互いに異なるタイミング(時刻T
0,T1)で読み出し、これらの4つのデータをリバー
ブモジュールREV−Cに入力する。より具体的には、
タイミングT0において、曲頭から入力オーディオデー
タLin,Rinを読み出し、これらをそれぞれ入力オーデ
ィオデータLin(T0),Rin(T0)として、加算部
54L2,54R2(図12)に入力する。一方、タイ
ミングT1では、曲頭から時間τだけ進んだ位置から入
力オーディオデータLin,Rinを読み出し、この読み出
した入力オーディオデータLin(T1)をたたみ込み処
理部51L1,51L2に入力し、読み出した入力オー
ディオデータRin(T1)をたたみ込み処理部51R
1,51R2に入力する。
【0125】ここで、T0,T1は、T1−T0=τを
満たすように設定される。なお、τは、図8におけるτ
と同じものであり、たたみ込み処理部51L1において
生ずる遅延時間である。
【0126】時刻T0からT1までの期間τにおいて
は、たたみ込み処理部51L1等から加算部54L2,
54R2への入力はないので、その間、原音である入力
オーディオデータLin(T0),Rin(T0)がそのま
ま出力される。
【0127】一方、たたみ込み処理部51L1,51L
2およびたたみ込み処理部51R1,51R2は、時刻
T0において、入力オーディオデータLin(T1),R
in(T1)に対して、その曲頭より時間τだけ進んだ位
置から、リバーブデータRDi によるたたみ込み処理を
開始する。そして、この開始時点から所定の時間τが経
過した時刻T1において、効果音(ウェット音)の出力
を開始する。これ以降、原音(ドライ音)に効果音(ウ
ェット音)が重畳した音響処理音が出力される(ステッ
プS207)。
【0128】このようにして、時刻T0からT1までの
期間は原音がそのまま出力され、時刻T1以降は、原音
に効果音が重畳された音響処理音が出力される。これら
の原音および音響処理音は、各チャンネルごとにオーデ
ィオアンプ4A,4B(図1)によって増幅されたの
ち、スピーカ2A,2B(図1,図3)から出力され、
ユーザUによって聴取される。
【0129】次に、図14を参照して、図12に示した
リバーブモジュールREV−Cにおけるデータ処理のタ
イミングを説明する。この図の(A)は、リバーブモジ
ュールREV−Cに原音(ドライ音=入力オーディオデ
ータLin(T0), Rin(T0))が入力されるタイミ
ングを表す。(B)は、リバーブモジュールREV−C
のたたみ込み処理部51L1,51L2,51R1,5
1R2におけるたたみ込み処理のタイミングを表し、
(C)は、たたみ込み処理部51L1,51L2,51
R1,51R2の出力タイミングを表す。(D)は、加
算部53L2,53R2の出力タイミング、すなわち、
リバーブモジュールREV−Cから最終的に音響処理音
(ドライ音+ウェット音)が出力されるタイミングを表
す。なお、図14では、図8と同様に、加算部53L
1,53R1,53L2,53R2、および乗算部54
L1,54L2,54R1,54R2における演算時間
を無視して描いている。
【0130】図14に示したように、本実施の形態で
は、時刻T0において、原音の曲頭より時間τだけ進ん
だ位置からたたみ込み処理部51L1等によってたたみ
込み処理が開始される(図14(A))と同時に、原音
の出力が開始される(同図(B))。たたみ込み処理部
は、時刻T0より時間τだけ遅れた時刻T1に効果音の
出力を開始する(同図(C))。これ以降、原音に効果
音が重畳した音響処理音が出力される(同図(D))。
【0131】このように、本実施の形態によれば、リバ
ーブ処理が開始した直後から時間τが経過するまでは原
音をそのまま出力し、時間τの経過後以降はドライ音と
ウェット音とが重畳された音響処理音を出力するように
したので、上記第1の実施の形態の場合(図8)とは異
なり、曲頭からτの時間にわたって無音期間が続くとい
うことがない。すなわち、ユーザが再生操作をした直後
から楽曲の再生が開始されるので、ユーザにとってあま
り違和感がなく、視聴時の快適さが損われることがな
い。
【0132】なお、本実施の形態では、音楽CD16A
からの出力タイミングと、リバーブモジュールREV−
Cへの入力タイミングとの間の調整を行うための手段と
してHDD14を利用するようにしたが、これに代え
て、例えば図15に示したように、バッファメモリ12
Aを利用してタイミング調整を行うようにしてもよい。
この場合、バッファメモリ12Aは、例えば、RAM1
2の一部を利用して構成することができる。
【0133】《第3の実施の形態》上記第1および第2
の実施の形態では、収録済の音響データ(原音)に、実
在の音楽ホール等の音響空間について予め得られている
インパルス応答データ(リバーブデータ)を適用したリ
バーブ処理を行うことにより、その音があたかもその実
在の音響空間で収録されたものであるかのような仮想現
実的印象を聴き手(ユーザ)に与えることができるよう
にしている。
【0134】しかしながら、ユーザの視聴環境、すなわ
ち、ユーザが実際に音楽を鑑賞する音響空間(例えば、
ユーザ宅のオーディオルーム等。以下、ユーザ音響空間
という。)は多様であり、音響効果を考慮して作られた
広くて本格的なオーディオルームで音楽を楽しむユーザ
もいれば、ごく狭いリビングルームで音楽を鑑賞するユ
ーザもいる。したがって、折角、仮想現実的な音響処理
を施して音響を再生しているにもかかわらず、その効果
が十分に発揮されない場合もあり得る。この場合、ユー
ザは、その実在の音響空間に実際に行って音響を聴いて
いるかのように感じる仮想体験を十分にすることができ
ない。
【0135】本実施の形態は、この点に改善を加えたも
ので、収録済の音響データ(原音)を再生する際に、実
在の音楽ホール等の音響空間について予め得られている
インパルス応答データを用いたリバーブ処理(以下、第
1のリバーブ処理という。)に加えて、ユーザ音響空間
について予め得られているインパルス応答データを用い
たリバーブ処理(以下、第2のリバーブ処理という。)
をも行うことにより、ユーザ音響空間の音響特性をも加
味した、より忠実な音響再生を可能にしたものである。
以下、図16および図17を参照して、本実施の形態を
詳細に説明する。なお、本実施の形態に係る音響処理装
置のハードウェア構成は図2に示したものと同様であ
り、また、この音響処理装置が図1に示したAVシステ
ムに適用される点もまた同様である。
【0136】図16は、本発明の第3の実施の形態に係
る音響処理装置のリバーブモジュールREV−D(図
3,図5)におけるたたみ込み処理部151L1の構成
を表すもので、上記第1の実施の形態のたたみ込み処理
部51L1(図6)に代わるものである。なお、図16
において、図6に示した構成要素と同一の構成要素には
同一の符号を付し、適宜説明を省略する。
【0137】このたたみ込み処理部151L1は、図6
に示したたたみ込み処理部51L1を構成する各要素に
加えて、ユーザリバーブデータRDUが入力されるバッ
ファ処理ブロック68と、バッファ処理ブロック68の
出力が供給されるFFT処理ブロック69と、乗算ブロ
ック65の出力とFFT処理ブロック69の出力とが供
給される乗算ブロック70とを備えている。乗算ブロッ
ク70の出力は、IFFT処理ブロック66に供給され
るようになっている。ユーザリバーブデータRDUは、
ユーザ音響空間の音響特性を表すインパルス応答データ
であり、上記した第2のリバーブ処理に用いられる。こ
のユーザリバーブデータRDUは、後述するリバーブデ
ータ収集装置(図17)を用いて各ユーザによって予め
収集され、例えばHDD14に格納される。ここで、ユ
ーザリバーブデータRDUが本発明における「第2のイ
ンパルス応答データ」の一具体例に対応する。
【0138】バッファ処理ブロック68およびFFT処
理ブロック69の各機能は、バッファ処理ブロック63
およびFFT処理ブロック64の各機能と同様である。
すなわち、バッファ処理ブロック68は、HDD14
(図2)からユーザリバーブデータRDUを読み出し、
これをメモリ(図2;RAM12)に所定量蓄積したの
ち出力する処理を行う。FFT処理ブロック69は、バ
ッファ処理ブロック68から出力された時間軸上のオー
ディオデータを高速フーリエ変換によって周波数軸上の
データに変換する処理を行う。バッファ処理ブロック6
8によってメモリに蓄積されるデータ量は、リバーブ時
間調整データ56によって設定可能になっている。
【0139】なお、リバーブモジュールREV−Dにお
けるLチャンネル用の他のたたみ込み処理部は、たたみ
込み処理部151L1と同様のブロック構造および機能
を有する。また、Rチャンネル用の2つのたたみ込み処
理部は、入力がRチャンネルの入力オーディオデータR
inである点を除き、たたみ込み処理部151L1と同様
のブロック構造および機能を有する。但し、これらの4
つのたたみ込み処理部151L1等で行われる処理は、
実際には、CPU11(図2)によって時分割的に実行
される処理である。
【0140】本実施の形態に係る音響処理装置における
上記以外の構成は、第1の実施の形態の場合(図1〜図
4,図6)と同様である。
【0141】次に、図16を参照して、たたみ込み処理
部151L1における処理内容を詳細に説明する。な
お、他のたたみ込み処理部151L2,151R1,1
51R2における処理も同様であるので、その説明を省
略する。
【0142】図16において、バッファ処理ブロック6
1、FFT処理ブロック62、バッファ処理ブロック6
3、FFT処理ブロック64および乗算ブロック65
は、図6の場合と同様に、Lチャンネルの入力オーディ
オデータLinに対し、リバーブデータRDi を用いてた
たみ込み処理を行い、その処理されたデータを乗算ブロ
ック70に入力する。ここで、リバーブデータRDi が
本発明における「第1のインパルス応答データ」の一具
体例に対応する。
【0143】一方、バッファ処理ブロック68は、ユー
ザリバーブデータRDUを一旦蓄積したのち、FFT処
理ブロック69に供給する。その際、バッファ処理ブロ
ック68は、蓄積するユーザリバーブデータRDUの量
をリバーブ時間調整データ56に応じて決定する。この
蓄積データ量は、遅延処理部52L(図5)での遅延時
間τに対応したものである。FFT処理ブロック69
は、バッファ処理ブロック68の出力に対して高速フー
リエ変換を行うことにより、時間軸上のデータであるユ
ーザリバーブデータRDUを周波数軸上のデータに変換
し、乗算ブロック70に供給する。
【0144】乗算ブロック70は、乗算ブロック65か
らの出力にFFT処理ブロック69からの出力を乗ずる
たたみ込み演算を行い、その結果をIFFT処理ブロッ
ク66に供給する。このとき、乗算ブロック70は、互
いに周波数成分が一致するデータ同士で乗算を行う。
【0145】IFFT処理ブロック66は、乗算ブロッ
ク70の出力に対して逆高速フーリエ変換を行うことに
より、周波数軸上のデータであるたたみ込み演算の結果
を時間軸上のデータに戻して出力する。こうして、Lチ
ャンネル用の加算部53L1(図5)に供給されるべき
データが生成される。
【0146】それ以降のリバーブモジュールREV−D
における処理は、上記第1の実施の形態のリバーブモジ
ュールREVにおけるものと同様であり、最終的に、L
チャンネルの出力オーディオデータLout とRチャンネ
ルの出力オーディオデータRout が出力される。これら
の出力オーディオデータLout ,Rout は、実在の音響
空間についてのインパルス応答データを用いて原音に対
するたたみ込み処理を行って得られたデータに対して、
さらに、ユーザ音響空間についてのインパルス応答デー
タをたたみ込んで得られたデータであるので、これらの
出力オーディオデータLout ,Rout に基づく音響(楽
曲等)が実際にそのユーザ音響空間で再生出力された際
には、そのユーザ音響空間がもつ特有の音響特性が相殺
される。その結果、そこでの響きは、実在の音響空間で
演奏されたときに得られる響きに、より一層近づき、ユ
ーザは、よりリアルな臨場感を得ることができる。
【0147】次に、第2のリバーブ処理で用いられるユ
ーザリバーブデータRDU(インパルス応答データ)を
収集する方法について説明する。
【0148】図17は、ユーザリバーブデータRDUを
収集するためのリバーブデータ収集装置の概略構成を表
すものである。この装置は、ユーザが実際に音楽を鑑賞
するユーザ音響空間45(例えば、ユーザ宅のオーディ
オルーム等)において得られる残響音をインパルス応答
として測定し、収集するためのもので、例えばパーソナ
ルコンピュータを利用して構成される。
【0149】このリバーブデータ収集装置30は、イン
パルス応答測定用の信号を発生する機能と、測定対象の
ユーザ音響空間45から得られた測定結果を収集して測
定結果をインパルス応答データに変換する機能とを備え
ている。測定対象のユーザ音響空間45には、音源40
と、1対の音響検出部41L,41Rとを配置する。音
源40は、例えば、球面上の互いに異なる12方向にス
ピーカが設けられた12面体スピーカにより構成されて
おり、リバーブデータ収集装置30から供給されたイン
パルス応答測定用の信号に応じた音響を発生するように
なっている。音響検出部41L,41Rは、それぞれ、
LおよびRチャンネル用のマイクロフォンで構成されて
おり、音源40から発せられた音響に応じてそれぞれ検
出したLおよびRチャンネルのオーディオ信号をリバー
ブデータ収集装置30に供給するようになっている。
【0150】リバーブデータ収集装置30は、測定用信
号発生ブロック31と、D/A(ディジタル/アナロ
グ)変換ブロック32と、増幅ブロック33と、A/D
(アナログ/ディジタル)変換ブロック部34と、同期
加算ブロック35と、インパルス応答変換部36とを備
えている。
【0151】測定用信号発生ブロック31は、インパル
ス応答測定用の信号であるTSP(タイムストレッチパ
ルス)信号を発生するためのものである。このTSP信
号は、スイープ信号の一種であり、それ自身を逆特性の
信号で除することによりインパルス信号が得られる。イ
ンパルス応答を測定するためには、直接的にインパルス
信号を発生させるのがより好ましいが、測定が困難であ
るため、このような間接的な方法を用いる。なお、TS
P信号の発生は、後述するようにN回行われる。測定用
信号発生ブロック31から出力されたTSP信号は、D
/A変換ブロック32および増幅ブロック33を介して
音源40に供給されるようになっている。
【0152】同期加算ブロック35は、N回分のTSP
信号に対応して音響検出部41L,41Rから出力され
た信号を同期加算するためのものである。同期加算は、
例えばTSP信号の発生タイミングに基づき出力信号を
揃えるようにして行われるようになっている。
【0153】インパルス応答変換ブロック36は、同期
加算ブロック35から供給されたデータを、TSP信号
の逆特性を有するデータで除することにより、インパル
ス応答データ(ユーザリバーブデータRDU)に変換す
るためのものである。
【0154】次に、このリバーブデータ収集装置30の
動作を説明する。
【0155】測定用信号発生ブロック31から出力され
たTSP信号37Aは、D/A変換ブロック32により
アナログ信号に変換され、増幅ブロック33で増幅され
たのち、音源40に供給される。これにより、音源40
からは、TSP信号37Aに対応した音響が出力され
る。音響検出部41L,41Rは、音源40から出力さ
れた再生音響に応じたLおよびRチャンネルのオーディ
オ信号37BL,37BRを出力し、リバーブデータ収
集装置30に入力供給する。
【0156】リバーブデータ収集装置30に入力された
LおよびRチャンネルのオーディオ信号37BL,37
BRは、A/D変換ブロック34で所定のサンプリング
周波数(例えば、48kHzあるいは96kHz)およ
び量子化ビット数(例えば、24ビット)でサンプリン
グされ、LおよびRチャンネルのディジタルオーディオ
データ37CL,37CRとなる。なお、一般に、残響
時間は、音が止まってから音圧レベルが60dB減衰す
るまでの時間を意味するが、本実施の形態では、量子化
ビット数(24ビット)の各ビットに対して6dBが割
り当てられる。
【0157】A/D変換ブロック34から出力されたデ
ィジタルオーディオデータ37CL,37CRは、同期
加算ブロック35に入力される。同期加算ブロック35
は、入力されたディジタルオーディオデータ37CL,
37CRの各々について、TSP信号37Aの発生回数
(N回)と同数回にわたってそれぞれ同期加算を行う。
同期加算は、例えばTSP信号37Aの発生タイミング
に基づいて加算対象データ(ディジタルオーディオデー
タ37CL,37CR)を揃えるようにして行われる。
このように、N回分のオーディオデータの同期加算を行
うことにより、再現性のある信号のみが加算され、ラン
ダムなノイズ成分は加算されないため、S/N比が向上
する。
【0158】同期加算ブロック35から出力されたLお
よびRチャンネルの同期加算データ37DL,37DR
は、インパルス応答変換ブロック36に供給される。イ
ンパルス応答変換ブロック36では、供給された同期加
算データ37DL,37DRを、それぞれ、TSP信号
37Aの逆特性を有する信号データで除する演算を行
う。これにより、「TSP信号37Aを予めインパルス
信号に変換し、このインパルス信号を音源40に供給
し、音源40で発生した残響音を収集し、この残響音に
基づいてインパルス応答を得た」場合と同等の結果(イ
ンパルス応答データ38L,38R)が得られる。この
インパルス応答データ38L,38Rは、サンプリング
周波数に対応した間隔で得られる波高値である。
【0159】インパルス応答変換ブロック36から出力
されたLおよびRチャンネルのインパルス応答データ3
8L,38Rは、HDD14や図示しないMOディスク
等の記録媒体に記録され、上記したユーザリバーブデー
タRDU(図16)として利用される。
【0160】なお、以上のようなユーザリバーブデータ
の収集は、音源40の位置を様々に変えたり、音源40
であるスピーカの種類等を様々に変えて行うようにして
もよい。同様に、音響検出部41L,41Rであるマイ
クロフォンについても、その配設位置や種類等を様々に
変えて収集するようにしてもよい。この場合には、1つ
のユーザ音響空間45について複数のユーザリバーブデ
ータが収集されることになる。ユーザは、音響を再生さ
せる際のバリエーションとして、これらの複数のユーザ
リバーブデータの中から任意の一つを選択することがで
きる。
【0161】また、リバーブデータ収集装置30により
得られたインパルス応答データは、必要に応じて適宜加
工することができる。通常、オーディオデータには、音
の伝搬によるシステムディレイ部分が存在するが、後か
らの加工処理により、このシステムディレイ部分の値を
“0”に固定することにより、この部分のノイズを除去
することが可能である。また、データの後半について
は、データの終端を“0”に収束させるためのフェード
アウト処理を施すことで後半の微小レベル信号部分のノ
イズを除去するようにしてもよい。
【0162】以上説明したように、本実施の形態によれ
ば、収録済の音響データ(原音)を再生する際に、実在
の音楽ホール等の音響空間について予め得られているイ
ンパルス応答データを用いた第1のリバーブ処理に加え
て、ユーザ音響空間45について予め得られているイン
パルス応答データを用いた第2のリバーブ処理をも行う
ようにしたので、ユーザ音響空間45の音響特性をも加
味した音響再生を行うことができる。したがって、ユー
ザの視聴環境に応じた音響再生が可能となり、上記第1
の実施の形態の場合に比べて、忠実性(すなわち、実際
に音楽ホール等に赴いて聴取しているかのように感ずる
リアリティの度合い)が向上する。
【0163】以上、いくつかの実施の形態および変形例
を挙げて本発明の音響処理装置について説明したが、本
発明はこれらの実施の形態等に限定されず、種々の変形
が可能である。例えば、上記の各実施の形態では、イン
パルス応答データのたたみ込みをソフトウェアによって
行うようにしたが、ハードウェアを用いるようにしても
よい。すなわち、図3に示したアプリケーションプログ
ラム14Pの機能のうち、リバーブモジュールREVの
機能のすべてまたは一部をハードウェアに置き換えるよ
うにしてもよい。さらに、アプリケーションプログラム
14Pの機能のうち、画像再生モジュールREPの機能
のすべてまたは一部をハードウェアに置き換えることも
可能である。
【0164】また、上記各実施の形態では、4つのスピ
ーカ2A〜2Dを用いて再生するようにしたが、もう1
つのスピーカを前方の2つのスピーカ2A,2Bの間に
追加して、5スピーカシステムにしてもよい。これによ
り、臨場感をさらに高めることができる。
【0165】[音響処理用データの配信方法]次に、本
発明の一実施の形態に係る音響処理用データの配信方法
について説明する。この配信方法は、例えば上記各実施
の形態の音響処理装置において利用される音響処理用デ
ータである処理用コンテンツデータ8C(図1,図2)
を、インターネットを介してユーザに配信して利用に供
するための方法である。以下、この配信方法について、
これを適用して構築されるビジネスモデルと共に説明す
る。
【0166】図18は本実施の形態に係る音響処理用デ
ータの配信方法が適用されるネットワークシステムの要
部を表すものである。このシステムは、コンテンツ配信
事業者100が運用するサーバシステム101と、ユー
ザ200が保有するユーザシステム201と、コンテン
ツ提供者300が運用するコンテンツ提供システム30
1と、これらの各システムに接続された広域通信網とし
てのインターネット400とを含んで構成されている。
サーバシステム101、ユーザシステム201およびコ
ンテンツ提供システム301は、例えば、一般的なパー
ソナルコンピュータやワークステーション等のコンピュ
ータを用いて構成される。
【0167】サーバシステム101は、第1に、様々な
実在の音響空間について提供された処理用コンテンツデ
ータ8Cを蓄積するコンテンツソース8(図1)として
の機能を有する。より詳細には、サーバシステム101
は、コンテンツ提供システム301からインターネット
400を介して提供されたコンテンツ83を受信すると
共に、受信したコンテンツ83に含まれるリバーブデー
タ、画像データおよび付帯データをリンクデータによっ
て相互にリンクさせるデータ加工を行い、その加工結果
を処理用コンテンツデータ8Cの形で蓄積するようにな
っている。なお、処理用コンテンツデータ8Cは、図1
および図2に示したものと同じもので、リバーブデータ
(インパルス応答データ)、画像データ、付帯データお
よびリンクデータを含む。
【0168】サーバシステム101は、第2の機能とし
て、ユーザシステム201からの要求に応じて、その要
求をしたユーザシステム201に処理用コンテンツデー
タ8Cをインターネット400を介して配信する配信機
能を備え、さらに、第3の機能として、処理用コンテン
ツデータ8Cの配信に応じた料金をその配信先のユーザ
200に課金する課金機能を備えている。サーバシステ
ム101はさらに、第4の機能として、ユーザシステム
201に対する処理用コンテンツデータ8Cの配信回数
に応じた料金を、その処理用コンテンツデータ8Cを提
供したコンテンツ提供者300に支払う支払機能を備え
ている。
【0169】サーバシステム101は、上記した第1〜
第4の機能を実現するために、後述するように、コンテ
ンツデータベースDB1(図19)と、コンテンツ管理
データベースDB2(図20)と、ユーザ管理データベ
ースDB3(図21)とを備えている。
【0170】ユーザシステム201は、例えば上記の図
2に示した構成を有するもので、収録済の原音に対して
実在の音響空間の響きに対応したリバーブデータをたた
み込む音響処理機能と、インターネット400を介して
サーバシステム101と通信を行う通信機能とを備えて
いる。その詳細な構成および機能は、上記各実施の形態
において説明した通りである。
【0171】コンテンツ提供システム301は、リバー
ブデータ、画像データおよび付帯データを含むコンテン
ツ83を少なくとも一時的に保有する保有機能と、保有
するコンテンツ83をインターネット400を介してサ
ーバシステム101に送信する通信機能とを備えてい
る。
【0172】次に、サーバシステム101における各デ
ータベースについて説明する。
【0173】図19はコンテンツデータベースDB1の
概略構造を表すものである。このデータベースは、コン
テンツ提供者300等から提供されたコンテンツ83
(リバーブデータ、画像データおよび付帯データ)を格
納するもので、各コンテンツ83ごとに、コンテンツ番
号が付されている。
【0174】図20はコンテンツ管理データベースDB
2の概略構造を表すものである。このデータベースは、
コンテンツデータベースDB1に格納された各コンテン
ツ83のコンテンツ番号ごとに、コンテンツ提供者情報
と、アップロード情報と、使用権確認フラグと、ダウン
ロード回数とが対応付けられて構成されている。
【0175】コンテンツ提供者情報は、コンテンツ83
を提供した者の氏名や銀行口座番号等を含む情報であ
る。ここで、銀行口座番号は、後述するように、提供さ
れたコンテンツ83の利用じきに応じた対価をその提供
者に支払う際に必要となるものである。
【0176】アップロード情報は、アップロードライセ
ンスと、アップロード年月日とを含む。アップロードラ
イセンスは、コンテンツ配信事業者100がコンテンツ
提供者300からコンテンツ83の提供を受けるに際し
て、不特定の者からの悪意のアップロード(いわゆるハ
ッキング)を防ぐために、予めコンテンツ配信事業者1
00からコンテンツ提供者300に発行する許可情報で
ある。アップロード年月日は、コンテンツ配信事業者1
00がコンテンツ提供者300から実際にコンテンツ提
供を受けたときの日付情報である。
【0177】使用権確認フラグは、コンテンツ提供者3
00から提供されたコンテンツ83が正規のコンテンツ
使用許諾を得たものであるか否かを示すフラグ情報であ
り、「確認済」または「未確認」のいずれかの状態をと
る。具体的には、使用権確認フラグは、リバーブデータ
が得られた音響空間(音楽ホール等)の所有者や管理者
等から、その音響空間の名前の使用、そのリバーブデー
タの使用、およびその音響空間に関わる画像データの使
用を許可されていることを示すもので、これが「確認」
状態になって初めて、そのコンテンツ83のダウンロー
ドが可能となる。これにより、その音響空間に関わる権
利の無断使用を防止することができる。
【0178】ダウンロード回数は、ある特定のコンテン
ツ83がユーザ200によってどのくらい利用されたか
を示すためのもので、実際にダウンロードされた回数を
表す。
【0179】図21はユーザ管理データベースDB3の
概略構造を表すものである。このデータベースは、ユー
ザ識別番号ごとに、ユーザ情報と、利用ライセンス情報
と、利用コンテンツ番号とが対応付けられて構成されて
いる。
【0180】ユーザ識別番号は、個々のユーザ200ご
とに付された識別情報である。ユーザ情報は、ユーザの
氏名やクレジットカード番号等を含む個人情報である。
ここで、クレジットカード番号は、そのコンテンツ83
の利用に対する対価についての課金処理に用いられる。
【0181】利用ライセンス情報は、ユーザ200によ
ってダウンロードされた鍵付きのコンテンツ83の鍵を
外して利用可能な状態にするために用いられるもので、
例えば、ユーザ200のクレジットカード番号とコンテ
ンツの内容の一部とを用いて作成される。
【0182】利用コンテンツ番号は、ユーザ200によ
ってダウンロードされ利用可能になったコンテンツ83
についてのコンテンツ番号を示す。
【0183】次に、図22および図23を参照して、以
上のような構成のネットワークシステムにおける処理内
容を説明する。図22は、コンテンツ提供システム30
1とサーバシステム101との間で行われる処理、およ
びそれぞれにおける処理を表すものである。図23は、
ユーザシステム201とサーバシステム101との間で
行われる処理、およびそれぞれにおける処理を表すもの
である。
【0184】まず、図18および図22を参照して、コ
ンテンツ提供者300がコンテンツ提供システム301
からサーバシステム101にコンテンツ83をアップロ
ードして登録する場合の処理を説明する。
【0185】コンテンツ提供者300のコンテンツ提供
システム301には、予め取得したコンテンツ83が格
納されているものとする。コンテンツ提供者300は、
取得したコンテンツ83をコンテンツ配信事業者100
に提供するに際し、まず、コンテンツ提供システム30
1からウェブ上のサーバシステム101にアクセスし、
サーバシステム101からコンテンツ登録画面(図示せ
ず)の送信を受ける(ステップS301)。次に、コン
テンツ提供者300は、ウェブ上のコンテンツ登録画面
(図示せず)から、自己の氏名や、コンテンツ提供の対
価の振込を希望する銀行口座番号等の個人情報を含むア
ップロード申込情報81(図18)を入力し、送信する
(ステップS302)。
【0186】サーバシステム101は、コンテンツ提供
システム301からアップロード申込情報81が送られ
てくると、そのコンテンツ提供者300のコンテンツ提
供システム301に対し、コンテンツ83のアップロー
ドを許可するアップロードライセンス情報82(図1
8)を送信する(ステップS303)。アップロードラ
イセンス情報82は、例えば、コンテンツ提供者300
がアップロード申込時に送信した個人情報(例えば、ア
ップロード申込情報81のうちの口座番号等)を用いて
生成するのが好ましい。ここで、アップロードライセン
ス情報82が本発明における「第2の認証情報」の一具
体例に対応する。
【0187】コンテンツ提供システム301は、サーバ
システム101からアップロードライセンス情報82を
受信する(ステップS304)。これにより、コンテン
ツ提供者300は、アップロードライセンス情報82を
取得する。
【0188】ここで、コンテンツ提供者300が、コン
テンツ提供システム301からサーバシステム101に
対してコンテンツ83のアップロードを要求すると、サ
ーバシステム101は、コンテンツアップロード画面
(図示せず)をコンテンツ提供システム301に送信す
る(ステップS305)。このコンテンツアップロード
画面において、取得したアップロードライセンス情報8
2を入力すると(ステップS306)、コンテンツ提供
システム301は、コンテンツアップロード可能状態に
移行する(ステップS307)。これにより、コンテン
ツ提供者300は、コンテンツ83を送信することがで
きる(ステップS308)。
【0189】サーバシステム101は、コンテンツ83
を受信し(ステップS309)、その受信したコンテン
ツ83に含まれるリバーブデータ、画像データおよび付
帯データを相互にリンクさせるリンクデータを作成し、
これらをひとまとまりのコンテンツデータとしてコンテ
ンツ番号を付してコンテンツデータベースDB1(図1
9)に記録する。さらに、サーバシステム101は、コ
ンテンツ提供者300に関わるコンテンツ提供者情報
と、アップロードライセンスやアップロード年月日等を
含むアップロード情報とをコンテンツ管理データベース
DB2(図20)に記録する(ステップS310)。但
し、この段階では、コンテンツ管理データベースDB2
における、そのコンテンツに関する使用権確認フラグ
(図20)は、まだ「未確認」となっている。
【0190】次に、コンテンツ提供者300は、コンテ
ンツ配信事業者100に対し、電子メールまたはファク
シミリあるいは文書等を用いて、使用権の存在を示す使
用権証明書を提供する。この証明書は、リバーブデータ
が得られた音響空間(音楽ホール等)の所有者や管理者
等から、その音響空間の名前の使用、そのリバーブデー
タの使用、およびその音響空間に関わる画像データの使
用を許可されていることを示すものである。
【0191】コンテンツ配信事業者100は、コンテン
ツ提供者300から使用権証明書を受けると、サーバシ
ステム101のコンテンツ管理データベースDB2にお
ける該当コンテンツ番号についての使用権確認フラグを
「確認済」に変更する。これにより、コンテンツ提供に
対する対価支払処理に必要なコンテンツ登録手続のすべ
てが完了し、これ以降、ユーザへのコンテンツ提供(ダ
ウンロード)が可能となる。
【0192】次に、図18および図23を参照して、ユ
ーザシステム201がサーバシステム101からコンテ
ンツをダウンロードして利用する場合の処理を説明す
る。なお、ユーザシステム201には、予め、音響処理
用プログラム(図1および図2のリバーブアプリケーシ
ョンプログラム14P)がインストールされているもの
とする。この音響処理用プログラムは、後述するロック
解除情報を生成する機能を有するものとする。
【0193】ユーザ200は、ユーザシステム201か
らサーバシステム101にアクセスし、サーバシステム
101からコンテンツダウンロード画面の送信を受ける
(ステップS401)。ユーザ200がコンテンツダウ
ンロード画面において所望のコンテンツデータの番号を
選択すると(ステップS402)、サーバシステム10
1は、コンテンツデータベースDB1から、その選択さ
れた番号の処理用コンテンツデータ8Cを読み出し、ユ
ーザシステム201に送信する(ステップS403)。
【0194】ユーザ200は、サーバシステム101か
らユーザシステム201にダウンロードされたコンテン
ツデータを用いて所定の期間または回数だけ試視聴を行
うこと(すなわち、例えば自分の持っている楽曲に、ダ
ウンロードしたコンテンツデータを適用することによ
り、音響効果と画像を確認すること)ができる(ステッ
プS404)。なお、この試視聴機能は、予めアプリケ
ーションプログラム14Pが備えている機能である。
【0195】ユーザ200は、そのダウンロードしたコ
ンテンツデータの購入を希望するときは(ステップS4
05;Y)、購入申込画面を開いて自己の氏名、クレジ
ットカード番号および購入を希望するコンテンツのコン
テンツ番号等を含む購入申込情報84(図18)を入力
し、これをサーバシステム101に送信する(ステップ
S406)。
【0196】サーバシステム101は、ユーザシステム
201から購入申込情報84が送られてくると、この購
入申込情報84を基に利用ライセンス情報85(図1
8)を生成し、これをユーザシステム201に送信する
(ステップS407)。利用ライセンス情報85の生成
は、例えば、購入申込情報84から抽出したクレジット
カード番号と、購入対象コンテンツデータの中のリバー
ブデータの一部(例えば、先頭よりmバイト目からnバ
イト目までのデータ(m,nは整数))とを用いて行う
のが好ましい。ここで、利用ライセンス情報85が本発
明における「第1の認証情報」の一具体例に対応する。
クレジットカード番号が本発明における「ユーザ個人情
報」の一具体例に対応し、購入対象コンテンツデータ中
のリバーブデータの一部が本発明における「データ固有
情報」の一具体例に対応する。
【0197】利用ライセンス情報85の生成にクレジッ
トカード番号を用いるようにしている理由は次の通りで
ある。すなわち、一般に、ユーザにとってクレジットカ
ード番号は非常に重要な情報であり、これを気軽に他人
に教えることは殆ど考えられない。したがって、後述す
るように、このクレジットカード番号を入力しない限
り、ダウンロードしたコンテンツの利用ができないよう
にしておけば、第3者による無断コピーによるコンテン
ツの使用を排除することができるのである。
【0198】また、利用ライセンス情報85の生成に購
入対象コンテンツデータ中のリバーブデータの一部を用
いるようにしているのは、あるコンテンツについてのみ
利用ライセンスを受けたユーザが、試視聴のためにダウ
ンロードした他のコンテンツを自由に利用することを不
可能にするためである。
【0199】サーバシステム101はさらに、購入申込
情報84から抽出したユーザの氏名、クレジットカード
番号および購入対象コンテンツのコンテンツ番号、なら
びに、これらから生成した利用ライセンス情報85をユ
ーザ管理データベースDB3(図21)に登録する(ス
テップS408)と共に、コンテンツ管理データベース
DB2の利用回数を1つカウントアップする。これによ
り、ユーザ200によるコンテンツ利用に対する課金処
理に必要なユーザ登録処理が完了すると共に、コンテン
ツ提供の対価に関するコンテンツ提供者300への支払
いに必要なデータエントリ処理が完了する。
【0200】ユーザシステム201は、サーバシステム
101から送られてきた利用ライセンス情報85を受信
すると(ステップS409)、この利用ライセンス情報
85をメモリ(例えば図2のRAM12)に記憶する。
これにより、ユーザ200による処理用コンテンツデー
タ8Cの購入処理が完了する。
【0201】ここで、ユーザ200が、ユーザシステム
201においてリバーブアプリケーションプログラム1
4Pを起動し、利用するコンテンツ83の番号を指定し
た上で、キー番号としてクレジットカード番号を入力す
る(ステップS410;Y)。すると、リバーブアプリ
ケーションプログラム14Pは、その入力されたキー番
号(クレジットカード番号)と、その指定されたコンテ
ンツ83の中のリバーブデータの一部とに基づいて、ロ
ック解除情報を生成し、これを、既にサーバシステム1
01から取得し記憶している利用ライセンス情報85と
照合する(ステップS411)。この結果、両者が一致
したときは(ステップS412;Y)、リバーブアプリ
ケーションプログラム14Pが楽曲再生可能状態へと移
行する(ステップS413)。一方、一致しないとき
は、処理用コンテンツデータ8Cを用いた楽曲再生は禁
止され、「キー番号または指定したコンテンツ番号が違
っています」等のメッセージが表示される。なお、キー
番号としてのクレジットカード番号が入力されたのち、
これを暗号化しておけば、簡単にクレジットカード番号
を盗まれるおそれがないので、ユーザ200にとっては
安心である。
【0202】このようにして、サーバシステム101
は、ユーザ200が処理用コンテンツデータ8Cを購入
するごとに、ユーザ管理データベースDB3へのユーザ
登録(課金処理)を行う。コンテンツ配信事業者100
は、購入処理が行われる都度、あるいは定期的にユーザ
管理データベースDB3を参照して、購入したユーザ2
00に対して料金請求手続きを行うことにより、コンテ
ンツ利用に対する対価の支払いをユーザ200から受け
ることとなる。なお、サーバシステム101に請求処理
用のソフトウェアをインストールしておき、ユーザ20
0に対する請求処理を自動的に行うようにすることも可
能である。
【0203】また、サーバシステム101は、処理用コ
ンテンツデータ8Cが利用(購入)されるごとに、コン
テンツ管理データベースDB2の利用回数をカウントア
ップする。コンテンツ配信事業者100は、例えば一定
期間(例えば1カ月)ごとに利用回数をチェックし、そ
の利用回数に応じた対価の支払いをコンテンツ提供者3
00に対して行うこととなる。なお、サーバシステム1
01に支払い処理用のソフトウェアをインストールして
おき、コンテンツ提供者300に対する対価の支払い処
理を自動的に行うようにすることも可能である。
【0204】以上のように、本実施の形態に係る音響処
理用データの配信方法によれば、インターネットを通じ
て、世界中から広く、リバーブデータや画像データ等を
含むコンテンツを収集することを容易に実現することが
できる。また、世界中のユーザに対して様々なコンテン
ツを提供することを容易に実現することができる。この
ため、ユーザは自宅に居ながらにして、世界中の著名な
音楽ホール等へ実際に行って音楽を聴いているかのよう
な仮想体験を得ることが可能になる。
【0205】また、コンテンツ配信事業者にとっては、
多くのユーザにコンテンツを配信することにより、配信
回数に応じた利益を得ることができる。この場合、コン
テンツの種類や内容等に応じて配信料金の額を適宜設定
することが可能である。また、サーバシステム101を
用いて、コンテンツの収集と配信とを自動的に管理する
ようにしたことにより、これらの一連の複雑な処理を自
動的に行うことができ、極めて効率よくコンテンツ配信
事業を運営することができる。
【0206】さらに、コンテンツ提供者にとっては、貴
重なあるいは人気のあるコンテンツを探して、これをコ
ンテンツ配信事業者に提供することにより、ユーザによ
る購入の回数(利用回数)に応じた利益を得ることがで
きる。
【0207】また、コンテンツ提供者からコンテンツ配
信事業者にコンテンツを提供するに際して、アップロー
ドライセンス情報の入力を要求するようにしたので、不
特定の者からの悪意のアップロード(いわゆるハッキン
グ)を防ぐことができる。
【0208】以上、実施の形態を挙げて本発明に係る音
響処理用データの配信方法を説明したが、本発明はこの
実施の形態に限定されず、以下に列挙するように、種々
の変形が可能である。
【0209】上記実施の形態では、配信する対象の音響
処理用データが、リバーブデータのほかに、画像データ
および付帯データ、ならびにこれらをリンクさせるため
のリンクデータを含むものとして説明したが、これには
限定されない。例えば、画像データを含まずに、リバー
ブデータ、付帯データおよびリンクデータからなるよう
にしてもよい。あるいは、リバーブデータだけを含むよ
うにしてもよい。
【0210】上記実施の形態では、利用ライセンス情報
およびこれと照合されるロック解除情報を生成する際
に、クレジットカード番号のほかに、リバーブデータの
一部を用いるようにしたが、これには限定されない。リ
バーブデータ、画像データおよび付帯データのうちの少
なくとも1つを用いて生成するようにしてもよい。その
際の各データの用い方については、単にそれぞれのデー
タの一部を抽出してそのまま用いるのではなく、各デー
タに基づいて所定の演算を行って得られる演算結果デー
タを用いるようにしてもよい。
【0211】コンテンツデータをダウンロードして利用
するユーザは、一般家庭の個人であってもよいが、カラ
オケハウスやゲームセンター等の娯楽施設に来店したユ
ーザであってもよい。この場合には、これらの娯楽施設
に来店した客からのオプション料金の支払いを条件とし
て、その客がコンテンツをダウンロードして利用できる
ようにすればよい。
【0212】コンテンツ配信事業者100が運営するサ
ーバシステム101は、リバーブデータおよび画像デー
タ等を主とするコンテンツデータを配信するための専門
サイトであってもよいが、一般的な音楽配信サイトであ
ってもよい。この場合には、例えば、配信楽曲を選択す
るためのウェブ画面上に音響効果体験ボタンを設けて、
これをクリックするだけでリバーブ効果を体験できるよ
うにしておき、この画面から購入もできるようにすれば
よい。
【0213】
【発明の効果】以上説明したように、請求項1ないし請
求項4のいずれかに記載の音響処理装置によれば、原音
に実在する音響空間の響きに対応したインパルス応答デ
ータをたたみ込むことにより生成した効果音を原音に重
畳して音響処理音を生成し、この音響処理音を画像再生
手段からの再生画像の出力に合わせて出力するようにし
たので、聴き手は、実際にその音響空間で音響を聴いて
いるかのような音響的な臨場感と視覚的な臨場感とを得
ることができる。
【0214】特に、請求項2に記載の音響処理装置によ
れば、少なくともたたみ込み手段をソフトウェアにより
構成するようにしたので、特別なハードウェア機器を用
いなくても、音響処理を行うことができる。例えば一般
家庭に広く普及しているパーソナルコンピュータにソフ
トウェアをインストールするだけで、臨場感溢れる仮想
視聴体験を手軽に楽しむことができる。
【0215】また、特に、請求項3に記載の音響処理装
置によれば、画像再生手段からの再生画像が実在する音
響空間と関連したものであるようにしたので、聴き手
は、今聴いている音の響きに重ねてその音響空間の情景
をイメージとして描きながら音楽を聞くこともできる。
このため、聴き手は、あたかも、実際にその音響空間に
身を置いてその音響空間を見ながらその曲を聞いている
かのように感じられるという疑似的視聴体験を実現する
ことができる。
【0216】また、特に、請求項4に記載の音響処理装
置によれば、さらに、生成された音響処理音と画像再生
手段からの再生画像とを着脱可能記録媒体に記録する記
録手段を備えるようにしたので、一旦作成した画像付き
音響処理音のうち、気に入ったものを保存しておくこと
ができる。さらには、お気に入りの画像付き音響処理音
を集めた疑似的視聴体験ライブラリを手軽に作成するこ
とも可能である。
【0217】請求項5ないし請求項8のいずれかに記載
の音響処理装置によれば、原音にインパルス応答データ
をたたみ込む際に生じた遅延時間を差し引いた箇所(遅
延分をオフセットした位置)から原音に対するたたみ込
み処理を開始し、音響処理開始が指示された時点から遅
延時間の経過時点までの間は原音をそのまま外部に出力
する一方、遅延時間の経過時点以降は原音と効果音とを
重畳させて生成した音響処理音を出力するようにしたの
で、聴き手は、遅延時間に相当する当初の期間は原音
を、その後は音響処理音を聴くことになる。このため、
たたみ込み処理による遅延に起因する再生開始直後の無
音期間がなくなり、聴き手が違和感を覚えたりイライラ
することがない。
【0218】請求項9または請求項10に記載の音響処
理装置によれば、実在する第1の音響空間の響きに対応
して得られた第1のインパルス応答データのみならず、
音響処理が施された音の再生出力が行われる予定の実在
する第2の音響空間の響きに対応して得られた第2のイ
ンパルス応答データをも原音にたたみ込むことにより効
果音を生成し、この効果音を原音に重畳して音響処理音
を生成するようにしたので、収録空間としての第1の音
響空間のみならず、再生空間としての第2の音響空間の
音響特性をも加味した音響処理が行われる。このため、
視聴する空間の良し悪しに左右されることなく、ほぼ一
定の安定した音響特性を保った臨場感を聴き手に与える
ことができる。
【0219】請求項11ないし請求項18のいずれかに
記載の音響処理用データの配信方法によれば、サーバシ
ステムに蓄積された様々な実在の音響空間についてのイ
ンパルス応答データのうち、ユーザシステムから要求さ
れたインパルス応答データを通信路を介してそのユーザ
システムに配信し、そのデータ配信に応じた利用料金を
ユーザシステムに課金するようにしたので、配信業者
は、多くの手間をかけずに低コストでインパルス応答デ
ータを世界中のユーザに広く提供できると共に、その対
価の回収を簡単に行うことができる。一方、ユーザは自
宅に居ながらにして、世界中の著名な音楽ホール等へ実
際に行って音楽を聴いているかのような仮想体験を得る
ことが可能になる。
【0220】特に、請求項13に記載の音響処理用デー
タの配信方法によれば、サーバシステムからユーザシス
テムに対してインパルス応答データを配信する際に、そ
のユーザシステムによるインパルス応答データの利用を
可能にさせるための第1の認証情報を併せて配信するよ
うにしたので、インパルス応答データの不正コピーを防
止することができる。
【0221】また、特に、請求項15に記載の音響処理
用データの配信方法によれば、サーバシステムは、広域
通信ネットワークに接続されたコンテンツ提供システム
から通信路を介してインパルス応答データの提供を受け
て蓄積するようにしたので、世界中から広くインパルス
応答データを収集することを容易に実現することができ
る。
【0222】また、特に、請求項16に記載の音響処理
用データの配信方法によれば、サーバシステムは、ユー
ザシステムに対するインパルス応答データの配信回数に
応じた料金をその配信されたインパルス応答データを提
供したコンテンツ提供システムに支払うために必要な支
払処理を行うようにしたので、インパルス応答データの
利用頻度に応じた相応の対価を提供者に支払うことがで
きる。
【0223】また、特に、請求項17に記載の音響処理
用データの配信方法によれば、サーバシステムは、コン
テンツ提供システムからインパルス応答データの提供の
申出がされた場合に、インパルス応答データの提供を可
能にさせるための第2の認証情報をコンテンツ提供シス
テムに送信するようにしたので、不特定の者からインパ
ルス応答データが提供されることにより生ずるであろう
不都合、例えば悪意のアップロード(いわゆるハッキン
グ)等を防止することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る音響処理装置
を用いて構成したオーディオビジュアルシステムの概略
構成を表すブロック図である。
【図2】図1における音響処理装置のハードウェア構成
の概略を表すブロック図である。
【図3】図1における音響処理装置の機能構成の要部を
表すブロック図である。
【図4】図3におけるリンクファイルの一例を表す図で
ある。
【図5】図3におけるリバーブモジュールの機能構造を
表すブロック図である。
【図6】図5におけるたたみ込み処理部の機能構造を表
すブロック図である。
【図7】本発明の第1の実施の形態に係る音響処理装置
を用いて音響処理を行う場合のユーザ操作を含めた全体
の流れを表す流れ図である。
【図8】図5に示したリバーブモジュールにおける音響
処理のタイミングを表すタイミング図である。
【図9】インパルス応答データの一例を表す図である。
【図10】本発明の第1の実施の形態の一変形例に係る
音響処理装置におけるリバーブモジュールの機能構造を
表すブロック図である。
【図11】本発明の第1の実施の形態の他の変形例に係
る音響処理装置におけるリバーブモジュールの機能構造
を表すブロック図である。
【図12】本発明の第2の実施の形態に係る音響処理装
置におけるリバーブモジュールの機能構造を表すブロッ
ク図である。
【図13】本発明の第2の実施の形態に係る音響処理装
置を用いて音響処理を行う場合のユーザ操作を含めた全
体の流れを表す流れ図である。
【図14】図12のリバーブモジュールにおける音響処
理のタイミングを表すタイミング図である。
【図15】本発明の第2の実施の形態の一変形例に係る
音響処理装置におけるリバーブモジュールの機能構造を
表すブロック図である。
【図16】本発明の第3の実施の形態に係る音響処理装
置におけるリバーブモジュールの機能構造を表すブロッ
ク図である。
【図17】ユーザリバーブデータを収集するためのリバ
ーブデータ収集装置の概略構成を表すブロック図であ
る。
【図18】本発明の一実施の形態に係る音響処理用デー
タの配信方法が適用されるネットワークシステムの要部
を表すシステム構成図である。
【図19】図18におけるサーバシステムに設けられた
コンテンツデータベースの一例を表す図である。
【図20】図18におけるサーバシステムに設けられた
コンテンツ管理データベースの一例を表す図である。
【図21】図18におけるサーバシステムに設けられた
ユーザ管理データベースの一例を表す図である。
【図22】コンテンツ提供システムとサーバシステムと
の間で行われる処理、およびこれらのシステムの各々に
おける処理を表す流れ図である。
【図23】ユーザシステムとサーバシステムとの間で行
われる処理、およびこれらのシステムの各々における処
理を表す流れ図である。
【符号の説明】
1…音響処理装置、2A〜2D…スピーカ、3…表示装
置、5…記録再生装置、7…オーディオソース、7A…
オーディオデータ、8…コンテンツソース、8C…処理
用コンテンツデータ、11…CPU、12…RAM、1
3…ROM、14…ハードディスク装置、14C…コン
テンツライブラリ、14P…リバーブアプリケーション
プログラム、16…CDドライブ、16A…音楽CD、
16P…CD−ROM、51L1,51L2, 51R
1,51R2…たたみ込み処理部、52L,52R…遅
延処理部、62,64,69…FFT処理ブロック、6
5…たたみ込み演算処理ブロック、66…IFFT処理
ブロック、Li …リンクデータ、RDi …リバーブデー
タ、IMi …画像データ、AXi …付帯データ、REV
…リバーブモジュール、LC…リンクモジュール、RE
P…画像再生モジュール、82…アップロードライセン
ス情報、83…コンテンツ、85…利用ライセンス情
報、101…サーバシステム、201…ユーザシステ
ム、301…コンテンツ提供システム、400…インタ
ーネット、DB1…コンテンツデータベース、DB2…
コンテンツ管理データベース、DB3…ユーザ管理デー
タベース。
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5D044 AB05 AB07 BC02 CC06 DE50 FG23 FG30 GK12 HL11 5D108 AB19 AC02 AC07

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 収録済の原音に対して所定の音響処理を
    施すための装置であって、 前記原音に対して、実在する音響空間の響きに対応した
    インパルス応答データをたたみ込むことにより、効果音
    を生成するたたみ込み手段と、 画像を再生して出力する画像再生手段と、 前記画像再生手段からの再生画像の出力に沿って、前記
    原音と前記たたみ込み手段からの効果音とを重畳させて
    音響処理音を生成し出力するように前記画像再生手段お
    よびたたみ込み手段を制御する制御手段とを備えたこと
    を特徴とする音響処理装置。
  2. 【請求項2】 少なくとも前記たたみ込み手段が、ソフ
    トウェアにより構成されていることを特徴とする請求項
    1に記載の音響処理装置。
  3. 【請求項3】 前記画像再生手段からの再生画像は、前
    記実在する音響空間と関連したものであることを特徴と
    する請求項1に記載の音響処理装置。
  4. 【請求項4】さらに、 前記生成された音響処理音と前記画像再生手段からの再
    生画像とを着脱可能記録媒体に記録する記録手段を備え
    たことを特徴とする請求項1に記載の音響処理装置。
  5. 【請求項5】 収録済の原音に対して所定の音響処理を
    施すための装置であって、 前記原音に対して、実在する音響空間の響きに対応した
    インパルス応答データをたたみ込むことにより、効果音
    を生成するたたみ込み手段と、 前記インパルス応答データのたたみ込み処理を行う際に
    生ずる遅延時間に相当する箇所から前記原音に対するた
    たみ込み処理を開始するように前記たたみ込み手段の制
    御を行うと共に、前記音響処理の開始が指示された時点
    から前記遅延時間の経過時点までの間は前記原音をその
    まま外部に出力する外部出力制御を行う一方、前記遅延
    時間の経過時点以降は前記原音と効果音とを重畳させて
    音響処理音を生成し出力する重畳制御を行う制御手段と
    を備えたことを特徴とする音響処理装置。
  6. 【請求項6】 前記原音の全体を記録することが可能な
    記録媒体を有すると共に、この記録媒体の任意の箇所か
    ら前記原音を再生する機能を有する記録再生手段をさら
    に備え、 前記制御手段は、前記記録再生手段からの原音の再生を
    制御することにより、前記たたみ込み手段の制御と、前
    記外部出力制御と、前記重畳制御とを行うことを特徴と
    する請求項5に記載の音響処理装置。
  7. 【請求項7】 前記原音を一時的に蓄積するバッファメ
    モリを備え、 前記制御手段は、前記バッファメモリからの原音の再生
    を制御することにより、前記たたみ込み手段の制御と、
    前記外部出力制御と、前記重畳制御とを行うことを特徴
    とする請求項5に記載の音響処理装置。
  8. 【請求項8】 さらに、画像を再生して出力する画像再
    生手段を備え、 前記制御手段は、前記画像再生手段からの再生画像の出
    力に沿って、前記原音と前記たたみ込み手段からの効果
    音とを重畳させて音響処理音を生成し出力するように前
    記画像再生手段およびたたみ込み手段を制御することを
    特徴とする請求項5に記載の音響処理装置。
  9. 【請求項9】 収録済の原音に対して所定の音響処理を
    施すための装置であって、 実在する第1の音響空間の響きに対応して得られた第1
    のインパルス応答データを保持する手段と、 前記音響処理が施された音の再生出力が行われる予定の
    実在する第2の音響空間の響きに対応して得られた第2
    のインパルス応答データを保持する手段と、 前記原音に対して前記第1および第2のインパルス応答
    データをたたみ込むことにより、効果音を生成するたた
    み込み手段と、 前記原音と前記たたみ込み手段からの効果音とを重畳さ
    せて音響処理音を生成し出力するように、前記たたみ込
    み手段を制御する制御手段とを備えたことを特徴とする
    音響処理装置。
  10. 【請求項10】 さらに、画像を再生して出力する画像
    再生手段を備え、 前記制御手段は、前記画像再生手段からの再生画像の出
    力に沿って、前記原音と前記たたみ込み手段からの効果
    音とを重畳させて音響処理音を生成し出力するように前
    記画像再生手段およびたたみ込み手段を制御することを
    特徴とする請求項9に記載の音響処理装置。
  11. 【請求項11】 収録済の原音に対して実在の音響空間
    の響きに対応したインパルス応答データをたたみ込む音
    響処理を行う機能を有するユーザシステムと、通信路を
    介して前記ユーザシステムに接続する機能を有するサー
    バシステムとを含む広域通信ネットワークに適用される
    方法であって、 様々な実在の音響空間について提供されたインパルス応
    答データを前記サーバシステムに蓄積し、 前記ユーザシステムからの要求に応じて、前記サーバシ
    ステム内の選択されたインパルス応答データを、前記通
    信路を介して、その要求をしたユーザシステムに配信
    し、 インパルス応答データの配信に応じた料金を前記ユーザ
    システムに課金する課金処理を行うことを特徴とする音
    響処理用データの配信方法。
  12. 【請求項12】 前記サーバシステムは、前記インパル
    ス応答データと共にそのインパルス応答データと関連し
    た画像データを配信することを特徴とする請求項11に
    記載の音響処理用データの配信方法。
  13. 【請求項13】 前記サーバシステムからユーザシステ
    ムに対してインパルス応答データを配信する際に、その
    ユーザシステムによるインパルス応答データの利用を可
    能にさせるための第1の認証情報を併せて配信すること
    を特徴とする請求項11に記載の音響処理用データの配
    信方法。
  14. 【請求項14】 前記第1の認証情報は、 前記ユーザシステムからサーバシステムに対してインパ
    ルス応答データの配信を要求した際に併せてサーバシス
    テムに送信されたユーザ個人情報と、 前記サーバシステムからユーザシステムに対して配信さ
    れたインパルス応答データから演算または抽出により得
    られるデータ固有情報とを含んで構成されていることを
    特徴とする請求項13に記載の音響処理用データの配信
    方法。
  15. 【請求項15】 前記サーバシステムは、前記広域通信
    ネットワークに接続されたコンテンツ提供システムから
    前記通信路を介してインパルス応答データの提供を受け
    て蓄積することを特徴とする請求項11に記載の音響処
    理用データの配信方法。
  16. 【請求項16】 前記サーバシステムは、ユーザシステ
    ムに対するインパルス応答データの配信回数に応じた料
    金をその配信されたインパルス応答データを提供したコ
    ンテンツ提供システムに支払うために必要な支払処理を
    行うことを特徴とする請求項15に記載の音響処理用デ
    ータの配信方法。
  17. 【請求項17】 前記サーバシステムは、前記コンテン
    ツ提供システムからインパルス応答データの提供の申出
    がされた場合に、インパルス応答データの提供を可能に
    させるための第2の認証情報を前記コンテンツ提供シス
    テムに送信することを特徴とする請求項15に記載の音
    響処理用データの配信方法。
  18. 【請求項18】 前記第2の認証情報は、前記コンテン
    ツ提供システムからユーザシステムに対してインパルス
    応答データの提供を申し出た際に併せてサーバシステム
    に送信されたコンテンツ提供者個人情報を含んで構成さ
    れていることを特徴とする請求項17に記載の音響処理
    用データの配信方法。
JP2002140135A 2002-05-15 2002-05-15 音響処理装置 Expired - Fee Related JP4055054B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002140135A JP4055054B2 (ja) 2002-05-15 2002-05-15 音響処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002140135A JP4055054B2 (ja) 2002-05-15 2002-05-15 音響処理装置

Publications (2)

Publication Number Publication Date
JP2003330477A true JP2003330477A (ja) 2003-11-19
JP4055054B2 JP4055054B2 (ja) 2008-03-05

Family

ID=29701088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002140135A Expired - Fee Related JP4055054B2 (ja) 2002-05-15 2002-05-15 音響処理装置

Country Status (1)

Country Link
JP (1) JP4055054B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011505106A (ja) * 2007-11-28 2011-02-17 クゥアルコム・インコーポレイテッド オーディオミクスチャ内での音源に関する別個の知覚位置を提供する方法および装置
JP4813365B2 (ja) * 2003-12-02 2011-11-09 トムソン ライセンシング オーディオ信号のインパルス応答を符号化及び復号化する方法
US8515106B2 (en) 2007-11-28 2013-08-20 Qualcomm Incorporated Methods and apparatus for providing an interface to a processing engine that utilizes intelligent audio mixing techniques
JP2015079143A (ja) * 2013-10-17 2015-04-23 カシオ計算機株式会社 効果付与装置、効果付与方法およびプログラム
WO2019176244A1 (ja) * 2018-03-15 2019-09-19 ソニー株式会社 残響付加装置、残響付加方法及び残響付加プログラム
CN112534498A (zh) * 2018-06-14 2021-03-19 奇跃公司 混响增益归一化
US12008982B2 (en) 2023-04-06 2024-06-11 Magic Leap, Inc. Reverberation gain normalization

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4813365B2 (ja) * 2003-12-02 2011-11-09 トムソン ライセンシング オーディオ信号のインパルス応答を符号化及び復号化する方法
JP2011505106A (ja) * 2007-11-28 2011-02-17 クゥアルコム・インコーポレイテッド オーディオミクスチャ内での音源に関する別個の知覚位置を提供する方法および装置
US8515106B2 (en) 2007-11-28 2013-08-20 Qualcomm Incorporated Methods and apparatus for providing an interface to a processing engine that utilizes intelligent audio mixing techniques
US8660280B2 (en) 2007-11-28 2014-02-25 Qualcomm Incorporated Methods and apparatus for providing a distinct perceptual location for an audio source within an audio mixture
JP2015079143A (ja) * 2013-10-17 2015-04-23 カシオ計算機株式会社 効果付与装置、効果付与方法およびプログラム
WO2019176244A1 (ja) * 2018-03-15 2019-09-19 ソニー株式会社 残響付加装置、残響付加方法及び残響付加プログラム
CN112534498A (zh) * 2018-06-14 2021-03-19 奇跃公司 混响增益归一化
JP2021527360A (ja) * 2018-06-14 2021-10-11 マジック リープ, インコーポレイテッドMagic Leap,Inc. 反響利得正規化
JP7478100B2 (ja) 2018-06-14 2024-05-02 マジック リープ, インコーポレイテッド 反響利得正規化
US12008982B2 (en) 2023-04-06 2024-06-11 Magic Leap, Inc. Reverberation gain normalization

Also Published As

Publication number Publication date
JP4055054B2 (ja) 2008-03-05

Similar Documents

Publication Publication Date Title
US7725203B2 (en) Enhancing perceptions of the sensory content of audio and audio-visual media
US7184557B2 (en) Methods and apparatuses for recording and playing back audio signals
JP6484605B2 (ja) 複数のオーディオステムからの自動マルチチャネル音楽ミックス
US10924875B2 (en) Augmented reality platform for navigable, immersive audio experience
US20070287141A1 (en) Internet based client server to provide multi-user interactive online Karaoke singing
US20070098368A1 (en) Mobile recording studio system
WO2006011398A1 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP2007043334A (ja) 音声信号処理方法、音場再現システム
JPS63183495A (ja) 音場制御装置
JP4735108B2 (ja) 音声信号処理方法、音場再現システム
US20140181273A1 (en) Information system, information reproducing apparatus, information generating method, and storage medium
JP4055054B2 (ja) 音響処理装置
JP4196509B2 (ja) 音場創出装置
US20050047619A1 (en) Apparatus, method, and program for creating all-around acoustic field
JP2021021870A (ja) コンテンツ収集・配信システム
CA3044260A1 (en) Augmented reality platform for navigable, immersive audio experience
JP5550593B2 (ja) カラオケ装置
Kunchur 3D imaging in two-channel stereo sound: Portrayal of elevation
JP2005086537A (ja) 高臨場音場再現情報送信装置、高臨場音場再現情報送信プログラム、高臨場音場再現情報送信方法および高臨場音場再現情報受信装置、高臨場音場再現情報受信プログラム、高臨場音場再現情報受信方法
US20050096915A1 (en) Contents reproducing system and contents reproducing program
JP4150580B2 (ja) 配信システム、再生機器およびコンテンツ再生方法
WO2022113393A1 (ja) ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法
WO2022230052A1 (ja) ライブ配信装置、ライブ配信方法
JP2004040450A (ja) 情報配信システム、情報処理装置および方法、再生装置および方法、記録媒体、並びにプログラム
JP4025231B2 (ja) 音場制御情報配信方法及び音場制御情報配信装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070810

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees