JP3969133B2 - Sound source distribution data interpolation method, sound source distribution data interpolation device, musical tone signal processing device, program, and recording medium - Google Patents
Sound source distribution data interpolation method, sound source distribution data interpolation device, musical tone signal processing device, program, and recording medium Download PDFInfo
- Publication number
- JP3969133B2 JP3969133B2 JP2002069096A JP2002069096A JP3969133B2 JP 3969133 B2 JP3969133 B2 JP 3969133B2 JP 2002069096 A JP2002069096 A JP 2002069096A JP 2002069096 A JP2002069096 A JP 2002069096A JP 3969133 B2 JP3969133 B2 JP 3969133B2
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- distribution data
- source distribution
- sound
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Stereophonic System (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、コンサートホール等の音場を再現するための2種類の音源分布データを用いて新たな音源分布データを生成する音源分布データの補間方法、音源分布データ補間装置、音源分布データに基づいた信号処理を行う楽音信号処理装置、プログラムおよび記録媒体に関する。
【0002】
【従来の技術】
従来より、近接4点法等によりインパルス応答を測定し、該測定結果に基づいてコンサートホール等の室内空間情報の一種である仮想音源分布データを作成したり、コンサートホール等の設計データなどをもとにした音響シミュレーションにより仮想音源分布データを作成することが行われている。また、上記手法により作成した仮想音源分布データに基づいた信号処理を楽音信号に対して実施し、上記コンサートホール等の音場を再現する残響付与装置が提供されている。
【0003】
ここで、図1に上記のような音場再現のために用いられる仮想音源分布データ(二次元)の内容を模式的に示す。同図に示すように、仮想音源分布データは、ある空間においてインパルス音を発生させた時の、受音点Jを中心とした多数の音源(直接音や反射音)の分布位置と、各音源の音の強さとによって表され、図では円の大きさが各音源の音の強さを表し、円の中心位置が音源位置を表している。実際の仮想音源分布データには、各音源の位置に関する情報(例えば、座標情報、受音点からの方向と距離の情報、受音点からの方向と到来時刻の情報など)とその音源の発する音の強さを示す情報との組とした1つの音源情報が多数含まれている。
【0004】
ところで、再生される映像などのシーンがある1つの場面から他の場面に切り替わる時に、その切り替えに同期して再生する楽音信号に付与する残響感を切り替えるといった用途に、上記仮想音源分布データが用いられる場合がある。このようなケースにおいては、切り替え前の場面の映像が再生されているときには当該場面に応じた音場を再現するための仮想音源分布データを用いた残響付与処理を行う一方で、映像の切り替え後には切り替え後の場面に応じた音場を再現するための仮想分布データを用いて残響付与処理を行う。そして、切り替え時とその前後の所定時間は、上記切り替え前の音場を再現するための仮想音源分布データと、切り替え後の音場を再現するための仮想音源分布データといった2種類の仮想音源分布データを補間することで中間の特性を有する仮想音源分布データを生成し、生成した仮想音源分布データを用いて残響付与処理を行うといった手法が用いられることがある。
【0005】
【発明が解決しようとする課題】
しかし、従来の仮想音源分布データの補間方法は、2種類の用意されている仮想音源分布データを単純に加算して平均をとる、つまり各仮想音源分布データに属する各音源情報を加算して、各音源情報に示される音の強さを2で除するといった手法で行われているので、補間後の仮想音源分布データの音像位置などの特性が2つの用意された仮想音源分布データの中間の特性とならない場合がある。また、音源の数が単に加算されて増加するため、各々の用意された仮想音源分布データと音源数が大きく異なることとなり、その結果再生された音場が大きく異なることもある。特に、2つの用意した仮想音源分布データの特性が大きく異なっている場合には、上記のような聴感上の違和感はより顕著なものとなる。
【0006】
本発明は、上記の事情を考慮してなされたものであり、補間対象となる2つの仮想音源分布データの特性が大きく異なっている場合でも、聴感上の違和感が低減された仮想音源分布データを生成することができる音源分布データの補間方法、音源分布データ補間装置、当該音源分布データ補間装置を有する楽音信号処理装置、プログラムおよび記録媒体を提供することを目的とする。
【0007】
【課題を解決するための手段】
上記課題を解決するため、本発明に係る音源分布データの補間方法は、複数の音源の位置に関する音源位置情報と、各音源の音の強さ情報とを含む第1の音源分布データと、当該第1の音源分布データとは異なる第2の音源分布データとを補間して新たな音源分布データを生成する方法であって、前記第1の音源分布データおよび前記第2の音源分布データの各々に含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類ステップと、前記第1の音源分布データの複数の前記方向別エリアのうちの特定の前記方向別エリアと前記第2の音源分布データの複数の前記方向別エリアのうちの特定の前記方向別エリアとの前記所定の受音点から見た方向が一致するように、前記第1の音源分布データに含まれる各音源位置情報および前記第2の音源分布データに含まれる各音源位置情報を調整する調整ステップと、調整された前記音源位置情報を含む前記第1の音源分布データおよび前記第2の音源分布データに基づいて、新たな音源分布データを生成する生成ステップとを具備することを特徴としている。
【0008】
この方法によれば、2種類の仮想音源分布データおよび仮想音源分布データを、補間した新たな仮想音源分布データを生成することができる。この補間仮想音源分布データを生成する際に、2種類の仮想音源分布データのうちの特定の方向別エリア(例えば、聴感上影響の大きい音源を含むエリア等)が、受音点から見て同一方向となるよう各仮想音源分布データの音源情報の分布位置が調整される。したがって、補間対象となる2種類の仮想音源分布データの特性(聴感上大きな影響を与える音源が含まれる方向が異なる場合)にも、複数方向から聴感上大きな影響を与える音などが到来する等といったこと抑制でき、聴感上違和感の少ない仮想音源分布データを生成することができる。
【0009】
また、本発明の別態様の音源分布データ補間方法は、複数の音源の位置に関する音源位置情報と、各音源の音の強さ情報とを含む第1の音源分布データと、当該第1の音源分布データとは異なる第2の音源分布データとを補間して新たな音源分布データを生成する方法であって、前記第1の音源分布データおよび前記第2の音源分布データの各々に含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類ステップと、前記第1の音源分布データおよび前記第2の音源分布データの前記方向別エリア毎に、前記所定の受音点からの単位距離区域毎の音源分布数を求める分布数導出ステップと、前記第1の音源分布データおよび前記第2の音源分布データにおける同一方向の前記方向別エリアについて求められた音源分布数の前記単位距離区域毎の平均を求める平均導出ステップと、同一方向の前記方向別エリアに属する同一の単位距離区間に属する前記第1の音源分布データおよび前記第2の音源分布データの各音源の中から、前記音源分布数の平均と同数の音源の前記音源位置情報および音の強さ情報を抽出し、抽出した音源の前記音源位置情報および音の強さ情報を用いて新たな音源分布データを生成する生成ステップとを具備することを特徴としている。
【0010】
この方法によれば、2種類の仮想音源分布データおよび仮想音源分布データを、補間した新たな仮想音源分布データを生成することができる。この補間仮想音源分布データを生成する際に、2種類の仮想音源分布データに属する多数の音源情報の全てを用いるのではなく、これらの多数の音源情報のうち、各音の到来方向の単位距離区域毎に2種類の仮想音源分布データに属する音源情報の数の平均値と同数の音源情報のみを抽出して用いるようにしている。したがって、従来の補間方法のように音源数が単に加算されて増加するといったことがなく、音源数の単純増加に起因する聴感上の違和感を抑制することができる補間仮想音源分布データを生成することができる。
【0011】
また、本発明に係る音源分布データ補間装置は、複数の音源の位置に関する音源位置情報と、各音源の音の強さ情報とを含む第1の音源分布データと、当該第1の音源分布データとは異なる第2の音源分布データとを記憶する記憶手段と、補間指示があった場合に、前記記憶手段に記憶されている前記第1の音源分布データおよび前記第2の音源分布データの各々に含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類手段と、前記第1の音源分布データの複数の前記方向別エリアのうちの所定の前記方向別エリアと前記第2の音源分布データの複数の前記方向別エリアのうちの所定の前記方向別エリアとの前記所定の受音点から見た方向が一致するように、前記第1の音源分布データに含まれる各音源位置情報および前記第2の音源分布データに含まれる各音源位置情報を調整する調整手段と、調整された前記音源位置情報を含む前記第1の音源分布データおよび前記第2の音源分布データに基づいて、新たな音源分布データを生成する生成手段とを具備することを特徴としている。
【0012】
また、本発明の別態様の音源分布データ補間装置は、複数の音源の位置に関する音源位置情報と、各音源の音の強さ情報とを含む第1の音源分布データとを記憶する記憶手段と、補間指示があった場合、前記記憶手段に記憶されている前記第1の音源分布データおよび前記第2の音源分布データの各々に含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類手段と、前記記憶手段に記憶されている前記第1の音源分布データおよび前記第2の音源分布データの前記方向別エリア毎に、前記所定の受音点からの単位距離区域毎の音源分布数を求める分布数導出手段と、前記第1の音源分布データおよび前記第2の音源分布データにおける同一方向の前記方向別エリアについて求められた音源分布数の前記単位距離区域毎の平均を求める平均導出手段と、同一方向の前記方向別エリアに属する同一の単位距離区間に属する前記第1の音源分布データおよび前記第2の音源分布データの各音源の中から、前記音源分布数の平均と同数の音源の前記音源位置情報および音の強さ情報を抽出し、抽出した音源の前記音源位置情報および音の強さ情報を用いて新たな音源分布データを生成する生成手段とを具備することを特徴としている。
【0013】
また、本発明に係る楽音信号処理装置は、上記いずれかの音源分布データ補間装置と、前記音源分布データ補間装置によって生成された新たな音源分布データに基づいた信号処理を楽音信号に対して施す信号処理手段とを具備することを特徴としている。
【0014】
また、本発明に係るプログラムは、コンピュータを、複数の音源の位置に関する音源位置情報と、各音源の音の強さ情報とを含む第1の音源分布データと、当該第1の音源分布データとは異なる第2の音源分布データとを記憶する記憶手段から、前記第1の音源分布データおよび前記第2の音源分布データを読み出し、読み出した各々音源分布データに含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類手段、前記第1の音源分布データの複数の前記方向別エリアのうちの所定の前記方向別エリアと前記第2の音源分布データの複数の前記方向別エリアのうちの所定の前記方向別エリアとの前記所定の受音点から見た方向が一致するように、前記第1の音源分布データに含まれる各音源位置情報および前記第2の音源分布データに含まれる各音源位置情報を調整する調整手段、調整された前記音源位置情報を含む前記第1の音源分布データおよび前記第2の音源分布データに基づいて、新たな音源分布データを生成する生成手段として機能させる。
また、上記プログラムをコンピュータで読取可能な記録媒体に記録するようにしてもよい。
【0015】
また、本発明の別態様のプログラムは、コンピュータを、複数の音源の位置に関する音源位置情報と、各音源の音の強さ情報とを含む第1の音源分布データとを記憶する記憶手段から前記第1の音源分布データおよび前記第2の音源分布データを読み出し、読み出した各々の音源分布データに含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類手段、前記記憶手段に記憶されている前記第1の音源分布データおよび前記第2の音源分布データの前記方向別エリア毎に、前記所定の受音点からの単位距離区域毎の音源分布数を求める分布数導出手段、前記第1の音源分布データおよび前記第2の音源分布データにおける同一方向の前記方向別エリアについて求められた音源分布数の前記単位距離区域毎の平均を求める平均導出手段、同一方向の前記方向別エリアに属する同一の単位距離区間に属する前記第1の音源分布データおよび前記第2の音源分布データの各音源の中から、前記音源分布数の平均と同数の音源の前記音源位置情報および音の強さ情報を抽出し、抽出した音源の前記音源位置情報および音の強さ情報を用いて新たな音源分布データを生成する生成手段として機能させる。
また、上記プログラムをコンピュータで読取可能な記録媒体に記録するようにしてもよい。
【0016】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態について説明する。
A.実施形態の構成
まず、図2は本発明の一実施形態に係る仮想音源分布データの補間方法を実施する音源分布データ補間装置の構成を示すブロック図である。同図に示すように、この音源分布データ補間装置100は、互いにバス114を介して接続されるCPU(Central Processing Unit)110と、ROM(Read Only Memory)111と、RAM(Random Access Memory)112と、外部記憶装置113と、操作部115と備えており、例えばパーソナルコンピュータ等で構成することができる。
【0017】
CPU110は、ROM111に格納されている補間処理プログラムを読み出して実行することにより、後述する仮想音源分布データ補間処理を実行する。RAM112は、上記補間処理の際にワーキングエリアとして用いられる。操作部115は、キーボードやマウス等の入力手段を有しており、ユーザの操作に応じた指示をCPU110に供給する。ユーザは操作部115を介して、仮想音源分布データ補間処理開始指示、補間対象となる2つの仮想音源分布データの選択指示、2つの仮想音源分布データの補間比率(例えば4対6の比率)等の指示を入力することができるようになっている。
【0018】
外部記憶装置113は例えばハードディスクドライブ装置であり、外部記憶装置113には少なくとも2種類以上の仮想音源分布データが記憶されている。ここで、外部記憶装置113に記憶されている仮想音源分布データは、前掲図1に示すように、ある空間においてインパルス音を発生させた時の、受音点Jを中心とした多数の音源(直接音や反射音)の分布位置と、各音源の音の強さとである。以上のような情報を表せるデータであればどのような種類の仮想音源分布データであってもよいが、本実施形態で使用する2次元仮想音源分布データには、各音源の位置に関する座標情報(x、y)と、その音源の発する音の強さを示す情報(p)との組を1つの音源情報が多数含まれているものとする。外部記憶装置113には、特性の異なる仮想音源分布データが少なくとも2種類以上記憶されている。なお、仮想音源分布データの取得方法については、近接4点法で測定したインパルス応答を用いて取得するといった公知の方法を用いることができ、取得方法の説明については省略する。
【0019】
B.仮想音源分布データ補間処理
以上のような構成の下、ユーザからの2つの補間対象となる仮想音源分布データの選択指示および補間比率の指示を含む補間開始指示が操作部115を介して入力された場合、CPU110はROM111に格納された補間処理プログラムにしたがって図3に示す手順で補間処理を実行する。
【0020】
同図に示すように、補間開始指示を受けると、CPU110は、外部記憶装置113からユーザによって選択された2種類の仮想音源分布データを読み出す(ステップS1)。以下においては、二次元(音源の座標情報が(x、y)といった二次元情報)の仮想音源分布データAと仮想音源分布データBといった2種類の異なる仮想音源分布データが選択されて補間処理に用いられるものとする。
【0021】
仮想音源分布データAおよび仮想音源分布データBを読み出すと、CPU110は、受音点Jから見た所定数に区分けされた方向別エリアのどのエリアに属するか否かによって、各々の仮想音源分布データに含まれる音源情報(座標情報と音の強さ情報の組)を各方向別エリアに分類する(ステップS2)。この分類処理内容について図4を参照しながら説明する。
【0022】
本実施形態では、CPU110は、各仮想音源分布データに含まれる音源の座標が、受音点Jから見て16個に等分割した各方向別エリアAR0〜15のいずれに属するか否かによって各音源情報を方向別エリアに分類する。なお、方向別エリアの分割方法は、等分割に限るものではなく、例えば聴感上の角度分別能力が高い聴者の正面、背面方向の分割を細かくするなどの不等分割であってもよいし、分割数も16個に限らず、それより多くてもよいし、少なくてもよいが、本実施形態では、各方向別エリアとして16個に等分割したもの、すなわち360°/16=22.5°の範囲を1つの方向別エリアとしている。なお、以下の説明においては、受音点Jから見た方向を、図示のように「前」、「前前右」、「前右」、「右右前」、「右」といったように称することとし、図示の場合、受音点Jから見た方向「前」が方向別エリアAR0に相当し、受音点Jから見た方向「左」が方向別エリアAR4に相当する。
【0023】
本実施形態では、各仮想音源分布データに属する多数の音源情報を、以上のような各方向別エリアAR0〜AR15に分類することとされており、具体的にはCPU110は、各方向別エリアAR0〜AR15に対応付けられた座標範囲情報と各音源情報の座標情報とから、各音源情報がどの方向別エリアに属するかを判別して分類する。ここで、座標範囲情報とは、各方向別エリア毎に座標(x、y)が取り得る範囲を示す情報である。例えば、ある方向別エリアについてx座標がxaのときはy座標はya〜ycの間、x座標がxbのときはy座標はyd〜yeの間等といった座標が取り得る範囲である場合に、音源情報の座標情報が(xa,yb(ただし、ya<yb<yc))である時には、当該音源情報はこの方向別エリアに分類される。
【0024】
以上のようにして仮想音源分布データAおよび仮想音源分布データBの各々について、仮想音源分布データに属する多数の音源情報を各方向別エリアAR0〜AR15のいずれかに分類する。分類が終了すると、CPU110は、各々の仮想音源分布データの各々の分類結果に基づき、方向別エリアAR0〜AR15毎の総パワーを求める(ステップS3)。すなわち、各方向別エリアAR0〜AR15毎に、そのエリアに属すると分類された全ての音源情報の音の強さ情報に示される音の強さ(パワー)を加算する。このような音の強さの加算を各仮想音源分布データの各方向別エリア毎に行う。
【0025】
以上のように各仮想音源分布データについて各方向別エリア毎の総パワー値を導出すると、CPU110はその結果から、各々の仮想音源分布データに属する音源分布位置を、xy平面上において受音点Jを中心として回転(方向をシフト)させる(ステップS4)。本実施形態では、CPU110はユーザから指示された補間比率と、上記ステップS3で求めた各方向別エリア毎の総パワー値とに基づいて、仮想音源分布データAおよび仮想音源分布データBの各々に属する音源位置をどの程度回転させるかを決定する。この回転量の決定方法について、ステップS3の処理により各仮想音源分布データの方向別エリア毎の総パワー値として図5に示すような結果が得られた場合を例に挙げて説明する。なお、同図において、斜線で示す棒が仮想音源分布データAについての各方向別エリア毎の総パワー値を表しており、白抜き棒が仮想音源分布データBについての各方向別エリア毎の総パワー値を表している。
【0026】
同図から明らかなように、各方向別エリア毎の総パワー値(単位省略)は、仮想音源分布データAについてはエリアAR2が最大となっており、仮想音源分布データBについてはエリアAR4が最大となっている。CPU110は、このような各仮想音源分布データにおいて総パワー値が最大となる最大方向別エリア(仮想音源分布データAについて方向別エリアAR2、仮想音源分布データBについて方向別エリアAR4)が、受音点Jから見て同一方向となるように仮想音源分布データAの音源分布位置と、仮想音源分布データBの音源分布位置とを受音点Jを中心として各音源分布を各々所定量だけ回転させる。ここで、仮想音源分布データAおよび仮想音源分布データBに属する音源分布の各々の回転量は、ユーザから指示された補間比率によって決定される。
【0027】
より具体的に説明すると、仮想音源分布データAをα%、仮想音源分布データBを(100−α)%といった補間比率が指定されると、CPU110は、以下の手順で各々の仮想音源分布データに属する音源分布の回転量を決定する。まず、CPU110は、各々の最大方向別エリアの角度差を求める。上記例では、仮想音源分布データAについては方向別エリアAR2、仮想音源分布データBについては方向別エリアAR4が最大方向別エリアであるため、両者間の角度は22.5×2=45°である。すなわち、2つの最大方向別エリアの方向を一致させるためには45°の回転が必要となる。以上のように必要となる角度変更量を求めると、CPU110は、仮想音源分布データAの音源分布については、45°×(100−α)/100で求まる角度だけ、仮想音源分布データBの方向別エリアAR4への方向(図6の反時計回り方向)に回転させる。一方、仮想音源分布データBの音源分布については、45°×(100ー(100−α))/100で求まる角度だけ、方向別エリアAR2の方向(図7の時計方向)に回転させる。
【0028】
ここで、指示された補間比率が仮想音源分布データAについて50%、仮想音源分布データBについて50%であった場合には、仮想音源分布データAについては、図6に示すように、音源分布が反時計方向に22.5°だけ回転させられる。したがって、最大方向別エリアである方向別エリアAR2は、受音点Jから見て「左左前」側に位置することになる。一方、仮想音源分布データBについては、図7に示すように、音源分布が時計方向に22.5°だけ回転させられる。この結果、仮想音源分布データBについての最大方向別エリアである方向別エリアAR4も、受音点Jから見て「左左前」側に位置することになり、両者の最大方向別エリアが受音点Jから見て一致した方向となる。CPU110は、以上のように各仮想音源分布データの音源分布位置が回転するように各仮想音源分布データに属する多数の音源情報の座標情報(x、y)を調整する。
【0029】
各仮想音源分布データの音源分布位置を受音点Jを中心として回転させると、CPU110は、仮想音源分布データAおよび仮想音源分布データBの各々について、方向別エリアAR0〜AR15毎にインパルス応答を求める(ステップS5)。方向別エリア毎のインパルス応答は、当該エリアに属する各音源情報の座標情報から受音点Jまでの距離を求めることで、各音源の発する音の受音点Jへの到来時刻を求める。この到来時刻とその音源情報の音の強さとから、図8に例示するように方向別エリア毎にインパルス応答を導出することができる。
【0030】
このような仮想音源分布データAおよび仮想音源分布データBについて全ての方向別エリアのインパルス応答を導出すると、CPU110は、回転後の仮想音源分布データAおよび仮想音源分布データBの受音点Jから見て同一方向となる方向別エリアの平均インパルス応答を導出する(ステップS6)。
【0031】
上述した音源分布の回転後の受音点Jから見て同一方向となる方向別エリアとは、図6および図7に示すような音源分布の回転が行われた場合について、いくつか例示すると次のようになる。すなわち、受音点Jから見た「前」側にあるのは、仮想音源分布データAについては方向別エリアAR15であり(図6下段参照)、仮想音源分布データBについては方向別エリアAR1であり(図7下段参照)、これらが同一方向となる方向別エリアである。同様に、受音点Jから見て「前前右」側にあるのは仮想音源分布データAの方向別エリアAR14と仮想音源分布データBの方向別エリアAR0であり、これらが同一方向のエリアとなる。また、受音点Jから見て「前右」側にあるのは仮想音源分布データAの方向別エリアAR13と仮想音源分布データBの方向別エリアAR15であり、これらが同一方向のエリアである。
【0032】
そして、CPU110は、「前」、「前前右」……「前前左」といった受音点Jから見て16個の方向の各々に相当する仮想音源分布データAおよび仮想音源分布データBの方向別エリアのインパルス応答の平均を求める。上記例では、「前」については仮想音源分布データAについての方向別エリアAR15のインパルス応答と、仮想音源分布データBについての方向別エリアAR1のインパルス応答との平均を求めるといった具合である。なお、ここでいう「平均」とは、ユーザによって指示された補間比率に応じて各音源の発する音の受音点Jへの到来時間毎にその音の強さを平均したものであり、指示された補間比率が50%、50%である場合には単純に平均することにより求める。
【0033】
次に、CPU110は、受音点Jから見た16個の方向毎に求めた平均インパルス応答から、16個の方向毎の平均総パワー値を求める(ステップS7)。上述した音源分布位置の回転によって(ステップS4)、仮想音源分布データAの最大方向別エリアと、仮想音源分布データBの最大方向別エリアが「左左前」の方向となっているので、図9に示すように平均総パワー値が最大となる方向は「左左前」となっている。
【0034】
以上のように仮想音源分布データAおよび仮想音源分布データBの各方向別エリアAR0〜AR15毎のインパルス応答を求め(ステップS5)、この導出結果に基づいて方向別の平均インパルス応答(ステップS6)および方向別の平均総パワー値を求めるとともに、CPU110は以下の処理を行う。すなわち、CPU110は、ステップS5で求めた方向別エリアAR0〜AR15毎のインパルス応答に基づいて、受音点Jから見た16個の方向(「前」、「前前右」……)の各々について、各方向に一致する仮想音源分布データの方向別エリアに属する音源から受音点Jに到来する単位時間あたりのパルス到来密度を求める(ステップS8)。なお、単位時間あたりのパルス到来密度とは、単位時間あたりにそのエリアに属する音源が発する音が受音点Jに到来する数である。各音源が発する音の受音点Jへの到来時刻は、各音源情報の座標情報(x、y)から受音点Jと音源との距離を求め、該距離を所定の音速(例えば、340m/s)で除することにより導出することができる。要するに、単位時間あたりのパルス到来密度とは、受音点Jからの単位距離区域毎、例えば単位時間を10msecとした場合には10msec(0.01sec)×音速(340m/s)=3.4m毎、つまり受音点Jからの距離が0〜3.4mの範囲に位置する音源の数、3.4〜6.8mの範囲に位置する音源の数、6.8〜10.2mの範囲に属する音源の数……といった具合に受音点Jからの距離が3.4m毎の範囲に位置する音源の個数を表している。
【0035】
上記のようにして求めた受音点Jから見たある方向について得られる、単位時間あたりのパルス到来密度の一例を図10に示す。この図は、縦軸が受音点Jから見て「左左前」の方向に相当するパルス到来密度を示し、横軸は経過時刻(0〜1400msec)を示しており、仮想音源分布データAについては「左左前」に相当する方向別エリアAR2に属する各音源情報(の座標情報)から求めたパルス到来密度が、仮想音源分布データBについては「左左前」に相当する方向別エリアAR4に属する各音源情報(の座標情報)から求めたパルス到来密度が示されている。
【0036】
CPU110は、「前」、「前前左」といった16個の方向毎に、各方向に相当する仮想音源分布データAおよび仮想音源分布データBの方向別エリアの音源情報からパルス到来密度を求めると、16個の方向毎に平均パルス到来密度を導出する(ステップS9)。すなわち、「前」、「前前左」といった16個の方向について、各方向に相当する仮想音源分布データAおよび仮想音源分布データBの方向別エリアの音源情報から求めた2つのパルス到来密度の平均を求めるのである。したがって、「左左前」についてのパルス到来密度の平均は、仮想音源分布データAの方向別エリアAR2に属する音源情報から求めたパルス到来密度と、仮想音源分布データBの方向別エリアAR4に属する音源情報から求めたパルス到来密度とを平均することにより求める。なお、ここでいう「平均」とは、ユーザによって指示された補間比率に応じたものであり、指示された補間比率が50%、50%である場合には単純に平均する、つまり各経過時刻毎のパルス到来密度を加算して2で除することにより求めることができ、図10に示すパルス到来密度が求められている場合には、図11に示すような平均パルス到来密度が求められることになる。
【0037】
次に、CPU110は、上記ステップS9で求めた各方向毎の平均パルス到来密度と、ステップS6で求めた各方向毎の平均インパルス応答導出の際に取得した受音点Jへの到来時刻毎の音源情報とから、「前」、「前前左」……といった16個の方向毎に新たなインパルス応答を導出する(ステップS10)。ここでの新たなインパルス応答の導出は次のような手順で行われる。
【0038】
まず、導出対象となる方向(「左左前」とする)に相当する仮想音源分布データAの方向別エリアAR2に属する多数の音源情報と、仮想音源分布データBの方向別エリアAR4に属する多数の音源情報とのうち、当該方向について求めた平均パルス到来密度に応じた数(つまり、各単位距離区域内に位置する音源の数)の音源情報を抽出する。より具体的に例を挙げて説明すると、受音点Jにおける到来時刻がT〜T+ta(taは単位時間とする)の平均パルス到来密度が「5」である場合において、方向別エリアAR2における時刻がT〜T+taまでの間に音が受音点Jに到来する音源情報が5個あり、方向別エリアAR4における到来時刻がT〜T+taまでの間に音が受音点Jに到来する音源情報が4個ある時には、これらを合わせた9個の音源情報の中から、平均パルス到来密度に応じた数である5個の音源情報が抽出される。このように抽出された5個の音源情報が、当該方向の新たなインパルス応答における時刻T〜T+taの区間における音源情報として用いられるのである。以上のような音源情報の抽出処理が、時刻0〜ta、ta〜2ta、2ta〜3ta、……T〜T+ta、T+ta〜T+2ta……といったように単位時間毎(単位距離区域毎)に行われ、新たなインパルス応答の導出の際に各々の経過時刻において用いられる音源情報が抽出される。
【0039】
ここで、上述したように平均パルス到来密度に応じた数よりも方向別エリアAR2と方向別エリアAR4に属する音源情報の数が大きくなることがあり、本実施形態では、これらの抽出対象となる音源情報のうち、音の強さが大きい順に平均パルス到来密度に応じた数に達するまで音源情報を抽出する。したがって、上記の場合において、例えば方向別エリアAR2に属する抽出対象である5つの音源情報の各々の音の強さが方向別エリアAR4に属する抽出対象である4つのいずれの音源情報の音の強さよりも大きい場合には、方向別エリアAR2に属する5つの音源情報のみが抽出され、方向別エリアAR4に属する音源情報は1つも抽出されないことになる。
【0040】
このように単位時間毎に用いる音源情報が抽出されると、抽出された音源情報を用いて、当該方向について新たなインパルス応答を導出する。ここでのインパルス応答は、抽出された各音源情報の座標情報から受音点Jまでの距離を求めることで、各音源の発する音の受音点Jへの到来時刻を求め、この到来時刻とその音源情報の音の強さとに基づいて導出することができる。
【0041】
CPU110は、以上のような新たなインパルス応答の導出処理を、他の15個の方向についても実行することにより、仮想音源分布データAおよび仮想音源分布データBから、新たな方向別インパルス応答を導出することができる。
【0042】
ところで、上述したように求めた新たな方向別のインパルス応答は、上記のように音の強さが大きい音源情報を優先的に抽出して作成したものであるため、新たに作成した各方向別のインパルス応答の総パワー値は、上記ステップS7で求めた各方向別のインパルス応答の平均総パワー値よりも大きくなる。したがって、CPU110は、新たに作成した各方向別のインパルス応答の総パワー値が、ステップS7で求めた各方向別のインパルス応答の平均総パワー値と一致するように、新たに作成した各方向別のインパルス応答のパワー調整を行う(ステップS11)。例えば、「左左前」方向の新たなインパルス応答の総パワー値がP1である場合に、ステップS7で求めた「左左前」方向のインパルス応答の平均総パワー値がP2である時には、新たに作成したインパルス応答のパワー値に、P2/P1を乗算することによりパワー調整を行うようにすればよい。
【0043】
パワー調整が終了すると、CPU110はパワー調整後の新たな各方向別のインパルス応答から、図1に示したような仮想音源分布データを生成する(ステップS11)。以上のようにして仮想音源分布データAおよび仮想音源分布データBをユーザの指示した補間比率で補間した新たな仮想音源分布データを生成することができる。
【0044】
以上説明したように本実施形態では、2種類の仮想音源分布データAおよび仮想音源分布データBを、ユーザの指示に応じた補間比率で補間した新たな仮想音源分布データを生成することができる。この補間仮想音源分布データを生成する際に、2種類の仮想音源分布データのうち、受音点Jにおいて最も大きな音エネルギーが到来する方向(通常は直接音の音源が存在する方向)が一致するよう各仮想音源分布データの音源情報の分布位置が調整される。したがって、この補間仮想音源分布データを用いた残響付与等を行った場合には、聴感上大きな影響を与える最も大きな音エネルギーが到来する方向が1方向に統一されることになる。一方、従来の単純に2種類の仮想音源分布データの平均をとることによる補間方法では、補間対象となる2つの仮想音源分布データの最も大きな音エネルギーが到来する方向が異なっている場合に、従来の補間方法で生成した仮想音源分布データを用いた残響付与を行うと、複数方向から聴感上大きな影響を与える音が到来することになり、違和感のある音場が再現されてしまう。これに対し、本実施形態による補間方法によれば、上記のように最も影響のある音が到来する方向が統一されるので、聴感上違和感の少ない仮想音源分布データを生成することができるのである。
【0045】
また、本実施形態では、上述したように新たな方向毎のインパルス応答を生成する際に、2種類の仮想音源分布データに属する多数の音源情報の全てを用いるのではなく、これらの多数の音源情報のうち、各音の到来方向毎の平均パルス到来密度、つまり単位距離区域毎に2種類の仮想音源分布データに属する音源情報の数の平均値と同数の音源情報のみを抽出して用いるようにしている。一方、従来の補間方法は、2種類の仮想音源分布データに属する全ての音源情報を用い、各音源情報の音の強さを2で除するといった手法を採用しているので、音源の数が単に加算されて増加することとなり、補間対象となる2種類の仮想音源分布データの両者と全く異なる特性の補間データが生成されてしまうおそれがある。これに対し、本実施形態では、音源数が単に加算されて増加するといったことがないので、このような問題が生じない。また、本実施形態では、音源情報の抽出の際に、音の強さの大きいものを優先的に抽出するようにしている。すなわち、聴感上より大きな影響を与える音源情報を優先的に抽出しているので、補間対象となる2種類の仮想音源分布データの特徴をうまく取り入れた補間仮想音源分布データを生成することができる。
また、本実施形態では、仮想音源分布データの音源情報の分布位置の調整と、各仮想音源の到来方向毎の平均パルス到来密度の調整とを共に行うようにしていたが、各仮想音源分布データの音源情報の分布位置の調整、もしくは各仮想音源の到来方向毎の平均パルスの到来密度の調整のいずれか一方のみを行うようにしてもよい。
【0046】
以上のような聴感上大きな影響を与える音の到来方向が複数となること起因する聴感上の違和感、および音源数が単に増加することに起因する聴感上の違和感は、補間対象となる2種類の仮想音源分布データの特性が大きく異なっている場合にはより顕著なものとなる。これに対し、本実施形態によれば2種類の仮想音源分布データの特性が大きく異なっていても、補間した仮想音源分布データに基づいて音場再現を行った場合にも、上述した理由により聴感上の違和感がほとんどない中間特性を有する音場を再現することができる。
【0047】
C.変形例
なお、本発明は、上述した実施形態に限定されるものではなく、以下に例示するような種々の変形が可能である。
【0048】
(変形例1)
上述した実施形態では、補間対象となる仮想音源分布データAおよび仮想音源分布データBが直接音を含む仮想音源分布データである場合について説明したが、仮想音源分布データの中には、直接音のデータを省き、反射音のみの音源情報を含むものもある。このような直接音の音源情報を含まない2種類の仮想音源分布データが補間対象となっている場合には、2種類の仮想音源分布データの各々について、どの位置(または方向)に直接音の音源があるかユーザに指示させた上で、上記実施形態における図3のステップS3およびステップS4の処理に代えて次のように各仮想音源分布データに示される音源分布位置を回転させるようにすればよい。
【0049】
すなわち、2種類の仮想音源分布データの各々における、ユーザによって指示された直接音の音源位置が属する方向別エリア(もしくはユーザが直接指示した方向別エリア)が、受音点Jから見て同一方向となるよう音源分布位置を回転させるようにすればよい。したがって、一方の仮想音源分布データについては方向別エリアAR2に指示された直接音の音源位置が属し、他方の仮想音源分布データについては方向別エリアAR4に指示された直接音の音源位置が属する場合には、図6および図7に示すように、一方の仮想音源分布データの方向別エリアAR2と、他方の仮想音源分布データの方向別エリアAR4とが受音点Jから見て同一方向となるよう音源分布位置を回転させて補間仮想音源分布データを生成するようにすればよい。このように音源分布位置を回転させることで、上記実施形態と同様、音場再現を行った場合にも、聴感上大きな影響を与える音の到来方向が複数となること起因する聴感上の違和感がほとんど生じない仮想音源分布データを生成することができる。
【0050】
(変形例2)
また、上述した実施形態では、音源分布データ補間装置100は、外部記憶装置113に格納されている2種類の仮想音源分布データを読み出し、これら2種類の仮想音源分布データを補間して新たな仮想音源分布データを生成する機能を有していたが、この補間機能に加え、補間した仮想音源分布データに基づいて、楽音信号に対して残響付与等を施す機能を持たせ、図12に示すような楽音信号処理装置300を構成するようにしてもよい。
【0051】
同図に示すように、この楽音信号処理装置300は、上記実施形態における音源分布データ補間装置100と同様、CPU110、ROM111、RAM112、外部記憶装置113および操作部115に加え、バス114に接続されるDSP151および電子音源150と、DSP(Digital Signal Processor)151に接続される多数のスピーカ群152とを備えている。
【0052】
操作部115を介して所定の楽曲等の再生指示があった場合には、CPU110はその楽曲データを外部記憶装置113から読み出し、電子音源150に供給する。これにより電子音源150は当該楽曲データに応じた楽音信号を生成し、この楽音信号をDSP151に出力する。また、上記実施形態と同様、ユーザは操作部115を介して補間対象となる2種類の仮想音源分布データを指定した補間指示を行うことができるとともに、当該楽音信号処理装置300では、上記のように電子音源150によって生成される楽音信号に対し、補間された新たな仮想音源分布データに基づいた信号処理をDSP151が行うことができるよう構成されている。
【0053】
スピーカ群152は、例えば、ある室空間内にいる聴取者から見て4方向(例えば、前、後、右、左)の各々に設置されるエフェクトスピーカを有している。DSP151は、電子音源150から供給される楽音信号に対して上記のように補間された仮想音源分布データに基づいた信号処理を施すことによりエフェクトスピーカー用の4チャンネルの音場信号を出力する。この4チャンネルの信号がスピーカ群152の4つのエフェクトスピーカに供給され、補間された仮想音源分布データに基づいた音場が再現される。
なお、本構成において、電子音源150に代えて楽音入力部(マイクロホンや信号入力端等)を設けるようにし、当該楽音入力部から入力される楽音に対して補間された仮想音源分布データに基づいた信号処理を施すことができる音場再生装置としてもよい。
【0054】
(変形例3)
なお、上述した実施形態では、2種類の仮想音源分布データを補間して新たな仮想音源分布データを生成するための補間処理をCPU110がROM111に格納されたプログラムを実行することにより行うようにしていたが、専用のハードウェア回路を構成し、当該ハードウェア回路によって上記補間処理を実行するようにしてもよい。また、ソフトウェアで上記補間処理を行う場合には、上記処理をコンピュータに実現させるためのプログラムを記録したCD−ROM(Compact Disc Read Only Memory)やフロッピーディスク等の様々な記録媒体をユーザに提供するようにしてもよいし、インターネット等の通信回線を介してユーザに提供するようにしてもよい。
【0055】
【発明の効果】
以上説明したように、本発明によれば、補間対象となる2つの仮想音源分布データの特性が大きく異なっている場合でも、聴感上の違和感が低減された仮想音源分布データを生成することができる。
【図面の簡単な説明】
【図1】 音場再現に用いられる仮想音源分布データの内容を模式的に示す図である。
【図2】 本発明の一実施形態に係る音源分布データ補間処理を実行する音源分布データ補間装置の構成を示すブロック図である。
【図3】 前記音源分布データ補間装置によって実行される仮想音源分布データ補間処理の手順を示すフローチャートである。
【図4】 前記仮想音源分布データ補間処理の内容を説明するための図であり、仮想音源分布データの各音源情報を方向別エリア毎に分類する処理を説明するための図である。
【図5】 前記仮想音源分布データ補間処理の内容を説明するための図であり、前記方向別エリア毎の音源情報の音の強さの加算値を示すグラフである。
【図6】 前記仮想音源分布データ補間処理の内容を説明するための図であり、仮想音源分布データの音源分布位置を回転させる処理を説明するための図である。
【図7】 前記仮想音源分布データ補間処理の内容を説明するための図であり、仮想音源分布データの音源分布位置を回転させる処理を説明するための図である。
【図8】 前記仮想音源分布データ補間処理の内容を説明するための図であり、ある前記方向別エリアのインパルス応答を示す図である。
【図9】 前記仮想音源分布データ補間処理の内容を説明するための図であり、前記音源分布位置回転後の受音点から見た方向毎の、2種類の前記方向別エリアのパワーの平均値を示すグラフである。
【図10】 前記仮想音源分布データ補間処理の内容を説明するための図であり、ある方向別エリアの前記仮想音源分布データの経過時刻とパルス到来密度との関係を示すグラフである。
【図11】 前記仮想音源分布データ補間処理の内容を説明するための図であり、前記音源分布位置の回転後の方向別エリアの、2種類の前記仮想音源分布データの経過時刻と平均パルス到来密度との関係を示すグラフである。
【図12】 前記音源分布データ補間処理を実行する楽音信号処理装置の構成を示すブロック図である。
【符号の説明】
100……音源分布データ補間装置、110……CPU、111……ROM、112……RAM、113……外部記憶装置、114……バス、115……操作部、150……電子音源、151……DSP、152……スピーカ群[0001]
BACKGROUND OF THE INVENTION
The present invention is based on a sound source distribution data interpolation method, sound source distribution data interpolation device, and sound source distribution data that generate new sound source distribution data using two types of sound source distribution data for reproducing a sound field such as a concert hall. The present invention relates to a musical tone signal processing apparatus, a program, and a recording medium for performing signal processing.
[0002]
[Prior art]
Conventionally, impulse response is measured by the proximity four-point method, etc., and virtual sound source distribution data, which is a kind of indoor space information such as a concert hall, is created based on the measurement result, and design data such as a concert hall is also prepared. Virtual sound source distribution data is created by acoustic simulation. There is also provided a reverberation imparting device that performs signal processing based on virtual sound source distribution data created by the above method on a musical sound signal and reproduces a sound field such as the concert hall.
[0003]
Here, FIG. 1 schematically shows the contents of virtual sound source distribution data (two-dimensional) used for sound field reproduction as described above. As shown in the figure, the virtual sound source distribution data includes the distribution positions of a large number of sound sources (direct sound and reflected sound) around the sound receiving point J when each impulse sound is generated in a certain space, and each sound source. In the figure, the size of the circle represents the sound intensity of each sound source, and the center position of the circle represents the sound source position. In the actual virtual sound source distribution data, information on the position of each sound source (for example, coordinate information, direction and distance information from the sound receiving point, direction and arrival time information from the sound receiving point, etc.) and the sound source emits. Many pieces of sound source information are included as a pair with information indicating the strength of sound.
[0004]
By the way, the virtual sound source distribution data is used for the purpose of switching the reverberation to be applied to the musical sound signal to be reproduced in synchronization with the switching when the scene such as the video to be reproduced is switched from one scene to the other scene. May be. In such a case, when the video of the scene before switching is being played back, the reverberation applying process using the virtual sound source distribution data for reproducing the sound field corresponding to the scene is performed, while after the video switching Performs reverberation adding processing using virtual distribution data for reproducing the sound field according to the scene after switching. At the time of switching and the predetermined time before and after the switching, two types of virtual sound source distributions, namely virtual sound source distribution data for reproducing the sound field before switching and virtual sound source distribution data for reproducing the sound field after switching, are used. A technique may be used in which virtual sound source distribution data having intermediate characteristics is generated by interpolating data, and reverberation applying processing is performed using the generated virtual sound source distribution data.
[0005]
[Problems to be solved by the invention]
However, the conventional virtual sound source distribution data interpolation method simply adds two types of virtual sound source distribution data and takes an average, that is, adds each sound source information belonging to each virtual sound source distribution data, Since the sound intensity indicated by each sound source information is divided by 2, the characteristics such as the sound image position of the virtual sound source distribution data after the interpolation are intermediate between the two prepared virtual sound source distribution data. It may not be a characteristic. Further, since the number of sound sources is simply added and increased, the virtual sound source distribution data prepared differs greatly from the number of sound sources, and as a result, the reproduced sound field may differ greatly. In particular, when the characteristics of the two prepared virtual sound source distribution data are greatly different, the above-mentioned sense of incongruity becomes more prominent.
[0006]
The present invention has been made in consideration of the above circumstances, and even if the characteristics of two virtual sound source distribution data to be interpolated are greatly different, virtual sound source distribution data with a reduced sense of discomfort in hearing is reduced. An object of the present invention is to provide a sound source distribution data interpolation method, a sound source distribution data interpolation device, a musical tone signal processing device having the sound source distribution data interpolation device, a program, and a recording medium.
[0007]
[Means for Solving the Problems]
In order to solve the above-described problem, an interpolation method of sound source distribution data according to the present invention includes first sound source distribution data including sound source position information relating to positions of a plurality of sound sources, and sound intensity information of each sound source, A method of generating new sound source distribution data by interpolating second sound source distribution data different from the first sound source distribution data, wherein each of the first sound source distribution data and the second sound source distribution data A step of classifying each sound source into one of a plurality of direction areas viewed from a predetermined sound receiving point from each sound source position information included in the sound source, and a plurality of the direction areas of the first sound source distribution data Of the specific direction area of the second sound source distribution data and the specific direction area of the plurality of direction areas of the second sound source distribution data so that the directions viewed from the predetermined sound receiving point coincide with each other. , For the first sound source An adjustment step of adjusting each sound source position information included in the data and each sound source position information included in the second sound source distribution data, the first sound source distribution data including the adjusted sound source position information, and the second And generating a new sound source distribution data based on the sound source distribution data.
[0008]
According to this method, new virtual sound source distribution data obtained by interpolating two types of virtual sound source distribution data and virtual sound source distribution data can be generated. When generating the interpolated virtual sound source distribution data, the specific direction-specific area (for example, an area including a sound source that has a great influence on the sense of hearing) of the two types of virtual sound source distribution data is the same as viewed from the sound receiving point. The distribution position of the sound source information of each virtual sound source distribution data is adjusted so as to be in the direction. Therefore, the sound that has a great influence on the auditory sensation from a plurality of directions also arrives at the characteristics of the two types of virtual sound source distribution data to be interpolated (when the direction including the sound source that has a great influence on the audibility is different). Virtual sound source distribution data can be generated with little sense of discomfort in the sense of hearing.
[0009]
In addition, the sound source distribution data interpolation method according to another aspect of the present invention includes first sound source distribution data including sound source position information regarding the positions of a plurality of sound sources, and sound intensity information of each sound source, and the first sound source. A method of generating new sound source distribution data by interpolating second sound source distribution data different from the distribution data, each of which is included in each of the first sound source distribution data and the second sound source distribution data A classification step of classifying each sound source into one of a plurality of direction areas viewed from a predetermined sound receiving point from the sound source position information, and the directions of the first sound source distribution data and the second sound source distribution data A distribution number deriving step for obtaining the number of sound source distributions for each unit distance area from the predetermined sound receiving point for each different area; and the direction in the same direction in the first sound source distribution data and the second sound source distribution data Another An average derivation step for obtaining an average of the number of sound source distributions obtained for each unit distance section, the first sound source distribution data belonging to the same unit distance section belonging to the direction area in the same direction, and the second The sound source position information and sound intensity information of the same number of sound sources as the average number of sound source distributions are extracted from the sound sources of the sound source distribution data of the sound source, and the sound source position information and sound intensity information of the extracted sound sources are extracted. And a generation step of generating new sound source distribution data using the.
[0010]
According to this method, new virtual sound source distribution data obtained by interpolating two types of virtual sound source distribution data and virtual sound source distribution data can be generated. When generating this interpolated virtual sound source distribution data, instead of using all of a large number of sound source information belonging to the two types of virtual sound source distribution data, the unit distance in the direction of arrival of each sound out of these many sound source information Only the same number of sound source information as the average value of the number of sound source information belonging to two types of virtual sound source distribution data is extracted and used for each section. Therefore, it is possible to generate interpolated virtual sound source distribution data that can suppress a sense of incongruity due to a simple increase in the number of sound sources without the number of sound sources being simply added and increasing as in the conventional interpolation method. Can do.
[0011]
In addition, the sound source distribution data interpolation apparatus according to the present invention includes first sound source distribution data including sound source position information relating to positions of a plurality of sound sources, and sound intensity information of each sound source, and the first sound source distribution data. Each of the first sound source distribution data and the second sound source distribution data stored in the storage means when there is an interpolation instruction. Classifying means for classifying each sound source into one of a plurality of direction areas as viewed from a predetermined sound receiving point from each sound source position information included in the sound source, and a plurality of the direction areas of the first sound source distribution data Of the predetermined direction area of the second sound source distribution data and the predetermined area of the second direction among the plurality of direction areas of the second sound source distribution data so that the directions viewed from the predetermined sound receiving point coincide with each other. , The first sound source distribution data Adjusting means for adjusting each sound source position information included in the data source and each sound source position information included in the second sound source distribution data, the first sound source distribution data including the adjusted sound source position information, and the second And generating means for generating new sound source distribution data based on the sound source distribution data.
[0012]
According to another aspect of the present invention, there is provided a sound source distribution data interpolating device that stores sound source position information relating to positions of a plurality of sound sources and first sound source distribution data including sound intensity information of each sound source; When there is an interpolation instruction, each sound source receives a predetermined sound reception from each sound source position information included in each of the first sound source distribution data and the second sound source distribution data stored in the storage means. Classifying means for classifying into any of a plurality of direction areas viewed from a point, and for each area by direction of the first sound source distribution data and the second sound source distribution data stored in the storage means, Distribution number deriving means for obtaining the number of sound source distributions for each unit distance area from the predetermined sound receiving point, and the direction-specific area in the same direction in the first sound source distribution data and the second sound source distribution data. Average derivation means for obtaining an average of the number of sound source distributions for each unit distance section; and the first sound source distribution data and the second sound source distribution data belonging to the same unit distance section belonging to the direction-specific area in the same direction. The sound source position information and sound intensity information of the same number of sound sources as the average of the number of sound source distributions are extracted from each sound source, and new sound source position information and sound intensity information are extracted using the extracted sound source position information and sound intensity information. And generating means for generating sound source distribution data.
[0013]
A musical tone signal processing device according to the present invention performs signal processing on a musical tone signal based on any one of the above-described sound source distribution data interpolation devices and new sound source distribution data generated by the sound source distribution data interpolation device. And a signal processing means.
[0014]
In addition, a program according to the present invention causes a computer to execute first sound source distribution data including sound source position information regarding the positions of a plurality of sound sources, and sound intensity information of each sound source, and the first sound source distribution data. Read out the first sound source distribution data and the second sound source distribution data from storage means for storing different second sound source distribution data, and from each sound source position information included in each read sound source distribution data, Classifying means for classifying the sound source into any one of a plurality of direction areas as viewed from a predetermined sound receiving point; the predetermined direction area among the plurality of direction areas of the first sound source distribution data; and Included in the first sound source distribution data so that the direction seen from the predetermined sound receiving point matches the predetermined direction-specific area among the plurality of direction-specific areas of the second sound source distribution data. Adjustment means for adjusting each sound source position information included in the sound source position information and the second sound source distribution data, based on the first sound source distribution data and the second sound source distribution data including the adjusted sound source position information. And function as a generation means for generating new sound source distribution data.
Further, the program may be recorded on a computer-readable recording medium.
[0015]
According to another aspect of the present invention, there is provided a program from a storage unit that stores sound source position information relating to positions of a plurality of sound sources and first sound source distribution data including sound intensity information of each sound source. The first sound source distribution data and the second sound source distribution data are read, and each sound source is viewed from a predetermined sound receiving point from each sound source position information included in each read sound source distribution data. A unit distance from the predetermined sound receiving point for each area according to direction of the first sound source distribution data and the second sound source distribution data stored in the storage unit. Distribution number deriving means for obtaining the number of sound source distributions for each zone, the number of sound source distributions obtained for the direction-specific areas in the same direction in the first sound source distribution data and the second sound source distribution data. Mean deriving means for obtaining an average for each unit distance area, from among the respective sound sources of the first sound source distribution data and the second sound source distribution data belonging to the same unit distance section belonging to the direction area in the same direction The sound source position information and sound intensity information of the same number of sound sources as the average number of sound source distributions are extracted, and new sound source distribution data is generated using the extracted sound source position information and sound intensity information of the sound sources Function as a generating means.
Further, the program may be recorded on a computer-readable recording medium.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
A. Configuration of the embodiment
First, FIG. 2 is a block diagram showing a configuration of a sound source distribution data interpolating apparatus that implements a virtual sound source distribution data interpolation method according to an embodiment of the present invention. As shown in the figure, the sound source distribution data interpolation apparatus 100 includes a CPU (Central Processing Unit) 110, a ROM (Read Only Memory) 111, and a RAM (Random Access Memory) 112 which are connected to each other via a
[0017]
The
[0018]
The
[0019]
B. Virtual sound source distribution data interpolation processing
Under the configuration described above, when an interpolation start instruction including an instruction to select two virtual sound source distribution data to be interpolated and an interpolation ratio instruction is input from the user via the
[0020]
As shown in the figure, when receiving an interpolation start instruction, the
[0021]
When the virtual sound source distribution data A and the virtual sound source distribution data B are read, the
[0022]
In the present embodiment, the
[0023]
In the present embodiment, a large number of sound source information belonging to each virtual sound source distribution data is classified into the respective direction areas AR0 to AR15 as described above. Specifically, the
[0024]
As described above, for each of the virtual sound source distribution data A and the virtual sound source distribution data B, a large number of sound source information belonging to the virtual sound source distribution data is classified into any one of the direction-specific areas AR0 to AR15. When the classification is completed, the
[0025]
When the total power value for each area for each direction is derived for each virtual sound source distribution data as described above, the
[0026]
As is clear from the figure, the total power value (unit omitted) for each area for each direction is the maximum for area AR2 for virtual sound source distribution data A, and the maximum for area AR4 for virtual sound source distribution data B. It has become. The
[0027]
More specifically, when an interpolation ratio such as α% for the virtual sound source distribution data A and (100−α)% for the virtual sound source distribution data B is designated, the
[0028]
Here, when the instructed interpolation ratio is 50% for the virtual sound source distribution data A and 50% for the virtual sound source distribution data B, the sound source distribution for the virtual sound source distribution data A is as shown in FIG. Is rotated counterclockwise by 22.5 °. Accordingly, the direction-specific area AR2 that is the maximum direction-specific area is located on the “left front left” side as viewed from the sound receiving point J. On the other hand, for the virtual sound source distribution data B, as shown in FIG. 7, the sound source distribution is rotated clockwise by 22.5 °. As a result, the direction-specific area AR4, which is the maximum direction-specific area for the virtual sound source distribution data B, is also located on the “left front left” side when viewed from the sound receiving point J, and the maximum direction-specific area of both is received. From the point J, the directions coincide. As described above, the
[0029]
When the sound source distribution position of each virtual sound source distribution data is rotated around the sound receiving point J, the
[0030]
When the impulse responses of all the directional areas are derived for the virtual sound source distribution data A and the virtual sound source distribution data B, the
[0031]
The direction-specific areas that are in the same direction as seen from the sound receiving point J after the rotation of the sound source distribution described above are as follows when the sound source distribution is rotated as shown in FIGS. 6 and 7. become that way. That is, what is on the “front” side as viewed from the sound receiving point J is the direction area AR15 for the virtual sound source distribution data A (see the lower part of FIG. 6), and the virtual sound source distribution data B is the direction area AR1. Yes (see the lower part of FIG. 7), these are direction-specific areas in the same direction. Similarly, the direction-specific area AR14 of the virtual sound source distribution data A and the direction-specific area AR0 of the virtual sound source distribution data B are on the “front right front” side as viewed from the sound receiving point J, and these are areas in the same direction. It becomes. Further, the direction-specific area AR13 of the virtual sound source distribution data A and the direction-specific area AR15 of the virtual sound source distribution data B are on the “front right” side as viewed from the sound receiving point J, and these are areas in the same direction. .
[0032]
Then, the
[0033]
Next, the
[0034]
As described above, the impulse response for each direction area AR0 to AR15 of the virtual sound source distribution data A and the virtual sound source distribution data B is obtained (step S5), and the average impulse response for each direction (step S6) based on the derived result. The
[0035]
FIG. 10 shows an example of the pulse arrival density per unit time obtained in a certain direction viewed from the sound receiving point J obtained as described above. In this figure, the vertical axis indicates the pulse arrival density corresponding to the “left front left” direction when viewed from the sound receiving point J, the horizontal axis indicates the elapsed time (0 to 1400 msec), and the virtual sound source distribution data A The pulse arrival density obtained from each sound source information (coordinate information thereof) belonging to the direction area AR2 corresponding to “left front left” belongs to the direction area AR4 corresponding to “left front left” for the virtual sound source distribution data B. The pulse arrival density obtained from each sound source information (coordinate information thereof) is shown.
[0036]
When the
[0037]
Next, the
[0038]
First, a large number of sound source information belonging to the direction area AR2 of the virtual sound source distribution data A corresponding to the direction to be derived (“left front left”) and a large number of sound sources information belonging to the direction area AR4 of the virtual sound source distribution data B Of the sound source information, the number of sound source information corresponding to the average pulse arrival density obtained in the direction (that is, the number of sound sources located in each unit distance area) is extracted. More specifically, when the arrival time at the sound receiving point J is T to T + ta (ta is a unit time) and the average pulse arrival density is “5”, the time in the direction area AR2 There are five pieces of sound source information where the sound arrives at the sound receiving point J between T and T + ta, and the sound source information where the sound arrives at the sound receiving point J when the arrival time in the direction area AR4 is between T and T + ta. When there are four, five pieces of sound source information, which is a number corresponding to the average pulse arrival density, are extracted from the nine pieces of sound source information combined. The five pieces of sound source information extracted in this way are used as sound source information in a section from time T to T + ta in the new impulse response in the direction. The sound source information extraction process as described above is performed every unit time (each unit distance area) such as
[0039]
Here, as described above, the number of sound source information belonging to the direction-specific area AR2 and the direction-specific area AR4 may be larger than the number corresponding to the average pulse arrival density. In the present embodiment, these are the extraction targets. In the sound source information, sound source information is extracted until the number corresponding to the average pulse arrival density is reached in descending order of sound intensity. Therefore, in the above case, for example, the sound intensity of each of the five sound source information that is the extraction target belonging to the direction area AR2 is the sound intensity of any of the four sound source information that is the extraction target belonging to the direction area AR4. If it is larger than this, only five sound source information belonging to the direction area AR2 is extracted, and no sound source information belonging to the direction area AR4 is extracted.
[0040]
When the sound source information used for each unit time is extracted in this way, a new impulse response is derived for the direction using the extracted sound source information. The impulse response here determines the arrival time of the sound emitted by each sound source at the sound receiving point J by obtaining the distance from the coordinate information of each extracted sound source information to the sound receiving point J. The sound source information can be derived based on the sound intensity.
[0041]
The
[0042]
By the way, since the impulse response for each new direction obtained as described above is created by preferentially extracting the sound source information having a high sound intensity as described above, the newly created impulse response for each direction is created. The total power value of the impulse response is larger than the average total power value of the impulse response for each direction obtained in step S7. Therefore, the
[0043]
When the power adjustment is completed, the
[0044]
As described above, in this embodiment, new virtual sound source distribution data can be generated by interpolating two types of virtual sound source distribution data A and virtual sound source distribution data B with an interpolation ratio according to a user instruction. When generating the interpolated virtual sound source distribution data, the direction in which the largest sound energy arrives at the sound receiving point J among the two types of virtual sound source distribution data (usually the direction in which the direct sound source exists) matches. The distribution position of the sound source information of each virtual sound source distribution data is adjusted. Therefore, when reverberation is applied using this interpolated virtual sound source distribution data, the direction in which the largest sound energy that has the greatest influence on the sense of hearing arrives is unified in one direction. On the other hand, in the conventional interpolation method by simply averaging the two types of virtual sound source distribution data, when the direction in which the largest sound energy of the two virtual sound source distribution data to be interpolated is different, When reverberation is applied using the virtual sound source distribution data generated by the interpolation method, a sound that has a great influence on the sense of hearing comes from a plurality of directions, and an uncomfortable sound field is reproduced. On the other hand, according to the interpolation method according to the present embodiment, the direction in which the most influential sound arrives is unified as described above, so that virtual sound source distribution data with less sense of discomfort can be generated. .
[0045]
Further, in the present embodiment, when generating an impulse response for each new direction as described above, not all of a large number of sound source information belonging to two types of virtual sound source distribution data is used, but a large number of these sound sources. Out of the information, only the average number of arrivals of each sound in the direction of arrival of each sound, that is, only the same number of sound source information as the average value of the number of sound source information belonging to two types of virtual sound source distribution data for each unit distance area is extracted and used. I have to. On the other hand, the conventional interpolation method employs a method of using all sound source information belonging to two types of virtual sound source distribution data and dividing the sound intensity of each sound source information by 2, so that the number of sound sources is There is a possibility that interpolation data having characteristics completely different from both of the two types of virtual sound source distribution data to be interpolated may be generated. On the other hand, in the present embodiment, the number of sound sources is not simply increased and does not increase, so that such a problem does not occur. Further, in the present embodiment, when sound source information is extracted, a sound having a high sound intensity is preferentially extracted. That is, since sound source information that has a greater influence on hearing is preferentially extracted, interpolated virtual sound source distribution data that successfully incorporates the characteristics of two types of virtual sound source distribution data to be interpolated can be generated.
In this embodiment, the adjustment of the distribution position of the sound source information of the virtual sound source distribution data and the adjustment of the average pulse arrival density for each arrival direction of each virtual sound source are performed together. Only one of the adjustment of the distribution position of the sound source information and the adjustment of the arrival density of the average pulse for each arrival direction of each virtual sound source may be performed.
[0046]
As described above, there are two types of interpolation that are the subject of interpolation: the sense of incongruity due to the fact that there are multiple directions of arrival of sounds that have a significant impact on the sense of perception, and the sense of discomfort in perception due to simply increasing the number of sound sources. This becomes more prominent when the characteristics of the virtual sound source distribution data are greatly different. On the other hand, according to the present embodiment, even if the characteristics of the two types of virtual sound source distribution data are greatly different, even when sound field reproduction is performed based on the interpolated virtual sound source distribution data, the auditory sensation is caused for the reason described above. It is possible to reproduce a sound field having intermediate characteristics with almost no sense of incongruity.
[0047]
C. Modified example
In addition, this invention is not limited to embodiment mentioned above, Various deformation | transformation which is illustrated below is possible.
[0048]
(Modification 1)
In the above-described embodiment, the case where the virtual sound source distribution data A and the virtual sound source distribution data B to be interpolated is virtual sound source distribution data including a direct sound has been described. Some omit data and include sound source information of only reflected sound. When two types of virtual sound source distribution data that do not include sound source information of such direct sound are to be interpolated, the position of the direct sound at which position (or direction) for each of the two types of virtual sound source distribution data. After instructing the user whether there is a sound source, the sound source distribution position indicated in each virtual sound source distribution data is rotated as follows instead of the processing of step S3 and step S4 in FIG. That's fine.
[0049]
That is, in each of the two types of virtual sound source distribution data, the direction-specific area to which the sound source position of the direct sound instructed by the user (or the direction-specific area directly instructed by the user) is the same direction as viewed from the sound receiving point J. The sound source distribution position may be rotated so that Therefore, the direct sound source position specified in the direction area AR2 belongs to one virtual sound source distribution data, and the direct sound source position specified in the direction area AR4 belongs to the other virtual sound source distribution data. 6 and FIG. 7, the direction area AR2 of one virtual sound source distribution data and the direction area AR4 of the other virtual sound source distribution data are in the same direction when viewed from the sound receiving point J. Thus, the interpolated virtual sound source distribution data may be generated by rotating the sound source distribution position. By rotating the sound source distribution position in this way, as in the case of the above embodiment, even when the sound field is reproduced, there is a sense of discomfort in the sense of hearing due to multiple arrival directions of sounds that have a large impact on the sense of hearing. Virtual sound source distribution data that hardly occurs can be generated.
[0050]
(Modification 2)
In the above-described embodiment, the sound source distribution data interpolation device 100 reads two types of virtual sound source distribution data stored in the
[0051]
As shown in the figure, the musical tone signal processing device 300 is connected to the
[0052]
When a reproduction instruction for a predetermined music or the like is given via the
[0053]
The
In this configuration, a musical sound input unit (such as a microphone or a signal input terminal) is provided in place of the
[0054]
(Modification 3)
In the above-described embodiment, the
[0055]
【The invention's effect】
As described above, according to the present invention, even when the characteristics of two virtual sound source distribution data to be interpolated are greatly different, it is possible to generate virtual sound source distribution data with a reduced sense of discomfort in hearing. .
[Brief description of the drawings]
FIG. 1 is a diagram schematically showing the contents of virtual sound source distribution data used for sound field reproduction.
FIG. 2 is a block diagram illustrating a configuration of a sound source distribution data interpolation apparatus that performs sound source distribution data interpolation processing according to an embodiment of the present invention.
FIG. 3 is a flowchart showing a procedure of virtual sound source distribution data interpolation processing executed by the sound source distribution data interpolation device.
FIG. 4 is a diagram for explaining the contents of the virtual sound source distribution data interpolation processing, and is a diagram for explaining processing for classifying each sound source information of the virtual sound source distribution data for each area according to direction.
FIG. 5 is a diagram for explaining the contents of the virtual sound source distribution data interpolation process, and is a graph showing an added value of sound intensity of sound source information for each area according to direction.
FIG. 6 is a diagram for explaining the contents of the virtual sound source distribution data interpolation process, and a diagram for explaining a process of rotating the sound source distribution position of the virtual sound source distribution data.
FIG. 7 is a diagram for explaining the contents of the virtual sound source distribution data interpolation process, and a diagram for explaining a process of rotating the sound source distribution position of the virtual sound source distribution data.
FIG. 8 is a diagram for explaining the contents of the virtual sound source distribution data interpolation process, and is a diagram showing an impulse response in a certain direction area.
FIG. 9 is a diagram for explaining the contents of the virtual sound source distribution data interpolation process, and the average of the powers of the two types of direction-specific areas for each direction as viewed from the sound receiving point after the sound source distribution position rotation; It is a graph which shows a value.
FIG. 10 is a diagram for explaining the contents of the virtual sound source distribution data interpolation process, and is a graph showing the relationship between the elapsed time of the virtual sound source distribution data and the pulse arrival density in an area according to a direction.
FIG. 11 is a diagram for explaining the contents of the virtual sound source distribution data interpolation process, and the elapsed time and average pulse arrival of the two types of virtual sound source distribution data in the direction-specific area after rotation of the sound source distribution position; It is a graph which shows the relationship with a density.
FIG. 12 is a block diagram showing a configuration of a musical tone signal processing apparatus that executes the sound source distribution data interpolation processing.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100 ... Sound source distribution data interpolation apparatus, 110 ... CPU, 111 ... ROM, 112 ... RAM, 113 ... External storage device, 114 ... Bus, 115 ... Operation part, 150 ... Electronic sound source, 151 ... ... DSP, 152 ... Speaker group
Claims (15)
前記第1の音源分布データおよび前記第2の音源分布データの各々に含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類ステップと、
前記第1の音源分布データの複数の前記方向別エリアのうちの特定の前記方向別エリアと前記第2の音源分布データの複数の前記方向別エリアのうちの特定の前記方向別エリアとの前記所定の受音点から見た方向が一致するように、前記第1の音源分布データに含まれる各音源位置情報および前記第2の音源分布データに含まれる各音源位置情報を調整する調整ステップと、
調整された前記音源位置情報を含む前記第1の音源分布データおよび前記第2の音源分布データに基づいて、新たな音源分布データを生成する生成ステップと
を具備することを特徴とする音源分布データの補間方法。Interpolating first sound source distribution data including sound source position information relating to the positions of a plurality of sound sources, and sound intensity information of each sound source, and second sound source distribution data different from the first sound source distribution data. A method for generating new sound source distribution data,
Classification for classifying each sound source into one of a plurality of areas according to direction viewed from a predetermined sound receiving point, based on sound source position information included in each of the first sound source distribution data and the second sound source distribution data. Steps,
The specific direction-specific area of the plurality of direction-specific areas of the first sound source distribution data and the specific direction-specific area of the plurality of direction-specific areas of the second sound source distribution data. An adjustment step of adjusting each sound source position information included in the first sound source distribution data and each sound source position information included in the second sound source distribution data so that directions seen from a predetermined sound receiving point coincide with each other; ,
A sound source distribution data comprising a generation step of generating new sound source distribution data based on the first sound source distribution data and the second sound source distribution data including the adjusted sound source position information. Interpolation method.
前記調整ステップでは、前記第1の音源分布データについて求められた前記方向別エリア毎の音の強さの加算値が最も大きい第1の最大方向別エリアと、前記第2の音源分布データについて求められた前記方向別エリア毎の音の強さの加算値が最も大きい第2の最大方向別エリアとの前記所定の受音点から見た方向が一致するように、前記第1の音源分布データに含まれる各音源位置情報および前記第2の音源分布データに含まれる各音源位置情報を調整する
ことを特徴とする請求項1に記載の音源分布データの補間方法。For each area by direction included in the first sound source distribution data, an addition value of sound intensity indicated in the sound intensity information corresponding to all sound sources belonging to the area is obtained, and the second An addition step for obtaining an addition value of sound intensity indicated in the sound intensity information corresponding to all sound sources belonging to the area for each area included in the sound source distribution data;
In the adjustment step, the first maximum direction area and the second sound source distribution data having the largest added value of the sound intensity for each direction area determined for the first sound source distribution data and the second sound source distribution data are obtained. The first sound source distribution data so that the direction viewed from the predetermined sound receiving point coincides with the second maximum direction area with the largest added value of the sound intensity for each direction area. The sound source distribution data interpolation method according to claim 1, wherein the sound source position information included in the second sound source distribution data and the sound source position information included in the second sound source distribution data are adjusted.
ことを特徴とする請求項1に記載の音源分布データの補間方法。In the adjustment step, the direction-specific area instructed by the user among the plurality of direction-specific areas of the first sound source distribution data and the direction-specific area of the second sound source distribution data The sound source position information and the second sound source distribution data included in the first sound source distribution data are set so that the direction viewed from the predetermined sound receiving point matches the direction-specific area designated by the user. 2. The method of interpolating sound source distribution data according to claim 1, wherein each sound source position information included is adjusted.
ことを特徴とする請求項1ないし3のいずれかに記載の音源分布データの補間方法。In the adjustment step, an adjustment amount of each sound source position information included in the first sound source distribution data and an adjustment amount of each sound source position information included in the second sound source distribution data are determined based on the set interpolation ratio. 4. The method of interpolating sound source distribution data according to claim 1, wherein the method is determined.
調整された前記音源位置情報を含む前記第1の音源分布データおよび前記第2の音源分布データの前記方向別エリア毎に、前記所定の受音点からの単位距離区域毎の音源分布数を求め、
調整後に同一方向となる前記第1の音源分布データおよび前記第2の音源分布データの前記方向別エリアについて求められた音源分布数の前記単位距離区域毎の平均を求め、
同一方向となる前記方向別エリアに属する同一の単位距離区域に属する前記第1の音源分布データおよび前記第2の音源分布データの各音源の中から、前記音源分布数の平均と同数の音源の前記音源位置情報および音の強さ情報を抽出し、抽出した音源の前記音源位置情報および音の強さ情報を用いて新たな音源分布データを生成する
ことを特徴とする請求項1ないし4のいずれかに記載の音源分布データの補間方法。In the adjustment step,
The number of sound source distributions for each unit distance area from the predetermined sound receiving point is obtained for each area according to direction of the first sound source distribution data and the second sound source distribution data including the adjusted sound source position information. ,
Obtaining an average of the number of sound source distributions determined for the direction-specific areas of the first sound source distribution data and the second sound source distribution data in the same direction after adjustment for each unit distance section;
Of the sound sources of the first sound source distribution data and the second sound source distribution data belonging to the same unit distance section belonging to the direction area that is the same direction, the number of sound sources equal to the average of the number of sound source distributions. 5. The sound source position information and sound intensity information are extracted, and new sound source distribution data is generated using the extracted sound source position information and sound intensity information of the sound source. The sound source distribution data interpolation method according to any one of the above.
ことを特徴とする請求項5に記載の音源分布データの補間方法。Among the sound sources of the first sound source distribution data and the second sound source distribution data belonging to the same unit distance area belonging to the direction area that is the same direction, the number of sound sources equal to the average of the number of sound source distributions. The sound source position information and sound intensity information are extracted in descending order of sound intensity of each sound source of the first sound source distribution data and the second sound source distribution data. Item 6. The sound source distribution data interpolation method according to Item 5.
前記第1の音源分布データおよび前記第2の音源分布データの各々に含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類ステップと、
前記第1の音源分布データおよび前記第2の音源分布データの前記方向別エリア毎に、前記所定の受音点からの単位距離区域毎の音源分布数を求める分布数導出ステップと、
前記第1の音源分布データおよび前記第2の音源分布データにおける同一方向の前記方向別エリアについて求められた音源分布数の前記単位距離区域毎の平均を求める平均導出ステップと、
同一方向の前記方向別エリアに属する同一の単位距離区間に属する前記第1の音源分布データおよび前記第2の音源分布データの各音源の中から、前記音源分布数の平均と同数の音源の前記音源位置情報および音の強さ情報を抽出し、抽出した音源の前記音源位置情報および音の強さ情報を用いて新たな音源分布データを生成する生成ステップと
を具備することを特徴とする音源分布データの補間方法。Interpolating first sound source distribution data including sound source position information relating to the positions of a plurality of sound sources, and sound intensity information of each sound source, and second sound source distribution data different from the first sound source distribution data. A method for generating new sound source distribution data,
Classification for classifying each sound source into one of a plurality of areas according to direction viewed from a predetermined sound receiving point, based on sound source position information included in each of the first sound source distribution data and the second sound source distribution data. Steps,
A distribution number deriving step for obtaining a sound source distribution number for each unit distance area from the predetermined sound receiving point for each area according to direction of the first sound source distribution data and the second sound source distribution data;
An average derivation step for obtaining an average of the number of sound source distributions obtained for the direction-specific areas in the same direction in the first sound source distribution data and the second sound source distribution data;
Among the sound sources of the first sound source distribution data and the second sound source distribution data belonging to the same unit distance section belonging to the direction area in the same direction, the same number of sound sources as the average of the number of sound source distributions. A sound source comprising: a sound source position information and sound intensity information extracted, and generating new sound source distribution data using the sound source position information and sound intensity information of the extracted sound source Interpolation method for distribution data.
補間指示があった場合に、前記記憶手段に記憶されている前記第1の音源分布データおよび前記第2の音源分布データの各々に含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類手段と、
前記第1の音源分布データの複数の前記方向別エリアのうちの所定の前記方向別エリアと前記第2の音源分布データの複数の前記方向別エリアのうちの所定の前記方向別エリアとの前記所定の受音点から見た方向が一致するように、前記第1の音源分布データに含まれる各音源位置情報および前記第2の音源分布データに含まれる各音源位置情報を調整する調整手段と、
調整された前記音源位置情報を含む前記第1の音源分布データおよび前記第2の音源分布データに基づいて、新たな音源分布データを生成する生成手段と
を具備することを特徴とする音源分布データ補間装置。First sound source distribution data including sound source position information relating to positions of a plurality of sound sources, sound intensity information of each sound source, and second sound source distribution data different from the first sound source distribution data are stored. Storage means;
When there is an interpolation instruction, each sound source receives a predetermined sound reception from each sound source position information included in each of the first sound source distribution data and the second sound source distribution data stored in the storage means. A classifying means for classifying into one of a plurality of directional areas viewed from a point;
The predetermined direction area of the plurality of direction areas of the first sound source distribution data and the predetermined direction area of the plurality of direction areas of the second sound source distribution data. Adjusting means for adjusting each sound source position information included in the first sound source distribution data and each sound source position information included in the second sound source distribution data so that directions seen from a predetermined sound receiving point coincide with each other; ,
Sound source distribution data, comprising: generating means for generating new sound source distribution data based on the first sound source distribution data and the second sound source distribution data including the adjusted sound source position information. Interpolator.
補間指示があった場合、前記記憶手段に記憶されている前記第1の音源分布データおよび前記第2の音源分布データの各々に含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類手段と、
前記記憶手段に記憶されている前記第1の音源分布データおよび前記第2の音源分布データの前記方向別エリア毎に、前記所定の受音点からの単位距離区域毎の音源分布数を求める分布数導出手段と、
前記第1の音源分布データおよび前記第2の音源分布データにおける同一方向の前記方向別エリアについて求められた音源分布数の前記単位距離区域毎の平均を求める平均導出手段と、
同一方向の前記方向別エリアに属する同一の単位距離区間に属する前記第1の音源分布データおよび前記第2の音源分布データの各音源の中から、前記音源分布数の平均と同数の音源の前記音源位置情報および音の強さ情報を抽出し、抽出した音源の前記音源位置情報および音の強さ情報を用いて新たな音源分布データを生成する生成手段と
を具備することを特徴とする音源分布データ補間装置。Storage means for storing sound source position information relating to positions of a plurality of sound sources and first sound source distribution data including sound intensity information of each sound source;
When there is an interpolation instruction, each sound source is assigned a predetermined sound receiving point from each sound source position information included in each of the first sound source distribution data and the second sound source distribution data stored in the storage means. A classification means for classifying the area into one of a plurality of areas according to directions viewed from
Distribution for obtaining the number of sound source distributions per unit distance area from the predetermined sound receiving point for each area according to direction of the first sound source distribution data and the second sound source distribution data stored in the storage means Number derivation means;
Average derivation means for obtaining an average of the number of sound source distributions obtained for the direction-specific areas in the same direction in the first sound source distribution data and the second sound source distribution data;
Among the sound sources of the first sound source distribution data and the second sound source distribution data belonging to the same unit distance section belonging to the direction area in the same direction, the same number of sound sources as the average of the number of sound source distributions. A sound source comprising: sound source position information and sound intensity information, and generating means for generating new sound source distribution data using the sound source position information and sound intensity information of the extracted sound source Distribution data interpolation device.
前記音源分布データ補間装置によって生成された新たな音源分布データに基づいた信号処理を楽音信号に対して施す信号処理手段と
を具備することを特徴とする楽音信号処理装置。The sound source distribution data interpolating device according to claim 8,
A music signal processing apparatus comprising: signal processing means for performing signal processing on a music signal based on new sound source distribution data generated by the sound source distribution data interpolation apparatus.
前記音源分布データ補間装置によって生成された新たな音源分布データに基づいた信号処理を楽音信号に対して施す信号処理手段と
を具備することを特徴とする楽音信号処理装置。The sound source distribution data interpolating device according to claim 9,
A music signal processing apparatus comprising: signal processing means for performing signal processing on a music signal based on new sound source distribution data generated by the sound source distribution data interpolation apparatus.
複数の音源の位置に関する音源位置情報と、各音源の音の強さ情報とを含む第1の音源分布データと、当該第1の音源分布データとは異なる第2の音源分布データとを記憶する記憶手段から、前記第1の音源分布データおよび前記第2の音源分布データを読み出し、読み出した各々音源分布データに含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類手段、
前記第1の音源分布データの複数の前記方向別エリアのうちの所定の前記方向別エリアと前記第2の音源分布データの複数の前記方向別エリアのうちの所定の前記方向別エリアとの前記所定の受音点から見た方向が一致するように、前記第1の音源分布データに含まれる各音源位置情報および前記第2の音源分布データに含まれる各音源位置情報を調整する調整手段、
調整された前記音源位置情報を含む前記第1の音源分布データおよび前記第2の音源分布データに基づいて、新たな音源分布データを生成する生成手段
として機能させるためのプログラム。Computer
First sound source distribution data including sound source position information relating to positions of a plurality of sound sources, sound intensity information of each sound source, and second sound source distribution data different from the first sound source distribution data are stored. The first sound source distribution data and the second sound source distribution data are read from the storage means, and each sound source is viewed from a predetermined sound receiving point from each sound source position information included in each read sound source distribution data. Classification means for classifying into any of the direction-specific areas,
The predetermined direction area of the plurality of direction areas of the first sound source distribution data and the predetermined direction area of the plurality of direction areas of the second sound source distribution data. Adjusting means for adjusting each sound source position information included in the first sound source distribution data and each sound source position information included in the second sound source distribution data so that directions seen from a predetermined sound receiving point coincide with each other;
A program for functioning as generation means for generating new sound source distribution data based on the first sound source distribution data and the second sound source distribution data including the adjusted sound source position information.
複数の音源の位置に関する音源位置情報と、各音源の音の強さ情報とを含む第1の音源分布データとを記憶する記憶手段から前記第1の音源分布データおよび前記第2の音源分布データを読み出し、読み出した各々の音源分布データに含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類手段、
前記記憶手段に記憶されている前記第1の音源分布データおよび前記第2の音源分布データの前記方向別エリア毎に、前記所定の受音点からの単位距離区域毎の音源分布数を求める分布数導出手段、
前記第1の音源分布データおよび前記第2の音源分布データにおける同一方向の前記方向別エリアについて求められた音源分布数の前記単位距離区域毎の平均を求める平均導出手段、
同一方向の前記方向別エリアに属する同一の単位距離区間に属する前記第1の音源分布データおよび前記第2の音源分布データの各音源の中から、前記音源分布数の平均と同数の音源の前記音源位置情報および音の強さ情報を抽出し、抽出した音源の前記音源位置情報および音の強さ情報を用いて新たな音源分布データを生成する生成手段
として機能させるためのプログラム。Computer
The first sound source distribution data and the second sound source distribution data from storage means for storing sound source position information regarding the positions of a plurality of sound sources and first sound source distribution data including sound intensity information of each sound source. Classifying means for classifying each sound source into one of a plurality of areas according to direction viewed from a predetermined sound receiving point from each sound source position information included in each read sound source distribution data,
Distribution for obtaining the number of sound source distributions per unit distance area from the predetermined sound receiving point for each area according to direction of the first sound source distribution data and the second sound source distribution data stored in the storage means Number derivation means,
An average derivation unit for obtaining an average of the number of sound source distributions obtained for the direction-specific areas in the same direction in the first sound source distribution data and the second sound source distribution data;
Among the sound sources of the first sound source distribution data and the second sound source distribution data belonging to the same unit distance section belonging to the direction area in the same direction, the same number of sound sources as the average of the number of sound source distributions. A program for extracting sound source position information and sound intensity information, and functioning as a generation unit that generates new sound source distribution data using the extracted sound source position information and sound intensity information of the extracted sound source.
複数の音源の位置に関する音源位置情報と、各音源の音の強さ情報とを含む第1の音源分布データと、当該第1の音源分布データとは異なる第2の音源分布データとを記憶する記憶手段から、前記第1の音源分布データおよび前記第2の音源分布データを読み出し、読み出した各々音源分布データに含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類手段、
前記第1の音源分布データの複数の前記方向別エリアのうちの所定の前記方向別エリアと前記第2の音源分布データの複数の前記方向別エリアのうちの所定の前記方向別エリアとの前記所定の受音点から見た方向が一致するように、前記第1の音源分布データに含まれる各音源位置情報および前記第2の音源分布データに含まれる各音源位置情報を調整する調整手段、
調整された前記音源位置情報を含む前記第1の音源分布データおよび前記第2の音源分布データに基づいて、新たな音源分布データを生成する生成手段
として機能させるためのプログラムを記録した記録媒体。Computer
First sound source distribution data including sound source position information relating to positions of a plurality of sound sources, sound intensity information of each sound source, and second sound source distribution data different from the first sound source distribution data are stored. The first sound source distribution data and the second sound source distribution data are read from the storage means, and each sound source is viewed from a predetermined sound receiving point from each sound source position information included in each read sound source distribution data. Classification means for classifying into any of the direction-specific areas,
The predetermined direction area of the plurality of direction areas of the first sound source distribution data and the predetermined direction area of the plurality of direction areas of the second sound source distribution data. Adjusting means for adjusting each sound source position information included in the first sound source distribution data and each sound source position information included in the second sound source distribution data so that directions seen from a predetermined sound receiving point coincide with each other;
A recording medium on which a program for functioning as generation means for generating new sound source distribution data is recorded based on the first sound source distribution data and the second sound source distribution data including the adjusted sound source position information.
複数の音源の位置に関する音源位置情報と、各音源の音の強さ情報とを含む第1の音源分布データとを記憶する記憶手段から前記第1の音源分布データおよび前記第2の音源分布データを読み出し、読み出した各々の音源分布データに含まれる各音源位置情報から、各々の音源を所定の受音点から見た複数の方向別エリアのいずれかに分類する分類手段、
前記記憶手段に記憶されている前記第1の音源分布データおよび前記第2の音源分布データの前記方向別エリア毎に、前記所定の受音点からの単位距離区域毎の音源分布数を求める分布数導出手段、
前記第1の音源分布データおよび前記第2の音源分布データにおける同一方向の前記方向別エリアについて求められた音源分布数の前記単位距離区域毎の平均を求める平均導出手段、
同一方向の前記方向別エリアに属する同一の単位距離区間に属する前記第1の音源分布データおよび前記第2の音源分布データの各音源の中から、前記音源分布数の平均と同数の音源の前記音源位置情報および音の強さ情報を抽出し、抽出した音源の前記音源位置情報および音の強さ情報を用いて新たな音源分布データを生成する生成手段
として機能させるためのプログラムを記録した記録媒体。Computer
The first sound source distribution data and the second sound source distribution data from storage means for storing sound source position information regarding the positions of a plurality of sound sources and first sound source distribution data including sound intensity information of each sound source. Classifying means for classifying each sound source into one of a plurality of areas according to direction viewed from a predetermined sound receiving point from each sound source position information included in each read sound source distribution data,
Distribution for obtaining the number of sound source distributions per unit distance area from the predetermined sound receiving point for each area according to direction of the first sound source distribution data and the second sound source distribution data stored in the storage means Number derivation means,
An average derivation unit for obtaining an average of the number of sound source distributions obtained for the direction-specific areas in the same direction in the first sound source distribution data and the second sound source distribution data;
Among the sound sources of the first sound source distribution data and the second sound source distribution data belonging to the same unit distance section belonging to the direction area in the same direction, the same number of sound sources as the average of the number of sound source distributions. A recording that records a program for extracting sound source position information and sound intensity information and functioning as a generating means for generating new sound source distribution data using the extracted sound source position information and sound intensity information of the extracted sound source Medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002069096A JP3969133B2 (en) | 2002-03-13 | 2002-03-13 | Sound source distribution data interpolation method, sound source distribution data interpolation device, musical tone signal processing device, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002069096A JP3969133B2 (en) | 2002-03-13 | 2002-03-13 | Sound source distribution data interpolation method, sound source distribution data interpolation device, musical tone signal processing device, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003271154A JP2003271154A (en) | 2003-09-25 |
JP3969133B2 true JP3969133B2 (en) | 2007-09-05 |
Family
ID=29200041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002069096A Expired - Fee Related JP3969133B2 (en) | 2002-03-13 | 2002-03-13 | Sound source distribution data interpolation method, sound source distribution data interpolation device, musical tone signal processing device, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3969133B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6540600B2 (en) * | 2016-05-25 | 2019-07-10 | ヤマハ株式会社 | Sound effect generating device, sound effect generating method and program |
WO2024084999A1 (en) * | 2022-10-19 | 2024-04-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Audio processing device and audio processing method |
-
2002
- 2002-03-13 JP JP2002069096A patent/JP3969133B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003271154A (en) | 2003-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112205006B (en) | Adaptive remixing of audio content | |
KR101820224B1 (en) | Mixing desk, sound signal generator, method and computer program for providing a sound signal | |
CN102055425B (en) | Audio system phase equalizion | |
US10021507B2 (en) | Arrangement and method for reproducing audio data of an acoustic scene | |
US9154895B2 (en) | Apparatus of generating multi-channel sound signal | |
US6628787B1 (en) | Wavelet conversion of 3-D audio signals | |
JP2020092409A (en) | Systems and methods for modifying room characteristics for spatial audio rendering over headphones | |
KR20080060640A (en) | Method and apparatus for reproducing a virtual sound of two channels based on individual auditory characteristic | |
US7369667B2 (en) | Acoustic image localization signal processing device | |
JP2007512740A (en) | Apparatus and method for generating a low frequency channel | |
CA2744429C (en) | Converter and method for converting an audio signal | |
JP4553963B2 (en) | Method and apparatus for generating speaker signal for randomly generated sound source | |
JP6361000B2 (en) | Method for processing audio signals for improved restoration | |
JP5237463B2 (en) | Apparatus for generating a multi-channel audio signal | |
JP3969133B2 (en) | Sound source distribution data interpolation method, sound source distribution data interpolation device, musical tone signal processing device, program, and recording medium | |
JP4196509B2 (en) | Sound field creation device | |
JP2731751B2 (en) | Headphone equipment | |
JP2002095098A (en) | Acoustic reproducer | |
JP5671686B2 (en) | Sound playback device | |
JP3174965U (en) | Bone conduction 3D headphones | |
JP5552764B2 (en) | Signal processing apparatus and program | |
JP4691662B2 (en) | Out-of-head sound localization device | |
JP2016140039A (en) | Sound signal processing apparatus, sound signal processing method, and program | |
JP2001016698A (en) | Sound field reproduction system | |
JP5593481B2 (en) | Sound equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040924 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070515 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070528 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100615 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110615 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120615 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120615 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130615 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140615 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |