JP2012150278A - 仮想空間のビジュアル変化に対応した音響効果の自動生成システム - Google Patents
仮想空間のビジュアル変化に対応した音響効果の自動生成システム Download PDFInfo
- Publication number
- JP2012150278A JP2012150278A JP2011008848A JP2011008848A JP2012150278A JP 2012150278 A JP2012150278 A JP 2012150278A JP 2011008848 A JP2011008848 A JP 2011008848A JP 2011008848 A JP2011008848 A JP 2011008848A JP 2012150278 A JP2012150278 A JP 2012150278A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- virtual space
- modeling data
- room
- generation system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】 CGにおいて、ユーザの操作によって仮想空間における環境やキャラクタ(登場人物等)が変化したときに、そのビジュアル表現の変化に対応して “臨場感のある”音響をリアルタイムで与えるシステムを、より小さな演算処理負荷で実行できる音響効果の自動生成システムを提供すること。
【解決手段】 ユーザが変更を加えた前後のモデリングデータファイルにおけるCGモデリングデータを分析するモデリングデータ分析部10と、モデリングデータ分析部10からの出力とサウンドデータを入力されビジュアル表現変更後の音響を出力する音変換・加工部20とからなる。
【選択図】 図8
【解決手段】 ユーザが変更を加えた前後のモデリングデータファイルにおけるCGモデリングデータを分析するモデリングデータ分析部10と、モデリングデータ分析部10からの出力とサウンドデータを入力されビジュアル表現変更後の音響を出力する音変換・加工部20とからなる。
【選択図】 図8
Description
本発明は、仮想空間におけるビジュアル表現が変化したときに、それに合うように音を自動的に変換する音響効果の自動生成システムに関する。
コンピュータグラフィックス(CG)におけるレンダリング技術の進歩に伴って仮想空間は精巧に記述され、臨場感が高まってきた。近い将来、人々はCGで記述されている環境や登場人物をインタラクティブに変化させて楽しむことになると思われる。
仮想空間のビジュアル表現がユーザの意のままに変更されるようになると、それに合うように音響的な表現を変化させる必要がある。たとえば、仮想空間内で人が歩くシーンがあると仮定する。人が歩く足音は、地面の材質によって異なる。地面の材質が芝生から石畳へと変更されたとすると、足音は固い印象を与える音質に変化されねばならない。
また、仮想空間内で人が歩く環境が、映画館内である場合と大聖堂内である場合とでは異なる残響感を与えなければならない。
さらに、仮想空間内では、登場人物が変身したり成長したりすることがある。このような変身や成長が、ユーザの操作によって実現されるようになると、登場人物が発する声が変身や成長に合わせて変化すると臨場感がより向上する。
しかしながら、ユーザによる操作の自由度が増せば増すほど、それに似合う音響的な表現を予め用意しておくことが困難になる。従って、限られた音源を用いてビジュアル表現に合うような音の編集、加工が必要となる。
このような要求に応える手段として、従来、幾つかの手法が提案されている。仮想空間の音響的な表現として、仮想空間の環境のリアリティに関するものと、登場人物や物体自身のリアリティに関連するものがある。
仮想空間の環境のリアリティに関するものとして、以下の先行特許文献がある。
特許文献1は、仮想ゲーム空間に設定される聴取位置と発音位置の間の距離を算出し、それに基づいて周波数補正と音量設定を行うことによって仮想空間内の発音源から発せられる音を好適に出力することを開示している。
特許文献2は、発音位置と聴取位置間に障害物がある場合に、その障害物を考慮した音の生成を行うことを開示している。
特許文献3は、仮想空間内に配置される固定物の情報に基づいて、固定物からの仮想的な反射音を生成することを開示している。
特許文献4、5、6は、仮想空間内の室内音響を再現するために、仮想空間の形状、壁の反射率などからインパルス応答やエコータイムパターンを算出して、音源と畳み込み演算することによって、仮想空間内の音響をリアルタイムに再現することを開示している。
仮想空間の物体音のリアリティに関する先行特許文献として、特許文献7は、仮想物体に他の物体が接触したときに発生する音を生成する技術を開示している。
次に、登場人物や物体自身のリアリティに関連するものとして、以下の先行特許文献がある。
特許文献8は、身長の高い人は声が低いことなどについて言及している。
特許文献9は、ゲーム内でキャラクタの容姿が変わる(成長する)に従って、音声の変化を楽しめるゲームを開示している。この先行技術は、音声変化を機械音声合成を使って実現している。
特許文献1、2に開示の技術においては、仮想空間内において、発音体から聴取体への直接音のみを扱っており、仮想空間の環境に関する臨場感の向上にはさらに反射音が必要である。
特許文献3乃至特許文献6に開示の技術においては、モデリングで使用されている材質情報を利用して反射音を生成し仮想空間の臨場感を高めることがなされているけれども、物理的なシミュレーションを行っているため、演算処理量が膨大となり実時間処理が困難である問題がある。
そもそも仮想空間においてはレンダリング処理を軽減化するために、マッピング技術を利用して視覚的には存在して見えるオブジェクトが単なる平面である場合やモデリングデータさえ存在しない面がある。
このように、仮想空間においては計算(演算処理)コストをかけて厳密な物理シミュレーションを行ったとしても、必ずしも厳密な音響空間を再現できることはできない。また、仮想空間における物理空間の厳密な再現は、必ずしも“最適な” 臨場感を与えるとは限らない。
特許文献7に開示の技術においては、ユーザの操作が仮想物体に操作する方法に応じて異なる音を生成することによって仮想物体のリアリティを向上させようとするものであるが、仮想物体そのものが変化するような場合、その変化に関するリアリティを与えるものではない。
特許文献8はキャラクタのサイズと声質について言及しているけれども、具体的にどのように声質を変化させるかについては触れられていない。
特許文献9に開示の技術においては、キャラクタの変化に応じて声を変化させているけれども、その解決手段として機械音声合成を使用しており、声を変化させるというよりも別の声を生成しているといえる。
本発明は、上記従来技術における問題を解決し、ユーザの操作によって仮想空間において環境やキャラクタ(登場人物等)が変化したときに、そのビジュアル表現の変化に対応して “臨場感のある”音響をリアルタイムで与えるシステムを、より小さな演算処理負荷で実行できる仮想空間のビジュアル変化に対応した音響効果の自動生成システムを提供することを目的とする。
上記課題を解決するための請求項1に記載の発明は、コンピュータグラフィックス(CG)のモデリングファイルを分析するモデリングデータ分析部10と、該モデリングデータ分析部10からの材質情報に基づいて各室内面の吸音率を出力する材質−吸音特性データベース130と前記各室内面の吸音率およびモデリングデータ分析部10から出力される室の容積と表面積を入力されて残響時間を演算算出する残響時間計算部180と室容積と残響時間によって分類されたさまざまな室のインパルス応答を貯蔵するインパルス応答データベース170と無響室録音音源の音と前記インパルス応答データベース170から出力されるインパルス応答とを入力され残響音を出力する畳み込み演算器140と上記モデリングデータ分析部10から出力される音源と収音点間距離情報に基づいて前記無響室録音音源の音の大きさを調整し直接音を出力する減衰器150と前記直接音と前記畳み込み演算器140から出力される残響音とを加算し音を出力する加算器160とから構成される音変換・加工部20とを有することを特徴とする仮想空間のビジュアル変化に対応した音響効果の自動生成システムである。
請求項2に記載の発明は、請求項1に記載の仮想空間のビジュアル変化に対応した音響効果の自動生成システムにおいて、残響時間計算部(180)とインパルス応答データベース(170)間に効果強調演算部(230)を介挿してなる仮想空間のビジュアル変化に対応した音響効果の自動生成システムである。
請求項3に記載の発明は、請求項1又は請求項2に記載の仮想空間のビジュアル変化に対応した音響効果の自動生成システムに、CGモデリングデータを分析し登場人物の身長変化を調べるモデリングデータ分析部(10)と、得られた身長情報から音声変換パラメータを演算算出する変換パラメータ値算出部(190)、変換パラメータ値に従って音声データを変換する音声分析合成部(200)とからなる音声変換システムを付加してなる仮想空間のビジュアル変化に対応した音響効果の自動生成システムである。
本発明によれば、ユーザがCGのビジュアル表現を変更しても臨場感の高い音響効果をリアルタイムで得ることができる。また、演算処理負荷の小さなシステムとすることができる。
以下、本発明の実施の形態について、詳細に説明する。
本発明においては、CGにおけるビジュアル表現の変化を、モデリングデータの変化という形で取得し、環境を形成する材質や形状の変化に合わせて音の変換を行う。また、登場人物の変化に対応させて音声の変換をモデリングデータ分析部からの出力に基づいて行う。
本発明においては、CGにおけるビジュアル表現の変化を、モデリングデータの変化という形で取得し、環境を形成する材質や形状の変化に合わせて音の変換を行う。また、登場人物の変化に対応させて音声の変換をモデリングデータ分析部からの出力に基づいて行う。
仮想空間のビジュアル表現を自在に変化させるということは、CGにおけるモデリングをユーザが変更するということである。従って、ビジュアル表現の変化をモデリングデータの変化という形で取得することが可能である。
そもそも視覚的に表現可能な材質は、CGソフトウェア材質情報を保持しているものに限られる。従って、CGモデリングデータを解析すれば、たとえば変更前の材質が芝生であり、変更後の材質が石畳であることが判別可能である。
同様に、CGモデリングデータの座標値を解析すれば、各物体(オブジェクト)のサイズや位置を知ることができる。
このように、本発明においては、ユーザが変更を加えた前後のCGモデリングデータを分析する。分析によって得られた幾つかの値を用いてサウンド(音響)データの変換・加工を行い出力する。CGモデリングデータが変更される前のサウンドデータはあるものとする。サウンド(音響)データの変換・加工の対象は、仮想空間の環境の変化に関するものと登場人物の変化に関するものである。
仮想空間の環境の変化に関するものについては、室内の残響感を与える処理と物体の材質感を与える処理がある。
室内の残響感については、室内音響を物理的に厳密にシミュレーションするのではなく、室容積と残響時間が近い環境を再現することによって、少ない計算(演算)処理コストで臨場感のある音響効果を与えることができる。
物体の材質感については、材質の周波数特性をフィルタリングすることによって、少ない計算(演算)処理コストで臨場感のある音響効果を与えることができる。
登場人物の変化に関するものについては、身長の変化に応じて声の高さと周波数特性を変化させることによって、少ない計算(演算)処理コストで臨場感のある音響効果を与えることができる。
図1に、本発明の仮想空間のビジュアル変化に対応した音響効果の自動生成システムの基本構成を示す。図1に示すように、本発明のシステムは、ユーザが変更を加えた前後のモデリングデータファイルにおけるCGモデリングデータを分析するモデリングデータ分析部10と、モデリングデータ分析部10からの出力とサウンドデータを入力されビジュアル表現変更後の音響を出力する音変換・加工部20とからなる。
図1に示す本発明のシステムの基本構成の一展開例とした実施形態を図2に示す。この実施形態は、仮想空間が室内である場合に、その部屋の音響特性を考慮して音を変換するものである。この実施形態においては、CGモデリングデータは必ずしも完全な室状況を記述していないことを前提にしている。図2に示すシステムは、CGモデリングデータを分析し、材質情報や室内面の構成を調べるモデリングデータ分析部10と、分析によって得られた材質情報から各室内面の吸音特性を求める材質−吸音特性データベース130と、室内形状と各室内面の吸音特性から室内の音伝播シミュレーションを行い室のインパルス応答を算出する音伝播シミュレーション部120と、音源とインパルス応答を畳み込む畳み込み演算部140とを有する。
図2に示すシステムの各構成機器を説明する。
CGソフトウェアで作成されたモデリングデータは、一般に、バイナリーデータ形式で保存されており、ソフトウェアによって形式が異なる。そこで、ファイル形式がアスキー形式でありかつ、主たるCGソフトウェアからエクスポート可能なCOLLADAファイル形式でモデリングデータを出力する。これをモデリングデータファイルとする。
CGソフトウェアで作成されたモデリングデータは、一般に、バイナリーデータ形式で保存されており、ソフトウェアによって形式が異なる。そこで、ファイル形式がアスキー形式でありかつ、主たるCGソフトウェアからエクスポート可能なCOLLADAファイル形式でモデリングデータを出力する。これをモデリングデータファイルとする。
モデリングデータ分析部10では、モデリングデータから仮想空間の室内面の構成とその材質情報を取得する。
一般に、CGモデリングデータ中では、すべての物体はポリゴンの集合体で記述されている。図3左図は、四角形の部屋を実際にポリゴンで記述した例である。壁の厚みなどのために、部屋の壁面の数6よりも大きい数のポリゴンが使用されている。最初に、このポリゴンデータから部屋の内壁を構成するポリゴンのみを見つけ出さなければならない。
床面を構成するであろうポリゴンは比較的見つけやすい。普通、垂直方向座標が最小であるような面だからである。次に、床面の座標を手掛かりに、天井面を構成するであろうポリゴンを見つけることができる。床面と天井面の候補がみつかれば、その座標を手掛かりに部屋のおおよそ中心点を定めることができる。そこで、図3に示すように、このおおよそ中心点である点から全方向にビームを飛ばし、ビームが最初に交差したポリゴンを部屋の内壁を構成するポリゴンとする。
ところで、仮想空間は必ずしも完全に記述されているとは限らない。たとえば、室外へつながる開口部があったとする。開口部の外側は何ら記述されていないことがある。
このような記述されていない部分に関しては、ポリゴンの欠如箇所として、たとえば非特許文献1に開示されているようなそれ自体公知の手法等を用いて、隣接するポリゴンで補充する。
モデリングデータには、各ポリゴンの材質に関する記述がある。予め、CGソフトウェアが有する材質情報とそれに対応する吸音特性の対応をデータベース化した材質−吸音特性データベース130を用いて、各室内面の吸音特性を調べる。
音伝播シミュレーション部120では、音線法や鏡像法を使って、音伝播の様子をシミュレーションし、収音点でのインパルス応答を算出する。
最後に、無響室録音音源とインパルス応答を畳み込み演算部140で畳みこみし、出力音を得る。
なお、ポリゴンの欠如部を補完する方法として、隣接するポリゴンで補完する代わりに、代表的な吸音率、たとえば0.2程度を仮定して当てはめてもよい。また、モデリングデータはCOLLADAファイル形式に限ることなく、他のファイル形式を用いてもよいしまた、バイナリーデータ形式で分析してもよい。
この実施例は、少ない計算(演算処理)量で残響を付加するシステムである。図4に、この実施例に係るシステムを示す。図4において、10はモデリングデータ分析部であって、CGモデリングデータを分析し、材質情報や室内面の構成および音源と収音点間の距離情報を調べる。130は材質−吸音特性データベースであり、CGモデリングデータの分析によって得られた材質情報から各室内面の吸音特性を求める。180は残響時間計算部であって、室内容積ならびに表面積と各室内面の吸音特性から残響時間を算出する。
170はインパルス応答データベースであり、残響時間および室内容積によって分類されたインパルス応答のサンプルを有する。140は畳み込み演算器であって、無響室録音された音源とインパルス応答を畳み込み残響音を生成する。150は減衰器であり、音源と収音点間の距離に応じて音源の大きさを調整し直接音を生成する。160は加算器であって、残響音と直接音を加算して音を出力する。
室の残響時間T(秒)は、次のEyring-Knudsenの残響公式を使って計算できる。
VおよびSは、モデリングデータから仮想空間の室内面の構成を取得することでモデリングデータ分析部10において算出できる。室形状が複雑な場合は、上記非特許文献1に開示されているポリゴン統合方法を使うことによりシンプルな形状に近似できるので、VとSの算出は簡単になる。
材質−吸音特性データベース130には、図5に示すようにデータが格納されている。平均吸音率
は、モデンリングデータ分析部10で得られた材質情報から材質−吸音特性データベース130によって各面における吸音率を求め、全平面について平均をとることで求められる。mは定数であるので、室の残響時間Tが算出できる。
は、モデンリングデータ分析部10で得られた材質情報から材質−吸音特性データベース130によって各面における吸音率を求め、全平面について平均をとることで求められる。mは定数であるので、室の残響時間Tが算出できる。
一般に、室内の吸音特性に大きな偏りがある環境つまり、一面の壁が完全吸音で、他面の壁が全反射であるような環境は考え難い。従って、室容積と残響時間が近い環境で収録されたインパルス応答を用いて残響音を生成しても、仮想空間のサウンドエフェクトとしてはそれほど違和感を与えない。
そこで、この実施例においては、モデンリングデータ分析部10から得られた室容積と残響時間計算部180で得られた残響時間から、おおよそ同じくらいの室容積と残響時間の室で収録されたインパルス応答をインパルス応答データベース170から得て、これを無響室録音された音源と畳み込み演算器140を使って畳み込み演算することで残響音を生成する。データベースに収録するインパルス応答を音源から離れた所で収録されたものとすれば、ほぼ残響音のみを生成することができる。インパルス応答データベース170においては、図6に示すようなデータが格納されている。
直接音については、モデンリングデータ分析部10から音源と収音点間の距離情報を得て、次式に従って距離減衰量を算出し、減衰器150によって大きさを調整する。
ここで、P(W)は点音源出力、r(m)は音源からの距離、l1=(W/m2)は収音点での音の強さである。
最後に、直接音と残響音を加算器160によって加算して出力音を得る。
この実施例で、室容積6000m3のコンクリートでできた部屋(室1)と、室容積約870m3でプラスターボードとグラスウールを用いた部屋(室2)をモデリングして本実施例を適用した。図7に、音源、室1のシミュレーション、室2のシミュレーションの結果の波形を示す。音源よりも室2が、さらに室2よりも室1で残響が強いことが見てとれる。
なお、この実施例で挙げたEyring-Knudsenの残響公式は、他の代表的な残響公式に入れ替えてもよい。同様に、この実施例で挙げた距離減衰の計算式は自由空間における距離減衰の式であるが、半自由空間の式(右辺分母が2πr2)を使用してもよい。
この実施例は、仮想空間により適した音響効果を与え得るシステムである。実施例1においては、仮想空間内の室容積や壁面材質により、その室らしい音響を与えるインパルス応答を選択していた。しかしながら、仮想空間の臨場感を得るには同様な実環境における音場再現が最適であるとは限らず、やや過度な効果をつけた方が適している場合が多い。そこで、この実施例では、ビジュアル表現の変化がより強調されるよう過度な音響効果をつけるようにした。
図8に、この実施例に係る残響感の変化をより強調するシステムを示す。図8において、10はモデリングデータ分析部であり、CGモデリングデータを分析し、材質情報や室内面の構成および音源と収音点間の距離情報を調べる。130は材質−吸音特性データベースであって、CGモデリングデータの分析によって得られた材質情報から各室内面の吸音特性を求める。180は残響時間計算部であり、室内容積ならびに表面積および各室内面の吸音特性から残響時間を算出する。
230は効果強調演算部であって、残響時間を増減する。170はインパルス応答データベースであり、残響時間と室容積によって分類されたインパルス応答のサンプルを格納している。140は畳み込み演算器であって、無響室録音された音源とインパルス応答を畳み込み、残響音を生成する。150は減衰器であり、音源と収音点間の距離に応じて音源の大きさを調整し直接音を生成する。160は加算器であって、残響音と直接音を加算する。
効果強調演算部230では、残響計算部180で計算された残響時間の増減を行う。残響時間の基準を設けて、ある時間よりも残響時間が長い(残響が大きい)場合はより長めに、ある時間よりも残響時間が短い(残響が小さい)場合はより短めにする処理を行う。
本発明においては、仮想空間のビジュアル表現が変化したときに、それに合うように音を自動的に変換することを目的としているので、モデリングデータの変更が、より残響時間の長い方向へ行われた場合は、効果強調演算部230では、残響時間計算部180で計算された残響時間をさらに増加させる方向へ、逆の場合はさらに減少させる方向へ減少させる方向へ増減を行うなどの処理を行ってもよい。
この実施例は、仮想空間における登場人物が成長や変身をしたとき、成長や変身後の姿にあった音声になるように音声を変換する実施例である。
図9に、本実施例の、仮想空間のビジュアル変化に対応した音響効果の自動生成システムを用いた音声変換システムの全容を示す。図9において、10はモデリングデータ分析部であって、CGモデリングデータを分析し、登場人物の身長変化を調べる。190は変換パラメータ値算出部であり、分析によって得られた身長情報から音声変換パラメータ値を算出する。200は音声分析合成部であって、変換パラメータ値算出部190で得られた変換パラメータ値に従って音声データを変換し音声を出力する。
モデリングデータ分析部10では、登場人物に関するCGモデリングデータから、変身前後の身長を求める。
変換パラメータ値算出部190では、得られた身長から音声変換パラメータの値を求める。この実施例においては、変換パラメータとして声の高さとスペクトル伸縮率を用いる。
人の身長(BH)と声道長(VTL)の間には、それ自体既知の次に示す関係がある(非特許文献2参照)。
この関係式は、非特許文献2に開示されている研究で、MRIを使って声道の形態を測定し、人の身長(BH)と声道長(VTL)の間に有意な正の相関があることを解明し、線形回帰分析の結果得られた。
人の音声の母音のホルマント周波数からVTLを推定するための理論的な基礎が既知である(非特許文献3参照)。非特許文献3での研究結果によれば、VTLは母音のホルマント周波数を決定する重要な要素の1つであり、音声パルスレートにも関係している。この研究によって得られたホルマントパターンモデルの最もシンプルな形は次の通りである。
ここで、Vは母音の種類、iは個々の話者、λviはホルマントの波長の3成分スペクトルである。集合の中での母音Vについてホルマントパターンを表している。αiは集合平均に対して相対的な個々の声道の長さである。このように、個々のホルマントを集合に関係させるαiという1つの値と、それぞれのホルマントに関する1つのパラメータがある。
従って、変身前の登場人物の身長をVTLpre、変身後の身長をVTLpostとすると、ホルマント波長をVTLpre/VTLpost倍にすれば、変化後のホルマントが得られる。ホルマントの変換は、簡易的にスペクトル伸縮操作によって実現できる。すなわち、ホルマント周波数がk倍ならば、スペクトルを周波数軸に沿ってk倍すればおおよそ実現できる。
次に、声の高さの変換率について説明する。非特許文献3における開示によれば、大人や思春期青年のVTLは、GPRの1/4乗に比例している。また、非特許文献4における開示では、知覚的に調査した結果、VTLは、GPRの1/3乗に比例している。このように、VTLの比率から、ピッチ変換のスケールを簡単に決定できる。
音声合成部200では、音声データを分析し変換パラメータ値に従って再合成することによって音声の変換を行い出力音を得る。
この実施例で得られた結果を示す。身長160cmの女性が身長270cmに変身した場合の音声を生成するために、図9に示すシステムを適用した。音声分析合成部には、TANDEM−STRAIGHT(非特許文献5参照)を使用した。音声データとして、身長160cmの女性が「Welcome to Kumamoto. The voice is changed.」と話す声を使用した。図10に、原音声データの基本周波数と出力音の基本周波数を示す。図11に、原音声データのスペクトルを、図12に出力音のスペクトルを示す。
この実施例においては、音声分析合成の手法としてTANDEM−STRAIGHTを用いたが、LPCといった他の音声分析法を使用することもできる。
この実施例は、オブジェクトの材質が変化した場合に、その音響特性を考慮して音を変換する実施例である。この実施例においては、物体の材質が変化する前にオブジェクトと接したときに発する音のデータは保持しているものとする。図13に、この実施例に係る仮想空間のビジュアル変化に対応した音響効果の自動生成システムを示す。図13において、10はモデリングデータ分析部であって、CGモデリングデータを分析し、材質情報を調べる。210は材質−周波数特性データベースであり、分析によって得られた材質の周波数特性を保持する。220は周波数特性比算出部、140は畳み込み演算器であって、音源と周波数特性を畳みこむ。
モデリングデータ分析部10では、モデリングデータから仮想空間のオブジェクトの材質情報を取得する。
モデリングデータには、各ポリゴンの材質に関する記述がある。予め、CGソフトウェアが有する材質情報とそれに対応する周波数特性の対応をとりデータベース化した材質−周波数特性データベース210を用いて、オブジェクトの周波数特性を調べる。
周波数特性比算出部220では、変化前の周波数特性と変化後の周波数特性の比をとり、その周波数特性比と音源を畳み込み演算器140で畳み込みし、出力音を得る。
コンピュータグラフィックスで表現される仮想空間の環境や登場人物に関するビジュアル表現を変更するに際して、臨場感に優れた音響効果を与えることを要する場に広く利用することができる。
10 モデリングデータ分析部
20 音変換・加工部
120 音伝播シミュレーション部
130 材質−吸音特性データベース
140 畳み込み演算器
150 減衰器
160 加算器
170 インパルス応答データベース
180 残響時間計算部
190 変換パラメータ値算出部
200 音声分析合成部
210 材質−周波数特性データベース
220 周波数特性比算出部
230 効果強調演算部
20 音変換・加工部
120 音伝播シミュレーション部
130 材質−吸音特性データベース
140 畳み込み演算器
150 減衰器
160 加算器
170 インパルス応答データベース
180 残響時間計算部
190 変換パラメータ値算出部
200 音声分析合成部
210 材質−周波数特性データベース
220 周波数特性比算出部
230 効果強調演算部
大槻 勇貴「3Dスキャンデータを対象とする圧縮率操作手法の開発」電気関係学会九州支部連合大会講演論文集 08−2P−19,2009
"Morphology and development of the vocal tract: A study using magnetic resonance imaging"W.T. Fitch and J. Giedd, Acoust. Soc. Am., 106(3),1511-1522(1999)
"A statistical formant-pattern model for segregation vowel type and vocal- tract length in developmental formant data,"R.E. Turner, T.C. Walters, J.J.M. Monagahn, and R.D. Patterson, J. Acoust. Soc. Am.,125(4,2374-2386 (2009)
"Perceptual effects of STRAIGHT parameter manipulations,"H. Kawahara, R. Akahane-Yamada, and R. Kubo, Trans. Tech. Com. Psycho. Physio. Acoust., H-97-65,(1997)
川原 英紀 他"時間方向および周波数方向の周期性の影響を除去した周期信号のパワースペクトルの表現について,"信学技報SP2007−26,13−18,2007
Claims (3)
- コンピュータグラフィックス(CG)のモデリングファイルを分析するモデリングデータ分析部(10)と、該モデリングデータ分析部(10)からの材質情報に基づいて各室内面の吸音率を出力する材質−吸音特性データベース(130)と前記各室内面の吸音率およびモデリングデータ分析部(10)から出力される室の容積と表面積を入力されて残響時間を演算算出する残響時間計算部(180)と室容積と残響時間とによって分類された、様々な室のインパルス応答を貯蔵するインパルス応答データベース(170)と無響室録音音源の音と前記インパルス応答データベース(170)から出力されるインパルス応答とを入力され残響音を出力する畳み込み演算器(140)と上記モデリングデータ分析部(10)から出力される音源と収音点間距離情報に基づいて前記無響室録音音源の音の大きさを調整し直接音を出力する減衰器150と前記直接音と前記畳み込み演算器(140)から出力される残響音とを加算し音を出力する加算器(160)とから構成される音変換・加工部(20)とを有することを特徴とする仮想空間のビジュアル変化に対応した音響効果の自動生成システム。
- 請求項1に記載の仮想空間のビジュアル変化に対応した音響効果の自動生成システムにおいて、残響時間計算部(180)とインパルス応答データベース(170)間に効果強調演算部(230)を介挿してなる仮想空間のビジュアル変化に対応した音響効果の自動生成システム。
- 請求項1又は請求項2に記載の仮想空間のビジュアル変化に対応した音響効果の自動生成システムに、CGモデリングデータを分析し登場人物の身長変化を調べるモデリングデータ分析部(10)と、得られた身長情報から音声変換パラメータを演算算出する変換パラメータ値算出部(190)、変換パラメータ値に従って音声データを変換する音声分析合成部(200)とからなる音声変換システムを付加してなる仮想空間のビジュアル変化に対応した音響効果の自動生成システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011008848A JP2012150278A (ja) | 2011-01-19 | 2011-01-19 | 仮想空間のビジュアル変化に対応した音響効果の自動生成システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011008848A JP2012150278A (ja) | 2011-01-19 | 2011-01-19 | 仮想空間のビジュアル変化に対応した音響効果の自動生成システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012150278A true JP2012150278A (ja) | 2012-08-09 |
Family
ID=46792579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011008848A Pending JP2012150278A (ja) | 2011-01-19 | 2011-01-19 | 仮想空間のビジュアル変化に対応した音響効果の自動生成システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012150278A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014178479A1 (ko) * | 2013-04-30 | 2014-11-06 | 인텔렉추얼디스커버리 주식회사 | 헤드 마운트 디스플레이 및 이를 이용한 오디오 콘텐츠 제공 방법 |
JP2016531484A (ja) * | 2013-07-22 | 2016-10-06 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | オーディオ信号を処理するための方法、信号処理ユニット、バイノーラルレンダラ、オーディオエンコーダおよびオーディオデコーダ |
-
2011
- 2011-01-19 JP JP2011008848A patent/JP2012150278A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014178479A1 (ko) * | 2013-04-30 | 2014-11-06 | 인텔렉추얼디스커버리 주식회사 | 헤드 마운트 디스플레이 및 이를 이용한 오디오 콘텐츠 제공 방법 |
JP2016531484A (ja) * | 2013-07-22 | 2016-10-06 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | オーディオ信号を処理するための方法、信号処理ユニット、バイノーラルレンダラ、オーディオエンコーダおよびオーディオデコーダ |
US9955282B2 (en) | 2013-07-22 | 2018-04-24 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method for processing an audio signal, signal processing unit, binaural renderer, audio encoder and audio decoder |
US10848900B2 (en) | 2013-07-22 | 2020-11-24 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method for processing an audio signal, signal processing unit, binaural renderer, audio encoder and audio decoder |
US11445323B2 (en) | 2013-07-22 | 2022-09-13 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method for processing an audio signal, signal processing unit, binaural renderer, audio encoder and audio decoder |
US11910182B2 (en) | 2013-07-22 | 2024-02-20 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method for processing an audio signal, signal processing unit, binaural renderer, audio encoder and audio decoder |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vorländer | Auralization | |
Serafin et al. | Sonic interactions in virtual reality: State of the art, current challenges, and future directions | |
Raghuvanshi et al. | Parametric wave field coding for precomputed sound propagation | |
Tang et al. | Scene-aware audio rendering via deep acoustic analysis | |
Pulkki et al. | Machine-learning-based estimation and rendering of scattering in virtual reality | |
JP2005080124A (ja) | リアルタイム音響再現システム | |
Su et al. | Inras: Implicit neural representation for audio scenes | |
Pind et al. | Acoustic virtual reality–methods and challenges | |
US10911885B1 (en) | Augmented reality virtual audio source enhancement | |
Rungta et al. | Syncopation: Interactive synthesis-coupled sound propagation | |
Ratnarajah et al. | Listen2Scene: Interactive material-aware binaural sound propagation for reconstructed 3D scenes | |
Raghuvanshi et al. | Interactive and Immersive Auralization | |
JP2012150278A (ja) | 仮想空間のビジュアル変化に対応した音響効果の自動生成システム | |
Stienen et al. | Auralization of urban environments—Concepts towards new applications | |
TWI640983B (zh) | 室內聲響效應模擬方法 | |
Llorca | Virtual reality for urban sound design: a tool for architects and urban planners | |
Colombo | Vision-based acoustic information retrieval for interactive sound rendering | |
Bujacz et al. | Sonification of 3d scenes in an electronic travel aid for the blind | |
JP5002818B2 (ja) | 接触音のリアルタイム生成装置、方法、プログラムおよびプログラムを格納した記録媒体 | |
Csapo et al. | Usability and effectiveness of auditory sensory substitution models for the visually impaired | |
Goodwin | Modeling Sound in Ancient Maya Cities: Moving Towards a Synesthetic Experience using GIS & 3D Simulation | |
Milo et al. | Designing spaces and soundscapes. Integrating sonic previews in architectural modelling applications | |
Kon et al. | An auditory scaling method for reverb synthesis from a single two-dimensional image | |
Ratnarajah | Efficient learning-based sound propagation for virtual and real-world audio processing applications | |
Lavagna et al. | Acoustic design optimization through the use of auralization: how does it sound? |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20130426 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20130426 |