JP2005094271A - 仮想空間音響再生プログラムおよび仮想空間音響再生装置 - Google Patents

仮想空間音響再生プログラムおよび仮想空間音響再生装置 Download PDF

Info

Publication number
JP2005094271A
JP2005094271A JP2003323765A JP2003323765A JP2005094271A JP 2005094271 A JP2005094271 A JP 2005094271A JP 2003323765 A JP2003323765 A JP 2003323765A JP 2003323765 A JP2003323765 A JP 2003323765A JP 2005094271 A JP2005094271 A JP 2005094271A
Authority
JP
Japan
Prior art keywords
sound
virtual space
virtual
acoustic
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003323765A
Other languages
English (en)
Inventor
Kentaro Matsui
健太郎 松井
Hiroyuki Okubo
洋幸 大久保
Setsu Komiyama
摂 小宮山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2003323765A priority Critical patent/JP2005094271A/ja
Publication of JP2005094271A publication Critical patent/JP2005094271A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Stereophonic System (AREA)

Abstract

【課題】 コストを抑え、設置スペースを確保する必要が無く、バーチャルリアリティ空間(環境)の構築、緻密な音場再現、サラウンド音響再生を行うことができ、ネットワークにおける禁止事項をクリアして、ダウンロードしたソフトウェアを利用することができる仮想空間音響再生プログラムおよび装置を提供する。
【解決手段】 仮想空間音響再生装置1は、仮想空間の映像を描画するための仮想空間映像情報と、仮想音源の直接音と、当該仮想空間内の音響特性および当該仮想音源に関する仮想空間音響情報とを受信し、前記仮想空間の映像と、前記直接音および前記仮想空間音響情報を処理して得られる仮想音源の間接音と、前記直接音とを関連付けて出力する仮想空間音響再生装置1であって、仮想空間映像情報処理手段3と、仮想空間音響情報処理手段5と、混合出力手段7と、を備えた。
【選択図】 図1

Description

本発明は、表示装置に表示された仮想空間内に位置する仮想音源から発せられる音響をサラウンド音響として、スピーカで再生させる仮想空間音響再生プログラムおよび仮想空間音響再生装置に関する。
一般に、2台のスピーカを、聴取位置(聴取者の位置)の正面左右に配置して立体的な音響を再現(再生)する手法をステレオ方式といい、さらに、聴取位置の正面左右以外の周囲のいずれかの位置にスピーカを配置して、聴取位置を囲むようにして立体的な音響を再現する手法をサラウンド方式という。
従来、このサラウンド方式によって、サラウンド音響を再生するサラウンド音響再生装置は、入力された入力信号に調整を施し、配置された複数のスピーカと当該装置のユーザ(聴取者)の位置(聴取位置)とによって決定される音響空間に適合する音響信号として出力することで、サラウンド音響を再生するものである(例えば、特許文献1参照)。
このサラウンド音響再生装置では、入力信号に調整を施すのに、図8に示す調整手段101が用いられており、この調整手段101には、入力信号を緩衝増幅する増幅器103と、緩衝増幅された入力信号(増幅信号)に遅延処理を施す遅延回路105と、遅延処理が施された増幅信号(遅延信号)に等価処理を施す等価回路107と、等価処理が施された遅延信号(等価信号)を畳み込む畳み込み器109と、畳み込まれた等価信号(反射音生成信号)に等価処理を再度施す等価回路111と、等価処理が再度施された反射音信号(等価信号)を緩衝増幅する増幅器113と、緩衝増幅された等価信号(増幅信号)および入力信号を合成する加算合成器115とが含まれている。
なお、このサラウンド音響再生装置では、出力される音響信号について、再現したい音場の伝達特性を、予め、当該音響信号の聴取位置における方向別のインパルス応答として実測するか、音響シミュレーションによって伝達特性を算出しておき、調整手段101の畳み込み器109の係数として用いることによって、音場の再現がより緻密に行える。
また、このサラウンド音響再生装置の応用技術として、当該装置とCG(コンピュータグラフィックス)技術と組み合わせたバーチャルリアリティシステムが挙げられる。このバーチャルリアリティシステムでは、CGで表現された仮想空間に対応した音響空間における音響特性を、音響シミュレーションによって算出する。そして、この音響シミュレーションの結果により、音響特性と共に、仮想空間内における仮想音源(音声等)の移動に従って変化する反射音等に関する情報である仮想空間音響情報とが得られ、当該バーチャルリアリティシステムでは、この仮想空間音響情報を用いることによって、仮想空間の映像に対応した音場を、動的に再現することができる。
このバーチャルリアリティシステムの例を図9に示す。この図9に示すように、バーチャルリアリティシステム117は、ドライソース(音響反射のない空間で取得された直接音、音源信号)を供給するドライソース供給サーバ119と、CGシーン(仮想空間)および当該仮想空間内における音響特性を表すインパルス応答を供給する仮想空間データサーバ121と、畳み込み処理を施す畳み込み手段(図示せず)を備えてドライソースから音響信号を生成する音響信号生成サーバ123と、CGシーン(仮想空間)を描画すると共に、ユーザ(聴取者)が操作したユーザインターフェース(UI)からの操作信号を受信して各サーバ117〜121を制御するコントロールサーバ125とから構成されている。
また、このバーチャルリアリティシステム117には、ユーザ(聴取者)の正面に配置され、仮想空間を表示するスクリーン127と、ユーザ(聴取者)の周囲八方に配置され、音響信号を出力する8台のスピーカ129とが接続されている。
このバーチャルリアリティシステム117の動作について説明すると、まず、ドライソース供給サーバ119からドライソースが音響信号生成サーバ123に供給される。続いて、ユーザ(聴取者)は、正面に配置されたスクリーン127に提示されるCGシーンを見ながらユーザインターフェース(UI)を操作する。すると、当該ユーザ(聴取者)が操作するユーザインターフェース(UI)からの操作信号を受信したコントロールサーバ125から出力された制御信号に基づいて、音響信号生成サーバ123でドライソースについて適切な音源定位制御を行うと共に、ドライソースに、仮想空間データサーバ121から供給されるインパルス応答を畳み込んだ響き(間接音)が付加された音響信号がスピーカ129から出力される。この結果、ユーザ(聴取者)は、CGシーン(仮想空間)の中にいるような立体音響を体感することができる。
ところで、CGシーン(仮想空間)を記述するコンピュータ言語の中で、インターネット上で普及しているものに、3次元仮想環境記述言語であるVRML(Virtual Reality Modeling Language)が挙げられる。このVRMLは、CGシーン(仮想空間)の記述の他、仮想空間内のオブジェクトに音源を割り当てる文法を有している。この文法によって、音源が割り当てられたオブジェクトは、当該オブジェクトの属性として、指向性、可聴領域等を記述することが可能になっている。この属性が記述されたオブジェクトを含んだ仮想空間をユーザ(聴取者)に提示することにより、当該VRMLを使用したシステムでは、オブジェクトから発せられた直接音によって、近似的にサラウンド音響再生を実現している。
特開2000−322069号公報(段落0024〜0028、図1)
しかしながら、従来のサラウンド音響再生装置では、調整手段101が増幅器103,113、遅延回路105、等価回路107,111、畳み込み器109、加算合成器115等の演算回路を用いたもので、サラウンド音響再生装置用の単一若しくは複数のDSP等のデバイスやハードウェアを組み合わせることにより構成されている。このため、従来のサラウンド音響再生装置は、簡略的な装置部分を除いて、ハードウェア構成の多くは商用機器からなり、コストがかかるという問題がある。
また、CG技術と組み合わせた、従来のバーチャルリアリティシステム117は、音響信号生成サーバ123とコントロールサーバ125とが別機器として構成されている。これら、バーチャルリアリティシステム117の音響信号生成サーバ123とコントロールサーバ125との間では、MIDI、TCP/IP等のプロトコルを用いて相互通信を行うことによって、同期させて制御を行っている。このバーチャルリアリティシステム115も、サラウンド音響再生装置101と同様に、当該システム115の大部分を複数のハードウェア(ドライソース供給サーバ117、仮想空間データサーバ119等)によって構成しているので、コストがかかり、各ハードウェアの設置スペースを確保しなければならないという問題がある。さらに、このバーチャルリアリティシステム115では、各ハードウェア間で、ドライソース、CGシーン等のデータ(コンテンツ)を関連付けて一元管理することが困難であり、データ(コンテンツ)を制作するコンテンツ制作者の負担となっている。さらにまた、バーチャルリアリティシステム115では、サラウンド音響再生装置101に比べて、構成が一層複雑になっている。
また、VRMLを使用したシステムは、サラウンド音響再生機能を備えると共に、CGシーンを表示可能なソフトウェアとして捉えることができるが、VRMLによる音響空間の表現能力は、音源が割り当てられたオブジェクトの属性として、楕円形の可聴領域の記述にとどまっており、バーチャルリアリティ空間(環境)の構築、緻密な音場再現、サラウンド音響再生を行うには、十分でないという問題がある。
また、従来、インターネット(ネットワーク)におけるセキュリティ上、ネットワークを介してダウンロードされたコンテンツでの記述によって、ダウンロードした機器と他の機器との間で、通信制御を行うことが禁止事項とされており、この禁止事項をクリアして、コンテンツを利用したいとの要望があった。
そこで、本発明では、前記した問題を解決し、コストを抑え、設置スペースを確保する必要が無く、バーチャルリアリティ空間(環境)の構築、緻密な音場再現、サラウンド音響再生を行うことができ、ネットワークにおける禁止事項をクリアして、ダウンロードしたソフトウェアを利用することができる仮想空間音響再生プログラムおよび仮想空間音響再生装置を提供することを目的とする。
前記課題を解決するため、請求項1記載の仮想空間音響再生プログラムは、仮想空間の映像を描画するための仮想空間映像情報と、当該仮想空間内の音源となる仮想音源の直接音である音響信号と、当該仮想空間内の音響特性および当該仮想音源に関する仮想空間音響情報とを受信し、前記仮想空間の映像と、前記直接音および前記仮想空間音響情報を処理して得られる仮想音源の間接音と、前記直接音とを関連付けて、表示装置とスピーカとに出力する装置を、仮想空間映像情報処理手段、仮想空間音響情報処理手段、混合出力手段、として機能させる構成とした。
かかる構成によれば、仮想空間音響再生プログラムは、ネットワークに接続して、仮想空間映像情報、音響信号および仮想空間音響情報を取得すると共に、仮想空間映像情報処理手段によって、当該仮想空間映像情報に基づいて、仮想空間の映像を描画して表示装置に出力する。つまり、この仮想空間映像情報処理手段は、通常のパーソナルコンピュータにおけるブラウザに相当するものである。
続いて、仮想空間音響再生プログラムは、仮想空間音響情報処理手段によって、直接音および仮想空間音響情報を処理して、仮想音源の移動と、当該装置のユーザの操作により仮想空間内の仮想の聴取点である仮想聴取点の移動との少なくとも一方に基づいて、間接音を算出する。この仮想空間音響情報処理手段による処理とは、仮想空間音響情報に基づいて、直接音を畳み込み処理することである。
そして、仮想空間音響再生プログラムは、混合出力手段によって、音響信号から得られる直接音を、仮想音源の位置と、仮想聴取点の位置と、スピーカの位置および聴取位置に基づいて予め算出した係数とに基づいて振幅制御した振幅制御直接音と、仮想空間音響情報処理手段で算出した間接音とを混合してスピーカに出力する。これら直接音と間接音とを混合した合成音によって、サラウンド音響再生が実現される。
請求項2記載の仮想空間音響再生プログラムは、請求項1に記載の仮想空間音響再生プログラムにおいて、前記仮想空間映像情報をファイルとして記述したVRMLファイルと、前記仮想空間音響情報をファイルとして記述したフィルタファイルと、前記仮想音源の直接音をファイル化した音響ファイルとの相互関係をHTMLファイルによって、前記仮想空間の映像および音響を記述したことを特徴とする。
かかる構成によれば、仮想空間音響再生プログラムは、仮想空間映像情報をVRMLファイル、仮想空間音響情報をフィルタファイルとして記述しており、仮想音源の直接音をファイル化した音響ファイルとし、これらファイルの相互関係をHTMLファイルによって記述している。つまり、この仮想空間音響再生プログラムは、サラウンド音響再生に要求される各ファイルおよび当該ファイルに含まれている種々のパラメータ引数の一切を統一的に記述できるように設計されている。
請求項3記載の仮想空間音響再生装置は、仮想空間の映像を描画するための仮想空間映像情報と、当該仮想空間内の音源となる仮想音源の直接音である音響信号と、当該仮想空間内の音響特性および当該仮想音源に関する仮想空間音響情報とを受信し、前記仮想空間の映像と、前記直接音および前記仮想空間音響情報を処理して得られる仮想音源の間接音と、前記直接音とを関連付けて、表示装置とスピーカとに出力する仮想空間音響再生装置であって、仮想空間映像情報処理手段と、仮想空間音響情報処理手段と、混合出力手段と、を備える構成とした。
かかる構成によれば、仮想空間音響再生装置は、ネットワークに接続して、仮想空間映像情報、音響信号および仮想空間音響情報を取得すると共に、仮想空間映像情報処理手段によって、当該仮想空間映像情報に基づいて、仮想空間の映像を描画して表示装置に出力する。続いて、仮想空間音響再生装置は、仮想空間音響情報処理手段によって、直接音および仮想空間音響情報を処理して、仮想音源の移動と、当該装置のユーザの操作により仮想空間内の仮想の聴取点である仮想聴取点の移動との少なくとも一方に基づいて、間接音を算出する。そして、仮想空間音響再生装置は、混合出力手段によって、音響信号から得られる直接音を、仮想音源の位置と、仮想聴取点の位置と、スピーカの位置および聴取位置に基づいて予め算出した係数とに基づいて振幅制御した振幅制御直接音と、仮想空間音響情報処理手段で算出した間接音とを混合してスピーカに出力する。
請求項1、3記載の発明によれば、ネットワークに接続して、仮想空間映像情報、音響信号および仮想空間音響情報を取得すると共に、当該仮想空間映像情報に基づいて、仮想空間を描画して表示装置に出力し、仮想音源の移動と、当該装置のユーザの操作により仮想空間内の仮想の聴取点である仮想聴取点の移動との少なくとも一方に基づいて、間接音を算出する。音響信号から得られる直接音を、仮想音源の位置と、仮想聴取点の位置と、スピーカの位置および聴取位置に基づいて予め算出した係数とに基づいて振幅制御した振幅制御直接音と、間接音とを混合してスピーカに出力する。このため、従来のように既存の商用機器に依存することなく、コストを抑え、設置スペースを確保する必要が無く、サラウンド音響再生を実現できる。また、この発明によれば、仮想空間音響情報の情報量如何によって、仮想空間内の音響特性を正確に表現することができ、バーチャルリアリティ空間(環境)の構築、緻密な音場再現、サラウンド音響再生を行うことができる。また、ネットワークから取得されたコンテンツ(仮想空間映像情報、音響信号および仮想空間音響情報)での記述によって、他の機器と通信制御することなく、一つの装置内で処理可能としているので、ネットワークにおける禁止事項をクリアして、ダウンロードしたソフトウェアを利用することができる。
請求項2記載の発明によれば、仮想空間映像情報をVRMLファイル、仮想空間音響情報をフィルタファイルとして記述しており、仮想音源の直接音をファイル化した音響ファイルとし、これらファイルの相互関係をHTMLファイルによって記述している。つまり、この仮想空間音響再生プログラムは、サラウンド音響再生に要求される各ファイルおよび当該ファイルに含まれている種々のパラメータ引数の一切を統一的に記述できるように設計されている。また、仮想空間音響再生プログラムで取り扱うデータがVRMLファイル、フィルタファイル、音響ファイル、HTMLファイルによって構成されており、ネットワーク上の同一のサイト(ウェブサーバ)から取得可能となる。これによって、コンテンツの制作者は、コンテンツの一元管理を行うことが容易にでき、コンテンツ制作者の管理コストの負担を軽減することができる。
次に、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。
(仮想空間音響再生装置の構成)
図1は仮想空間音響再生装置のブロック図である。この図1に示すように、仮想空間音響再生装置1は、インターネット等のネットワークからコンテンツ(仮想空間映像情報、音響信号、仮想空間音響情報)を取得して、仮想空間を描画すると共に、この仮想空間内における音(合成音)を出力するもので、仮想空間映像情報処理手段3と、仮想空間音響情報処理手段5と、混合出力手段7とを備えている。
なお、この仮想空間音響再生装置1には、当該装置1のユーザ(聴取者)の正面に配置され、CGによる仮想空間を表示する表示装置2と、ユーザ(聴取者)が操作し、操作信号(動作開始信号、動作終了信号を含む)を入力するキーボード、マウス等のユーザインターフェース4と、ユーザ(聴取者)の周囲に配置され、当該装置1で合成された合成音を出力するスピーカ6とが接続されている。
また、この仮想空間音響再生装置1は、ウェブサーバ(図示せず)上で開設されているサイトから、ネットワーク(インターネット等)を介して、コンテンツ(仮想空間映像情報、音響信号(直接音)、仮想空間音響情報)をダウンロード(取得)する。つまり、この仮想空間音響再生装置1には、パーソナルコンピュータ上でインターネットに接続するブラウザプログラム(コンテンツ取得手段[図示せず])がインストールされている。この仮想空間音響再生装置1によって取得されたコンテンツ(仮想空間映像情報、音響信号、仮想空間音響情報)は、相互関係がHTMLファイルとして記述されている。なお、このコンテンツに含まれている音響信号は、ネットワークを介さず、直接入力されてもよい。
また、この仮想空間音響再生装置1によって取得されたコンテンツ(仮想空間映像情報、音響信号、仮想空間音響情報)の内、音響信号(直接音)、仮想空間音響情報および出力制御情報は、仮想空間音響情報処理手段5に出力されると共に、音響信号(直接音)は、混合出力手段7に出力される。
仮想空間映像情報処理手段3は、仮想空間映像情報に基づいて、予め設定された聴取者の視点(仮想聴取点)で仮想空間の映像を描画し、表示装置2に出力するものである。
仮想空間映像情報は、CGによる仮想空間を描画するためのもので、VRMLによって記述されている。つまり、この仮想空間映像情報は、VRMLで記述されたVRMLファイルと言えるものである。このVRMLは、インターネット上(WWW上)で普及している三次元仮想環境(仮想空間)を記述するコンピュータ言語であり、「ノード」と呼ばれるオブジェクトを記述するためのファイル定義を提供すると共に、「フィールド」と呼ばれる属性記述を提供するオブジェクトベースのコンピュータ言語である。すなわち、仮想空間は、VRMLの「ノード」と「フィールド」とによって、シーングラフを構成することによって、コンピュータ上で平易に構築されることとなる。
また、この仮想空間映像情報に基づき仮想空間映像情報処理手段3によって描画される仮想空間は、予め、当該仮想空間内を別個の音響特性を持つ複数の小空間(音響空間)に分割することができる。但し、この音響空間の音響特性を決定する記述は、VRMLで記述している仮想空間映像情報では行っておらず、仮想空間音響情報(フィルタファイルを包含)によって行っている。
つまり、このVRMLでは、音響再生の機能として「Soundノード」が備えられているが、この「Soundノード」は仮想音源(音源として割り当てられたオブジェクト)毎の指向性、可聴領域の記述を可能としており、空間そのもの(音響空間)の音響特性の記述が文法として備えられていない。また、「Soundノード」による音響再生の機能は、オブジェクトの幾何形状による指向性および可聴領域の指定を行うのみであり、オブジェクトの物理的な特性まで再現できるものではない。それゆえ、仮想空間映像情報では、音響空間の音響特性に関する記述を行わずに、仮想空間音響情報によって行うこととしている。
さらに、この仮想空間映像情報には、ユーザインターフェース4から入力される操作信号に基づいて、仮想空間の表示方向(見え方)を変更させる表示パラメータを含んでいる。つまり、この表示パラメータの変化に伴い、仮想空間が同一の視点(仮想聴取点)で回転したり、移動したりすることとなる。すなわち、この表示パラメータが変化する度(操作信号が入力される度)に、仮想空間映像情報処理手段3は、逐次、仮想空間の再描画を行うことになる。
仮想空間音響情報処理手段5は、ダウンロード(取得)された直接音および仮想空間音響情報を処理して、仮想空間内に位置する仮想音源(音源として割り当てられたオブジェクト)からの間接音を算出するもので、フィルタファイル記憶手段5aと、フィルタファイルセット手段5bと、畳み込み処理手段5cとを備えている。この実施の形態では、仮想空間音響情報処理手段5は、モジュールの形態(信号処理モジュール)として組み込まれている。
つまり、この仮想空間音響情報処理手段5では、仮想音源(音源として割り当てられたオブジェクト)の移動と、仮想空間内の仮想の聴取点である仮想聴取点の移動(ユーザインターフェース4から入力される操作信号に基づく)との少なくとも一方に従って、表示装置2に表示されている仮想空間内が別個の音響特性を持つように分割されている小空間(音響空間)の音響特性が定義され、間接音が算出される。
仮想空間音響情報は、仮想空間を小空間に分割した音響空間および仮想音源毎の方向別インパルス応答を表すフィルタファイルで表されると共に、当該仮想空間音響情報処理手段5における処理の仕方を設定した処理設定情報とを含んでいるものである。フィルタファイルは、一つの仮想音源に対して、前、後、左、右、左前、右前、左後ろ、右後ろの8個の方向別インパルス応答を有している。つまり、フィルタファイルは、仮想空間を小空間に分割した音響空間における、音の反射、響き等を設定したものと言える。処理設定情報は、仮想音源の数を示す入力チャンネル数、出力する際のフォーマット(再生音源フォーマット)を決定するサンプリングレートおよびビットレート、フィルタ名を含むものである。
この実施の形態では、フィルタファイルと、処理設定情報とを含むものとして仮想空間音響情報を取り扱っているが、フィルタファイルと処理設定情報とを別々の情報として、取り扱ってもよい。すなわち、仮想空間音響情報をファイルとして記述したフィルタファイルとして取り扱い、処理設定情報を別途、コンテンツに含めることとして、取り扱うことは可能である。
フィルタファイル記憶手段5aは、仮想空間音響情報に含まれているフィルタファイルを記憶するものである。
フィルタファイルセット手段5bは、処理設定情報に含まれているフィルタ名と、ユーザインターフェース4から入力される操作信号とに基づいて、仮想空間を小空間に分割した音響空間および仮想音源毎にフィルタファイルを設定するものである。
畳み込み処理手段5cは、フィルタファイルセット手段5bで設定されたフィルタフィルを用いて、入力された直接音に畳み込み処理を施して、仮想音源の間接音を生成すると共に、サンプリングレートおよびビットレートによって決定された再生音源フォーマットに従って当該間接音を混合出力手段7に出力するものである。
混合出力手段7は、音響信号から得られた直接音を振幅制御した振幅制御直接音と、仮想空間音響情報処理手段5で算出された間接音とを混合した合成音を、図示を省略したサウンドボードを介して、スピーカ6に出力するもので、当該スピーカ6の配置に適合するように、当該直接音の振幅制御を行う音圧制御手段7aを備えている。この実施の形態では、混合出力手段7は、モジュールの形態(ミキサモジュール)として組み込まれている。
音圧制御手段7aは、仮想空間内の仮想音源の位置と、仮想聴取点(ユーザ(聴取者)の視点)の位置と、スピーカ6が配置された位置(スピーカ位置)およびユーザ(聴取者)の実際の聴取位置に基づいて予め算出した係数とに基づいて、直接音の振幅制御、つまり、直接音の音圧を制御して、振幅制御直接音とするものである。この係数は、例えば、ユーザ(聴取者)が表示装置2に正対した場合、ユーザ(聴取者)の聴取位置を中心点とし、ユーザ(聴取者)と表示装置2とを結ぶ直線を基本軸とし、ユーザと当該ユーザ(聴取者)の周囲に配置されたスピーカ6とを結ぶ直線を方向軸とした際に、基本軸と方向軸との角度に基づいて決定されるものである。
この仮想空間音響再生装置1によれば、ネットワークに接続して、仮想空間映像情報、音響信号および仮想空間音響情報が取得されると共に、仮想空間映像情報処理手段3によって、当該仮想空間映像情報に基づいて、仮想空間の映像が描画されて表示装置2に出力される。続いて、仮想空間音響情報処理手段5によって、直接音および仮想空間音響情報が処理されて、仮想音源の移動と、当該装置1のユーザ(聴取者)の操作により仮想空間内の仮想の聴取点である仮想聴取点の移動との少なくとも一方に基づいて、間接音が算出される。そして、混合出力手段7によって、直接音を、仮想音源の位置と、仮想聴取点の位置と、スピーカの位置および聴取位置に基づいて予め算出した係数とに基づいて、振幅制御した振幅制御直接音と、仮想空間音響情報処理手段5で算出した間接音とが混合された合成音がスピーカ6に出力される。このため、従来のように既存の商用機器に依存することなく、コストを抑え、設置スペースを確保する必要が無く、サラウンド音響再生を実現できる。また、この仮想空間音響再生装置1によれば、仮想空間音響情報の情報量如何によって、仮想空間内の音響特性を正確に表現することができ、バーチャルリアリティ空間(環境)の構築、緻密な音場再現、サラウンド音響再生を行うことができる。また、仮想空間映像情報処理手段3、仮想空間音響情報処理手段5および混合出力手段7がモジュール化されており、ネットワークから取得されたコンテンツ(仮想空間映像情報、音響信号および仮想空間音響情報)での記述によって、他の機器(図示せず)と通信制御することなく、一つの装置1内で処理可能としているので、ネットワークにおける禁止事項をクリアして、ダウンロードしたコンテンツを利用することができる。
また、この仮想空間音響再生装置1によれば、仮想空間映像情報がVRMLファイル、仮想空間音響情報がフィルタファイルとして記述されており、仮想音源の直接音がファイル化した音響ファイルとされ、これらファイルの相互関係がHTMLファイルによって(一つのコンテンツとして)記述されている。このため、仮想空間音響再生装置1のモジュール化された各手段(仮想空間映像情報処理手段3、仮想空間音響情報処理手段5および混合出力手段7)によって、各ファイル(VRMLファイル、フィルタファイル、音響ファイル、HTMLファイル)および当該ファイルに含まれている種々のパラメータ引数の一切を統一的に処理することができる。
(仮想空間音響再生装置の動作)
次に、図2に示すフローチャートを参照して、仮想空間音響再生装置1の動作について説明する(適宜、図1参照)。なお、この仮想空間音響再生装置1の動作は、仮想空間内に位置する仮想音源の移動が同一の音響空間に限られている場合について説明している。
まず、仮想空間音響再生装置1は、コンテンツ取得手段(図示せず)によって、ネットワーク上のサイトにアクセスし、コンテンツ(仮想空間映像情報、音響信号、仮想空間音響情報)をダウンロード(取得)する(S1)。続いて、仮想空間音響再生装置1は、仮想空間映像情報処理手段3によって、仮想空間の映像を描画し、表示装置2に出力すると共に、音響信号(直接音)および仮想空間音響情報を仮想空間音響情報処理手段5に、音響信号(直接音)を混合出力手段7に出力する。そして、仮想空間音響再生装置1は、仮想空間音響情報処理手段5のフィルタファイルセット手段5bによって、初期設定されているフィルタファイルをセットする(S2)。
そして、仮想空間音響再生装置1は、仮想空間音響情報処理手段5の畳み込み処理手段5cによって、直接音の畳み込み処理を行って間接音を算出し、混合出力手段7に出力する(S3)。すると、仮想空間音響再生装置1は、混合出力手段7の音圧制御手段7aによって、直接音の音圧の制御を行って、音圧が制御された振幅制御直接音と、間接音とを混合し合成音として、スピーカ6に出力する(S4)。
なお、ここで、仮想空間音響再生装置1からスピーカ6に出力される合成音は、仮想空間内で仮想音源の移動が無く、ユーザインターフェース4から操作信号が入力されなかった場合(ユーザ(聴取者)の操作による仮想聴取位置の移動がなかった場合)、つまり初期設定の合成音である。
そして、仮想空間音響再生装置1は、ユーザインターフェース4を介して入力される操作信号に基づいて、仮想空間内でのユーザ(聴取者)の位置である仮想聴取位置が移動したかどうかを判定する(S5)。仮想聴取位置が移動したと判定された場合(S5、Yes)、仮想聴取位置が、仮想空間を小空間に分割した音響空間から別の音響空間に移動したかどうかを判定する(S6)。
別の音響空間に移動したと判定された場合(S6、Yes)、仮想空間音響再生装置1は、S2に戻り、移動した音響空間に適合するフィルタファイルを、仮想空間音響情報処理手段5のフィルタファイルセット手段5bによって再セットする。また、別の音響空間に移動したと判定されなかった場合(S6、No)、仮想空間音響再生装置1は、操作信号に基づいて、仮想聴取位置の移動量を得て、混合出力手段7の音圧制御手段7aで、移動量に基づき振幅制御直接音を調整し、間接音と混合し、合成音として出力する。
また、仮想空間音響再生装置1は、S5にて、仮想聴取位置が移動したと判定されなかった場合(S5、No)、仮想空間内で仮想音源が移動したかどうかを判定し(S7)、移動したと判定された場合(S7、Yes)には、仮想音源の移動量を得て、混合出力手段7の音圧制御手段7aで、移動量に基づき振幅制御直接音を調整し、間接音と混合して出力する。その後、仮想空間音響再生装置1は、他の制御信号の有無(インターラプト等)により、終了するかが判定され(S8)、終了すると判定された場合(S8、Yes)には動作を終了し、終了すると判定されなかった場合(S8、No)にはS3に戻り処理が続行される。なお、この仮想空間音響再生装置1は、他の制御信号(インターラプト等)が検出されるまで、仮想空間の描画と、合成音の出力とを継続する。
(仮想空間の描画例)
次に、図3を参照して、仮想空間の描画例について説明する。
図3は、表示装置2に描画されている仮想空間の映像を示したものである。この図3に示すように、この表示装置2に描画されている仮想空間は直方体の空間であり、この直方体の空間内に仮想音源であるSound SourceAが描画されており、仮想聴取点は、表示装置2の正面に位置するユーザ(聴取者)の位置である。
仮想音源であるSound SourceAは、仮想空間映像情報に基づいて、表示装置2に表示されている直方体の空間内を移動停止すると共に、仮想空間音響情報に基づいて、Sound SourceAの現在位置から発する直接音と、空間の壁面で反射した間接音とを混合(合成)した合成音をスピーカ6を介して出力する。
仮想聴取点は、ユーザ(聴取者)の視点に相当するものであり、当該ユーザ(聴取者)がユーザインターフェース4を操作することによって移動する、つまり、直方体の空間の見え方が変わることとなる。
(スピーカの配置例)
次に、図4を参照して、仮想空間音響再生装置1に接続されるスピーカ6の配置例について説明する。
図4は、ユーザ(聴取者)とスピーカ6との位置関係を示した図である。この図4に示すように、ユーザ(聴取者)を中心に、2台のスピーカ6αを、ユーザ(聴取者)の左前方および右前方に配置した場合は、2チャンネルのステレオ配置例を示している。また、ユーザ(聴取者)を中心に、8台のスピーカ6βを、ユーザ(聴取者)の正面、左前方、左側方、左後方、後方、右後方、右側方、右前方に配置した場合は、8チャンネルのサラウンド配置例を示している。
この図4に示したように、スピーカ6(6α、6β)を、ユーザ(聴取者)の周囲に配置して、仮想空間音響再生装置1で混合(合成)された合成音を当該スピーカ6(6α、6β)から出力することで、様々な音場を再現することができる。
(合成音の出力制御例)
次に、図5を参照して、仮想空間音響再生装置1で合成された合成音が2台のスピーカ6(6a、6b)で出力される場合の出力制御例について説明する。図5は、仮想空間におけるユーザ(聴取者)の仮想聴取位置と、当該ユーザ(聴取者)に対する仮想音源(Sound SourceA)の相対位置(相対的な位置関係)と、当該相対位置に近接するスピーカ6(6a、6b)とを示したものである。ユーザ(聴取者)の仮想聴取位置と、当該ユーザ(聴取者)に対する仮想音源(Sound SourceA)との相対的な位置関係は、仮想空間映像情報処理手段3によって、算出される。
また、スピーカ6(6a、6b)は、実際のスピーカ6の配置において、仮想音源(Sound SourceA)に近接する2台を取り出したものである。ここで、実際にユーザが聴取する合成音の出力制御について述べると、まず、ユーザ(聴取者)と仮想音源(Sound SourceA)との距離をrとし、出力される直接音の振幅の距離減衰を、当該振幅に1/rを乗算することにより算出する。続いて、仮想音源(Sound SourceA)とスピーカ6aとのなす角度をα、スピーカ6aとスピーカ6bとのなす角度をβとし、2台のスピーカ6a、6bから出力される直接音の振幅を、それぞれcos(α/(α+β)×φ/2)、sin(α/(α+β)×φ/2)を距離減衰計算後の振幅に乗算することにより算出する。
(仮想空間音響再生装置の運用例)
次に、図6を参照して、仮想空間音響再生装置1の運用例について説明する。
図6は、仮想空間音響再生装置1の運用例(3台のClientXと1台のWeb ServerY)について説明した図である。この図6に示すように、各ClientXには、仮想空間音響再生装置1の各構成の処理をコンピュータ言語で記述した仮想空間音響再生プログラムがインストールされている。
また、Web ServerYには、VRMLファイルで記述された仮想空間映像情報と、仮想空間内で再生される音源ファイル(直接音)と、実測や音響シミュレーションにより事前に計算した仮想空間内の方向別インパルス応答であるフィルタファイル(仮想空間音響情報)とを蓄積しているDataBeseが備えられている。また、このWeb ServerYのDataBeseには、表示装置2に表示させるブラウザの外観、仮想音源のフォーマットを定める各種パラメータの記載と、使用するファイル(VRMLファイル、音源ファイルおよびフィルタファイル)に関する記載とを含むHTMLファイルが蓄積されている。
各ClientXは、一般的なインターネットブラウザを用いて、このHTMLファイルにアクセスし、このHTMLファイルに記述されている各種パラメータと、使用するファイル(VRMLファイル、音源ファイルおよびフィルタファイル)をコンテンツとして取得する。
(HTMLファイルの記述例)
次に、図7を参照して、コンテンツ(仮想空間映像情報、音響信号、仮想空間音響情報)をHTMLファイルとして記述した場合の記述例を説明する。
図7は、仮想空間音響再生プログラムのコンテンツをHTMLファイルとして記述した場合の記述例を示したものである。
この図7に示すように、仮想空間音響再生プログラムは、HTMLのOBJECTタグによって指定されるものとなり、仮想空間のVRMLファイル名(図7中、「circus.wrl」)、直接音の音源ファイル名(図7中、「PS」)、仮想空間音響情報のフィルタファイル名(図7中、「2」)は、OBJECTタグで括られるPARAMタグの引数として指定され、相互に関連付けられている。また、表示装置2に表示させるブラウザの外観、仮想音源のフォーマットを定める各種パラメータもこのOBJECTタグで括られるPARAMタグの引数として指定されている。
そして、Web ServerYは、ClientXからのアクセスに対して、HTMLファイルを配信し、このHTMLファイルを受信したClientXはのブラウザは、当該HTMLファイルを展開し、さらに、OBJECTタグ以下に指定されたファイル群をWeb ServerYにリクエスト(要求)し、リクエストしたファイル群を受信する。その後、ClientXは、ファイル群に従って、仮想空間の展開(描画)、音声(合成音)の再生を行う。なお、仮想空間音響再生プログラムがインストールされていないClientXがWeb ServerYにアクセスした際に、当該仮想空間音響再生プログラムが自動的にダウンロードされ、インストールされる。
以上、本発明の実施形態について説明したが、本発明は前記実施形態には限定されない。例えば、本実施形態では、主に仮想空間音響再生装置1を説明しているが、仮想空間音響再生装置1の各手段はモジュール化されており、仮想空間音響再生プログラムとみなすことができる。この仮想空間音響再生プログラムは、仮想空間音響再生装置1と同様の効果を得ることができる。
また、この実施の形態の説明では、仮想空間音響再生装置1に接続されるスピーカ6の配置について、2チャンネルステレオ、8チャンネルサラウンドの例を示したが、設置されるスピーカ6の台数は任意である。
さらに、この実施の形態では、仮想空間音響再生装置1は、仮想空間映像情報処理手段3(ブラウザモジュール)によって、仮想空間の映像を描画するのに、コンテンツの記述の簡便性からVRMLファイル(仮想空間映像情報)を用いているが、仮想空間の映像の描画能力と、ユーザインタフェースの機能とを一括して、または、別々のモジュールとして実装することが可能であれば、他の手段と入れ替えることは可能である。
実施形態に係る仮想空間音響再生装置のブロック図である。 図1に示した仮想空間音響再生装置の動作を説明したフローチャートである。 仮想空間の描画例を示した図である。 スピーカの配置例を説明した図である。 合成音の出力制御例を説明した図である。 仮想空間音響再生装置の運用例を説明した図である。 HTMLファイルの記述例を説明した図である。 従来のサラウンド音響再生装置の調整手段のブロック図である。 従来のバーチャルリアリティシステムのブロック図である。
符号の説明
1 仮想空間音響再生装置
2 表示装置
3 仮想空間映像情報処理手段
4 ユーザインターフェース
5 仮想空間音響情報処理手段
5a フィルタファイル記憶手段
5b フィルタファイルセット手段
5c 畳み込み処理手段
6 スピーカ
7 混合出力手段
7a 音圧制御手段

Claims (3)

  1. ネットワークより、仮想空間の映像を描画するための仮想空間映像情報と、当該仮想空間内の音源となる仮想音源の直接音である音響信号と、当該仮想空間内の音響特性および当該仮想音源に関する仮想空間音響情報とを受信し、前記仮想空間の映像と、前記直接音および前記仮想空間音響情報を処理して得られる仮想音源の間接音と、前記直接音とを関連付けて、表示装置とスピーカとに出力する装置を、
    前記仮想空間映像情報に基づいて、前記仮想空間を描画して前記表示装置に出力する仮想空間映像情報処理手段、
    前記直接音および仮想空間音響情報を処理して、前記仮想音源の移動と、前記仮想空間内の仮想の聴取点である仮想聴取点の移動との少なくとも一方に基づいて、前記間接音を算出する仮想空間音響情報処理手段、
    前記直接音を、前記仮想音源の位置と、前記仮想聴取点の位置と、前記スピーカの位置および聴取位置に基づいて予め算出した係数とに基づいて振幅制御した振幅制御直接音と、前記仮想空間音響情報処理手段で算出した間接音とを混合して前記スピーカに出力する混合出力手段、
    として機能させることを特徴とする仮想空間音響再生プログラム。
  2. 前記仮想空間映像情報をファイルとして記述したVRMLファイルと、前記仮想空間音響情報をファイルとして記述したフィルタファイルと、前記仮想音源の直接音をファイル化した音響ファイルとの相互関係をHTMLファイルによって、前記仮想空間の映像および音響を記述したことを特徴とする請求項1に記載の仮想空間音響再生プログラム。
  3. ネットワークより、仮想空間の映像を描画するための仮想空間映像情報と、当該仮想空間内の音源となる仮想音源の直接音である音響信号と、当該仮想空間内の音響特性および当該仮想音源に関する仮想空間音響情報とを受信し、前記仮想空間の映像と、前記直接音および前記仮想空間音響情報を処理して得られる仮想音源の間接音と、前記直接音とを関連付けて、表示装置とスピーカとに出力する仮想空間音響再生装置であって、
    前記仮想空間映像情報に基づいて、前記仮想空間を描画して前記表示装置に出力する仮想空間映像情報処理手段と、
    前記直接音および仮想空間音響情報を処理して、前記仮想音源の移動と、前記仮想空間内の仮想の聴取点である仮想聴取点の移動との少なくとも一方に基づいて、前記間接音を算出する仮想空間音響情報処理手段と、
    前記直接音を、前記仮想音源の位置と、前記仮想聴取点の位置と、前記スピーカの位置および聴取位置に基づいて予め算出した係数とに基づいて振幅制御した振幅制御直接音と、前記仮想空間音響情報処理手段で算出した間接音とを混合して前記スピーカに出力する混合出力手段と、
    を備えることを特徴とする仮想空間音響再生装置。
JP2003323765A 2003-09-16 2003-09-16 仮想空間音響再生プログラムおよび仮想空間音響再生装置 Pending JP2005094271A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003323765A JP2005094271A (ja) 2003-09-16 2003-09-16 仮想空間音響再生プログラムおよび仮想空間音響再生装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003323765A JP2005094271A (ja) 2003-09-16 2003-09-16 仮想空間音響再生プログラムおよび仮想空間音響再生装置

Publications (1)

Publication Number Publication Date
JP2005094271A true JP2005094271A (ja) 2005-04-07

Family

ID=34454712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003323765A Pending JP2005094271A (ja) 2003-09-16 2003-09-16 仮想空間音響再生プログラムおよび仮想空間音響再生装置

Country Status (1)

Country Link
JP (1) JP2005094271A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009272849A (ja) * 2008-05-07 2009-11-19 Alpine Electronics Inc サラウンド生成装置
JP2012168552A (ja) * 2007-02-16 2012-09-06 Electronics & Telecommunications Research Inst オブジェクト基盤オーディオサービスのための多重オブジェクトオーディオコンテンツファイルの生成、編集、および再生方法と、オーディオプリセット生成方法
WO2012161089A1 (ja) * 2011-05-26 2012-11-29 シャープ株式会社 テレビ会議装置
JP2014093707A (ja) * 2012-11-06 2014-05-19 Nippon Telegr & Teleph Corp <Ntt> 再生信号生成方法、収音再生方法、再生信号生成装置、収音再生システム及びそのプログラム
JP2014112912A (ja) * 2008-04-21 2014-06-19 Snap Networks Inc スピーカー用電気システムとその制御装置
JP2014520491A (ja) * 2011-07-01 2014-08-21 ドルビー ラボラトリーズ ライセンシング コーポレイション 向上した3dオーディオ作成および表現のためのシステムおよびツール
US9036842B2 (en) 2008-11-11 2015-05-19 Samsung Electronics Co., Ltd. Positioning and reproducing screen sound source with high resolution
JP2020156108A (ja) * 2014-01-16 2020-09-24 ソニー株式会社 音声処理装置および方法、並びにプログラム
WO2024085444A1 (ko) * 2022-10-18 2024-04-25 삼성전자 주식회사 콘텐트를 제공하는 방법 및 디스플레이 장치
WO2024095394A1 (ja) * 2022-11-02 2024-05-10 日本電信電話株式会社 音響情報生成装置、方法およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000322069A (ja) * 1999-05-14 2000-11-24 Nippon Hoso Kyokai <Nhk> 音場空間情報送受信方法、音場空間情報送信装置および音場再現装置
JP2001521191A (ja) * 1997-10-20 2001-11-06 ノキア オーワイジェイ 仮想音響環境を処理する方法とシステム
JP2002508609A (ja) * 1998-03-23 2002-03-19 ノキア モービル フォーンズ リミテッド 仮想音響環境において指向性音響を処理する方法およびシステム
JP2002209300A (ja) * 2001-01-09 2002-07-26 Matsushita Electric Ind Co Ltd 音像定位装置、並びに音像定位装置を用いた会議装置、携帯電話機、音声再生装置、音声記録装置、情報端末装置、ゲーム機、通信および放送システム
JP2003009296A (ja) * 2001-06-22 2003-01-10 Matsushita Electric Ind Co Ltd 音響処理装置および音響処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001521191A (ja) * 1997-10-20 2001-11-06 ノキア オーワイジェイ 仮想音響環境を処理する方法とシステム
JP2002508609A (ja) * 1998-03-23 2002-03-19 ノキア モービル フォーンズ リミテッド 仮想音響環境において指向性音響を処理する方法およびシステム
JP2000322069A (ja) * 1999-05-14 2000-11-24 Nippon Hoso Kyokai <Nhk> 音場空間情報送受信方法、音場空間情報送信装置および音場再現装置
JP2002209300A (ja) * 2001-01-09 2002-07-26 Matsushita Electric Ind Co Ltd 音像定位装置、並びに音像定位装置を用いた会議装置、携帯電話機、音声再生装置、音声記録装置、情報端末装置、ゲーム機、通信および放送システム
JP2003009296A (ja) * 2001-06-22 2003-01-10 Matsushita Electric Ind Co Ltd 音響処理装置および音響処理方法

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168552A (ja) * 2007-02-16 2012-09-06 Electronics & Telecommunications Research Inst オブジェクト基盤オーディオサービスのための多重オブジェクトオーディオコンテンツファイルの生成、編集、および再生方法と、オーディオプリセット生成方法
JP2014112912A (ja) * 2008-04-21 2014-06-19 Snap Networks Inc スピーカー用電気システムとその制御装置
US8611545B2 (en) 2008-05-07 2013-12-17 Alpine Electronics, Inc. Surround generation apparatus
JP2009272849A (ja) * 2008-05-07 2009-11-19 Alpine Electronics Inc サラウンド生成装置
US9036842B2 (en) 2008-11-11 2015-05-19 Samsung Electronics Co., Ltd. Positioning and reproducing screen sound source with high resolution
WO2012161089A1 (ja) * 2011-05-26 2012-11-29 シャープ株式会社 テレビ会議装置
US9838826B2 (en) 2011-07-01 2017-12-05 Dolby Laboratories Licensing Corporation System and tools for enhanced 3D audio authoring and rendering
JP2014520491A (ja) * 2011-07-01 2014-08-21 ドルビー ラボラトリーズ ライセンシング コーポレイション 向上した3dオーディオ作成および表現のためのシステムおよびツール
US9204236B2 (en) 2011-07-01 2015-12-01 Dolby Laboratories Licensing Corporation System and tools for enhanced 3D audio authoring and rendering
US9549275B2 (en) 2011-07-01 2017-01-17 Dolby Laboratories Licensing Corporation System and tools for enhanced 3D audio authoring and rendering
US10244343B2 (en) 2011-07-01 2019-03-26 Dolby Laboratories Licensing Corporation System and tools for enhanced 3D audio authoring and rendering
US10609506B2 (en) 2011-07-01 2020-03-31 Dolby Laboratories Licensing Corporation System and tools for enhanced 3D audio authoring and rendering
US11641562B2 (en) 2011-07-01 2023-05-02 Dolby Laboratories Licensing Corporation System and tools for enhanced 3D audio authoring and rendering
US11057731B2 (en) 2011-07-01 2021-07-06 Dolby Laboratories Licensing Corporation System and tools for enhanced 3D audio authoring and rendering
JP2014093707A (ja) * 2012-11-06 2014-05-19 Nippon Telegr & Teleph Corp <Ntt> 再生信号生成方法、収音再生方法、再生信号生成装置、収音再生システム及びそのプログラム
US11223921B2 (en) 2014-01-16 2022-01-11 Sony Corporation Audio processing device and method therefor
JP7010334B2 (ja) 2014-01-16 2022-01-26 ソニーグループ株式会社 音声処理装置および方法、並びにプログラム
JP2022036231A (ja) * 2014-01-16 2022-03-04 ソニーグループ株式会社 音声処理装置および方法、並びにプログラム
JP2020156108A (ja) * 2014-01-16 2020-09-24 ソニー株式会社 音声処理装置および方法、並びにプログラム
US11778406B2 (en) 2014-01-16 2023-10-03 Sony Group Corporation Audio processing device and method therefor
JP7367785B2 (ja) 2014-01-16 2023-10-24 ソニーグループ株式会社 音声処理装置および方法、並びにプログラム
WO2024085444A1 (ko) * 2022-10-18 2024-04-25 삼성전자 주식회사 콘텐트를 제공하는 방법 및 디스플레이 장치
WO2024095394A1 (ja) * 2022-11-02 2024-05-10 日本電信電話株式会社 音響情報生成装置、方法およびプログラム

Similar Documents

Publication Publication Date Title
Ahrens et al. The soundscape renderer: A unified spatial audio reproduction framework for arbitrary rendering methods
US20150264502A1 (en) Audio Signal Processing Device, Position Information Acquisition Device, and Audio Signal Processing System
US10924875B2 (en) Augmented reality platform for navigable, immersive audio experience
CN107087242A (zh) 分布式无线扬声器系统
JP2000069600A (ja) 音楽的臨場感形成装置の制御装置及び制御方法
JP2001521191A (ja) 仮想音響環境を処理する方法とシステム
JP2007274061A (ja) 音像定位装置およびavシステム
JP4780057B2 (ja) 音場形成装置
JP6111611B2 (ja) オーディオアンプ
JP2005094271A (ja) 仮想空間音響再生プログラムおよび仮想空間音響再生装置
JP2022083445A (ja) ユーザカスタム型臨場感を実現するためのオーディオコンテンツを製作するコンピュータシステムおよびその方法
KR20220071869A (ko) 사용자 맞춤형 현장감 실현을 위한 오디오 콘텐츠를 제작하는 컴퓨터 시스템 및 그의 방법
AU2022256751A1 (en) Rendering of occluded audio elements
JP2004212797A (ja) データ処理装置、データ処理方法およびプログラム
JP2956125B2 (ja) 音源情報制御装置
CA3044260A1 (en) Augmented reality platform for navigable, immersive audio experience
JP2006270425A (ja) 音声出力方法、音声出力プログラム、及び情報処理装置
JP6651231B2 (ja) 携帯情報端末、情報処理装置、及びプログラム
CN115103293B (zh) 一种面向目标的声重放方法及装置
Schmitz et al. SAFIR: Low-cost spatial sound for instrumented environments
KR20190081163A (ko) 입체 음향 컨텐츠 저작 툴을 이용한 선택적 광고 제공 방법 및 이를 위한 어플리케이션
WO2022113393A1 (ja) ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法
KR20190079993A (ko) 입체 음향 컨텐츠 저작 방법 및 이를 위한 어플리케이션
WO2022209317A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
Comunità et al. PlugSonic: a web-and mobile-based platform for dynamic and navigable binaural audio

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080805

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080905

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20081016

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090123