JP7267096B2 - オーディオエフェクト制御システム、オーディオエフェクト制御装置、受信装置、オーディオエフェクト制御方法、受信装置の制御方法及びプログラム - Google Patents

オーディオエフェクト制御システム、オーディオエフェクト制御装置、受信装置、オーディオエフェクト制御方法、受信装置の制御方法及びプログラム Download PDF

Info

Publication number
JP7267096B2
JP7267096B2 JP2019093820A JP2019093820A JP7267096B2 JP 7267096 B2 JP7267096 B2 JP 7267096B2 JP 2019093820 A JP2019093820 A JP 2019093820A JP 2019093820 A JP2019093820 A JP 2019093820A JP 7267096 B2 JP7267096 B2 JP 7267096B2
Authority
JP
Japan
Prior art keywords
audio
effect
effect data
receiving device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019093820A
Other languages
English (en)
Other versions
JP2020188435A (ja
Inventor
貴志 島津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2019093820A priority Critical patent/JP7267096B2/ja
Priority to US16/867,900 priority patent/US20200367007A1/en
Publication of JP2020188435A publication Critical patent/JP2020188435A/ja
Application granted granted Critical
Publication of JP7267096B2 publication Critical patent/JP7267096B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Description

本発明は、オーディオエフェクト制御装置、オーディオエフェクト制御システム、オーディオエフェクト制御方法及びプログラムに関する。
仮想空間内における位置や向きを、ユーザの動作に応じて変化させることが可能なゲームシステム等のシステムが存在する。このシステムでは、ユーザは設定された位置や向きにおける仮想空間内の様子を視覚や聴覚を通して体感できる。例えば、音響レンダリング技術等を用いることで、仮想空間で発生する音声に設定された位置や向きに応じたオーディオエフェクトをかけることでリアルな音場がユーザに提供される。
しかし上記システムでは、ユーザやその周りにいる人の声、周辺の物音などといった、上記システム外で発生する実空間の音声については、仮想空間で発生する音声と同様のオーディオエフェクトがかからなかった。そのため、ユーザの仮想空間への没入感が阻害されていた。
本発明は上記実情に鑑みてなされたものであって、その目的の一つは、ユーザの仮想空間への没入感を高めることができるオーディオエフェクト制御装置、オーディオエフェクト制御システム、オーディオエフェクト制御方法及びプログラムを提供することにある。
本発明に係るオーディオエフェクト制御装置は、仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて、オーディオエフェクトを特定するエフェクト特定部と、実空間の音声を取得する音声取得部と、前記実空間の音声に前記オーディオエフェクトをかけた音声を出力する音声出力部と、を含む。
本発明の一態様では、前記音声出力部は、前記仮想空間での音声と、前記実空間の音声に前記オーディオエフェクトをかけた音声と、を合成した音声を出力する。
また、本発明の一態様では、マイク及びスピーカを備えた密閉型ヘッドホンをさらに含み、前記マイクは、前記密閉型ヘッドホンの外側に設けられており、前記スピーカは、前記密閉型ヘッドホンの内側に設けられており、前記音声取得部は、前記マイクに入力される音声を取得し、前記音声出力部は、前記実空間の音声に前記オーディオエフェクトをかけた音声を前記スピーカから出力させる。
また、本発明に係るオーディオエフェクト制御システムは、送信装置と、受信装置と、を含み、前記送信装置は、仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて、オーディオエフェクトを特定するエフェクト特定部と、前記オーディオエフェクトを示すエフェクトデータを生成するエフェクトデータ生成部と、前記エフェクトデータを送信する送信部と、を含み、前記受信装置は、前記エフェクトデータを受信する受信部と、実空間の音声を取得する音声取得部と、前記実空間の音声に前記エフェクトデータが示すオーディオエフェクトをかけた音声を出力する音声出力部と、を含む。
本発明の一態様では、前記送信部は、前記受信装置の向きに対応付けられている前記エフェクトデータを送信し、前記音声出力部は、前記エフェクトデータに基づいて、前記実空間の音声に前記受信装置の向きに応じたオーディオエフェクトをかけた音声を出力する。
また、本発明の一態様では、前記送信部は、前記仮想空間での音声を表す仮想空間音声データをさらに送信し、前記音声出力部は、前記仮想空間音声データが表す仮想空間の音声と、前記実空間の音声に前記オーディオエフェクトをかけた音声と、を合成した音声を出力する。
また、本発明の一態様では、前記受信装置は、マイク及びスピーカを備えた密閉型ヘッドホンをさらに含み、前記マイクは、前記密閉型ヘッドホンの外側に設けられており、前記スピーカは、前記密閉型ヘッドホンの内側に設けられており、前記音声取得部は、前記マイクに入力される音声を取得し、前記音声出力部は、前記実空間の音声に前記オーディオエフェクトをかけた音声を前記スピーカから出力させる。
また、本発明に係る別のオーディオエフェクト制御装置は、仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて、オーディオエフェクトを特定するエフェクト特定部と、前記オーディオエフェクトを示すエフェクトデータを生成するエフェクトデータ生成部と、前記エフェクトデータを、入力される実空間の音声に当該エフェクトデータが示すオーディオエフェクトをかける装置に送信する送信部と、を含む。
また、本発明に係るオーディオエフェクト制御方法は、仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて、オーディオエフェクトを特定するステップと、実空間の音声を取得するステップと、前記実空間の音声に前記オーディオエフェクトをかけた音声を出力するステップと、を含む。
また、本発明に係る別のオーディオエフェクト制御方法は、仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて、オーディオエフェクトを特定するステップと、前記オーディオエフェクトを示すエフェクトデータを生成するステップと、前記エフェクトデータを、入力される実空間の音声に当該エフェクトデータが示すオーディオエフェクトをかける装置に送信するステップと、を含む。
また、本発明に係るプログラムは、仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて、オーディオエフェクトを特定する手順、実空間の音声を取得する手順、前記実空間の音声に前記オーディオエフェクトをかけた音声を出力する手順、をコンピュータに実行させる。
また、本発明に係る別のプログラムは、仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて、オーディオエフェクトを特定する手順、前記オーディオエフェクトを示すエフェクトデータを生成する手順、前記エフェクトデータを、入力される実空間の音声に当該エフェクトデータが示すオーディオエフェクトをかける装置に送信する手順、をコンピュータに実行させる。
本発明の一実施形態に係るエンタテインメントシステムの構成の一例を示す図である。 本発明の一実施形態に係るエンタテインメントシステムで実装される機能の一例を示す機能ブロック図である。 仮想空間の環境に応じたオーディオエフェクトの特定、及び、仮想空間音声データの生成の一例を模式的に示す図である。 本発明の一実施形態に係るエンタテインメント装置で実行される処理の一例を示すフロー図である。 本発明の一実施形態に係るヘッドマウントディスプレイで実行される処理の一例を示すフロー図である。
以下、本発明の一実施形態について、図面を参照しながら説明する。
図1は、本発明の一実施形態に係るエンタテインメントシステム1の構成の一例を示す図である。
図1に示すように、本実施形態に係るエンタテインメントシステム1は、エンタテインメント装置10と、ヘッドマウントディスプレイ(HMD)12と、を含んでいる。
本実施形態に係るエンタテインメント装置10は、例えばゲームコンソール、DVDプレイヤ、Blu-ray(登録商標)プレイヤなどといったコンピュータである。本実施形態に係るエンタテインメント装置10は、例えば記憶されている、あるいは、光ディスクに記録された、ゲームプログラムの実行やコンテンツの再生などによって映像や音声を生成する。そして本実施形態に係るエンタテインメント装置10は、送信装置として、生成される映像を表す映像信号や生成される音声を表す音声信号を受信装置としてのHMD12に出力する。
図1に示すように、本実施形態に係るエンタテインメント装置10には、プロセッサ20、記憶部22、通信部24、が含まれる。
プロセッサ20は、例えばエンタテインメント装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。本実施形態に係るプロセッサ20には、CPUから供給されるグラフィックスコマンドやデータに基づいてフレームバッファに画像を描画するGPU(Graphics Processing Unit)も含まれている。
記憶部22は、例えばROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部22には、プロセッサ20によって実行されるプログラムなどが記憶される。また、本実施形態に係る記憶部22には、GPUにより画像が描画されるフレームバッファの領域が確保されている。
通信部24は、例えばHMD12などといったコンピュータとの間でデータを授受するための通信インタフェースである。
また、図1に示すように、本実施形態に係るHMD12には、プロセッサ30、記憶部32、通信部34、マイク36、スピーカ38、センサ部40、表示部42、が含まれる。
プロセッサ30は、例えばHMD12にインストールされるプログラムに従って動作するCPU(Central Processing Unit)等のプログラム制御デバイスである。また、本実施形態に係るプロセッサ30には、音声信号を処理するDSP(digital signal processor)が含まれている。
記憶部32は、例えばROMやRAM等の記憶素子などである。記憶部32には、プロセッサ30によって実行されるプログラムなどが記憶される。
通信部34は、例えばエンタテインメント装置10などといったコンピュータとの間でデータを授受するための通信インタフェースである。
マイク36は、例えばユーザやその周りにいる人の声、周辺の物音、などといった実空間の音声が入力される音声入力デバイスである。またマイク36に、外部の音声を拾う外部マイクと、スピーカ38がユーザの耳に出力する音声を拾う内部マイクと、が含まれていてもよい。
スピーカ38は、例えばHMD12を装着しているユーザの耳に音声を出力する音声出力デバイスである。
センサ部40は、例えば加速度センサやモーションセンサなどのセンサである。センサ部40は、HMD12の姿勢、回転量、移動量などの計測結果を所定のサンプリングレートで、プロセッサ30に出力してもよい。
表示部42は、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイであり、エンタテインメント装置10が生成する映像などを表示させる。表示部42は、HMD12をユーザが装着した際に当該ユーザの眼前に配置される。表示部42は、例えばエンタテインメント装置10が出力する映像信号を受信して、当該映像信号が表す映像を出力するようにしてもよい。本実施形態に係る表示部42は、例えば左目用の画像と右目用の画像を表示することによって三次元画像を表示させることができるようになっている。なお表示部42は三次元画像の表示ができず二次元画像の表示のみができるものであっても構わない。
本実施形態では例えば、エンタテインメント装置10において、仮想空間内における位置や向き(例えば視点の位置や向き)を変化させることが可能なゲームプログラム等のプログラムが実行される。ユーザは設定された位置や向きにおける仮想空間内の様子を視覚や聴覚を通して体感できる。
例えば、仮想空間内に配置されている視点から当該仮想空間を見た様子を表す動画像が生成される。ここでは例えば、所定のフレームレートでフレーム画像が生成される。
視点の位置や向きは、例えばコントローラの操作やHMD12の位置及び向きの変化等のユーザの動作に応じて変化する。また、視点の位置や向きが、ゲームにおいて発生するイベントなどといったゲームのプレイ状況に応じて変化してもよい。仮想空間内の視点の位置や向きの変化に応じてHMD12の表示部42に表示されるコンテンツは変化する。視点の位置や向きの更新、フレーム画像の生成、及び、フレーム画像の表示を含む、ゲームのプレイ状況に応じた処理が、上述の所定のフレームレートで実行されてもよい。
そして本実施形態では、当該仮想空間の環境に連動した、リバーブ、エコー、ディレイなどといったオーディオエフェクトを、マイク36に入力される実空間の音声にかけることができる。そのため本実施形態によれば、ユーザの仮想空間への没入感を高めることができる。
以下、特に仮想空間の環境と実空間の音声との連動に関する、本実施形態に係るエンタテインメントシステム1で実装される機能、及び、本実施形態に係るエンタテインメントシステム1で実行される処理について、さらに説明する。
図2は、本実施形態に係るエンタテインメントシステム1で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るエンタテインメントシステム1で、図2に示す機能のすべてが実装される必要はなく、また、図2に示す機能以外の機能が実装されていても構わない。
図2に示すように、本実施形態に係るエンタテインメント装置10には、機能的には例えば、エフェクト特定部50、VR音声データ生成部52、画像生成部54、VRデータ生成部56、送信部58、が含まれる。エフェクト特定部50、VR音声データ生成部52、画像生成部54、VRデータ生成部56は、プロセッサ20を主として実装される。送信部58は、通信部24を主として実装される。
以上の機能は、コンピュータであるエンタテインメント装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ20で実行することにより実装されていてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してエンタテインメント装置10に供給される。
また、図2に示すように、本実施形態に係るHMD12には、機能的には例えば、受信部60、エフェクトデータ記憶部62、入力音声取得部64、音声データ記憶部66、合成音声データ生成部68、音声出力部70、表示制御部72、が含まれる。受信部60は、通信部34を主として実装される。エフェクトデータ記憶部62、音声データ記憶部66は、記憶部32を主として実装される。入力音声取得部64は、プロセッサ30及びマイク36を主として実装される。合成音声データ生成部68は、プロセッサ30を主として実装される。音声出力部70は、プロセッサ30及びスピーカ38を主として実装される。表示制御部72は、プロセッサ30及び表示部42を主として実装される。
以上の機能は、コンピュータであるHMD12にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ30で実行することにより実装されていてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してHMD12に供給される。
エフェクト特定部50は、本実施形態では例えば、仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて、オーディオエフェクトを特定する。
VR音声データ生成部52は、本実施形態では例えば、仮想空間での音声を表す仮想空間音声データを生成する。
図3は、オーディオエフェクトの特定、及び、仮想空間音声データの生成の一例を模式的に示す図である。
図3には、仮想空間80、キャラクタ82、キャラクタ仮想スピーカ84、及び、環境仮想スピーカ86(86a、86b、及び、86c)が示されている。
本実施形態では例えば、ユーザの動作に応じて仮想空間80内におけるキャラクタ82の位置又は向きが変化する。キャラクタ82の位置は、ユーザの動作に応じて変更可能な聴取位置に対応し、キャラクタ82の向きは、ユーザの動作に応じて変更可能な聴取方向に対応する。そして、エフェクト特定部50が、キャラクタ82の位置に配置されたキャラクタ仮想スピーカ84が出力した音声がキャラクタ82に到達する際にかかるオーディオエフェクトを特定する。ここでは例えば、音響レンダリング技術を用いて、壁や天井などの仮想オブジェクトやキャラクタ82の配置などといった仮想空間80の環境に基づいてオーディオエフェクトが特定される。
ここでエフェクト特定部50が、例えば、オーディオエフェクトのパラメータの値を示すエフェクトデータを生成してもよい。例えばリバーブに関し、残響時間、プレディレイ、初期反射音、密度、高域減衰などのパラメータの値を示すエフェクトデータが生成されてもよい。
また例えば、エフェクト特定部50が、キャラクタ仮想スピーカ84が出力した音声がキャラクタ82の左耳の位置に到達する際にかかるオーディオエフェクトを特定し、このオーディオエフェクトを示す左エフェクトデータを生成してもよい。また、エフェクト特定部50が、キャラクタ仮想スピーカ84が出力した音声がキャラクタ82の右耳の位置に到達する際にかかるオーディオエフェクトを特定し、このオーディオエフェクトを示す右エフェクトデータを生成してもよい。ここで、キャラクタ仮想スピーカ84は、キャラクタ82の口の位置に配置されていてもよい。
エフェクト特定部50によるオーディオエフェクトの特定は、以上のようにして行われる必要はない。例えば、エフェクト特定部50は、プリセットのオーディオエフェクトのうちからキャラクタ82がいる仮想空間80に対応するものを選択してもよい。
例えばエフェクト特定部50が、仮想空間80の環境属性とプリセットのオーディオエフェクトのパラメータの値とが対応付けられたデータを記憶していてもよい。そして、エフェクト特定部50は、キャラクタ82がいる仮想空間80の環境属性に対応付けられているパラメータの値を示すエフェクトデータを生成してもよい。
ここで仮想空間80の環境属性は、仮想空間80のモード(例えば、シアター、洞窟、部屋、ホール、オープンエア、等)を示すものであってもよい。また仮想空間80の環境属性は、仮想空間80の広さ(例えば、広い、中程度、狭い、等)や、仮想空間80の天井の高さ(例えば、高い、中程度、低い、等)を示すものであってもよい。
また、本実施形態では例えば、環境仮想スピーカ86が、仮想空間80での音声を仮想的に出力する。そして、VR音声データ生成部52が、例えば、環境仮想スピーカ86a~86cのそれぞれについて、当該環境仮想スピーカ86が出力する仮想的な音声がキャラクタ82に到達する際の音声を表す仮想空間音声データを生成する。そしてVR音声データ生成部52は、これらの音声を合成した音声を表す仮想空間音声データを生成する。
仮想空間音声データが表す音声は、例えば音響レンダリング技術を用いて特定される、壁や天井などの仮想オブジェクト、キャラクタ82、環境仮想スピーカ86の配置などといった仮想空間80の環境に応じたオーディオエフェクトがかけられた音声である。
ここで例えば、VR音声データ生成部52が、環境仮想スピーカ86が出力する仮想的な音声がキャラクタ82の左耳の位置に到達する際の音声を表す左仮想空間音声データを生成してもよい。また例えば、VR音声データ生成部52が、環境仮想スピーカ86が出力する仮想的な音声がキャラクタ82の右耳の位置に到達する際の音声を表す右仮想空間音声データを生成してもよい。
VR音声データ生成部52による仮想空間音声データの生成は、以上のようにして行われる必要はない。例えばVR音声データ生成部52が、仮想空間80の環境属性とプリセットのオーディオエフェクトのパラメータの値とが対応付けられたデータを記憶していてもよい。そして、VR音声データ生成部52は、仮想空間80で発生する音声に、キャラクタ82がいる仮想空間80の環境属性に対応付けられているオーディオエフェクトをかけた音声を表す仮想空間音声データを生成してもよい。
画像生成部54は、本実施形態では例えば、仮想空間80に配置されているキャラクタ82の視点から当該仮想空間80を見た様子を表すフレーム画像を生成する。
VRデータ生成部56は、本実施形態では例えば、エフェクトデータ、仮想空間音声データ、及び、フレーム画像を含むVRデータを生成する。ここで例えば、当該エフェクトデータには、左エフェクトデータ及び右エフェクトデータが含まれていてもよい。また、仮想空間音声データには、左仮想空間音声データ及び右仮想空間音声データが含まれていてもよい。
送信部58は、本実施形態では例えば、上述のVRデータをHMD12に送信する。
受信部60は、本実施形態では例えば、上述のVRデータをエンタテインメント装置10から受信する。
エフェクトデータ記憶部62は、本実施形態では例えば、入力される実空間の音声にかけるオーディオエフェクトを示すエフェクトデータを記憶する。ここで例えば、受信部60が、受信したVRデータに含まれるエフェクトデータをエフェクトデータ記憶部62に記憶させてもよい。またこのとき、エフェクトデータ記憶部62に記憶されているエフェクトデータを上書きしてもよい。
入力音声取得部64は、本実施形態では例えば、入力される実空間の音声を表す入力音声データを取得する。ここでは例えば、マイク36に入力される実空間の音声を表す入力音声データが取得される。
音声データ記憶部66は、本実施形態では例えば、入力音声データを記憶する。音声データ記憶部66に記憶される入力音声データは、例えば、初期反射音や残響音を生成するために用いられる。
合成音声データ生成部68は、本実施形態では例えば、入力される実空間の音声にエフェクトデータ記憶部62に記憶されているエフェクトデータが示すオーディオエフェクトをかけた音声を生成する。また合成音声データ生成部68は、本実施形態では例えば、オーディオエフェクトがかけられた実空間の音声と仮想空間音声データが表す音声とを合成し、このようにして合成された音声を表す合成音声データを生成する。
ここで例えば、合成音声データ生成部68は、実空間の音声に左エフェクトデータが示すオーディオエフェクトをかけた音声と左仮想空間音声データが表す音声とを合成した左合成音声データを生成してもよい。また、合成音声データ生成部68は、実空間の音声に右エフェクトデータが示すオーディオエフェクトをかけた音声と右仮想空間音声データが表す音声とを合成した右合成音声データを生成してもよい。
音声出力部70は、本実施形態では例えば、入力される実空間の音声にエフェクトデータ記憶部62に記憶されているエフェクトデータが示すオーディオエフェクトをかけた音声を出力する。ここで音声出力部70は、この音声と仮想空間音声データが表す仮想空間80の音声とを合成した音声を出力してもよい。例えば、音声出力部70は、合成音声データ生成部68が生成する合成音声データが表す音声を出力してもよい。本実施形態では、音声出力部70は、スピーカ38から音声を出力させる。
ここで例えば、左合成音声データが表す音声が、ユーザの左耳に音声を出力するスピーカ38から出力され、右合成音声データが表す音声が、ユーザの右耳に音声を出力するスピーカ38から出力されてもよい。
表示制御部72は、本実施形態では例えば、受信部60が受信するVRデータに含まれるフレーム画像を表示部42に表示させる。
ここで、本実施形態に係るエンタテインメント装置10において行われる処理の流れの一例を、図4に例示するフロー図を参照しながら説明する。本処理例では、図4に示すS101~S105に示す処理が所定のフレームレートで繰り返し実行される。
まず、画像生成部54が、当該フレームにおけるキャラクタ82の位置から仮想空間80を見た様子を表すフレーム画像を生成する(S101)。
そして、VR音声データ生成部52が、当該フレームにおける仮想空間80の環境に基づいて、仮想空間音声データを生成する(S102)。
そして、エフェクト特定部50が、当該フレームにおける仮想空間80の環境に基づいて、エフェクトデータを生成する(S103)。
そして、VRデータ生成部56が、S101に示す処理で生成されたフレーム画像、S102に示す処理で生成された仮想空間音声データ、及び、S103に示す処理で生成されたエフェクトデータ、を含むVRデータを生成する(S104)。
そして、送信部58が、S104に示す処理で生成されたVRデータをHMD12に送信して(S105)、S101に示す処理に戻る。
次に、本実施形態に係るHMD12において行われる処理の流れの一例を、図5に例示するフロー図を参照しながら説明する。本処理例では、図4に示すS201~S207に示す処理が所定のフレームレートで繰り返し実行される。
まず、受信部60が、S105に示す処理で送信された、当該フレームにおけるVRデータを受信する(S201)。
そして、受信部60が、S201に示す処理で受信したVRデータに含まれる当該フレームにおけるエフェクトデータをエフェクトデータ記憶部62に記憶させる(S202)。
そして、入力音声取得部64が、当該フレームにおいてマイク36から入力された音声を表す入力音声データを取得する(S203)。
そして、入力音声取得部64が、S203に示す処理で取得された入力音声データを音声データ記憶部66に記憶させる(S204)。
そして、合成音声データ生成部68が、当該フレームにおける合成音声データを生成する(S205)。ここでは例えば、S203に示す入力音声データが表す音声にS202に示す処理で記憶された当該フレームにおけるエフェクトデータが示すオーディオエフェクトをかけた音声を示す実空間音声データが生成される。このとき、音声データ記憶部66に記憶されている入力音声データが用いられてもよい。そして、この実空間音声データが表す音声とS201に示す処理で受信したVRデータに含まれる仮想空間音声データが表す音声とを合成した音声を表す合成音声データが生成される。
そして、表示制御部72が、S201に示す処理で受信されたVRデータに含まれるフレーム画像を表示部42に表示させる(S206)。
そして、音声出力部70が、S205に示す処理で生成された合成音声データが表す音声をスピーカ38から出力して(S207)、S201に示す処理に戻る。
本実施形態では、以上のようにして、仮想空間の環境に連動したオーディオエフェクトがマイク36から入力される実空間の音声にかかる。そのため、本実施形態によれば、ユーザの仮想空間への没入感を高めることができる。
また本実施形態では、マイク36から入力される実空間の音声をエンタテインメント装置10に送ることなく、当該音声に仮想空間の環境に連動したオーディオエフェクトがかかる。そのため本実施形態によれば、入力される実空間の音声に対して短時間で仮想空間の環境に連動したオーディオエフェクトをかけることができる。
本実施形態において、仮想空間の環境属性が変化した場合のみ、エンタテインメント装置10からHMD12にエフェクトデータが送信されるようにしてもよい。そしてHMD12は、エフェクトデータの受信に応じて、エフェクトデータ記憶部62に記憶されているエフェクトデータを受信したエフェクトデータに更新してもよい。
また、本実施形態において、フレーム画像の表示と音声の出力とは、同期して実行されても、非同期で実行されてもよい。
例えば、仮想空間の環境属性が変化しない場合には、エンタテインメント装置10は、エフェクトデータを含まないVRデータを送信してもよい。そして、HMD12は、受信したVRデータにエフェクトデータが含まれる場合のみ、エフェクトデータ記憶部62に記憶されているエフェクトデータを受信したエフェクトデータに更新してもよい。
このようにすることは、例えばキャラクタがいる仮想空間の環境属性の変化に追従して実空間の音声にかけるオーディオエフェクトを変更させる場合などに好適である。例えば、キャラクタがいる仮想空間がオープンエアから洞窟の中に変化したことに追従して、入力された実空間の音声にかかるオーディオエフェクトがオープンエアに対応するものから洞窟の中に対応するものに変化させる場合などに好適である。
またこのようにすることで、エンタテインメント装置10からHMD12へのデータの伝送量を低減できる。
また、例えば実空間におけるHMD12の向きと仮想空間におけるキャラクタの向きとが対応する場合などにおいて、エフェクト特定部50が、HMD12の向きに対応付けられているエフェクトデータを生成してもよい。例えば、エフェクトデータが、所定の向きとHMD12の向きとがなす角度をパラメータとして含むデータであってもよい。
あるいは、エフェクトデータが、所定の向きとHMD12の向きとがなす角度のそれぞれに対応付けられる複数の値を示すものであってもよい。
そして、合成音声データ生成部68が、受信部60が受信したVRデータに含まれるエフェクトデータと、センサ部40により計測されるHMD12の向きに基づいて、かけるべきオーディオエフェクトを特定してもよい。そして、合成音声データ生成部68が、特定されるオーディオエフェクトを実空間の音声にかけてもよい。そして、このようにしてオーディオエフェクトがかけられた音声がスピーカ38から出力されてもよい。またこの場合、センサ部40により計測されるHMD12の向きの変化に応じて、仮想空間におけるキャラクタの向きが変化してもよい。
またこの場合において、HMD12の向きの変化に連動してキャラクタの向きが変化しても仮想空間の環境属性が変化しない場合には、エンタテインメント装置10からHMD12にエフェクトデータが送信されないようにしてもよい。例えばこの場合には、エンタテインメント装置10は、エフェクトデータを含まないVRデータを送信してもよい。こうすれば、エンタテインメント装置10からHMD12へのデータの伝送量を低減できる。
また本実施形態において、HMD12がヘッドホンを備えていてもよい。そして当該ヘッドホンに、マイク36、及び、スピーカ38が搭載されていてもよい。
また本実施形態では、マイク36から入力される直接音についてもスピーカ38から出力される。なお、HMD12が備えるヘッドホンが開放型ヘッドホンであり直接音がユーザの耳に届く場合は、マイク36から入力される直接音についてはスピーカ38から出力されなくてもよい。そしてこの場合に、マイク36から入力される直接音にオーディオエフェクトをかけた音声(例えば初期反射音や残響音)のみがスピーカ38から出力されてもよい。
また例えば、HMD12が密閉型ヘッドホンを備えていてもよい。そして当該密閉型ヘッドホンの内側(耳側)にスピーカ38が設けられており、当該密閉型ヘッドホンの外側にマイク36が設けられていてもよい。
またマイク36は、HMD12を装着しているユーザの耳元に配置されていてもよい。
また例えば、合成音声データ生成部68が、マイク36から入力される実空間の音声の音声信号から仮想空間音声データが表す音声の音声信号を引いた音声信号を生成してもよい。そして、合成音声データ生成部68が、当該音声信号が表す音声にエフェクトデータ記憶部62に記憶されているエフェクトデータが示すオーディオエフェクトをかけた音声を生成してもよい。このようにすることで、マイク36から入力される実空間の音声に混じる仮想空間音声データが表す音声に対してはオーディオエフェクトがかからないようにすることができる。
なお、本発明は上述の実施形態に限定されるものではない。
例えば、エンタテインメント装置10とHMD12との役割分担は上述のものには限定されない。例えばエンタテインメント装置10の機能の一部又は全部がHMD12において実装されていてもよい。例えばHMD12が、オーディオエフェクトの特定、実空間の音声の取得、及び、実空間の音声に当該オーディオエフェクトをかけた音声の出力のすべてを実行してもよい。
また例えば、エンタテインメント装置10から仮想空間の環境属性を示すデータがHMD12に送信されてもよい。そして、HMD12が、仮想空間の環境属性を示すデータに基づいて、当該仮想空間の環境に応じたオーディオエフェクトを特定してもよい。そしてHMD12が、特定されるオーディオエフェクトを入力される実空間の音声にかけてもよい。
また、マイク36が、HMD12に搭載されている必要はない。また、マイク36が、複数のマイク(マイクアレー)を含んでいてもよい。
また、本実施形態に係るHMD12が、HMD12のそばにあるエンタテインメント装置10からエフェクトデータを受信する必要はない。例えば、HMD12が、クラウドサービスからエフェクトデータを受信してもよい。
また、入力される実空間の音声に仮想空間の環境に応じたオーディオエフェクトをかける装置が、HMD12である必要はない。
1 エンタテインメントシステム、10 エンタテインメント装置、12 ヘッドマウントディスプレイ(HMD)、20 プロセッサ、22 記憶部、24 通信部、30 プロセッサ、32 記憶部、34 通信部、36 マイク、38 スピーカ、40 センサ部、42 表示部、50 エフェクト特定部、52 VR音声データ生成部、54 画像生成部、56 VRデータ生成部、58 送信部、60 受信部、62 エフェクトデータ記憶部、64 入力音声取得部、66 音声データ記憶部、68 合成音声データ生成部、70 音声出力部、72 表示制御部、80 仮想空間、82 キャラクタ、84 キャラクタ仮想スピーカ、86,86a,86b,86c 環境仮想スピーカ。

Claims (9)

  1. 送信装置と、受信装置と、を含み、
    前記送信装置は、
    仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて、オーディオエフェクトを特定するエフェクト特定部と、
    前記オーディオエフェクトを示すエフェクトデータを生成するエフェクトデータ生成部と、
    前記エフェクトデータを送信する送信部と、を含み、
    前記受信装置は、
    前記エフェクトデータを受信する受信部と、
    実空間の音声を取得する音声取得部と、
    前記実空間の音声に前記エフェクトデータが示すオーディオエフェクトをかけた音声を出力する音声出力部と、を含み、
    前記送信部は、前記受信装置の向きに対応付けられている前記エフェクトデータを送信し、
    前記音声出力部は、前記エフェクトデータに基づいて、前記実空間の音声に前記受信装置の向きに応じたオーディオエフェクトをかけた音声を出力する、
    とを特徴とするオーディオエフェクト制御システム。
  2. 前記送信部は、前記仮想空間での音声を表す仮想空間音声データをさらに送信し、
    前記音声出力部は、前記仮想空間音声データが表す仮想空間の音声と、前記実空間の音声に前記オーディオエフェクトをかけた音声と、を合成した音声を出力する、
    ことを特徴とする請求項に記載のオーディオエフェクト制御システム。
  3. 前記受信装置は、マイク及びスピーカを備えた密閉型ヘッドホンをさらに含み、
    前記マイクは、前記密閉型ヘッドホンの外側に設けられており、
    前記スピーカは、前記密閉型ヘッドホンの内側に設けられており、
    前記音声取得部は、前記マイクに入力される音声を取得し、
    前記音声出力部は、前記実空間の音声に前記オーディオエフェクトをかけた音声を前記スピーカから出力させる、
    ことを特徴とする請求項1又は2に記載のオーディオエフェクト制御システム。
  4. 仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて、オーディオエフェクトを特定するエフェクト特定部と、
    前記オーディオエフェクトを示すエフェクトデータを生成するエフェクトデータ生成部と、
    前記エフェクトデータを、入力される実空間の音声に当該エフェクトデータが示すオーディオエフェクトをかける受信装置に送信する送信部と、を含み、
    前記送信部は、前記実空間の音声に前記受信装置の向きに応じたオーディオエフェクトをかけた音声を出力する前記受信装置に、当該受信装置の向きに対応付けられている前記エフェクトデータを送信する、
    とを特徴とするオーディオエフェクト制御装置。
  5. 仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて特定される、オーディオエフェクトを示すエフェクトデータを受信する受信部と、
    実空間の音声を取得する音声取得部と、
    前記実空間の音声に前記エフェクトデータが示すオーディオエフェクトをかけた音声を出力する音声出力部と、を含む受信装置であって、
    前記受信部は、前記受信装置の向きに対応付けられている前記エフェクトデータを受信し、
    前記音声出力部は、前記エフェクトデータに基づいて、前記実空間の音声に前記受信装置の向きに応じたオーディオエフェクトをかけた音声を出力する、
    ことを特徴とする受信装置。
  6. 仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて、オーディオエフェクトを特定するエフェクト特定ステップと、
    前記オーディオエフェクトを示すエフェクトデータを生成するエフェクトデータ生成ステップと、
    前記エフェクトデータを、入力される実空間の音声に当該エフェクトデータが示すオーディオエフェクトをかける受信装置に送信する送信ステップと、を含み、
    前記送信ステップでは、前記実空間の音声に前記受信装置の向きに応じたオーディオエフェクトをかけた音声を出力する前記受信装置に、当該受信装置の向きに対応付けられている前記エフェクトデータが送信される、
    とを特徴とするオーディオエフェクト制御方法。
  7. 仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて特定される、オーディオエフェクトを示すエフェクトデータを受信する受信ステップと、
    実空間の音声を取得する音声取得ステップと、
    前記実空間の音声に前記エフェクトデータが示すオーディオエフェクトをかけた音声を出力する音声出力ステップと、を含む受信装置の制御方法であって、
    前記受信ステップでは、前記受信装置の向きに対応付けられている前記エフェクトデータが受信され、
    前記音声出力ステップでは、前記エフェクトデータに基づいて、前記実空間の音声に前記受信装置の向きに応じたオーディオエフェクトをかけた音声が出力される、
    ことを特徴とする受信装置の制御方法。
  8. 仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて、オーディオエフェクトを特定するエフェクト特定手順、
    前記オーディオエフェクトを示すエフェクトデータを生成するエフェクトデータ生成手順、
    前記エフェクトデータを、入力される実空間の音声に当該エフェクトデータが示すオーディオエフェクトをかける受信装置に送信する送信手順、をコンピュータに実行させ、
    前記送信手順では、前記実空間の音声に前記受信装置の向きに応じたオーディオエフェクトをかけた音声を出力する前記受信装置に、当該受信装置の向きに対応付けられている前記エフェクトデータが送信される、
    とを特徴とするプログラム。
  9. 仮想空間内における、ユーザの動作に応じて変更可能な聴取位置又は聴取方向に基づいて特定される、オーディオエフェクトを示すエフェクトデータを受信する受信手順、
    実空間の音声を取得する音声手順、
    前記実空間の音声に前記エフェクトデータが示すオーディオエフェクトをかけた音声を出力する音声出力手順、をコンピュータに実行させ、
    前記受信手順では、前記コンピュータの向きに対応付けられている前記エフェクトデータが受信され、
    前記音声出力手順では、前記エフェクトデータに基づいて、前記実空間の音声に前記コンピュータの向きに応じたオーディオエフェクトをかけた音声が出力される、
    ことを特徴とするプログラム。
JP2019093820A 2019-05-17 2019-05-17 オーディオエフェクト制御システム、オーディオエフェクト制御装置、受信装置、オーディオエフェクト制御方法、受信装置の制御方法及びプログラム Active JP7267096B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019093820A JP7267096B2 (ja) 2019-05-17 2019-05-17 オーディオエフェクト制御システム、オーディオエフェクト制御装置、受信装置、オーディオエフェクト制御方法、受信装置の制御方法及びプログラム
US16/867,900 US20200367007A1 (en) 2019-05-17 2020-05-06 Audio effect control apparatus, audio effect control system, audio effect control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019093820A JP7267096B2 (ja) 2019-05-17 2019-05-17 オーディオエフェクト制御システム、オーディオエフェクト制御装置、受信装置、オーディオエフェクト制御方法、受信装置の制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020188435A JP2020188435A (ja) 2020-11-19
JP7267096B2 true JP7267096B2 (ja) 2023-05-01

Family

ID=73222219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019093820A Active JP7267096B2 (ja) 2019-05-17 2019-05-17 オーディオエフェクト制御システム、オーディオエフェクト制御装置、受信装置、オーディオエフェクト制御方法、受信装置の制御方法及びプログラム

Country Status (2)

Country Link
US (1) US20200367007A1 (ja)
JP (1) JP7267096B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023214515A1 (ja) * 2022-05-02 2023-11-09 ソニーグループ株式会社 音響生成制御方法、音響制作装置および音響生成制御プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017061278A1 (ja) 2015-10-09 2017-04-13 ソニー株式会社 信号処理装置、信号処理方法及びコンピュータプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017061278A1 (ja) 2015-10-09 2017-04-13 ソニー株式会社 信号処理装置、信号処理方法及びコンピュータプログラム

Also Published As

Publication number Publication date
JP2020188435A (ja) 2020-11-19
US20200367007A1 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
US11570570B2 (en) Spatial audio for interactive audio environments
US11617050B2 (en) Systems and methods for sound source virtualization
US9724608B2 (en) Computer-readable storage medium storing information processing program, information processing device, information processing system, and information processing method
JP6461850B2 (ja) シミュレーションシステム及びプログラム
JP2022538714A (ja) 人工現実環境のためのオーディオシステム
JP7267096B2 (ja) オーディオエフェクト制御システム、オーディオエフェクト制御装置、受信装置、オーディオエフェクト制御方法、受信装置の制御方法及びプログラム
WO2020189263A1 (ja) 音響処理装置、音響処理方法、および音響処理プログラム
JP6326743B2 (ja) 情報処理装置、avレシーバ、およびプログラム
JP7402185B2 (ja) 低周波数チャネル間コヒーレンス制御
WO2024084949A1 (ja) 音響信号処理方法、コンピュータプログラム、及び、音響信号処理装置
WO2024084920A1 (ja) 音響処理方法、音響処理装置、及び、プログラム
WO2024084950A1 (ja) 音響信号処理方法、コンピュータプログラム、及び、音響信号処理装置
WO2024014390A1 (ja) 音響信号処理方法、情報生成方法、コンピュータプログラム、及び、音響信号処理装置
WO2024014389A1 (ja) 音響信号処理方法、コンピュータプログラム、及び、音響信号処理装置
WO2023173285A1 (zh) 音频处理方法、装置、电子设备及计算机可读存储介质
WO2023199815A1 (ja) 音響処理方法、プログラム、及び音響処理システム
WO2023199813A1 (ja) 音響処理方法、プログラム、及び音響処理システム
JP2023132236A (ja) 情報処理装置、音響再生装置、情報処理システムおよび情報処理方法および仮想音源生成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230419

R150 Certificate of patent or registration of utility model

Ref document number: 7267096

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150