JP2024043429A - Realistic sound field reproduction device and realistic sound field reproduction method - Google Patents
Realistic sound field reproduction device and realistic sound field reproduction method Download PDFInfo
- Publication number
- JP2024043429A JP2024043429A JP2022148617A JP2022148617A JP2024043429A JP 2024043429 A JP2024043429 A JP 2024043429A JP 2022148617 A JP2022148617 A JP 2022148617A JP 2022148617 A JP2022148617 A JP 2022148617A JP 2024043429 A JP2024043429 A JP 2024043429A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- sound field
- signal
- microphone
- reproduction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 230000005236 sound signal Effects 0.000 claims abstract description 243
- 238000012545 processing Methods 0.000 claims abstract description 90
- 230000002093 peripheral effect Effects 0.000 claims abstract description 57
- 230000000694 effects Effects 0.000 claims description 27
- 239000000203 mixture Substances 0.000 claims description 3
- 238000004891 communication Methods 0.000 abstract description 58
- 230000004807 localization Effects 0.000 abstract description 46
- 238000004364 calculation method Methods 0.000 abstract description 16
- 230000035945 sensitivity Effects 0.000 abstract description 6
- 101100311249 Schizosaccharomyces pombe (strain 972 / ATCC 24843) stg1 gene Proteins 0.000 description 44
- 101150087667 spk1 gene Proteins 0.000 description 43
- 238000010586 diagram Methods 0.000 description 39
- 230000035807 sensation Effects 0.000 description 22
- 238000012986 modification Methods 0.000 description 15
- 230000004048 modification Effects 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 12
- 101100365087 Arabidopsis thaliana SCRA gene Proteins 0.000 description 8
- 101150105073 SCR1 gene Proteins 0.000 description 8
- 101100134054 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) NTG1 gene Proteins 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 102100026620 E3 ubiquitin ligase TRAF3IP2 Human genes 0.000 description 6
- 101710140859 E3 ubiquitin ligase TRAF3IP2 Proteins 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000001755 vocal effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000001902 propagating effect Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Landscapes
- Stereophonic System (AREA)
Abstract
【課題】音場収録空間内の各種の音源による音像を含む臨場感を音場再生空間内において高感度に再生する臨場感音場再生装置及び方法を提供する。【解決手段】臨場感音場再生システム100において、サテライト会場は、ライブ会場から、人物が装着する複数のヘッドセットマイクが収録する演者音信号、複数のゾーンマイクが収録するゾーン音信号及び前記人物の位置情報を取得するサテライト会場側通信部と、前記位置情報に基づいて、複数のゾーンマイク中の主周辺マイクを決定する音像定位ゾーン決定部と、ヘッドセットマイクによる発話音声信号、主周辺マイクによる第1周辺音信号及び主周辺マイク以外のゾーンマイクによる第2周辺音信号に基づいて、複数のサテライトスピーカを用いてライブ会場の音場を再現するための音場再生処理を実行する音場再生部(客席側臨場感パラメータ算出部16、ミキシング/レベルバランス調整部、音場再生処理部)と、を備える。【選択図】図1[Problem] To provide a realistic sound field reproducing device and method for reproducing with high sensitivity in a sound field reproducing space a sense of realism including sound images from various sound sources in a sound field recording space. [Solution] In a realistic sound field reproducing system 100, a satellite venue includes a satellite venue side communication unit that acquires performer sound signals recorded by multiple headset microphones worn by people, zone sound signals recorded by multiple zone microphones, and position information of the people from a live venue, a sound image localization zone determination unit that determines a main peripheral microphone among the multiple zone microphones based on the position information, and a sound field reproducing unit (audience side realistic parameter calculation unit 16, mixing/level balance adjustment unit, sound field reproducing processing unit) that executes sound field reproducing processing to reproduce the sound field of the live venue using multiple satellite speakers based on speech signals from the headset microphone, a first peripheral sound signal from the main peripheral microphone, and a second peripheral sound signal from a zone microphone other than the main peripheral microphone. [Selected Figure] Figure 1
Description
本開示は、臨場感音場再生装置及び臨場感音場再生方法に関する。 The present disclosure relates to a realistic sound field reproducing device and a realistic sound field reproducing method.
昨今、リアルタイムに音場再現(再生)を行うためにシーンベース立体音響再生技術が注目されている。シーンベース立体音響再生技術とは、複数の指向性マイク素子を剛球上又は中空球面上に配置されているアンビソニックスマイクを用いて収録(収音)した多チャンネル信号に対して信号処理を施すことにより、視聴環境(空間)を取り囲むように配置されたスピーカを用いてあたかもリスナー(聴取者)がアンビソニックスマイクの設置箇所に存在しているかのような立体的な音場をリアルタイムに再現(再生)する方式である。 Recently, scene-based 3D sound reproduction technology has been attracting attention for its ability to reproduce (play) sound fields in real time. Scene-based 3D sound reproduction technology is a method of reproducing (playing) a 3D sound field in real time using speakers arranged to surround the viewing environment (space) by performing signal processing on multi-channel signals recorded (sound pickup) using an Ambisonics microphone, which has multiple directional microphone elements arranged on a solid sphere or a hollow sphere, and using this to reproduce (play) a 3D sound field in real time as if the listener were present at the location where the Ambisonics microphone was installed.
音場再生に関する先行技術として、例えば特許文献1が知られている。特許文献1は、被写体に装着されたワイヤレスマイクの収音信号を受信し、複数のマイクロフォンにより音声を収音した各音声信号を基にしてマルチチャネル音声信号を生成する音声収録装置を開示している。この音声収録装置は、ワイヤレスマイクの収音信号をマルチチャネル音声信号の1つ以上の任意のチャネルに割り当て、それぞれ任意の合成比で合成して撮像画像信号とともに記録媒体に記録する。
As a prior art related to sound field reproduction, for example,
ここで、上述したシーンベース立体音響再生技術を用いて、例えば広範なコンサートホール等のライブ会場で収録した各種の音源(例えば舞台上の役者等の演者、効果音)による音場をライブ会場とは異なる1つ以上のサテライト会場において再現することを想定する。特許文献1には、マイクロフォンにより収音された音場の雰囲気とワイヤレスマイクにより収音された音場の雰囲気との関係が詳細に開示されておらず、上述した想定の実現に特許文献1の技術を適用することが困難であると考えられる。また、ライブ会場側の臨場感をサテライト会場において高感度に再現(再生)するためには、ライブ会場の舞台上の演者が発話した時の音声(言い換えると、音像)だけでは、サテライト会場にいる聴取者が聴取する上では音場再生の観点で不十分となる可能性があった。しかしながら、特許文献1では、上述した各種の音源を利用して高感度な臨場感を再現するための解決の道筋が提示されていなかった。
Here, it is assumed that the above-mentioned scene-based stereophonic reproduction technology is used to reproduce a sound field from various sound sources (e.g., performers such as actors on stage, sound effects) recorded at a live venue such as a large concert hall in one or more satellite venues different from the live venue.
本開示は、上述した従来の状況に鑑みて案出され、音場収録空間内の各種の音源による音像を含む臨場感を音場再生空間内において高感度に再生する臨場感音場再生装置及び臨場感音場再生方法を提供することを目的とする。 The present disclosure has been devised in consideration of the above-mentioned conventional situation, and aims to provide a realistic sound field reproduction device and a realistic sound field reproduction method that reproduces with high sensitivity in a sound field reproduction space a sense of realism including sound images from various sound sources in the sound field recording space.
本開示は、音場収録空間内の活動エリアを移動可能な少なくとも1人の人物が装着する人物マイクが収録する発話音声信号と、前記活動エリアの周辺に配置された複数の周辺マイクが収録する周辺音信号と、前記人物の位置情報と、を少なくとも取得する取得部と、前記人物の位置情報に基づいて、前記複数の周辺マイクのうちいずれかであってかつ前記活動エリア内の前記人物が位置する箇所を収録領域とする主周辺マイクを決定する決定部と、少なくとも前記人物マイクによる前記発話音声信号と、前記主周辺マイクによる第1周辺音信号と、前記主周辺マイク以外の他の前記周辺マイクによる第2周辺音信号とに基づいて、前記音場収録空間とは異なる音場再生空間内に配置された複数のスピーカを用いて前記音場収録空間内の音場を再現するための音場再生処理を実行する音場再生部と、を備える、臨場感音場再生装置を提供する。 The present disclosure provides a realistic sound field reproduction device comprising: an acquisition unit that acquires at least a speech sound signal recorded by a person microphone worn by at least one person capable of moving in an activity area in a sound field recording space, ambient sound signals recorded by multiple peripheral microphones arranged around the activity area, and position information of the person; a determination unit that determines a main peripheral microphone, which is one of the multiple peripheral microphones and has a recording area where the person is located in the activity area, based on the person's position information; and a sound field reproduction unit that executes a sound field reproduction process to reproduce a sound field in the sound field recording space using multiple speakers arranged in a sound field reproduction space different from the sound field recording space, based on at least the speech sound signal from the person microphone, a first ambient sound signal from the main peripheral microphone, and a second ambient sound signal from a peripheral microphone other than the main peripheral microphone.
また、本開示は、臨場感音場再生装置による臨場感音場再生方法であって、音場収録空間内の活動エリアを移動可能な少なくとも1人の人物が装着する人物マイクが収録する発話音声信号と、前記活動エリアの周辺に配置された複数の周辺マイクが収録する周辺音信号と、前記人物の位置情報と、を少なくとも取得するステップと、前記人物の位置情報に基づいて、前記複数の周辺マイクのうちいずれかであってかつ前記活動エリア内の前記人物が位置する箇所を収録領域とする主周辺マイクを決定するステップと、少なくとも前記人物マイクによる前記発話音声信号と、前記主周辺マイクによる第1周辺音信号と、前記主周辺マイク以外の他の前記周辺マイクによる第2周辺音信号とに基づいて、前記音場収録空間とは異なる音場再生空間内に配置された複数のスピーカを用いて前記音場収録空間内の音場を再現するための音場再生処理を実行するステップと、を有する、臨場感音場再生方法を提供する。 The present disclosure also provides a method for reproducing a realistic sound field using a realistic sound field reproducing device, in which utterances are recorded by a person microphone worn by at least one person who can move in an activity area within a sound field recording space. a step of acquiring at least a signal, ambient sound signals recorded by a plurality of peripheral microphones arranged around the activity area, and position information of the person; determining a main surrounding microphone that is one of the surrounding microphones and whose recording area is a location where the person is located in the activity area; a plurality of speakers arranged in a sound field reproduction space different from the sound field recording space based on a first peripheral sound signal from the main peripheral microphone and a second peripheral sound signal from the peripheral microphone other than the main peripheral microphone. A method for reproducing a realistic sound field is provided, comprising: executing a sound field reproducing process for reproducing the sound field in the sound field recording space using the sound field recording space.
なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 Note that these comprehensive or specific aspects may be realized by a system, an apparatus, a method, an integrated circuit, a computer program, or a recording medium. It may be realized by any combination of the following.
本開示によれば、音場収録空間内の各種の音源による音像を含む臨場感を音場再生空間内において高感度に再生できる。 According to the present disclosure, a sense of presence including sound images from various sound sources in the sound field recording space can be reproduced with high sensitivity in the sound field reproduction space.
以下、図面を適宜参照して、本開示に係る臨場感音場再生装置及び臨場感音場再生方法を具体的に開示した実施の形態について、詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明及び実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の記載の主題を限定することは意図されていない。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments specifically disclosing a realistic sound field reproducing device and a realistic sound field reproducing method according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of well-known matters and redundant explanations of substantially the same configurations may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter of the claims.
(実施の形態1)
実施の形態1では、音場収録空間(例えば広範なコンサートホール等のライブ会場)内に設けられた舞台上で演劇等の上演がなされている間、役者等の演者(人物の一例)が発話した時の発話音声、演者の足元付近の音、舞台から離れた客席側の拍手、歓声、ざわつき等の音による各種の音源による音源信号(音信号)を収録し、その音源信号による音場を含む臨場感を音場収録空間とは異なる音場再生空間(例えば映画館等のサテライト会場)において再生する例を説明する。
(Embodiment 1)
In the first embodiment, a performer such as an actor (an example of a person) speaks while a play is being performed on a stage set up in a sound field recording space (for example, a live venue such as a wide concert hall). We recorded sound source signals (sound signals) from various sound sources such as speech sounds when performers performed, sounds near the performers' feet, applause, cheers, and murmurs from the audience seats away from the stage, and created a sound field based on the sound source signals. An example will be described in which the sense of presence is reproduced in a sound field reproduction space (for example, a satellite venue such as a movie theater) that is different from the sound field recording space.
まず、図1を参照して、実施の形態1に係る臨場感音場再生システムのシステム構成例について説明する。図1は、実施の形態1に係る臨場感音場再生システム1000のシステム構成例を示すブロック図である。 First, with reference to FIG. 1, an example of the system configuration of the realistic sound field reproduction system according to the first embodiment will be described. FIG. 1 is a block diagram showing an example of a system configuration of a realistic sound field reproduction system 1000 according to the first embodiment.
臨場感音場再生システム1000は、ライブ会場LV1側に配置された各種の機器と、サテライト会場STL1側に配置された各種の機器と、を含む。ライブ会場LV1側の機器の1つであるライブ会場側通信部6とサテライト会場STL1側の機器の1つであるサテライト会場側通信部11とは、ネットワークNW1を介して互いにデータ通信が可能に接続されている。ネットワークNW1は、有線ネットワークでもよいし、無線ネットワークでもよい。有線ネットワークは、例えば有線LAN(Local Area Network)、有線WAN(Wide Area Network)、電力線通信(PLC:Power Line Communication)のうち少なくとも1つが該当し、他の有線通信可能なネットワーク構成でもよい。一方、無線ネットワークは、Wi-Fi(登録商標)等の無線LAN、無線WAN、Bluetooth(登録商標)等の近距離無線通信、4G或いは5G等の移動体携帯通信網のうち少なくとも1つが該当し、他の無線通信可能なネットワーク構成でもよい。
The realistic sound field reproduction system 1000 includes various types of equipment placed on the live venue LV1 side and various types of equipment placed on the satellite venue STL1 side. The live venue
ライブ会場LV1側に配置された各種の機器は、例えば、ヘッドセットマイクHM1、…、HM4と、ゾーンマイクZM1、…、ZM7と、アンビソニックスマイクAMB1と、ミキサ1と、演者トラッキングシステム2と、顔データベース3と、エンコーダ4と、マッチング表データベース5と、ライブ会場側通信部6と、を含む。なお、図1では説明を簡単にするために、ヘッドセットマイクを4つ、ゾーンマイクを7つと例示しているが、ヘッドセットマイクは4つに限定されず、更に、ゾーンマイクは7つに限定されない。
Various devices placed on the live venue LV1 side include, for example, headset microphones HM1, ..., HM4, zone microphones ZM1, ..., ZM7, ambisonics microphone AMB1,
ヘッドセットマイクHM1~HM4のそれぞれは、人物マイクの一例であり、ライブ会場LV1の舞台STG1(図2参照)を移動可能な少なくとも1人の人物(例えば役者等の演者)により装着されるワイヤレスマイクであり、ミキサ1との間で各種の制御信号或いはデータ信号の無線通信を行うことが可能である。ヘッドセットマイクHM1~HM4のそれぞれのマイク素子は、例えば無指向性マイク或いは有指向性マイクを用いて構成される。ヘッドセットマイクHM1~HM4のそれぞれは、そのマイク素子により、装着者である人物の発話音声を収音(収録)する。なお、ヘッドセットマイクHM1~HM4のそれぞれは、スピーカを有し、そのスピーカに入力された音信号を出力してもよい。ヘッドセットマイクHM1~HM4のそれぞれは、装着者である人物の口元を向くように装着される。例えば、ヘッドセットマイクHM1は演者Aにより装着され、ヘッドセットマイクHM2は演者Bにより装着され、ヘッドセットマイクHM3は演者Cにより装着され、ヘッドセットマイクHM4は演者Dにより装着される。ヘッドセットマイクHM1~HM4のそれぞれにより収音(収録)された発話時の音声信号は、対応するヘッドセットマイクの識別情報(例えば装着者である演者の識別番号である音源ID(後述参照))とともに演者音信号としてミキサ1に無線送信される。
Each of the headset microphones HM1 to HM4 is an example of a person microphone, and is a wireless microphone worn by at least one person (for example, a performer such as an actor) who can move around the stage STG1 (see FIG. 2) of the live venue LV1. It is possible to perform wireless communication of various control signals or data signals with the
ゾーンマイクZM1~ZM7のそれぞれは、周辺マイクの一例であり、ライブ会場LV1の舞台STG1(図2参照)の周辺に配置され、ミキサ1との間で各種の制御信号或いはデータ信号の有線通信若しくは無線通信を行うことが可能である。ゾーンマイクZM1~ZM7のそれぞれのマイク素子は、例えば無指向性マイク或いは有指向性マイクを用いて構成される。ゾーンマイクZM1~ZM7のそれぞれは、そのマイク素子により、ヘッドセットマイクの装着者である人物の足元付近或いは頭上付近で発生している音を収音(収録)する。ゾーンマイクZM1~ZM7のそれぞれにより収音(収録)された音信号は、ゾーン音信号としてミキサ1に無線送信される。ゾーンマイクZM1~ZM7の配置例の詳細については図2~図5を参照して後述する。
Each of the zone microphones ZM1 to ZM7 is an example of a peripheral microphone, and is placed around the stage STG1 (see FIG. 2) of the live venue LV1, and is used for wired communication or communication of various control signals or data signals with the
アンビソニックスマイクAMB1は、音収録デバイスの一例であり、ライブ会場LV1の舞台STG1(図2参照)から離れた周辺エリア(例えば客席側の座席同士の間付近)に配置され、ミキサ1との間で各種の制御信号或いはデータ信号の有線通信若しくは無線通信を行うことが可能である。アンビソニックスマイクAMB1は、4つのマイク素子Mc1、Mc2、Mc3、Mc4(図10参照)を備え、マイク素子Mc1においてアンビソニックスマイクAMB1の筐体の前方左上方向(図10参照)の音を収録し、マイク素子Mc2において同筐体の前方右下方向(図10参照)の音を収録し、マイク素子Mc3において同筐体の後方左下方向(図10参照)の音を収録し、マイク素子Mc4において同筐体の後方右上方向(図10参照)の音を収録する。アンビソニックスマイクAMB1は、例えばライブ会場LV1内の舞台STG1(図2参照)とは異なるエリア(具体的には、客席側の拍手、歓声、ざわつき等の収録音(言い換えると、客席側臨場感))を収録する。なお、アンビソニックスマイクAMB1は、中空配置された4つのマイク素子Mc1、Mc2、Mc3、Mc4よりも多くの単一指向性を有するマイク素子を備えていてもよく、また、剛球上に配置された無指向性を有するマイク素子を備えていても良い。多数のマイク素子を備えたアンビソニックスマイクを用いることにより、後述する客席側臨場感パラメータ算出部16において、2次以上オーダーのアンビソニックス信号を合成することが可能となる。アンビソニックスマイクAMB1により収音(収録)された客席側の音声信号は、客席側臨場感音信号としてミキサ1に無線送信される。
Ambisonics microphone AMB1 is an example of a sound recording device, and is placed in a peripheral area (for example, near the space between seats on the audience side) away from stage STG1 (see Figure 2) of live venue LV1, and between
ミキサ1は、コンピュータ装置P1が備えるCPU(Central Processing Unit)等のプロセッサを用いて構成される。ミキサ1は、ヘッドセットマイクHM1~HM4のそれぞれからの識別情報(上述参照)が付された演者音信号と、ゾーンマイクZM1~ZM7のそれぞれからのゾーン音信号と、アンビソニックスマイクAMB1からの客席側臨場感音信号とを入力し、ライブ会場音信号として混合してエンコーダ4に出力する。なお、ミキサ1は、ゾーンマイクZM1~ZM7のそれぞれからのゾーン音信号と、アンビソニックスマイクAMB1からの客席側臨場感音信号とを混合してエンコーダ4に出力するとともに、ヘッドセットマイクHM1~HM4のそれぞれからの演者音信号を個別にエンコーダ4に出力してもよい。また、ミキサ1とエンコーダ4とライブ会場側通信部6とは、1以上のコンピュータ装置P1(例えばパーソナルコンピュータ或いはサーバコンピュータ)により構成されてよい。例えば、コンピュータ装置P1は、音場収録装置と称してもよい。
The
演者トラッキングシステム2は、顔データベース3、エンコーダ4及びマッチング表データベース5のそれぞれとの間でデータ信号の有線通信若しくは無線通信を行うことが可能である。演者トラッキングシステム2は、演劇等の上演がなされている間、ライブ会場LV1の舞台STG1(図2参照)を移動中或いは立ち止まっている演者の追跡を顔データベース3の参照によって行うことにより、演者を認識して演者の識別情報の発行或いは再確認を常時行い、更に、その演者の位置情報を取得する。この結果、演者トラッキングシステム2は、演劇等の上限がなされている間、演者ごとに、演者の識別情報(「音源ID」とも称する場合がある)と演者の位置情報とを有するレコードを並べたマッチング表のデータを生成してマッチング表データベース5に保存する。演者トラッキングシステム2は、例えばAI(Artificial Intelligence)である人工知能を搭載したAIカメラを備え、このAIカメラにより撮像された演者の撮像映像と顔データベース3に予め登録されている演者の顔写真との照合によって、演者の識別情報及び位置情報の取得を行う。なお、演者トラッキングシステム2が演者の識別情報及び位置情報の取得を、AIカメラ及び顔データベース3を利用して行うことに限定しなくてもよく、他の機器(例えば演者が個別に装着したセンサ)が検知した情報に基づいて行ってもよい。演者トラッキングシステム2は、演者ごとの識別情報及び位置情報とその演者を撮像した撮像映像のデータ信号をエンコーダ4に送る。
The
顔データベース3は、例えばフラッシュメモリ或いはハードディスクドライブを用いて構成され、ライブ会場LV1の舞台STG1(図2参照)上での演劇等の上演を行う演者ごとの顔写真のデータを演者の識別情報と関連付けて登録している。顔データベース3は、演者トラッキングシステム2によるアクセスが可能に接続されており、演者トラッキングシステム2が演者の認識及び位置情報の取得の際に参照される。図1では、データベースを便宜的に「DB」と示している。
The
エンコーダ4は、コンピュータ装置P1が備えるCPU等のプロセッサを用いて構成される。エンコーダ4は、ミキサ1からのライブ会場音信号のデータ信号と演者トラッキングシステム2からの認識できた演者ごとの識別情報、位置情報及び撮像映像のデータとを入力して取得する。エンコーダ4は、ライブ会場音信号のうちの演者音信号のデータに付された演者の識別情報(例えば音源ID)と一致する演者の識別情報を有する演者トラッキングシステム2からのデータ(例えば演者の識別情報及び位置情報)をマッチング表データベース5を参照することによって取得してもよい。エンコーダ4は、共通の識別情報を有する演者の演者音信号のデータと識別情報、位置情報及び撮像映像のデータとを関連付け(例えばIP(Internet Protocol)パケット化)することにより、ネットワークNW1を介した送受信用のIPパケットを生成する。また、エンコーダ4は、ゾーンマイクZM1~ZM7のそれぞれからのゾーン音信号とアンビソニックスマイクAMB1からの客席側臨場感音信号とを用いて、ネットワークNW1を介した送受信用のIPパケットを生成する。
The
マッチング表データベース5は、例えばフラッシュメモリ或いはハードディスクドライブを用いて構成され、演者トラッキングシステム2により生成或いは更新されるマッチング表MaTL1、MaTL2、…(図6参照)のデータを保存する。マッチング表MaTL1、MaTL2、…のデータの詳細については、図6を参照して後述する。
The
ライブ会場側通信部6は、例えば有線あるいは無線を用いた通信を実現可能な通信回路を用いて構成され、サテライト会場側通信部11との間でネットワークNW1を介した各種の制御信号或いはデータ信号の有線通信若しくは無線通信を行う。ライブ会場側通信部6は、エンコーダ4により生成された各種のIPパケットを、ネットワークNW1を介してサテライト会場側通信部11に送信する。
The live
サテライト会場STL1側に配置された各種の機器は、例えば、サテライト会場側通信部11と、デコーダ12と、記憶部13と、映像出力部14と、音像定位ゾーン決定部15と、客席側臨場感パラメータ算出部16と、ミキシング/レベルバランス調整部17と、音場再生処理部18と、サテライトスピーカSPk1、…、SPkpと、を含む。pはサテライトスピーカの配置数を示し、2以上の整数であって定数である。
The various devices arranged on the satellite venue STL1 side include, for example, a satellite venue
サテライト会場側通信部11は、例えば有線あるいは無線を用いた通信を実現可能な通信回路を用いて構成され、ライブ会場側通信部6との間でネットワークNW1を介した各種の制御信号或いはデータ信号の有線通信若しくは無線通信を行う。サテライト会場側通信部11は、ライブ会場側通信部6から送られた各種のIPパケットを、ネットワークNW1を介して受信してデコーダ12に出力する。また、サテライト会場側通信部11とデコーダ12と記憶部13と映像出力部14と音像定位ゾーン決定部15と客席側臨場感パラメータ算出部16とミキシング/レベルバランス調整部17と音場再生処理部18とは、1以上のコンピュータ装置P1(例えばパーソナルコンピュータ或いはサーバコンピュータ)により構成されてよい。例えば、コンピュータ装置P2は、音場再生装置と称してもよい。
The satellite venue
デコーダ12は、コンピュータ装置P2が備えるCPU等のプロセッサを用いて構成される。デコーダ12は、サテライト会場側通信部11からのIPパケットをデコード処理することにより、ヘッドセットマイクHM1~HM4のそれぞれにより収音(収録)された演者ごとの演者音信号、識別情報、位置情報及び撮像映像のデータと、ゾーンマイクZM1~ZM7のそれぞれからのゾーン音信号と、アンビソニックスマイクAMB1からの客席側臨場感音信号とに分離する。デコーダ12は、演者ごとの撮像映像のデータを映像出力部14に送る。デコーダ12は、ヘッドセットマイクHM1~HM4のそれぞれにより収音(収録)された演者ごとの演者音信号、識別情報、位置情報及び撮像映像のデータと、ゾーンマイクZM1~ZM7のそれぞれからのゾーン音信号と、を音像定位ゾーン決定部15に出力する。デコーダ12は、アンビソニックスマイクAMB1からの客席側臨場感音信号を客席側臨場感パラメータ算出部16に出力する。
The
記憶部13は、例えばフラッシュメモリ或いはハードディスクドライブを用いて構成され、予め算出されたサテライトスピーカSPk1~SPkpのそれぞれごとの音像定位パラメータ、或いは、デコーダ12により取得された各種のデータを保存する。サテライトスピーカごとの音像定位パラメータの算出方法は、例えば特開平09-149500号公報に開示されているので、ここでは説明を省略する。つまり、音像定位パラメータは、サテライトスピーカごとに、そのサテライトスピーカ(定位スピーカ)からの音量を補助するための他のサテライトスピーカ(音量補助スピーカ)のディレイと、その音量補助スピーカのアッテネートレベルである。この音像定位パラメータは、音場再生処理部18による音像定位の処理の実行時に使用される。また、デコーダ12により取得された各種のデータには、例えば、ヘッドセットマイクHM1~HM4のそれぞれにより収音(収録)された演者ごとの演者音信号、識別情報、位置情報及び撮像映像のデータと、ゾーンマイクZM1~ZM7のそれぞれからのゾーン音信号と、アンビソニックスマイクAMB1からの客席側臨場感音信号とが含まれる。また、記憶部13は、サテライトスピーカSPk1~SPkpのそれぞれのサテライト会場STL1内の位置情報(例えば3次元空間の座標情報)を保存している。
The
映像出力部14は、例えばプロジェクタを用いて構成され、デコーダ12からの演者ごとの撮像映像のデータを、サテライト会場STL1に配置されたスクリーンSCR1(図8参照)に投影して映し出す。これにより、サテライト会場STL1内で着席している複数人の観客は、ライブ会場LV1で演者ごとに注目するように撮像された撮像映像をスクリーンSCR1を介して視聴することができる。
The
音像定位ゾーン決定部15は、コンピュータ装置P2が備えるCPU等のプロセッサを用いて構成される。音像定位ゾーン決定部15は、決定部の一例であり、デコーダ12からのデータ(つまり、演者ごとの識別情報及び位置情報のデータ)に基づいて、ライブ会場LV1の舞台STG1(図2参照)の演者の発話による音声と立ち止まり若しくは移動等による足元音とにより形成される音場(雰囲気)をサテライト会場STL1内で再現(再生)するための音像定位ゾーンを決定する。ここでいう音像定位ゾーンは、図3に示す収音ゾーンZN1~ZN7のうちいずれかである。この音像定位ゾーンの決定例の詳細については、図7を参照して後述する。
The sound image localization
客席側臨場感パラメータ算出部16は、コンピュータ装置P2が備えるCPU等のプロセッサを用いて構成される。客席側臨場感パラメータ算出部16は、音場再生部の一例であり、デコーダ12からのデータ(つまり、アンビソニックスマイクAMB1からの客席側臨場感音信号)と記憶部13に保存されているサテライトスピーカSPk1~SPkpのそれぞれの位置情報とに基づいて、ライブ会場LV1内の客席側臨場感の音場をサテライト会場内STL1で立体的に再現(再生)するための立体再生用パラメータを算出する。客席側臨場感パラメータ算出部16は、この立体再生用パラメータを用いて、サテライトスピーカSPk1~SPkpのそれぞれごとのスピーカ駆動信号を生成してミキシング/レベルバランス調整部17に出力する。立体再生用パラメータの算出例並びにスピーカ駆動信号の生成例の詳細については、実施の形態2を参照して詳述する。
The audience seat side realism
ミキシング/レベルバランス調整部17は、コンピュータ装置P2が備えるCPU等のプロセッサを用いて構成される。ミキシング/レベルバランス調整部17は、音場再生部の一例であり、ヘッドセットマイクHM1~HM4のそれぞれにより収音(収録)された演者ごとの演者音信号と、ゾーンマイクZM1~ZM7のそれぞれからのゾーン音信号と、サテライトスピーカごとのスピーカ駆動信号との各信号レベルのバランスを調整する。ミキシング/レベルバランス調整部17は、各信号レベルのバランスが調整された各信号をミキシング(つまり、信号混合)する。各信号レベルのバランスの調整例の詳細については、図7を参照して後述する。
The mixing/level
音場再生処理部18は、コンピュータ装置P2が備えるCPU等のプロセッサを用いて構成される。音場再生処理部18は、音場再生部の一例であり、記憶部13から読み出されたサテライトスピーカごとの音像定位パラメータとミキシング/レベルバランス調整部17から出力された信号とを用いて、ライブ会場LV1内の演者の発話による音声と立ち止まり若しくは移動等による足元音とにより形成される音場(雰囲気)、並びに、ライブ会場LV1内の客席側臨場感により形成される音場(雰囲気)をサテライト会場STL1において再現(再生)するための音場再生処理を実行する。具体的には、音場再生処理部18は、ライブ会場LV1内の演者の発話による音声と立ち止まり若しくは移動等による足元音とにより形成される音場(雰囲気)をサテライト会場STL1内において再生するために、ミキシング/レベルバランス調整部17から出力された信号を用いて、演者の発話音声及び足元音による音像を各サテライトスピーカを介して定位する処理を実行する。更に、音場再生処理部18は、ライブ会場LV1内の客席側臨場感により形成される音場(雰囲気)をサテライト会場STL1内において再生するために、ミキシング/レベルバランス調整部17から出力された信号(特にサテライトスピーカごとのスピーカ駆動信号)を対応するサテライトスピーカを介して出力する。
The sound field
サテライトスピーカSPk1、…、SPkpのそれぞれは、例えばサテライト会場STL1内で一定距離離した位置に配置され、音場再生処理部18からのスピーカ駆動信号に基づいて音場を再生(出力)する。なお、サテライトスピーカの設置数は再現(再生)したい音場によって変化させてよく、特定の方位に対する再現(再生)を行わない場合や、トランスオーラルシステムやVBAP(Vector Based Amplitude Panning)法など一般的に知られた仮想音像生成方式を組み合わせることによりp個よりも少ないサテライトスピーカを用いて音場の再現(再生)を行っても良い。逆に、p個よりも多くのスピーカを用いた音場の再現(再生)を行っても良い。また、サテライトスピーカの設置位置はサテライト会場STL1の基準位置(例えば聴取者PS1が着席するサテライト会場STL1内の中心位置)を取り囲むように設置されていれば配置箇所は限定されなくて良い。 Each of the satellite speakers SPk1, . The number of satellite speakers installed can be changed depending on the sound field you want to reproduce (reproduce), and when you do not want to reproduce (reproduce) a specific direction, or when using general methods such as a transaural system or VBAP (Vector Based Amplitude Panning) method. By combining virtual sound image generation methods known in the art, a sound field may be reproduced using fewer than p satellite speakers. Conversely, the sound field may be reproduced using more than p speakers. Further, the installation position of the satellite speakers is not limited as long as they are installed so as to surround the reference position of the satellite venue STL1 (for example, the central position in the satellite venue STL1 where the listener PS1 is seated).
次に、図2から図5を参照して、図1のゾーンマイクの詳細について説明する。図2は、ライブ会場の舞台を天井から見た方向のゾーンマイクの配置例を示す図である。図3は、ゾーンマイクの収録範囲例を示す図である。図4は、ゾーンマイクの指向性例を示す図である。図5は、ライブ会場の舞台を左側(右側)の舞台端から右側(左側)の舞台端を見た方向のゾーンマイクの配置例を示す図である。図2から図5において、Z軸はX軸及びY軸の両方に垂直であって重力方向と平行な高さ方向を示し、X軸はZ軸及びY軸の両方に垂直であって舞台STG1の幅方向を示し、Y軸はZ軸及びY軸の両方に垂直であって舞台STG1の奥行き方向を示す。なお、Y軸の正の方向にライブ会場LV1の観客が着席する客席が設けられ、Y軸の負の方向に舞台STG1のバックヤードが設けられる。 Next, details of the zone microphone shown in FIG. 1 will be described with reference to FIGS. 2 to 5. FIG. 2 is a diagram showing an example of the arrangement of zone microphones in the direction of the stage of a live venue viewed from the ceiling. FIG. 3 is a diagram showing an example of a recording range of a zone microphone. FIG. 4 is a diagram showing an example of directivity of a zone microphone. FIG. 5 is a diagram illustrating an example of the arrangement of zone microphones in a direction when looking from the left (right) stage edge to the right (left) stage edge of the stage at a live venue. In FIGS. 2 to 5, the Z axis is perpendicular to both the X and Y axes and indicates a height direction parallel to the direction of gravity, and the X axis is perpendicular to both the Z and Y axes and indicates the height direction of the stage STG1. The Y axis is perpendicular to both the Z axis and the Y axis and represents the depth direction of the stage STG1. In addition, seats for the audience of the live venue LV1 are provided in the positive direction of the Y-axis, and a backyard of the stage STG1 is provided in the negative direction of the Y-axis.
図2に示すように、ライブ会場LV1の舞台STG1の舞台端には4つのゾーンマイクZM1、ZM2、ZM3、ZM4が配置される。一方、舞台STG1の上部(例えば天井)から3つのゾーンマイクZM5、ZM6、ZM7が天吊りして配置されている。 As shown in FIG. 2, four zone microphones ZM1, ZM2, ZM3, and ZM4 are arranged at the edge of the stage STG1 of the live venue LV1. On the other hand, three zone microphones ZM5, ZM6, and ZM7 are suspended from the upper part (for example, the ceiling) of the stage STG1.
図3に示すように、ゾーンマイクZM1、ZM2、ZM3、ZM4のそれぞれは、例えば略楕円形状(円形状を含む)の収音ゾーンZN1、ZN2、ZN3、ZN4(収録領域若しくは音像定位ゾーン)内で生じる音(音声も含む)を収音(収録)する。収音ゾーンZN1~ZN4の長手方向の長さは4[m]である。従って、ゾーンマイクZM1~ZM4のいずれかに役者等の演者が立ち止まってステップを踏んだ若しくはダンスをした時の足元音は、その演者の位置を含む収音ゾーンに対応するゾーンマイクにより主に収音(収録)される。但し、その足元音は、その演者の位置を含む収音ゾーンに隣接する収音ゾーンに対応するゾーンマイクにより収音(収録)されることが排除されるものではない。 As shown in FIG. 3, each of the zone microphones ZM1, ZM2, ZM3, and ZM4 is located within, for example, approximately elliptical (including circular) sound collection zones ZN1, ZN2, ZN3, and ZN4 (recording area or sound image localization zone). Collect (record) the sounds (including voice) generated by The length in the longitudinal direction of the sound collection zones ZN1 to ZN4 is 4 [m]. Therefore, the footstep sound when a performer, such as an actor, stops and takes steps or dances on one of the zone microphones ZM1 to ZM4 is mainly collected by the zone microphone corresponding to the sound collection zone that includes the position of the performer. Sound (recorded). However, it is not excluded that the footstep sound is collected (recorded) by a zone microphone corresponding to a sound collection zone adjacent to the sound collection zone including the performer's position.
なお、舞台STG1の奥行き方向の長さは12[m]であり、ゾーンマイクZM1、ZM2、ZM3、ZM4のそれぞれは舞台STG1の客席側端部に配置され、ゾーンマイクZM5、ZM6、ZM7のそれぞれは舞台STG1の客席側端部から6[m]程離れた位置かつ高さ4[m]の位置に天吊りして配置されている。これらの寸法はあくまで一例であって限定されるものではない。 The length of the stage STG1 in the depth direction is 12 [m], and each of the zone microphones ZM1, ZM2, ZM3, and ZM4 is placed at the end of the audience seat side of the stage STG1, and each of the zone microphones ZM5, ZM6, and ZM7 is placed at the end of the stage STG1 on the audience seat side. is suspended from the ceiling at a position approximately 6 [m] away from the audience seat side end of stage STG1 and at a height of 4 [m]. These dimensions are merely examples and are not limiting.
図3に示すように、ゾーンマイクZM5、ZM6、ZM7のそれぞれは、例えば略円形状の収音ゾーンZN5、ZN6、ZN7(収録領域)内で生じる音(音声も含む)を収音(収録)する。収音ゾーンZN5~ZN7の直径方向の長さは4[m]である。従って、ゾーンマイクZM5~ZM7のいずれかの直下或いはその付近に役者等の演者が立ち止まって頭上付近で音が生じるような動きをした時の音は、その演者の頭上位置を含む収音ゾーンに対応するゾーンマイクにより主に収音(収録)される。但し、その音は、その演者の頭上位置を含む収音ゾーンに隣接する収音ゾーンに対応するゾーンマイクにより収音(収録)されることが排除されるものではない。 As shown in FIG. 3, each of the zone microphones ZM5, ZM6, and ZM7 collects (records) sounds (including audio) occurring within, for example, approximately circular sound collection zones ZN5, ZN6, and ZN7 (recording areas). do. The length of the sound collection zones ZN5 to ZN7 in the diametrical direction is 4 [m]. Therefore, when a performer, such as an actor, stops directly under or near one of the zone microphones ZM5 to ZM7 and makes a movement that produces sound near his or her head, the sound will be heard in the sound collection zone that includes the performer's overhead position. Sound is mainly collected (recorded) by the corresponding zone microphone. However, this does not preclude that the sound may be collected (recorded) by a zone microphone corresponding to a sound collection zone adjacent to the sound collection zone including the position above the performer's head.
図4に示すように、ゾーンマイクZM5~ZM7のそれぞれは、そのゾーンマイクの筐体の中心から見て80度のビーム範囲(指向性)内で2.5[m]先までの収音ゾーンZN5~ZN7(つまり、図3に示す直径4[m]の略円形エリア)で生じる音を収音(収録)することができる。ゾーンマイクZM5~ZM7のそれぞれの筐体から2.5[m]先には、舞台STG1の上で移動可能な役者等の演者ACT1の頭上~口元付近の部位が位置することが想定される。 As shown in FIG. 4, each of the zone microphones ZM5 to ZM7 has a sound collection zone up to 2.5 [m] ahead within a beam range (directivity) of 80 degrees when viewed from the center of the housing of the zone microphone. It is possible to collect (record) sounds generated in ZN5 to ZN7 (that is, the approximately circular area with a diameter of 4 [m] shown in FIG. 3). It is assumed that a portion above the head and near the mouth of the performer ACT1, such as an actor who can move on the stage STG1, is located 2.5 [m] ahead of the housing of each of the zone microphones ZM5 to ZM7.
従って、図5に示すように、ヘッドセットマイクHM1を装着している演者ACT1が舞台STG1上で台詞等の発話をすると、そのヘッドセットマイクHM1により収音される演者音信号だけでなく、その演者ACT1の位置を収音ゾーンとして有する少なくとも1つのゾーンマイクにより収音されたゾーン音信号が収録されてミキサ1に入力される。なお、図5では説明のために演者ACT1の身長が1.5[m]を例示しているが、身長は1.5[m]に限定されなくてもよい。
Therefore, as shown in FIG. 5, when a performer ACT1 wearing a headset microphone HM1 utters lines or the like on the stage STG1, not only the performer's sound signal picked up by the headset microphone HM1 but also the A zone sound signal picked up by at least one zone microphone having the position of the performer ACT1 as a sound pickup zone is recorded and input to the
次に、図6を参照して、演者トラッキングシステム2が生成或いは更新するマッチング表について説明する。図6は、マッチング表の定期更新例を示す遷移図である。
Next, with reference to FIG. 6, the matching table generated or updated by the
マッチング表MaTL1、MaTL2、…は、舞台STG1(図2参照)上で演劇等している役者等の各演者(例えば、演者A、演者B、演者C、演者D、…)が演者トラッキングシステム2により認識された際に、演者の識別情報(音源ID)及び位置情報(例えば(X、Y)の2次元座標)を演者ごとに規定するデータである。なお、演者の位置情報は、舞台STG1(図2参照)の特定の位置を原点とした場合の2次元座標として示されている。このマッチング表は、例えば1秒間隔等で定期的に更新される。図6に示すように、時刻t=t1においてマッチング表MaTL1が生成され、その1秒後であるt=t2においてマッチング表MaTL2が生成される。なお、更新間隔は1秒に限定されなくてもよい。
The matching tables MaTL1, MaTL2, ... show that each performer (for example, performer A, performer B, performer C, performer D, ...) performing a play on the stage STG1 (see FIG. 2) is tracked by the
例えば図6のマッチング表MaTL1では、時刻t=t1において、演者トラッキングシステム2により演者A、演者B、演者Cが少なくとも認識されている。つまり、演者Aの音源ID(1)及び位置情報(4、1)と、演者Bの音源ID(2)及び位置情報(-3、2)と、演者Cの音源ID(3)及び位置情報(1、0)と、がマッチング表MaTL1において少なくとも関連付けされている。
For example, in the matching table MaTL1 of FIG. 6, at least performer A, performer B, and performer C are recognized by the
一方、マッチング表MaTL2では、時刻t=t2において、演者トラッキングシステム2により演者A、演者Bは時刻t=t1と同様に認識されているが、演者Cが認識されず、演者Dが新たに認識されている。つまり、演者Aの音源ID(1)及び位置情報(1、5)と、演者Bの音源ID(2)及び位置情報(-3、0)と、演者Dの音源ID(4)及び位置情報(-2、3)と、がマッチング表MaTL2において少なくとも関連付けされている。例えば、演者Cは時刻t=t2では舞台STG1(図2参照)から姿を消し、演者Dは時刻t=t2において新たに舞台STG1(図2参照)に登場したことが示唆される。
Meanwhile, in matching table MaTL2, at time t=t2, performer A and performer B are recognized by
このように、演者が演劇等の間に舞台STG1(図2参照)上を移動する動きがあったとしても、演者トラッキングシステム2により各演者の識別情報及び位置情報が認識、追跡された結果、演者の位置情報を示すマッチング表のデータが随時更新される。
In this way, even if the performers move on the stage STG 1 (see FIG. 2) during a play, etc., the
次に、図7を参照して、演者の位置情報に応じたゾーン音信号の選択について説明する。図7は、演者の位置情報に応じたゾーン音信号の選択の動作概要例を模式的に示す図である。図7の説明を簡易化するために、ライブ会場LV1にゾーンマイクが計4つ配置され、サテライト会場STL1にサテライトスピーカが計4つ配置されているとする。なお、サテライトスピーカの配置数を示すpは12に限定されなくてよい。 Next, with reference to FIG. 7, selection of a zone sound signal according to position information of a performer will be explained. FIG. 7 is a diagram schematically showing an example of an outline of the operation of selecting a zone sound signal according to position information of a performer. To simplify the explanation of FIG. 7, it is assumed that a total of four zone microphones are arranged at the live venue LV1, and a total of four satellite speakers are arranged at the satellite venue STL1. Note that p, which indicates the number of satellite speakers arranged, does not have to be limited to 12.
演者トラッキングシステム2により、演者Aの「ある時刻」における位置情報が取得され、その位置情報が示す位置がゾーンマイクZM2の収音ゾーンZN2内であったとする。図7の説明において、この「ある時刻」のことを「特定時刻」と称する場合がある。この場合、音像定位ゾーン決定部15は、その「特定時刻」における演者Aの位置情報に基づいて、演者Aの頭上付近若しくは足元付近の音を主に収音(収録)する主周辺マイクをゾーンマイクZM2と決定する。また、演者Aの音声信号として、演者Aのヘッドセットマイクが収音(収録)した演者音信号及びゾーンマイクZM2のゾーン音信号だけでなく、他のゾーンマイクZM1、ZM3、ZM4が収音(収録)したゾーン音信号もミキシング/レベルバランス調整部17に入力される。
It is assumed that the
また、演者トラッキングシステム2により、演者Bの同じ「特定時刻」(上述参照)における位置情報が取得され、その位置情報が示す位置がゾーンマイクZM3の収音ゾーンZN3内であったとする。この場合、音像定位ゾーン決定部15は、その「特定時刻」における演者Bの位置情報に基づいて、演者Bの頭上付近若しくは足元付近の音を主に収音(収録)する主周辺マイクをゾーンマイクZM3と決定する。また、演者Bの音声信号として、演者Bのヘッドセットマイクが収音(収録)した演者音信号及びゾーンマイクZM3のゾーン音信号だけでなく、他のゾーンマイクZM1、ZM2、ZM4が収音(収録)したゾーン音信号もミキシング/レベルバランス調整部17に入力される。
Further, it is assumed that the
ミキシング/レベルバランス調整部17は、サテライト会場STL1において演者A、演者Bの音場(例えば発話音声、頭上付近若しくは足元付近で演者A、演者Bの動き等に起因して生じた音)の雰囲気を再生するために、演者A、演者Bの演者音信号及びゾーンマイクZM2、ZM3のゾーン音信号のレベルを他の演者音信号及びゾーン音信号に比べて相対的に高くするようにレベル調整した上で各信号をミキシングする。このミキシングの処理は、サテライトスピーカSPk1~SPk4のそれぞれ用に実行される。
The mixing/level
つまり、図7の例では、ミキシング/レベルバランス調整部17は、サテライトスピーカSPk1用に、演者Aの演者音信号と演者Bの演者音信号とゾーンマイクZM1のゾーン音信号とゾーンマイクZM2のゾーン音信号とゾーンマイクZM3のゾーン音信号とゾーンマイクZM4のゾーン音信号とを各信号をミキシングする。また、ミキシング/レベルバランス調整部17は、サテライトスピーカSPk2用に、演者Aの演者音信号と演者Bの演者音信号とゾーンマイクZM1のゾーン音信号とゾーンマイクZM2のゾーン音信号とゾーンマイクZM3のゾーン音信号とゾーンマイクZM4のゾーン音信号とを各信号をミキシングする。また、ミキシング/レベルバランス調整部17は、サテライトスピーカSPk3用に、演者Aの演者音信号と演者Bの演者音信号とゾーンマイクZM1のゾーン音信号とゾーンマイクZM2のゾーン音信号とゾーンマイクZM3のゾーン音信号とゾーンマイクZM4のゾーン音信号とを各信号をミキシングする。また、ミキシング/レベルバランス調整部17は、サテライトスピーカSPk4用に、演者Aの演者音信号と演者Bの演者音信号とゾーンマイクZM1のゾーン音信号とゾーンマイクZM2のゾーン音信号とゾーンマイクZM3のゾーン音信号とゾーンマイクZM4のゾーン音信号とを各信号をミキシングする。それぞれのサテライトスピーカ用にミキシングされた信号が音場再生処理部18に入力される。
7, the mixing/level
音場再生処理部18は、入力されたそれぞれのサテライトスピーカ用の信号を用いて、サテライト会場STL1において、演者Aがライブ会場LV1の収音ゾーンZN2に位置するように、その収音ゾーンZN2に対応するサテライトスピーカに対応する音像定位パラメータを記憶部13から取得して音像定位(再生)の処理を施す。また、音場再生処理部18は、入力されたそれぞれのサテライトスピーカ用の信号を用いて、サテライト会場STL1において、演者Bがライブ会場LV1の収音ゾーンZN3に位置するように、その収音ゾーンZN3に対応するサテライトスピーカに対応する音像定位パラメータを記憶部13から取得して音像定位(再生)の処理を施す。
Using the input signals for each satellite speaker, the sound field
次に、図8を参照して、サテライト会場内でのサテライトスピーカの配置について説明する。図8は、サテライト会場内でのサテライトスピーカの配置例を示す図である。図8の説明を分かりやすくするために、サテライト会場STL1にはサテライトスピーカが計12個配置されているとする。なお、サテライトスピーカの配置数を示すpは12に限定されなくてよい。 Next, referring to FIG. 8, the arrangement of satellite speakers in a satellite venue will be described. FIG. 8 is a diagram showing an example of the arrangement of satellite speakers in a satellite venue. To make the explanation of FIG. 8 easier to understand, it is assumed that a total of 12 satellite speakers are arranged in satellite venue STL1. Note that p, which indicates the number of satellite speakers arranged, does not need to be limited to 12.
図8に示すように、サテライト会場STL1は中央に複数人の観客が着席する客席が数多く設けられ、各客席の正面方向にスクリーンSCR1が設けられている。映像出力部14は、例えばプロジェクタであって、ライブ会場LV1のライブ会場側通信部6から送られた演者の撮像映像のデータ信号をスクリーンSCR1に投影して出力する。これにより、サテライト会場STL1に来場している来場客は、スクリーンSCR1に投影された撮像映像を視聴してライブ会場LV1の舞台STG1(図2参照)上でなされている演劇等の上演を体感することができる。
As shown in Figure 8, satellite venue STL1 has many seats in the center where multiple spectators can sit, and a screen SCR1 is provided directly in front of each seat. The
スクリーンSCR1の背面側には、例えば4つのサテライトスピーカSPk1、SPk2、SPk3、SPk4が一定間隔ほど離れて配置されている。サテライトスピーカSPk1~SPk4のそれぞれは、スクリーンSCR1の背面側に配置されているので、音場再生処理部18において、主にライブ会場LV1の舞台STG1(図2参照)上にいる演者の発話音声、頭上付近若しくは足元付近で生じた音による音場の音像定位に使用されることが好ましい。また、音場再生処理部18は、記憶部13からサテライトスピーカSPk1、SPk2用の音像定位パラメータを用いることにより、サテライトスピーカSPk1、SPk2の中間位置にライブ会場LV1内の演者の音場(音像SIm1)を定位することもできる。同様に、音場再生処理部18は、記憶部13からサテライトスピーカSPk2、SPk3用の音像定位パラメータを用いることにより、サテライトスピーカSPk2、SPk3の中間位置にライブ会場LV1内の演者の音場(音像SIm2)を定位することもできる。同様に、音場再生処理部18は、記憶部13からサテライトスピーカSPk3、SPk4用の音像定位パラメータを用いることにより、サテライトスピーカSPk3、SPk4の中間位置にライブ会場LV1内の演者の音場(音像SIm3)を定位することもできる。
For example, four satellite speakers SPk1, SPk2, SPk3, and SPk4 are arranged at a certain distance from each other on the rear side of the screen SCR1. Since each of the satellite speakers SPk1 to SPk4 is arranged on the rear side of the screen SCR1, it is preferable that the sound field
ここで、客席に着席している聴取者PS1から見たサテライトスピーカSPk1までのベクトルとサテライトスピーカSPk2までのベクトルとの間の角度は20度以内となるように隣接するサテライトスピーカSPk1、SPk2が配置されることが好ましい。これにより、音場再生処理部18による音像定位の処理が高精度に実現可能となる。なお、サテライトスピーカSPk1、SPk2と聴取者PS1との間のなす角度に限らず、スクリーンSCR1の背面側に配置される隣接するサテライトスピーカ同士において同様に成り立つ。つまり、サテライトスピーカSPk2、SPk3と聴取者PS1との間の角度でも、サテライトスピーカSPk3、SPk4と聴取者PS1との間の角度でも同様である。
Here, adjacent satellite speakers SPk1 and SPk2 are arranged so that the angle between the vector to satellite speaker SPk1 and the vector to satellite speaker SPk2 seen from listener PS1 seated in the audience seat is within 20 degrees. It is preferable that This allows the sound field
更に、サテライト会場STL1内の広範な客席の側面側を覆うように、サテライトスピーカSPk5、SPk6、SPk7、SPk8、SPk9、SPk10、SPk11、SPk12が一定距離ほど離れて配置されている。サテライトスピーカSPk5~SPk12のそれぞれは、サテライト会場STL1内の客席の側面側を覆うように配置されているので、音場再生処理部18において、主にライブ会場LV1の客席側の拍手、歓声、ざわつき等の客席側臨場感の出力に使用されることが好ましい。なお、これらのサテライトスピーカSPk5~SPk12のそれぞれを用いた客席側臨場感の出力(言い換えると、サテライトスピーカSPk5~SPk12のそれぞれ用のスピーカ駆動信号の再生)の詳細については、実施の形態2を参照して詳述する。
Further, satellite speakers SPk5, SPk6, SPk7, SPk8, SPk9, SPk10, SPk11, and SPk12 are arranged at a certain distance apart so as to cover the sides of the wide audience seats in the satellite venue STL1. Since each of the satellite speakers SPk5 to SPk12 is arranged so as to cover the side surface of the audience seats in the satellite venue STL1, the sound field
次に、図9を参照して、実施の形態1に係る臨場感音場再生システム1000の動作手順について説明する。図9は、実施の形態1に係る臨場感音場再生システム1000の動作手順例を時系列に示すシーケンス図である。ステップSt1からステップSt7までの一連の処理はライブ会場LV1内で実行されるが、この一連の処理は処理単位として演劇等の上演がなされている間に繰り返される。なお、図9の説明を簡単にするために、舞台STG1(図2参照)上には1名の役者等の演者A(図6参照)がいる状態を例示して説明するが、演者の人数は2名以上でも構わない。 Next, with reference to FIG. 9, the operating procedure of the realistic sound field reproduction system 1000 according to the first embodiment will be described. FIG. 9 is a sequence diagram chronologically showing an example of the operation procedure of the realistic sound field reproduction system 1000 according to the first embodiment. A series of processes from step St1 to step St7 is executed within the live venue LV1, and this series of processes is repeated as a unit of processing while a play or the like is being performed. In order to simplify the explanation of FIG. 9, an example will be explained in which there is a performer A (see FIG. 6) such as one actor on the stage STG1 (see FIG. 2), but the number of performers There can be 2 or more people.
図9において、演者トラッキングシステム2は、ライブ会場LV1の舞台STG1(図2参照)上の演者Aを認識し、その認識結果としての演者Aの識別情報(音源ID)、位置情報及び撮像映像のデータ信号を、ミキサ1を介してエンコーダ4に送る(ステップSt1)。また、演者トラッキングシステム2は、演者Aを認識したことにより、演者Aの識別情報(音源ID)及び位置情報を有するマッチング表(図6参照)のデータを生成或いは更新してマッチング表データベース5に保存する(ステップSt2)。
In Figure 9, the
演者Aが装着しているヘッドセットマイクHM1は、舞台STG1(図2参照)上にいる演者Aの発話音声を収音(収録)した演者Aの演者音信号を、ミキサ1を介してエンコーダ4に送る(ステップSt3)。舞台STG1(図2参照)の周囲に配置されたそれぞれのゾーンマイクZM1~ZM7は、演者Aの頭上付近若しくは足元付近の音を収音(収録)した演者Aのゾーン音信号を、ミキサ1を介してエンコーダ4に送る(ステップSt4)。舞台STG1(図2参照)から離れた周辺エリア(例えば客席側の座席同士の間付近)に配置されたアンビソニックスマイクAMB1は、舞台STG1(図2参照)から離れた客席側エリアの臨場感(具体的には、客席側の拍手、歓声、ざわつき等)の収録音である客席側臨場感音信号を収音(収録)し、ミキサ1を介してエンコーダ4に送る(ステップSt5)。
The headset microphone HM1 worn by performer A picks up (records) the speech of performer A on the stage STG1 (see FIG. 2), and sends the performer sound signal of performer A, which is recorded, to the
エンコーダ4は、ステップSt3で送られた演者音信号のデータに付された演者Aの識別情報(例えば音源ID)と一致する演者Aの識別情報を有する演者トラッキングシステム2からのデータ(例えば演者の識別情報及び位置情報)を、ステップSt1で送られたデータ或いはマッチング表データベース5の参照によって取得する(ステップSt6)。エンコーダ4は、共通の識別情報を有する演者Aの演者音信号のデータと識別情報、位置情報及び撮像映像(ステップSt1或いはステップST6参照)のデータとを関連付け(例えばIPパケット化)することにより、ネットワークNW1を介した送受信用のIPパケットを生成する(ステップSt6)。また、エンコーダ4は、ゾーンマイクZM1~ZM7のそれぞれからのゾーン音信号とアンビソニックスマイクAMB1からの客席側臨場感音信号とを用いて、ネットワークNW1を介した送受信用のIPパケットを生成する(ステップSt6)。エンコーダ4は、ステップSt6で生成したそれぞれのIPパケットを、ライブ会場側通信部6及びネットワークNW1を介してサテライト会場側通信部11に送る(ステップSt7)。
The
デコーダ12は、ステップSt7で送られたそれぞれのIPパケットを、サテライト会場側通信部11を介して取得し、デコード処理を行って各種のデータ信号を取り出す(ステップSt8)。
The
音像定位ゾーン決定部15は、デコーダ12からのデータ(つまり、演者Aの識別情報及び位置情報のデータ)に基づいて、ライブ会場LV1の舞台STG1(図2参照)の演者Aの発話による音声と立ち止まり若しくは移動等による足元音とにより形成される音場(雰囲気)をサテライト会場STL1内で再現(再生)するための音像定位ゾーンを決定する(ステップSt9)。ここでいう音像定位ゾーンは、図3に示す収音ゾーンZN1~ZN7のうちいずれかである。客席側臨場感パラメータ算出部16は、デコーダ12からのデータ(つまり、アンビソニックスマイクAMB1からの客席側臨場感音信号)と記憶部13に保存されているサテライトスピーカSPk1~SPkpのそれぞれの位置情報とに基づいて、ライブ会場LV1内の客席側臨場感の音場をサテライト会場内STL1で立体的に再現(再生)するための立体再生用パラメータを算出する(ステップSt10)。客席側臨場感パラメータ算出部16は、この立体再生用パラメータを用いて、サテライトスピーカSPk1~SPkpのそれぞれごとのスピーカ駆動信号(立体再生音の一例)を生成してミキシング/レベルバランス調整部17に出力する(ステップSt11)。
The sound image localization
音像定位ゾーン決定部15は、記憶部13からサテライトスピーカSPk1~SPkpのそれぞれごとの音像定位パラメータを読み出して取得する(ステップSt12)。音像定位ゾーン決定部15は、ステップSt9で決定した音像定位ゾーンの情報とステップSt12で取得したサテライトスピーカSPk1~SPkpのそれぞれごとの音像定位パラメータの情報とをミキシング/レベルバランス調整部17に送る(ステップSt13)。
The sound image localization
ミキシング/レベルバランス調整部17は、ステップSt13で送られた情報を用いて、ヘッドセットマイクHM1~HM4のそれぞれにより収音(収録)された演者ごとの演者音信号と、ゾーンマイクZM1~ZM7のそれぞれからのゾーン音信号と、サテライトスピーカごとのスピーカ駆動信号との各信号レベルのバランスを調整する(ステップSt14)。ミキシング/レベルバランス調整部17は、各信号レベルのバランスが調整された各信号をミキシング(つまり、信号混合)し(ステップSt14)、調整かつミキシング後の信号を音場再生処理部18に送る(ステップSt15)。
The mixing/level
音場再生処理部18は、サテライトスピーカごとの音像定位パラメータとミキシング/レベルバランス調整部17から出力された信号とを用いて、ライブ会場LV1内の演者の発話による音声と立ち止まり若しくは移動等による足元音とにより形成される音場(雰囲気)、並びに、ライブ会場LV1内の客席側臨場感により形成される音場(雰囲気)をサテライト会場STL1において再現(再生)するための音場再生処理を実行する(ステップSt16)。具体的には、音場再生処理部18は、ライブ会場LV1内の演者の発話による音声と立ち止まり若しくは移動等による足元音とにより形成される音場(雰囲気)をサテライト会場STL1内において再生するために、ミキシング/レベルバランス調整部17から出力された信号を用いて、演者の発話音声及び足元音による音像を各サテライトスピーカを介して定位する処理を実行する(ステップSt16)。更に、音場再生処理部18は、ライブ会場LV1内の客席側臨場感により形成される音場(雰囲気)をサテライト会場STL1内において再生するために、ミキシング/レベルバランス調整部17から出力された信号(特にサテライトスピーカごとのスピーカ駆動信号)を対応するサテライトスピーカを介して出力する(ステップSt16)。
The sound field
以上により、実施の形態1に係る臨場感音場再生システム1000において、臨場感音場再生装置は、音場収録空間(ライブ会場LV1)内の活動エリア(舞台STG1)を移動可能な少なくとも1人の人物(演者ACT1)が装着する人物マイク(ヘッドセットマイクHM1等)が収録する発話音声信号(演者音信号)と、活動エリアの周辺に配置された複数の周辺マイク(ゾーンマイクZM1~ZM7)が収録する周辺音信号と、人物の位置情報と、を少なくとも取得する取得部(サテライト会場側通信部11)と、人物の位置情報に基づいて、複数の周辺マイクのうちいずれかであってかつ活動エリア内の人物が位置する箇所を収録領域とする主周辺マイク(例えばゾーンマイクZM2)を決定する決定部(音像定位ゾーン決定部15)と、少なくとも人物マイクによる発話音声信号と、主周辺マイクによる第1周辺音信号(例えばゾーンマイクZM2のゾーン音信号)と、主周辺マイク以外の他の周辺マイクによる第2周辺音信号(例えばゾーンマイクZM1、ZM3~ZM7のそれぞれのゾーン音信号)とに基づいて、音場収録空間とは異なる音場再生空間(サテライト会場STL1)内に配置された複数のスピーカ(サテライトスピーカSPk1~SPkp)を用いて音場収録空間内の音場を再現するための音場再生処理を実行する音場再生部(客席側臨場感パラメータ算出部16、ミキシング/レベルバランス調整部17、音場再生処理部18)と、を備える。これにより、臨場感音場再生装置は、音場収録空間(ライブ会場LV1)内の各種の音源(例えば少なくとも1人の演者等)による音像を含む臨場感を、音場収録空間とは異なる音場再生空間(サテライト会場STL1)内において高感度に再生することができる。
As described above, in the realistic sound field reproducing system 1000 according to the first embodiment, the realistic sound field reproducing device is configured to support at least one person who can move in the activity area (stage STG1) in the sound field recording space (live venue LV1). Speech audio signals (performer sound signals) recorded by a person microphone (headset microphone HM1, etc.) worn by a person (performer ACT1) (performer ACT1), and multiple peripheral microphones (zone microphones ZM1 to ZM7) placed around the activity area. an acquisition unit (satellite venue side communication unit 11) that acquires at least an ambient sound signal recorded by the person and location information of the person; A determining unit (sound image localization zone determining unit 15) that determines the main peripheral microphone (for example, zone microphone ZM2) whose recording area is the location where the person is located in the activity area, at least the speech signal from the person microphone, and the main peripheral microphone. a first peripheral sound signal (for example, a zone sound signal of zone microphone ZM2), and a second peripheral sound signal by peripheral microphones other than the main peripheral microphone (for example, zone sound signals of zone microphones ZM1, ZM3 to ZM7). Based on this, to reproduce the sound field in the sound field recording space using multiple speakers (satellite speakers SPk1 to SPkp) placed in a sound field reproduction space (satellite venue STL1) different from the sound field recording space. The sound field reproduction section (audience seat side realism
また、音場再生部(音場再生処理部18)は、音場再生空間(サテライト会場STL1)内において第1周辺音信号(ゾーンマイクZM2のゾーン音信号)を第2周辺音信号(例えばゾーンマイクZM1、ZM3~ZM7のそれぞれのゾーン音信号)よりも強調して音場収録空間(ライブ会場LV1)内の音場を再現するように音場再生処理を実行する。これにより、臨場感音場再生装置は、活動エリア(舞台STG1)上にいて台詞等で発話している演者の発話音声、頭上付近若しくは足元付近の音を相対的に強調することでサテライト会場STL1内でもその演者の発話音声、頭上付近若しくは足元付近の音が目立つように音場再生できて、音場再生の再現性を向上できる。 Further, the sound field reproduction unit (sound field reproduction processing unit 18) converts the first ambient sound signal (zone sound signal of zone microphone ZM2) into a second ambient sound signal (for example, zone sound signal) in the sound field reproduction space (satellite venue STL1). Sound field reproduction processing is performed so as to reproduce the sound field in the sound field recording space (live venue LV1) with more emphasis than the zone sound signals of the microphones ZM1 and ZM3 to ZM7. As a result, the realistic sound field reproducing device relatively emphasizes the speech sounds of the performers who are on the activity area (stage STG1) and are speaking their lines, etc., and the sounds near the head or feet of the satellite venue STL1. Even within a theater, the sound field can be reproduced so that the voice uttered by the performer and the sounds near the head or feet of the performer stand out, and the reproducibility of the sound field reproduction can be improved.
また、取得部(サテライト会場側通信部11)は、音場収録空間(ライブ会場LV1)内の活動エリア(舞台STG1)とは異なる周辺エリア(客席側)に配置された音収録デバイス(アンビソニックスマイクAMB1)が収録する周辺エリア音信号(客席側臨場感音信号)を更に取得する。音場再生部(音場再生処理部18)は、音場収録空間内の周辺エリアに相当する音場再生空間内のエリアに周辺エリア音信号による音場を再生するための信号処理を実行する。これにより、臨場感音場再生装置は、音収録デバイスにより収音(収録)されたライブ会場LV1内の客席側の拍手、歓声、ざわつき等の音(客席側臨場感)を副次的にサテライト会場LV1内の客席側に相当するエリアに音場再現(再生)するように演出できる。 In addition, the acquisition unit (satellite venue side communication unit 11) acquires a sound recording device (ambisonics Further, the surrounding area sound signal (audience seat side realistic sound signal) recorded by the microphone AMB1) is acquired. The sound field reproduction unit (sound field reproduction processing unit 18) executes signal processing to reproduce a sound field based on the peripheral area sound signal in an area in the sound field reproduction space corresponding to the peripheral area in the sound field recording space. . As a result, the immersive sound field reproducing device sub-distributes sounds such as applause, cheers, and murmurs from the audience seats in the live venue LV1 that have been collected (recorded) by the sound recording device (audience side ambiance) as a secondary satellite. The sound field can be reproduced (reproduced) in the area corresponding to the audience seats in the venue LV1.
また、音場再生部(ミキシング/レベルバランス調整部17)は、発話音声信号(演者の演者音信号)と第1周辺音信号(ゾーンマイクZM2のゾーン音信号)と第2周辺音信号(例えばゾーンマイクZM1、ZM3~ZM7のそれぞれのゾーン音信号)との混合及び信号レベルのバランス調整を実行し、複数のスピーカ(サテライトスピーカSPk1~SPkp)のそれぞれを介して出力する。これにより、臨場感音場再生装置は、ライブ会場LV1内の活動エリア(舞台STG1)上で発生している演者の台詞等の発話音声だけでなく演者の頭上付近若しくは足元付近の音も含めて演者が醸し出している音場の雰囲気をサテライト会場STL1内においても高精度に再現(再生)することができる。 The sound field reproduction unit (mixing/level balance adjustment unit 17) also outputs a speech audio signal (performer sound signal of the performer), a first peripheral sound signal (zone sound signal of zone microphone ZM2), and a second peripheral sound signal (e.g. Mixing with the zone sound signals of the zone microphones ZM1 and ZM3 to ZM7 and balance adjustment of the signal level is performed, and output via each of a plurality of speakers (satellite speakers SPk1 to SPkp). As a result, the realistic sound field reproducing device can reproduce not only the speech sounds such as the performer's lines that are occurring on the activity area (stage STG1) in the live venue LV1, but also the sounds near the performer's head or feet. The atmosphere of the sound field created by the performers can be reproduced (reproduced) with high precision even within the satellite venue STL1.
また、音場再生部(ミキシング/レベルバランス調整部17)は、発話音声信号(演者の演者音信号)と第1周辺音信号(ゾーンマイクZM2のゾーン音信号)と第2周辺音信号(例えばゾーンマイクZM1、ZM3~ZM7のそれぞれのゾーン音信号)と周辺エリア音信号(客席側臨場感音信号)の混合及び信号レベルのバランス調整を実行し、複数のスピーカ(サテライトスピーカSPk1~SPkp)のそれぞれを介して出力する。これにより、臨場感音場再生装置は、ライブ会場LV1内の活動エリア(舞台STG1)上で発生している演者の台詞等の発話音声、演者の頭上付近若しくは足元付近の音だけでなく、ライブ会場LV1内の客席側臨場感の音の雰囲気をサテライト会場STL1内においても高精度に再現(再生)することができる。 The sound field reproduction unit (mixing/level balance adjustment unit 17) also outputs a speech audio signal (performer sound signal of the performer), a first peripheral sound signal (zone sound signal of zone microphone ZM2), and a second peripheral sound signal (e.g. It mixes the zone sound signals of the zone microphones ZM1, ZM3 to ZM7) and the surrounding area sound signals (audience seat-side immersive sound signals) and adjusts the signal level balance, Output via each. As a result, the immersive sound field reproducing device can reproduce not only speech sounds such as the performer's lines that are occurring on the activity area (stage STG1) in the live venue LV1, sounds near the performer's head or feet, but also the live performance. The sound atmosphere of the auditorium side in the venue LV1 can be reproduced (reproduced) with high precision even in the satellite venue STL1.
また、取得部(サテライト会場側通信部11)は、周期的に更新され得る人物の位置情報を繰り返して取得する。決定部(音像定位ゾーン決定部15)は、人物の位置情報の更新の度に、主周辺マイクを決定する。これにより、臨場感音場再生装置は、ライブ会場LV1内の舞台STG1上を人物(演者)が移動する度に、その人物の位置情報に適合する主周辺マイクによるゾーン音信号を取得できるので、演者の位置情報が変更してもサテライト会場STL1内において適応的に音場再生することができる。 Further, the acquisition unit (satellite venue side communication unit 11) repeatedly acquires position information of a person, which can be updated periodically. The determining unit (sound image localization zone determining unit 15) determines the main peripheral microphone every time the position information of the person is updated. As a result, the realistic sound field reproducing device can acquire zone sound signals from the main peripheral microphones that match the position information of the person (performer) every time the person (performer) moves on the stage STG1 in the live venue LV1. Even if the position information of the performer changes, the sound field can be adaptively reproduced within the satellite venue STL1.
また、人物(役者等の演者)が複数であり、決定部(音像定位ゾーン決定部15)は、人物ごとに、人物の位置情報に基づいて主周辺マイクを決定する。これにより、臨場感音場再生装置は、ライブ会場LV1内の舞台STG1上に複数人の演者がいる場合でも、演者ごとにその音像定位を高精度に再現することができる。 Furthermore, there are a plurality of people (performers such as actors), and the determination unit (sound image localization zone determination unit 15) determines the main peripheral microphone for each person based on the position information of the person. Thereby, the realistic sound field reproducing device can reproduce the sound image localization for each performer with high precision even when there are multiple performers on the stage STG1 in the live venue LV1.
また、音場再生部(例えば音場再生処理部18)は、発話音声信号(演者の演者音信号)、第1周辺音信号(ゾーンマイクZM2のゾーン音信号)及び第2周辺音信号(例えばゾーンマイクZM1、ZM3~ZM7のそれぞれのゾーン音信号)を参照信号とし、周辺エリア音信号(客席側臨場感音信号)に含まれる参照信号の成分を消去する消去処理を信号処理として実行する。これにより、臨場感音場再生装置は、周辺エリア音信号に漏れ込んでいると考えられる参照信号の成分を効果的に消去することができ、高品質な周辺エリア音信号を生成することができる。 In addition, the sound field reproduction unit (for example, the sound field reproduction processing unit 18) generates a speech sound signal (a performer's sound signal of a performer), a first ambient sound signal (a zone sound signal of zone microphone ZM2), and a second ambient sound signal (for example, Using the respective zone sound signals of the zone microphones ZM1 and ZM3 to ZM7 as reference signals, erasing processing for erasing the reference signal components included in the surrounding area sound signal (audience side realistic sound signal) is executed as signal processing. As a result, the realistic sound field reproduction device can effectively eliminate components of the reference signal that are thought to have leaked into the surrounding area sound signal, and can generate a high-quality surrounding area sound signal. .
また、音場再生部(例えば音場再生処理部18)は、消去処理後の信号を符号化処理し、符号化処理後の信号に基づいて、複数のスピーカ(サテライトスピーカSPk1~SPkp)ごとに、音場収録空間内の音場臨場感を音場再生空間内において再生するためのスピーカ駆動信号を生成する。これにより、臨場感音場再生装置は、サテライト会場STL1の空間内に配置されている複数のサテライトスピーカSPk1~SPkpのそれぞれの位置情報を加味してライブ会場LV1内の客席側臨場感を再現可能なスピーカ駆動信号を生成できる。 Further, the sound field reproduction unit (for example, the sound field reproduction processing unit 18) encodes the signal after the erasure processing, and based on the signal after the encoding processing, performs a coding process on each of the plurality of speakers (satellite speakers SPk1 to SPkp). , generates a speaker drive signal for reproducing the sense of presence of the sound field in the sound field recording space in the sound field reproduction space. As a result, the realistic sound field reproducing device can reproduce the sense of presence on the audience seat side in the live venue LV1 by taking into account the position information of each of the multiple satellite speakers SPk1 to SPkp arranged in the space of the satellite venue STL1. A speaker drive signal can be generated.
また、音場再生部(例えば音場再生処理部18)は、生成されたスピーカ(サテライトスピーカSPk1~SPkp)ごとのスピーカ駆動信号を、対応するスピーカ(サテライトスピーカ)から出力する。例えば、音場再生処理部18は、サテライトスピーカSPk1向けに生成したスピーカ駆動信号を、サテライトスピーカSPk1から出力する。他のサテライトスピーカ向けに生成されたスピーカ駆動信号も、同様に対応するサテライトスピーカから出力される。これにより、臨場感音場再生装置は、サテライト会場STL1の空間内に配置されている複数のサテライトスピーカSPk1~SPkpのそれぞれごとのスピーカ駆動信号の出力により、ライブ会場LV1内の客席側臨場感をサテライト会場STL1内において高精度に再現することができる。
Further, the sound field reproduction unit (for example, the sound field reproduction processing unit 18) outputs a speaker drive signal for each generated speaker (satellite speakers SPk1 to SPkp) from the corresponding speaker (satellite speaker). For example, the sound field
(実施の形態2以降に至る経緯)
昨今、リアルタイムに音場再現(再生)を行うためにシーンベース立体音響再生技術が注目されている。シーンベース立体音響再生技術とは、複数の無指向性マイク素子が剛球上に又は複数の指向性マイクが中空球面上に配置されているアンビソニックスマイクを用いて収音した多チャンネル信号に対して信号処理を施すことにより、視聴環境(空間)を取り囲むように配置されたスピーカを用いてあたかもリスナー(聴取者)がアンビソニックスマイクの設置箇所に存在しているかのような立体的な音場をリアルタイムに再現(再生)する方式である。
(Circumstances leading to
Recently, scene-based stereophonic sound reproduction technology has been attracting attention in order to reproduce (reproduce) a sound field in real time. Scene-based 3D sound reproduction technology is a multi-channel signal collected using an ambisonics microphone in which multiple omnidirectional microphone elements are placed on a rigid sphere or multiple directional microphones are placed on a hollow sphere. By applying signal processing, speakers placed around the listening environment (space) can be used to create a three-dimensional sound field as if the listener were present at the location where the ambisonics microphone is installed. This is a method of reproducing (playing) in real time.
音場再現に関する先行技術として、例えば参考特許文献1が知られている。参考特許文献1は、被写体に装着されたワイヤレスマイクの収音信号を受信し、複数のマイクロフォンにより音声を収音した各音声信号を基にしてマルチチャネル音声信号を生成する音声収録装置を開示している。この音声収録装置は、ワイヤレスマイクの収音信号をマルチチャネル音声信号の1つ以上の任意のチャネルに割り当て、それぞれ任意の合成比で合成して撮像画像信号とともに記録媒体に記録する。
As a prior art related to sound field reproduction, for example,
(参考特許文献1)特開2006-314078号公報 (Reference Patent Document 1) Japanese Patent Application Publication No. 2006-314078
ここで、上述したシーンベース立体音響再生技術を用いて、例えば広範なコンサートホール等のライブ会場の客席側にアンビソニックスマイク(上述参照)を配置し、メインステージ等で繰り広げられている演劇等の上演中の客席側の拍手、どよめき、ざわめき、歓声等の臨場感(以下、「客席側臨場感」と称する場合がある)を収音し、その客席側臨場感をライブ会場とは異なる1つ以上のサテライト会場において再現することを想定する。参考特許文献1には、マイクロフォンにより収音された音場の雰囲気とワイヤレスマイクにより収音された音場の雰囲気との関係が詳細に開示されておらず、上述した想定の実現に特許文献1の技術を適用することが困難であると考えられる。また、アンビソニックスマイクは、客席側に配置されたとしても、客席側臨場感だけでなく例えばステージ上の役者等の演者の台詞等の発話音声、効果音、BGM(Background Music)、独自音源等の演奏音がライブ会場内の空間を伝播した音信号を収音する可能性が高い。この場合、ライブ会場内の客席側臨場感以外の他の音成分が混入するため、サテライト会場にいる聴取者に向けて客席側臨場感の音場を高精度に再現することが困難であったと考えられる。特許文献1では、上述したライブ会場内を収音した客席側臨場感による音場をサテライト会場内において高感度に再現するための解決の道筋が提示されていない。
Here, using the scene-based stereophonic sound reproduction technology described above, for example, an ambisonics microphone (see above) is placed on the audience side of a live performance venue such as a wide concert hall, and the ambisonics microphone (see above) is placed on the audience side of a live performance venue such as a wide concert hall. It captures the sense of presence such as applause, roars, murmurs, cheers, etc. from the audience seats during a performance (hereinafter sometimes referred to as "the sense of presence from the audience seats"), and makes the sense of presence from the audience seats different from that of a live venue. It is assumed that it will be reproduced at the above satellite venues.
そこで、以下の実施の形態2以降では、アンビソニックスマイクを用いて収音した収音空間内の客席側臨場感の雰囲気を少なくとも1つのサテライト会場内において高精度に再現する音場臨場感再現装置及び音場臨場感再現方法の例を説明する。なお、実施の形態1における「臨場感音場再生」と、以下の各実施の形態における「音場臨場感再現」とは同義である(言い換えると、互いに用語を置き換えてもよい)ことを注釈しておく。
Therefore, in
以下の実施の形態では、収音空間(例えばライブ会場)内の音、音楽、人の声等の音源信号を収音する収音デバイスとしてアンビソニックスマイクを用いたシーンベース立体音響再生技術を例示して説明する。このシーンベース立体音響再生技術では、アンビソニックスマイクを構成する複数のマイク素子で収音した信号(収音信号)或いはモノラル信号として表現可能な点音源を、球面調和関数を用いた中間表現ITMR1(図1参照)或いはBフォーマット信号として表現する(エンコードする)ことにより、全方位から到来する音場をアンビソニックス信号領域(後述参照)において統一的に取り扱う。更に、この中間表現をデコード(復号化)することによりスピーカ駆動信号を生成し、再現空間(例えばサテライト会場)内での所望の音場再現を実現する。 In the following embodiments, a scene-based stereophonic sound reproduction technology using an ambisonics microphone as a sound collection device for collecting sound source signals such as sounds, music, and human voices in a sound collection space (for example, a live venue) will be exemplified. and explain. In this scene-based stereophonic sound reproduction technology, a point sound source that can be expressed as a signal picked up by multiple microphone elements constituting an ambisonics microphone (acoustic signal) or a monaural signal is converted into an intermediate representation ITMR1 ( (see FIG. 1) or by expressing (encoding) it as a B format signal, the sound field arriving from all directions is handled uniformly in the ambisonics signal domain (see below). Further, by decoding this intermediate representation, a speaker drive signal is generated, thereby realizing a desired sound field reproduction within a reproduction space (for example, a satellite venue).
以下、「音場」とは、音が広がる空間(場所を含む)のことと定義する。音場内に伝播する音には、対象となる空間内で伝播している1以上の音源からの音が含まれる。ここで、音源とは、例えばライブ会場LV1等の収音空間のメインステージ上で行われている各種の演奏(例えばバンド演奏、ミュージカル演劇)の音源だけでなく、ライブ会場LV1内のメインステージから離れた客席側で生じる歓声、ざわめき、どよめき、拍手等の臨場感を与える音も含まれる。 Hereinafter, a "sound field" is defined as a space (including a location) in which sound spreads. Sound propagating within the sound field includes sounds from one or more sound sources propagating within the target space. Here, the sound sources include not only the sound sources of various performances (e.g., band performances, musical plays) being performed on the main stage of the sound collection space such as the live venue LV1, but also the sound sources from the main stage in the live venue LV1. It also includes sounds that give a sense of presence, such as cheers, murmurs, roars, and applause that occur in the audience seats that are far away.
(実施の形態2)
まず、図10を参照して、シーンベース立体音響再生技術の概念について説明する。図10は、アンビソニックスマイクAMB1を用いたシーンベース立体音響再生技術における音場収音から音場再現までの概念を模式的に示す図である。アンビソニックスマイクAMB1は、収音空間(例えばライブ会場LV1)内の客席側所定位置に配置される。ライブ会場LV1では、その空間内を伝搬している音信号がアンビソニックスマイクAMB1により収音される。例えば、ライブ会場LV1のメインステージで複数人によるバンド演奏がなされていれば、ボーカル(歌声)、ベース、ギター、ドラム等の各種の音源による音信号が収音される。また、ミュージカル演劇がなされていれば、1人以上の役者等の演者(音源)の発話による音声信号が収音される。一方、客席側で生じる歓声、ざわめき、どよめき、拍手等の客席側臨場感を与える音信号も、アンビソニックスマイクAMB1により収音される。
(Embodiment 2)
First, the concept of scene-based stereophonic sound reproduction technology will be explained with reference to FIG. FIG. 10 is a diagram schematically showing the concept from sound field collection to sound field reproduction in the scene-based stereophonic sound reproduction technology using the ambisonics microphone AMB1. The ambisonics microphone AMB1 is arranged at a predetermined position on the audience seat side in the sound collection space (for example, the live venue LV1). In the live venue LV1, sound signals propagating within the space are collected by the ambisonics microphone AMB1. For example, if a band is performing by a plurality of people on the main stage of the live venue LV1, sound signals from various sound sources such as vocals (singing voices), bass, guitar, drums, etc. are collected. Furthermore, if a musical play is being performed, audio signals uttered by one or more performers (sound sources) such as actors are collected. On the other hand, sound signals that give a sense of presence on the audience side, such as cheers, murmurs, roars, and applause, generated on the audience side are also collected by the ambisonics microphone AMB1.
収音デバイスの一例としてのアンビソニックスマイクAMB1は、4つのマイク素子Mc1、Mc2、Mc3、Mc4を備える。マイク素子Mc1~Mc4のそれぞれは、方向Dr1を正面方向とした場合に、図10中の立方体CB1の中心から4つの頂点を向くように中空配置され、各頂点方向に対する単一指向性を有している。マイク素子Mc1は、アンビソニックスマイクAMB1の前方左上(FLU:Front Left Up)を向き、その前方左上(FLU)の方向の音を主に収音する。マイク素子Mc2は、アンビソニックスマイクAMB1の前方右下(FRD:Front Right Down)を向き、その前方右下(FRD)の方向の音を主に収音する。マイク素子Mc3は、アンビソニックスマイクAMB1の後方左下(BLD:Back Left Down)を向き、その後方左下の方向の音を主に収音する。マイク素子Mc4は、アンビソニックスマイクAMB1の後方右上(BRU:Back Right Up)を向き、その後方右上の方向の音を主に収音する。 An ambisonics microphone AMB1 as an example of a sound collection device includes four microphone elements Mc1, Mc2, Mc3, and Mc4. Each of the microphone elements Mc1 to Mc4 is hollowly arranged so as to face four vertices from the center of the cube CB1 in FIG. 10 when the direction Dr1 is the front direction, and has unidirectivity in each vertex direction. ing. The microphone element Mc1 faces the front left up (FLU) of the ambisonics microphone AMB1, and mainly picks up sound in the front left up (FLU) direction. The microphone element Mc2 faces toward the front right down (FRD) of the ambisonics microphone AMB1, and mainly collects sounds in the front right down (FRD) direction. The microphone element Mc3 faces toward the back left down (BLD) of the ambisonics microphone AMB1, and mainly picks up sound in the back left direction. The microphone element Mc4 faces toward the back right up (BRU) of the ambisonics microphone AMB1, and mainly picks up sound from the rear upper right direction.
これらの4方向(つまり、FLU、FRD、BLD、BRU)の音の収音信号は、Aフォーマット信号と呼ばれる。Aフォーマット信号は、そのままでは使用できず、指向特性(指向性)を有する中間表現ITMR1としてのBフォーマット信号に変換される。Bフォーマット信号は、例えば、全方向(全方位)の音のBフォーマット信号W、前後方向の音のBフォーマット信号X、左右方向の音のBフォーマット信号Y、上下方向の音のBフォーマット信号Zを有する。Aフォーマット信号は、次に示す変換式により、Bフォーマット信号に変換される。 The collected signals of sounds from these four directions (i.e., FLU, FRD, BLD, BRU) are called A-format signals. The A-format signals cannot be used as is and are converted into B-format signals as intermediate representations ITMR1 having directional characteristics (directivity). The B-format signals have, for example, a B-format signal W for sounds from all directions (omnidirectional), a B-format signal X for sounds in the front-rear direction, a B-format signal Y for sounds in the left-right direction, and a B-format signal Z for sounds in the up-down direction. The A-format signals are converted into B-format signals using the following conversion formula:
W=FLU+FRD+BLD+BRU
X=FLU+FRD-BLD-BRU
Y=FLU-FRD+BLD-BRU
Z=FLU-FRD-BLD+BRU
W = FLU + FRD + BLD + BRU
X = FLU + FRD - BLD - BRU
Y = FLU - FRD + BLD - BRU
Z = FLU - FRD - BLD + BRU
Bフォーマット信号W、X、Y、Zを合成することにより、前後、左右、上下の全方位の音の信号が得られる。そして、Bフォーマット信号W、X、Y、Zのそれぞれの信号レベルを変更させて合成することにより、前後、左右、上下の全方位のうち任意の指向特性を有する音の信号を生成することができる。例えば図10に示すように、立方体でモデル化される再現空間(例えばサテライト会場STL1)内の各頂点部分に、合計8つのサテライトスピーカSPk1、SPk2、SPk3、SPk4、SPk5、SPk6、SPk7、SPk8が配置され、収音空間(例えばライブ会場LV1)と同様(つまり、前後、左右、上下の方向が平行或いは同方向)の3次元座標系を考える。なお、ここでは説明を分かり易くするために、サテライトスピーカの個数を8であると例示しているが、その個数は8に限定されないことは言うまでもない。 By combining the B format signals W, X, Y, and Z, sound signals in all directions, front and back, left and right, and up and down are obtained. By changing the signal levels of the B-format signals W, X, Y, and Z and synthesizing them, it is possible to generate a sound signal having arbitrary directional characteristics in all directions: front, rear, left, right, and top and bottom. can. For example, as shown in FIG. 10, a total of eight satellite speakers SPk1, SPk2, SPk3, SPk4, SPk5, SPk6, SPk7, and SPk8 are installed at each vertex in a reproduction space modeled as a cube (for example, satellite venue STL1). Consider a three-dimensional coordinate system in which the sound collection space (for example, the live venue LV1) is arranged (that is, the front-rear, left-right, and up-down directions are parallel or in the same direction). Note that although the number of satellite speakers is exemplified as eight here to make the explanation easier to understand, it goes without saying that the number is not limited to eight.
なお、サテライトスピーカSPk1~SPk8のそれぞれの位置は、再現空間(例えばサテライト会場STL1)の基準位置(例えば中心位置LSP1)からの既定距離と角度(方位角θi及び仰角φi)とにより特定可能である。図10において、iは再現空間(例えばサテライト会場STL1)内に配置されているサテライトスピーカを示す変数であり、図10の例では1から8までのいずれかの整数をとる。 The position of each of the satellite speakers SPk1 to SPk8 can be specified by a predetermined distance and angle (azimuth angle θ i and elevation angle φ i ) from a reference position (e.g., central position LSP1) of the reproduction space (e.g., satellite venue STL1). In Fig. 10, i is a variable indicating the satellite speaker located in the reproduction space (e.g., satellite venue STL1), and takes any integer from 1 to 8 in the example of Fig. 10.
再現空間(例えばサテライト会場STL1)の中心位置LSP1にユーザであるリスナー(聴取者)が存在し、正面方向(Front)を向いているとする。このような状況下において、収音空間(例えばライブ会場LV1)内で収音されたAフォーマット信号を用いた符号化処理により得られたBフォーマット信号W、X、Y、Zのデータと再現空間(例えばサテライト会場STL1)内のサテライトスピーカSPk1~SPk8のそれぞれの方向とに基づいて、収音空間(例えばライブ会場LV1)内の音場を再現空間(例えばサテライト会場STL1)内で自由に再現することができる。つまり、再現空間(例えばサテライト会場STL1)にユーザであるリスナー(聴取者)が存在する場合に、リスナーの正面方向を基準方向とし、その基準方向から任意の3次元方向の音を再現出力することが可能となる。 It is assumed that a listener (listener) who is a user exists at the center position LSP1 of the reproduction space (for example, satellite venue STL1) and is facing the front direction (Front). Under such circumstances, the data and reproduction space of the B format signals W, The sound field in the sound collection space (for example, live venue LV1) is freely reproduced in the reproduction space (for example, satellite venue STL1) based on the respective directions of satellite speakers SPk1 to SPk8 in (for example, satellite venue STL1). be able to. In other words, when there is a listener who is a user in the reproduction space (for example, satellite venue STL1), the front direction of the listener is taken as the reference direction, and sound in any three-dimensional direction from that reference direction is reproduced and output. becomes possible.
次に、図11を参照して、次数n及び度数mに対する球面調和関数展開に基づくアンビソニックス成分の基底について説明する。図11は、次数n及び度数mに対する球面調和関数展開に基づくアンビソニックス成分の基底の一例を示す図である。 Next, with reference to FIG. 11, the basis of the ambisonics component based on the spherical harmonic expansion for the order n and the power m will be described. FIG. 11 is a diagram showing an example of the basis of an ambisonics component based on spherical harmonic expansion with respect to order n and power m.
図11の横軸(m)は度数(degree)を示し、図11の縦軸(n)は次数(order)を示す。度数mは、-nから+nまでの値をとる。n=N次までの球面調和関数は合計(N+1)2個の基底を含む。例えば、n=N=0である場合、1個の基底(つまり、全方位のBフォーマット信号W)が得られる。また例えば、n=N=1である場合、4個の基底(つまり、(n、m)=(0、0)に対応する全方位のBフォーマット信号W、(n、m)=(1、-1)に対応する前後方向のBフォーマット信号X、(n、m)=(1、0)に対応する上下方向のBフォーマット信号Z、(n、m)=(1、1)に対応する左右方向のBフォーマット信号Y)が得られる。なお、n=N=2以降も同様であるため、説明を省略する。 The horizontal axis (m) in FIG. 11 indicates degree, and the vertical axis (n) in FIG. 11 indicates order. The frequency m takes a value from -n to +n. The spherical harmonics up to order n=N include a total of (N+1) two bases. For example, when n=N=0, one basis (that is, an omnidirectional B format signal W) is obtained. For example, when n = N = 1, the omnidirectional B format signal W corresponding to the four bases (that is, (n, m) = (0, 0), (n, m) = (1, B-format signal X in the front-rear direction corresponding to -1), B-format signal Z in the vertical direction corresponding to (n, m) = (1, 0), corresponding to (n, m) = (1, 1) A horizontal B format signal Y) is obtained. Note that the same applies to n=N=2 and thereafter, so the explanation will be omitted.
球面調和関数はnとmの増加に対して空間的な周期性が増す性質を有することが知られている。このため、nとmの組み合わせによって異なる方向パターン(指向特性)のBフォーマット信号を表現することが可能となる。次数n及び度数mに対する次元をアンビソニックスチャネルナンバリング(ACN:Ambisonics Channel Numbering)に基づいてK=n(n+1)+mと定義すると、球面調和関数を式(1)のようにベクトル形式で表現可能である。式(1)において、上添字のTは転置を示す。 It is known that spherical harmonics have a property of increasing spatial periodicity as n and m increase. Therefore, it is possible to express B format signals with different directional patterns (directional characteristics) depending on the combination of n and m. If the dimensions for order n and degree m are defined as K=n(n+1)+m based on Ambisonics Channel Numbering (ACN), the spherical harmonic function can be expressed in vector form as shown in equation (1). be. In formula (1), the superscript T indicates transposition.
次に、図12を参照して、音場臨場感再現システムの動作概要例について説明する。図12は、音場臨場感再現システムの動作概要例を模式的に示す図である。図12では、アンビソニックスマイクAMB1が配置される収音空間は、例えばボーカル、ベース、ギター、ドラム等の各種の音源によるバンド演奏が行われるライブ会場LV1を例示して説明する。但し、上述したように、収音空間であるライブ会場LV1ではバンド演奏に限らず、1人以上の役者等の演者が演じているミュージカルの上演、複数の楽器の演奏によるコンサート若しくはオーケストラの演奏であってもよく、以下同様である。 Next, with reference to FIG. 12, an example of an outline of the operation of the sound field realistic sensation reproduction system will be described. FIG. 12 is a diagram schematically showing an example of an outline of the operation of the sound field realistic sensation reproduction system. In FIG. 12, the sound collection space in which the ambisonics microphone AMB1 is arranged will be explained by exemplifying a live venue LV1 where a band performance is performed using various sound sources such as vocals, bass, guitar, drums, etc. However, as mentioned above, in the live venue LV1, which is a sound collection space, it is not limited to band performances, but also musical performances performed by one or more actors, concerts with multiple musical instruments, or orchestra performances. The same applies below.
図12に示すように、ライブ会場LV1にはメインステージSTG1が設けられ、このメインステージSTG1上においてバンド演奏が行われている。バンド演奏では、例えばボーカル(音源の一例)による歌声等の音声信号SS2、ベース(音源の一例)によるベース音の音信号SS1、ギター(音源の一例)によるギター音の音信号SS3が広くライブ会場LV1内の空間内を伝搬して客席側に到達する。これらの信号は各音源位置から直接空間内を伝達して客席側に到達することもあれば、ライブ会場LV1内に備えられたスピーカなどの拡声装置を通じて再生されて客席側に到達することもある。アンビソニックスマイクAMB1は、客席側臨場感の音を主に収音することを目的として、ライブ会場LV1の客席側所定位置(例えば客席の中心位置)に配置されている。このため、アンビソニックスマイクAMB1は、上述したバンド演奏中の客席側の歓声、どよめき、ざわつき、拍手等の客席側臨場感を与える音を主に収音する。 As shown in FIG. 12, a main stage STG1 is provided in the live venue LV1, and a band is performing on this main stage STG1. In a band performance, for example, an audio signal SS2 such as a singing voice from a vocalist (an example of a sound source), a bass sound signal SS1 from a bass (an example of a sound source), and a sound signal SS3 from a guitar (an example of a sound source) are widely used at the live venue. It propagates within the space within LV1 and reaches the audience seats. These signals may be directly transmitted through the space from each sound source position and reach the audience seats, or they may be reproduced through loudspeaker equipment such as speakers installed in the live venue LV1 and reach the audience seats. . The ambisonics microphone AMB1 is placed at a predetermined position on the audience side of the live venue LV1 (for example, the center position of the audience seats) for the purpose of mainly collecting sound that gives a sense of presence on the audience side. For this reason, the ambisonics microphone AMB1 mainly picks up sounds that give a sense of presence on the audience side, such as cheers, roars, murmurs, and applause from the audience side during the band performance.
ところが、上述したように、バンド演奏中のベースの音信号SS1、ボーカルの音声信号SS2、ギターの音信号SS3は、ライブ会場LV1の空間内を伝搬する。このため、音信号SS1、音声信号SS2、音信号SS3の拡散音(残響音を含む。以下同様。)の成分DS1、DS2、DS3がアンビソニックスマイクAMB1により音信号として収音されてしまう。従って、アンビソニックスマイクAMB1には、本来収音されて欲しくない拡散音の成分DS1、DS2、DS3が収音されることにより、従来のシーンベース立体音響再生技術では、サテライト会場STL1においてライブ会場LV1の客席側臨場感の音を高精度に再現することは難しかった。 However, as described above, the bass sound signal SS1, vocal sound signal SS2, and guitar sound signal SS3 during the band performance propagate within the space of the live venue LV1. Therefore, the components DS1, DS2, and DS3 of the diffused sounds (including reverberant sounds; the same applies hereinafter) of the sound signal SS1, the audio signal SS2, and the sound signal SS3 are picked up as sound signals by the ambisonics microphone AMB1. Therefore, the ambisonics microphone AMB1 picks up diffuse sound components DS1, DS2, and DS3 that are not originally wanted to be picked up. It was difficult to accurately reproduce the realistic sound from the audience seats.
そこで、以下の実施の形態では、アンビソニックスマイクを用いて収音した収音空間内の客席側臨場感の雰囲気を少なくとも1つのサテライト会場内において高精度に再現する音場臨場感再現システムの例を説明する。 Therefore, in the following embodiments, an example of a sound field immersion reproduction system that reproduces with high precision the atmosphere of presence on the audience seat side in a sound collection space in which sound is collected using an ambisonics microphone is provided in at least one satellite venue. Explain.
次に、図13及び図14を参照して、実施の形態2に係る音場臨場感再現システム100のシステム構成並びに動作概要について説明する。図13は、実施の形態2に係る音場臨場感再現システム100のシステム構成例を示すブロック図である。図14は、図13の音場臨場感再現システム100における音場臨場感収音から音場臨場感再現までの動作概要例を示す図である。
Next, with reference to FIGS. 13 and 14, the system configuration and operational outline of the sound field realistic
音場臨場感再現システム100は、音場臨場感収音装置10と、音場臨場感再現装置20とを含む。音場臨場感収音装置10と音場臨場感再現装置20とはネットワークNW1を介して互いにデータ通信が可能に接続されている。ネットワークNW1は、有線ネットワークでもよいし、無線ネットワークでもよい。有線ネットワークは、例えば有線LAN(Local Area Network)、有線WAN(Wide Area Network)、電力線通信(PLC:Power Line Communication)のうち少なくとも1つが該当し、他の有線通信可能なネットワーク構成でもよい。一方、無線ネットワークは、Wi-Fi(登録商標)等の無線LAN、無線WAN、Bluetooth(登録商標)等の近距離無線通信、4G或いは5G等の移動体携帯通信網のうち少なくとも1つが該当し、他の無線通信可能なネットワーク構成でもよい。
The sound field
音場臨場感収音装置10は、収音空間(例えばライブ会場LV1)に配置され、アンビソニックスマイクAMB1と、A/D変換部7と、個別収音マイクM1、…、Mnとを含む。ここでいうnは、ライブ会場LV1内の個別音源(例えばバンド演奏であればボーカル、ベース、ギター等の独立した音源)の数を示し、具体的には2以上の整数である。なお、音場臨場感収音装置10は、少なくともアンビソニックスマイクAMB1を有していればよく、A/D変換部7は音場臨場感再現装置20に設けられてもよい。
The sound field realistic
アンビソニックスマイクAMB1は、4つのマイク素子Mc1、Mc2、Mc3、Mc4を備え、マイク素子Mc1において前方左上方向(図10参照)の音を収音し、マイク素子Mc2において前方右下方向(図10参照)の音を収音し、マイク素子Mc3において後方左下方向(図10参照)の音を収音し、後方右上方向(図10参照)の音を収音する。なお、アンビソニックスマイクAMB1は、中空配置された4つのマイク素子Mc1、Mc2、Mc3、Mc4よりも多くの単一指向性を有するマイク素子を備えていてもよく、また、剛球上に配置された無指向性を有するマイク素子を備えていても良い。多数のマイク素子を備えたアンビソニックスマイクを用いることにより、音場臨場感再現装置20の符号化部22において、2次以上オーダーのアンビソニックス信号を合成することが可能となる。アンビソニックスマイクAMB1を構成する各マイク素子により収音された信号(収音信号)は、A/D変換部7に入力される。
Ambisonics microphone AMB1 includes four microphone elements Mc1, Mc2, Mc3, and Mc4. Microphone element Mc1 collects sound in the front upper left direction (see FIG. 10), and microphone element Mc2 collects sound in the front lower right direction (see FIG. 10). ), the microphone element Mc3 collects the sound in the rear lower left direction (see FIG. 10), and the rear upper right direction (see FIG. 10). Note that the ambisonics microphone AMB1 may include more microphone elements having unidirectionality than the four microphone elements Mc1, Mc2, Mc3, and Mc4 arranged in the hollow, or may include microphone elements arranged on a hard sphere. A microphone element having omnidirectionality may be included. By using an ambisonics microphone equipped with a large number of microphone elements, it becomes possible to synthesize ambisonics signals of second order or higher order in the
少なくともA/D変換部7は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphical Processing Unit)、FPGA(Field Programmable Gate Array)等の電子デバイスのうち少なくとも1つが実装された半導体チップ若しくは専用のハードウェアにより構成される。
At least the A/
A/D変換部7は、アンビソニックスマイクAMB1を構成する各マイク素子からのアナログ形式の収音信号をディジタル形式の収音信号に変換する。この変換後の収音信号は、音場臨場感収音装置10が備える通信インターフェース(図示略)及びネットワークNW1を介して、音場臨場感再現装置20に送信される。
The A/
個別収音マイクM1は、ライブ会場LV1のメインステージSTG1(図12参照)上のバンド演奏或いはミュージカル演劇等のイベント発生中のユニークな音源(例えばバンド演奏のボーカル、或いはミュージカル演劇の演者)から生じる個別音源音(第1の音源)を収音する。個別収音マイクM1は、例えばバンド演奏のボーカル、或いはミュージカル演劇の演者により装着されるヘッドセットマイクでよい。個別収音マイクM1により収音された個別音源音信号は、音場臨場感収音装置10が備える通信インターフェース(図示略)及びネットワークNW1を介して、音場臨場感再現装置20に送信される。
The individual sound pickup microphone M1 is generated from a unique sound source (for example, vocals of a band performance or performers of a musical theater performance) during an event such as a band performance or a musical theater performance on the main stage STG1 (see FIG. 12) of the live venue LV1. Individual sound source sound (first sound source) is collected. The individual sound pickup microphone M1 may be, for example, a headset microphone worn by a vocalist in a band performance or a performer in a musical play. The individual sound source sound signal collected by the individual sound collection microphone M1 is transmitted to the sound field
同様に、個別収音マイクMnは、ライブ会場LV1のメインステージSTG1(図12参照)上のバンド演奏或いはミュージカル演劇等のイベント発生中のユニークな音源(例えばバンド演奏のギター、或いはミュージカル演劇中の効果音若しくはBGM(Background Music))から生じる個別音源音(第nの音源)を収音する。個別収音マイクMnは、例えばバンド演奏のギター奏者により装着されるヘッドセットマイク、或いはミュージカル演劇中の効果音若しくはBGMを収音可能なマイクでよい。個別収音マイクMnにより収音された個別音源音信号は、音場臨場感収音装置10が備える通信インターフェース(図示略)及びネットワークNW1を介して、音場臨場感再現装置20に送信される。
Similarly, the individual sound pickup microphone Mn is configured to listen to a unique sound source (for example, a guitar in a band performance, or a guitar in a musical play) during an event such as a band performance or musical play on the main stage STG1 (see FIG. 12) of the live venue LV1. An individual sound source sound (nth sound source) generated from sound effects or BGM (Background Music) is collected. The individual sound collection microphone Mn may be, for example, a headset microphone worn by a guitar player playing in a band, or a microphone capable of collecting sound effects or BGM during a musical play. The individual sound source sound signals collected by the individual sound collection microphones Mn are transmitted to the sound field
音場臨場感再現装置20は、再現空間(例えばサテライト会場STL1)に配置され、エコーキャンセル部21、…、2nと、符号化部22と、マイク素子方向指定部23と、スピーカ方向指定部24と、復号化部25と、音場再生部26と、サテライトスピーカSPk1、…、SPkpとを含む。ここでいうpは、サテライト会場STL1内に配置されるサテライトスピーカの数を示し、具体的には2以上の整数である。また、エコーキャンセル部21~2nの個数を示すnと、個別収音マイクM1~Mnの個数を示すnとは同一である。つまり、個別収音マイクが収音する音源の種類数と同数のエコーキャンセル部が音場臨場感再現装置20内に設けられる。なお、図13中のエコーキャンセル部21~2n、符号化部22、マイク素子方向指定部23、スピーカ方向指定部24、復号化部25及び音場再生部26の構成は、実施の形態1に係る客席側臨場感パラメータ算出部16及び音場再生処理部18の構成(図1参照)に相当する。
The sound field
エコーキャンセル部21は、音場臨場感収音装置10(A/D変換部7側)から送られたアンビソニックスマイクAMB1のマイク素子ごとの収音信号を入力し、更に、音場臨場感収音装置10(個別収音マイクM1側)から送られた第1の音源(上述参照)の個別音源音信号を第1の参照信号M1Sとして入力する。エコーキャンセル部21は、アンビソニックスマイクAMB1のマイク素子ごとの収音信号に含まれる第1の参照信号M1S(つまり、個別収音マイクM1が収音した個別音源音信号)の成分を消去するための消去処理(例えばエコーキャンセル処理)を実行する。エコーキャンセル部21は、消去処理後の信号(第1の収音信号)を符号化部22に出力する。
The
同様に、エコーキャンセル部2nは、音場臨場感収音装置10(A/D変換部7側)から送られたアンビソニックスマイクAMB1のマイク素子ごとの収音信号を入力し、更に、音場臨場感収音装置10(個別収音マイクMn側)から送られた第nの音源(上述参照)の個別音源音信号を第nの参照信号MnSとして入力する。エコーキャンセル部2nは、アンビソニックスマイクAMB1のマイク素子ごとの収音信号に含まれる第nの参照信号MnS(つまり、個別収音マイクMnが収音した個別音源音信号)の成分を消去するための消去処理(例えばエコーキャンセル処理)を実行する。エコーキャンセル部2nは、消去処理後の信号(第nの収音信号)を符号化部22に出力する。
Similarly, the
ここで、エコーキャンセル部21~2nのそれぞれは、例えば時間領域上で動作する適応フィルタを用いたエコーキャンセラとして構成してよい。このエコーキャンセラは、例えばSingle Channel EchoCancellerとして構成することができる。従って、図14に示すように、エコーキャンセル部21~2nのそれぞれは、アンビソニックスマイクAMB1のマイク素子の数(例えば4)と同数のSingle Channel EchoCancellerを用いて構成可能である。このSingle Channel EchoCancellerは、例えば参考非特許文献において開示されている構成でよい。この構成を用いることにより、特に参照信号間に相関が無い場合(言い換えると、クロストーク成分が実質的に含まれないと見做せる程度の所定閾値未満となる場合)には、アンビソニックスマイクAMB1のマイク素子ごとの収音信号に含まれる参照信号(つまり、個別収音マイクが収音した個別音源音信号)の成分を高精度に消去(抑圧)することが可能となる。また、エコーキャンセル部21~2nは時間領域信号をDFT(Discrete Fourier Transform)などにより順変換した上で周波数領域上やサブバンド領域上の適応フィルタを用いたエコーキャンセル処理として実現しても良く、キャンセル後の信号をIFFT(Inverse Fast Fourier Transform)などにより時間領域へと逆変換した上で後段の処理を行っても良い。
Here, each of the
<参考非特許文献> 5章 音響エコーキャンセラ、「適応フィルタの構成例」(図5・2参照)、p4/(17)、電子情報通信学会、2012年、[令和4年9月2日検索]、インターネット<URL:https://www.ieice-hbkb.org/files/02/02gun_06hen_05.pdf>
<Reference non-patent literature>
なお、エコーキャンセル部21~2nのそれぞれは収音空間(例えばライブ会場LV1)内を伝搬した個別音源音を消去(抑圧)することを目的として設けられる。このため、エコーキャンセル部21~2nのそれぞれは、符号化部22とともに収音空間(例えばライブ会場LV1)側に設けられてもよいし、符号化部22とともに再現空間(例えばサテライト会場STL)側に設けられていてもよい。この場合、収音空間(例えばライブ会場LV1)側に設けた場合、符号化部22の出力である1次オーダーアンビソニックス信号(つまり、客席側臨場感)の成分のみが音場臨場感再現装置20に送られることになる。一方、再現空間(例えばサテライト空間STL1)側に設けた場合、符号化部22の出力である1次オーダーアンビソニックス信号(つまり、客席側臨場感)の成分と個別音源音信号とが音場臨場感再現装置20に送られることになる。また、エコーキャンセル部21~2nのみを収音空間(例えばライブ会場LV1)側に設け、符号化部22を再現空間(例えばサテライト会場STL)に設けても良い。この場合、エコーキャンセル部2nの出力信号の成分のみが音場臨場感再現装置20に送られることになる。
Each of the
また、再現空間(例えばサテライト会場STL1)側では、音場臨場感再現装置20は、音場臨場感収音装置10の個別収音マイクM1~Mnのそれぞれにより収音された個別音源音信号を音場臨場感の再現目的のためにサテライトスピーカSPk1~SPkpのそれぞれ、或いは個別音源音信号用に設けた他のサテライトスピーカ(図示略)から出力してもよい。
Furthermore, on the side of the reproduction space (for example, satellite venue STL1), the sound field
ここで、符号化部22による符号化処理の詳細について説明する。
Here, details of the encoding process by the
一般的に、球面上の任意の角度(θ、φ)に対し半径rの位置で観測(収音)される音圧pは波動方程式の球面調和関数領域における内部問題の解として、波数kに対し式(2)の球面調和関数を基底として式(4)と展開されることが知られている。式(4)において、Am nは展開係数であり、Rn(kr)は動径関数項である。また、次数nに関する無限和は有限次数Nで打ち切ることで近似され、この打ち切り次数Nに応じて音場再現の精度が変化する。以下、打ち切り次数をNとして表現する。 In general, the sound pressure p observed (collected) at a position of radius r for any angle (θ, φ) on a spherical surface is expressed as a wave number k as a solution to an internal problem in the spherical harmonic domain of the wave equation. On the other hand, it is known that Equation (2) can be expanded as Equation (4) using the spherical harmonic function as a basis. In equation (4), A m n is an expansion coefficient and R n (kr) is a radial function term. Furthermore, the infinite sum with respect to order n is approximated by truncating at a finite order N, and the accuracy of sound field reproduction changes according to this truncated order N. Hereinafter, the truncation order will be expressed as N.
式(6)において、iは虚数単位であり、jn(kr)はn次の球ベッセル関数、j’
n(kr)はその導関数である。本開示においては、この平面波に対する展開係数ベクトルγm
nを、符号化部22による符号化処理の出力であるBフォーマット信号(中間表現)として取り扱う。以下、この展開係数ベクトルを、時間領域と異なるアンビソニックス領域上のアンビソニックス領域信号(ambisonics domain signal)又は単にアンビソニックス信号と称する場合がある。
In equation (6), i is an imaginary unit, j n (kr) is an n-th spherical Bessel function, and j ′ n (kr) is its derivative. In the present disclosure, the expansion coefficient vector γ m n for this plane wave is handled as a B format signal (intermediate representation) that is the output of the encoding process by the
より具体的には、符号化部22による符号化処理では、エコーキャンセル部21~2nのそれぞれから出力された参照信号の成分の消去処理後の時間領域信号(time domain signal)である収音信号をアンビソニックス信号(例えば1次オーダーアンビソニックス信号)へと変換し、このアンビソニックス信号(例えば1次オーダーアンビソニックス信号)は復号化部25によりデコード処理されてスピーカ駆動信号に変換される。
More specifically, in the encoding process by the
音場再生部26は、復号化部25から出力されたサテライトスピーカごとのディジタル形式のスピーカ駆動信号をアナログ形式のスピーカ駆動信号に変換して信号増幅し、対応するサテライトスピーカから出力(再生)する。
The sound
サテライトスピーカSPk1、…、SPkpは、立方体でモデル化される再現空間(例えばサテライト会場STL1)の各頂点部分(図10参照)に配置され、音場再生部26からのスピーカ駆動信号に基づいて音場を再生(再現)する。なお、スピーカ設置数は再現したい音場によって変化させてよく、特定の方位に対する再現を行わない場合や、トランスオーラルシステムやVBAP(Vector Based Amplitude Panning)法など一般的に知られた仮想音像生成方式を組み合わせることによりp個(例えば図10の例では8個)よりも少ないサテライトスピーカを用いて音場再現を行っても良い。逆に、p個(例えば図10の例では8個)よりも多くのサテライトスピーカを用いた音場再現を行っても良い。また、スピーカ設置位置はサテライト会場STL1の基準位置(例えば中心位置LSP1)を取り囲むように設置されていれば再現空間(例えばサテライト会場STL1)の各頂点部分以外であっても良い。音場再生部26はサテライトスピーカの代わりに聴取者(ユーザ)が装着しているヘッドホンやイヤホンなどの両耳への再生装置に信号を出力しても良い。また、音場再生部28は、聴取者(ユーザ)の両耳への再生装置(例えば、上述したヘッドホンやイヤホン)に信号を供給する際は後述するデコード処理によって方位角+-90°に対応した再生信号を生成しても良いし、頭部を包囲する複数の方向に対して仮想音像を生成し、それら複数の角度に対応したHRTF(Head Related Transfer Function)などの立体音像をユーザに知覚させるための伝達特性を対応した方向の仮想音像に対して周波数領域で乗算又は時間領域で畳み込むことで再生信号を生成しても良い。これにより、サテライト会場STL1に配置されたサテライトスピーカSPk1~SPkpのそれぞれからに限った音場再現となるのではなく、サテライト会場STL1に配置された聴取者(ユーザ)が装着している再生装置(例えば、上述したヘッドホンやイヤホン)への音場再現も可能となる。
The satellite speakers SPk1, . Regenerate (recreate) the place. Note that the number of speakers installed may be changed depending on the sound field to be reproduced, and may be used in cases where reproduction is not performed in a specific direction, or in cases where generally known virtual sound image generation methods such as the transaural system and VBAP (Vector Based Amplitude Panning) method are used. By combining these, the sound field may be reproduced using fewer than p satellite speakers (for example, eight in the example of FIG. 10). Conversely, sound field reproduction may be performed using more than p satellite speakers (for example, 8 in the example of FIG. 10). Further, the speaker installation position may be other than each vertex of the reproduction space (for example, the satellite venue STL1) as long as it is installed so as to surround the reference position (for example, the center position LSP1) of the satellite venue STL1. The sound
ここで、復号化部25による処理の詳細について説明する。
Here, we will explain the details of the processing performed by the
次に、図15を参照して、音場臨場感再現装置20による音場臨場感再現の動作手順について説明する。図15は、実施の形態2に係る音場臨場感再現装置20による音場臨場感再現の動作手順例を時系列に示すフローチャートである。
Next, with reference to FIG. 15, a description will be given of an operation procedure for reproducing a sound field sense of presence by the sound field sense of
図15において、音場臨場感収音装置10のアンビソニックスマイクAMB1は、収音空間(例えばライブ会場LV1)内で配置されている客席側所定位置の周囲で生じている音(例えば客席側臨場感を与える音)を収音する(ステップSt21)。このステップSt21で収音されたアンビソニックスマイクAMB1のマイク素子ごとの収音信号は、音場臨場感再現装置20Bに送信される。但し、上述したように、ステップSt21で収音される音には、客席側臨場感を与える音だけでなく、収音空間(例えばライブ会場LV1)のメインステージSTG1(図12参照)での演奏或いは演劇等による1以上の音源からの音も含まれる。また、収音空間(例えばライブ会場LV1)のメインステージSTG1(図12参照)での演奏或いは演劇等による1以上の音源からの個別収音マイクM1~Mnのそれぞれにより収音された個別音源音(言い換えると、第1の参照信号M1S~第nの参照信号MnS)も音場臨場感再現装置20に送信される(ステップSt21)。
15, the Ambisonics microphone AMB1 of the sound field
音場臨場感再現装置20は、エコーキャンセル部21~2nのそれぞれにおいて、アンビソニックスマイクAMB1のマイク素子ごとの収音信号を主信号、個別収音マイクM1~Mnのそれぞれの収音信号を参照信号としたエコーキャンセル処理(上述参照)を時間軸上で参照信号ごとに繰り返して実行する(ステップSt22)。より具体的には、音場臨場感再現装置20のエコーキャンセル部21は、ステップSt21で送られた各種の信号(具体的には、アンビソニックスマイクAMB1のマイク素子ごとの収音信号、対応する第1の参照信号M1S)を入力し、アンビソニックスマイクAMB1のマイク素子ごとの収音信号に含まれる第1の参照信号M1S(つまり、個別収音マイクM1が収音した個別音源音信号)の成分を消去するための消去処理(例えばエコーキャンセル処理)を時間軸上で実行する(ステップSt22)。同様に、音場臨場感再現装置20のエコーキャンセル部2nは、ステップSt21で送られた各種の信号(具体的には、アンビソニックスマイクAMB1のマイク素子ごとの収音信号、対応する第nの参照信号MnS)を入力し、アンビソニックスマイクAMB1のマイク素子ごとの収音信号に含まれる第nの参照信号MnS(つまり、個別収音マイクMnが収音した個別音源音信号)の成分を消去するための消去処理(例えばエコーキャンセル処理)を時間軸上で実行する(ステップSt22)。
In each of the
以上により、実施の形態2に係る音場臨場感再現装置20は、収音空間(ライブ会場LV1)内に配置される収音デバイス(アンビソニックスマイクAMB1)により収音される収音信号(拡散音の成分DS1~DS3)と、収音空間内の1以上の音源の音源信号(音信号SS1、音声信号SS2、音信号SS3)とを取得する取得部(エコーキャンセル部21~2n)と、その音源信号を参照信号とし、収音信号に含まれる参照信号の成分を消去する消去処理を時間軸上で実行する消去部(エコーキャンセル部21~2n)と、消去処理後の信号を符号化処理する符号化部22と、符号化処理後の信号に基づいて、収音空間とは異なる再現空間(サテライト会場STL1)内に配置される複数のスピーカ(サテライトスピーカSPk1~SPkp)ごとに、収音空間内の音場臨場感を再現空間内において再現するためのスピーカ駆動信号を生成する生成部(復号化部25)と、複数のスピーカのそれぞれから、スピーカごとのスピーカ駆動信号を出力する音場再生部26と、を備える。これにより、実施の形態2に係る音場臨場感再現装置20は、アンビソニックスマイクAMB1が主に収音した収音空間(ライブ会場LV1)内の客席側臨場感の雰囲気を、アンビソニックスマイクAMB1により収音されるライブ会場LV1内の1以上の個別音源(参照信号)の成分を時間軸上で消去することにより、少なくとも1つのサテライト会場内において高精度に再現することができる。
As described above, the sound field
また、音場臨場感再現装置20は、収音デバイス(アンビソニックスマイクAMB1)が備える複数のマイク素子Mc1~Mc4の方向情報を指定するマイク素子方向指定部23を更に備える。符号化部22は、複数のマイク素子Mc1~Mc4のそれぞれの方向情報と消去処理後の信号とを用いて、符号化処理を実行する。これにより、音場臨場感再現装置20は、アンビソニックスマイクAMB1が備えるマイク素子Mc1~Mc4のそれぞれの方向情報を加味して複数の方向解像度(図10のBフォーマット信号参照)を有するアンビソニックス信号を生成できる。
The sound field
また、音場臨場感再現装置20は、再現空間(サテライト会場STL1)内の複数のスピーカ(サテライトスピーカSPk1~SPkp)の方向情報を指定するスピーカ方向指定部24を更に備える。生成部(復号化部25)は、複数のスピーカのそれぞれの方向情報と符号化処理後の信号とを用いて、複数のスピーカのそれぞれごとのスピーカ駆動信号をアンビソニックス領域上で生成する。これにより、音場臨場感再現装置20は、サテライト会場STL1の空間内に配置されている複数のサテライトスピーカSPk1~SPkpのそれぞれの基準位置(例えば聴取者の位置に相当する中心位置LSP1参照)からの方向情報を加味してライブ会場LV1内の客席側臨場感を再現可能なスピーカ駆動信号を生成できる。
Furthermore, the sound field
また、音場臨場感再現装置20の消去部(エコーキャンセル部21~2n)は、収音デバイス(アンビソニックスマイクAMB1)が備えるマイク素子Mc1~Mc4の数と音源の数とに基づいて定められる個数分のシングルエコーキャンセラ(図14参照)により構成される。それぞれのシングルエコーキャンセラは、対応する音源の音源信号(例えば個別収音マイクによる音信号若しくは音声信号)を入力して消去処理(エコーキャンセル処理)を時間軸上で実行する。これにより、特に参照信号間に相関が無い場合(言い換えると、クロストーク成分が実質的に含まれないと見做せる程度の所定閾値未満となる場合)には、アンビソニックスマイクAMB1のマイク素子ごとの収音信号に含まれる参照信号(つまり、個別収音マイクMnが収音した個別音源音信号)の成分を高精度に消去(抑圧)することが可能となる。クロストーク成分が実質的に含まれないとは、例えばメインステージSTG1(図12参照)上にいるボーカルが歌った時の音声が他の個別収音マイクにより収音されない或いは収音されてもその音圧レベルが上述した所定閾値未満となる場合が該当する。
The elimination unit (echo cancellation unit 21-2n) of the sound field
(実施の形態2の変形例)
実施の形態2では、音場臨場感再現装置において、エコーキャンセル部21~2nのそれぞれをSingle EchoCancellerとして構成した例を説明した。実施の形態2の変形例では、音場臨場感再現装置において、エコーキャンセル部21~2nの代わりに、複数の音声チャネルを取り扱うマルチチャンネルエコーキャンセラとして構成した例を説明する。なお、実施の形態2の変形例において、実施の形態2と重複する構成、内容については対応する共通の符号を付与して説明を簡略化或いは省略し、異なる内容について説明する。
(Modification of Embodiment 2)
In the second embodiment, an example has been described in which each of the
まず、図16及び図17を参照して、実施の形態2の変形例に係る音場臨場感再現システム100Aのシステム構成並びに動作概要について説明する。図16は、実施の形態2の変形例に係る音場臨場感再現システム100Aのシステム構成例を示すブロック図である。図17は、図16の音場臨場感再現システム100Aにおける音場臨場感収音から音場臨場感再現までの動作概要例を示す図である。
First, with reference to FIGS. 16 and 17, the system configuration and operational outline of a sound field realistic
音場臨場感再現システム100Aは、音場臨場感収音装置10と、音場臨場感再現装置20Aとを含む。音場臨場感収音装置10と音場臨場感再現装置20AとはネットワークNW1を介して互いにデータ通信が可能に接続されている。
The sound field
音場臨場感再現装置20Aは、再現空間(例えばサテライト会場STL1)に配置され、マルチチャンネルエコーキャンセル部21Aと、符号化部22と、マイク素子方向指定部23と、スピーカ方向指定部24と、復号化部25と、音場再生部26と、サテライトスピーカSPk1、…、SPkpとを含む。つまり、実施の形態2の変形例では、実施の形態2のエコーキャンセル部21~2nの代わりに、n個の個別収音マイクのそれぞれが収音する音源の音源信号を入力するマルチチャンネルエコーキャンセル部21Aが音場臨場感再現装置20A内に設けられる。なお、図16中のマルチチャンネルエコーキャンセル部21A、符号化部22、マイク素子方向指定部23、スピーカ方向指定部24、復号化部25及び音場再生部26の構成は、実施の形態1に係る客席側臨場感パラメータ算出部16及び音場再生処理部18の構成(図1参照)に相当する。
The sound field
マルチチャンネルエコーキャンセル部21Aは、音場臨場感収音装置10(A/D変換部7側)から送られたアンビソニックスマイクAMB1のマイク素子ごとの収音信号を入力し、更に、音場臨場感収音装置10(個別収音マイクM1側)から送られた第1の音源(上述参照)~第nの音源(上述参照)のそれぞれの個別音源音信号を第1の参照信号M1S~第nの参照信号MnSとして入力する。マルチチャンネルエコーキャンセル部21Aは、アンビソニックスマイクAMB1の収音信号に含まれる、第1の参照信号M1S(つまり、個別収音マイクM1が収音した個別音源音信号)~第nの参照信号MnS(つまり、個別収音マイクMnが収音した個別音源音信号)のそれぞれの成分を消去するための消去処理(例えばマルチチャンネルエコーキャンセル処理)を時間領域上で実行する。マルチチャンネルエコーキャンセル部21Aは、消去処理後の信号(第1の収音信号~第nの収音信号)を符号化部22に出力する。
The multi-channel
ここで、マルチチャンネルエコーキャンセル部21Aは、例えば時間領域上で動作する適応フィルタを用いたエコーキャンセラとして構成してよい。このエコーキャンセラは、例えばMulti Channel EchoCancellerとして構成することができる。なお、このMulti Channel EchoCancellerの構成としては、参考非特許文献に示されるステレオエコーキャンセラを参考にしてよく、このステレオエコーキャンセラはMulti Channel EchoCancellerに入力される参照信号の数を2つ設けた場合の例となる。従って、図17に示すように、マルチチャンネルエコーキャンセル部21Aは、アンビソニックスマイクAMB1のマイク素子の数(例えば4)と同数のMulti Channel EchoCanceller若しくはステレオエコーキャンセラを用いて構成可能である。このMulti Channel EchoCanceller若しくはステレオエコーキャンセラは、例えば参考非特許文献において開示されている構成或いはその構成を参照することで得られる構成でよい。この構成を用いることにより、たとえ参照信号間に相関がある場合(言い換えると、クロストーク成分が含まれないと見做せる程度の所定閾値以上となる場合)でも、アンビソニックスマイクAMB1の収音信号に含まれる参照信号(つまり、個別収音マイクMnが収音した個別音源音信号)の成分を高精度に消去(抑圧)することが可能となる。また、マルチチャンネルエコーキャンセル部21Aは時間領域信号をDFTなどにより順変換した上で周波数領域上やサブバンド領域上の適応フィルタを用いたエコーキャンセル処理として実現しても良く、キャンセル後の信号をIFFTなどにより時間領域へと逆変換した上で後段の処理を行っても良い。
Here, the multi-channel echo canceller 21A may be configured as an echo canceller using an adaptive filter that operates in the time domain, for example. This echo canceller can be configured as a multi-channel echo canceller, for example. Note that the configuration of this multi-channel echo canceller may refer to the stereo echo canceller shown in the reference non-patent document, and this stereo echo canceller is an example in which two reference signals are input to the multi-channel echo canceller. Therefore, as shown in FIG. 17, the multi-channel echo canceller 21A can be configured using a multi-channel echo canceller or a stereo echo canceller in the same number as the number of microphone elements (for example, 4) of the Ambisonics microphone AMB1. This Multi Channel Echo Canceller or stereo echo canceller may be, for example, a configuration disclosed in a reference non-patent document or a configuration obtained by referring to that configuration. By using this configuration, even if there is a correlation between the reference signals (in other words, when the correlation is equal to or exceeds a predetermined threshold value to the extent that it can be considered that no crosstalk components are included), it is possible to highly accurately erase (suppress) the components of the reference signal (i.e., the individual sound source signal picked up by the individual sound pickup microphone Mn) contained in the sound pickup signal of the Ambisonics microphone AMB1. In addition, the multi-channel
<参考非特許文献> 5章 音響エコーキャンセラ、「ステレオエコーキャンセラの構成例」(図5・8参照)、電子情報通信学会、2012年、[令和4年9月2日検索]、インターネット<URL:https://www.ieice-hbkb.org/files/02/02gun_06hen_05.pdf>
<Reference non-patent literature>
次に、図18を参照して、音場臨場感再現装置20Aによる音場臨場感再現の動作手順について説明する。図18は、実施の形態2の変形例に係る音場臨場感再現装置による音場臨場感再現の動作手順例を時系列に示すフローチャートである。図18の説明において、図15の説明と重複する内容については同一のステップ番号を付与して説明を簡略化或いは省略し、異なる内容について説明する。
Next, with reference to FIG. 18, an explanation will be given of an operation procedure for reproducing a sound field sense of presence by the sound field sense of
図18において、音場臨場感再現装置20Aは、マルチチャンネルエコーキャンセル部21Aにおいて、アンビソニックスマイクAMB1の収音信号を主信号、個別収音マイクM1~Mnのそれぞれの収音信号を参照信号としたマルチチャンネルエコーキャンセル処理(上述参照)を時間領域上で実行する(ステップSt22A)。より具体的には、音場臨場感再現装置20Aのマルチチャンネルエコーキャンセル部21Aは、ステップSt21で送られた各種の信号(具体的には、アンビソニックスマイクAMB1のマイク素子ごとの収音信号、第1の参照信号M1S~第nの参照信号MnS)を入力し、アンビソニックスマイクAMB1のマイク素子ごとの収音信号に含まれる、第1の参照信号M1S(つまり、個別収音マイクM1が収音した個別音源音信号)の成分~第nの参照信号MnS(つまり、個別収音マイクMnが収音した個別音源音信号)の成分を消去するための消去処理(例えばマルチチャンネルエコーキャンセル処理)を時間軸上で実行する(ステップSt22A)。ステップSt22A以降の処理は図15と重複するので、説明は省略する。
In FIG. 18, the sound field
以上により、実施の形態2の変形例に係る音場臨場感再現システム100Aでは、音場臨場感再現装置20Aの消去部(マルチチャンネルエコーキャンセル部21A)は、収音デバイス(アンビソニックスマイクAMB1)が備えるマイク素子Mc1~Mc4の数に基づいて定められる個数分のマルチチャンネルエコーキャンセラにより構成される(図17参照)。それぞれのマルチチャンネルエコーキャンセラは、複数の音源のそれぞれに対応する音源信号(音源音信号)を入力して消去処理(マルチキャンセルエコーキャンセル処理)を実行する。これにより、たとえ参照信号間に相関がある場合(言い換えると、クロストーク成分が含まれないと見做せる程度の所定閾値以上となる場合)でも、アンビソニックスマイクAMB1のマイク素子ごとの収音信号に含まれる参照信号(つまり、個別収音マイクが収音した個別音源音信号)の成分を高精度に消去(消去)することが可能となる。
As described above, in the sound field
(実施の形態3)
実施の形態2では、音場臨場感再現装置において、1次オーダーアンビソニックス信号を生成するための符号化処理を実行する前に、アンビソニックスマイクAMB1のマイク素子ごとの収音信号と収音空間(例えばライブ会場LV1)内の音源ごとの音源音信号(参照信号)とを用いて時間領域上でエコーキャンセル処理を実行する例を説明した。実施の形態3では、音場臨場感再現装置において、1次オーダーアンビソニックス信号と収音空間(例えばライブ会場LV1)内の音源ごとの方向指定別の音源音信号とを用いてアンビソニックス領域上でエコーキャンセル処理を実行する例を説明する。なお、実施の形態3において、実施の形態2と重複する構成、内容については対応する共通の符号を付与して説明を簡略化或いは省略し、異なる内容について説明する。
(Embodiment 3)
In the second embodiment, an example is described in which, in a sound field realistic sensation reproduction device, before performing an encoding process for generating a first-order Ambisonics signal, echo cancellation processing is performed in the time domain using the pickup signal for each microphone element of the Ambisonics microphone AMB1 and a sound source sound signal (reference signal) for each sound source in the sound collection space (for example, live venue LV1). In the third embodiment, an example is described in which, in a sound field realistic sensation reproduction device, echo cancellation processing is performed in the Ambisonics domain using a first-order Ambisonics signal and a direction-specified sound source sound signal for each sound source in the sound collection space (for example, live venue LV1). Note that in the third embodiment, the configuration and contents that overlap with those in the second embodiment are given corresponding common reference symbols, and the description is simplified or omitted, and the different contents are described.
まず、図19及び図20を参照して、実施の形態3に係る音場臨場感再現システム100Bのシステム構成並びに動作概要について説明する。図19は、実施の形態3に係る音場臨場感再現システム100Bのシステム構成例を示すブロック図である。図20は、図19の音場臨場感再現システム100Bにおける音場臨場感収音から音場臨場感再現までの動作概要例を示す図である。
First, with reference to FIGS. 19 and 20, the system configuration and operational outline of the sound field realistic
音場臨場感再現システム100Bは、音場臨場感収音装置10Bと、音場臨場感再現装置20Bとを含む。音場臨場感収音装置10Bと音場臨場感再現装置20BとはネットワークNW1を介して互いにデータ通信が可能に接続されている。
The sound field
音場臨場感収音装置10Bは、収音空間(例えばライブ会場LV1)に配置され、アンビソニックスマイクAMB1と、A/D変換部7と、符号化部8と、マイク素子方向指定部9と、個別収音マイクM1、…、Mnと、を含む。なお、音場臨場感収音装置10は、少なくともアンビソニックスマイクAMB1を有していればよく、A/D変換部7、符号化部8及びマイク素子方向指定部9は音場臨場感再現装置20Bに設けられてもよい。
The sound field
音場臨場感再現装置20Bは、再現空間(例えばサテライト会場STL1)に配置され、エコーキャンセル部21B、…、2nBと、符号化部31、…、3nと、音源位置指定部41、…、4nと、スピーカ方向指定部24と、復号化部25Bと、音場再生部26と、サテライトスピーカSPk1、…、SPkpとを含む。また、エコーキャンセル部21~2nの個数を示すnと、符号化部31~3nの個数を示すnと、音源位置指定部41~4nの個数を示すnと、個別収音マイクM1~Mnの個数を示すnとは同一である。つまり、個別収音マイクが収音する音源の種類数と同数のエコーキャンセル部、符号化部及び音源位置指定部が音場臨場感再現装置20B内に設けられる。なお、図19中のエコーキャンセル部21B~2nB、符号化部31~3n、音源位置指定部41~4n、スピーカ方向指定部24、復号化部25B及び音場再生部26の構成は、実施の形態1に係る客席側臨場感パラメータ算出部16及び音場再生処理部18の構成(図1参照)に相当する。
The sound field
ここで、エコーキャンセル部21B~2nBのそれぞれは、例えばアンビソニックス領域で動作する適応フィルタを用いたエコーキャンセラとして構成してよい。このエコーキャンセラは、例えばSingle Channel EchoCancellerとして構成することができる。従って、図20に示すように、エコーキャンセル部21B~2nBのそれぞれは、アンビソニックスマイクAMB1のマイク素子の数(例えば4)と同数のSingle Channel EchoCancellerを用いて構成可能である。このSingle Channel EchoCancellerは、例えば参考非特許文献において開示されている構成でよい。この構成を用いることにより、たとえ参照信号間に相関が無い場合(言い換えると、クロストーク成分が実質的に含まれないと見做せる程度の所定閾値未満となる場合)には、アンビソニックスマイクAMB1のマイク素子ごとの収音信号に基づく信号成分(例えば図10に示すW、X、Y、Zの各方向解像度を有する信号)に含まれる参照信号(つまり、個別収音マイクが収音した個別音源音信号)の成分を高精度に消去(抑圧)することが可能となる。
Here, each of the
<参考非特許文献> 5章 音響エコーキャンセラ、「適応フィルタの構成例」(図5・2参照)、p4/(17)、電子情報通信学会、2012年、[令和4年9月2日検索]、インターネット<URL:https://www.ieice-hbkb.org/files/02/02gun_06hen_05.pdf>
<Reference non-patent literature>
次に、図21を参照して、音場臨場感再現装置20Bによる音場臨場感再現の動作手順について説明する。図21は、実施の形態3に係る音場臨場感再現装置20Bによる音場臨場感再現の動作手順例を時系列に示すフローチャートである。図21の説明において、図15の説明と重複する内容については同一のステップ番号を付与して説明を簡略化或いは省略し、異なる内容について説明する。
Next, with reference to FIG. 21, an explanation will be given of an operation procedure for reproducing a sound field sense of presence by the sound field sense of
以上により、実施の形態3に係る音場臨場感再現システム100Bにおいて、音場臨場感再現装置20Bは、収音空間(ライブ会場LV1)内に配置される収音デバイス(アンビソニックスマイクAMB1)により収音される収音信号(拡散音の成分DS1~DS3)を少なくとも取得する取得部(エコーキャンセル部21B~2nB)と、収音空間内の1以上の音源の音源信号(音信号SS1、音声信号SS2、音信号SS3)を符号化処理する符号化部31~3nと、符号化処理後の音源信号を参照信号とし、収音信号に含まれる参照信号の成分を消去する消去処理を実行する消去部(エコーキャンセル部21B~2nB)と、消去処理後の信号に基づいて、収音空間とは異なる再現空間(サテライト会場STL1)内に配置される複数のスピーカ(サテライトスピーカSPk1~SPkp)ごとに、収音空間内の音場臨場感を再現空間内において再現するためのスピーカ駆動信号を生成する生成部(復号化部25B)と、複数のスピーカのそれぞれから、スピーカごとのスピーカ駆動信号を出力する音場再生部26と、を備える。これにより、実施の形態3に係る音場臨場感再現装置20Bは、アンビソニックスマイクAMB1が主に収音した収音空間(ライブ会場LV1)内の客席側臨場感の雰囲気を、アンビソニックスマイクAMB1により収音されるライブ会場LV1内の1以上の個別音源(参照信号)の成分を時間領域上ではなくアンビソニックス領域上で消去することにより、高い方向解像度を有して少なくとも1つのサテライト会場内において高精度に再現することができる。
As described above, in the sound field
また、取得部(エコーキャンセル部21B~2nB)により取得される収音信号は、収音デバイス(アンビソニックスマイクAMB1)が備える複数のマイク素子Mc1~Mc4のそれぞれの方向情報を用いて符号化処理された信号である。これにより、音場臨場感再現装置20Bは、消去部(エコーキャンセル部21B~2nBのそれぞれ)における消去処理の対象として入力する信号として、高い方向解像度を有する1次オーダーアンビソニックス信号を取得できる。
In addition, the sound signals acquired by the acquisition unit (echo
また、音場臨場感再現装置20Bは、再現空間(サテライト会場STL1)内の複数のスピーカ(サテライトスピーカSPk1~SPkp)の方向情報を指定するスピーカ方向指定部24を更に備える。生成部(復号化部25B)は、複数のスピーカのそれぞれの方向情報と消去処理後の信号とを用いて、複数のスピーカのそれぞれごとのスピーカ駆動信号を生成する。これにより、音場臨場感再現装置20Bは、アンビソニックス領域上での消去処理後の信号を用いて復号化処理を施すことにより、複数のサテライトスピーカSPk1~SPkpのそれぞれの基準位置(例えば聴取者の位置に相当する中心位置LSP1参照)からの方向情報を加味してライブ会場LV1内の客席側臨場感を再現可能であってかつ高い方向解像度を有するスピーカ駆動信号を高精度に生成できる。
Furthermore, the sound field
また、音場臨場感再現装置20Bは、収音空間(ライブ会場LV1)内の1以上の音源の位置情報を指定する音源位置指定部41~4nを更に備える。符号化部31~3nのそれぞれは、対応する音源の音源信号及び位置情報を用いて、符号化処理を実行する。これにより、音場臨場感再現装置20Bは、ライブ会場LV1内の個別音源の存在する方向を加味して消去部(エコーキャンセル部21B~2nB)の消去処理に必要となる高精度な参照信号を生成できる。
In addition, the sound field
また、消去部(エコーキャンセル部21B~2nB)は、収音デバイス(アンビソニックスマイクAMB1)が備えるマイク素子Mc1~Mc4の数(例えば4)と音源の数(例えばn個)とに基づいて定められる個数分(例えば4n(=4×n)個)のシングルエコーキャンセラにより構成される。シングルエコーキャンセラは、対応する音源の音源信号が符号化処理された後の信号を入力して消去処理を実行する。これにより、音場臨場感再現装置20Bは、特に参照信号間に相関が無い場合(言い換えると、クロストーク成分が実質的に含まれないと見做せる程度の所定閾値未満となる場合)には、アンビソニックスマイクAMB1のマイク素子ごとの収音信号に基づく信号成分(例えば図10に示すW、X、Y、Zの各方向解像度を有する信号)に含まれる参照信号(つまり、個別収音マイクMnが収音した個別音源音信号と個別音源方向とに基づく1次オーダーアンビソニックス信号)の成分を高精度に消去(抑圧)することが可能となる。
Further, the canceling section (echo canceling
(実施の形態3の変形例)
実施の形態3では、音場臨場感再現装置において、エコーキャンセル部21B~2nBのそれぞれをSingle EchoCancellerとして構成した例を説明した。実施の形態3の変形例では、音場臨場感再現装置において、エコーキャンセル部21B~2nBの代わりに、時間領域上ではなくアンビソニックス領域上において複数の音声チャネルを取り扱うマルチチャンネルエコーキャンセラとして構成した例を説明する。なお、実施の形態3の変形例において、実施の形態1、2と重複する構成、内容については対応する共通の符号を付与して説明を簡略化或いは省略し、異なる内容について説明する。
(Modification of the third embodiment)
In the third embodiment, an example is described in which each of the
まず、図22及び図23を参照して、実施の形態3の変形例に係る音場臨場感再現システム100Cのシステム構成並びに動作概要について説明する。図22は、実施の形態3の変形例に係る音場臨場感再現システム100Cのシステム構成例を示すブロック図である。図23は、図22の音場臨場感再現システム100Cにおける音場臨場感収音から音場臨場感再現までの動作概要例を示す図である。
First, with reference to FIGS. 22 and 23, the system configuration and operational outline of a sound field realistic
音場臨場感再現システム100Cは、音場臨場感収音装置10B(図19参照)と、音場臨場感再現装置20Cとを含む。音場臨場感収音装置10Bと音場臨場感再現装置20CとはネットワークNW1を介して互いにデータ通信が可能に接続されている。
The sound field
ここで、マルチチャンネルエコーキャンセル部21Cは、例えばアンビソニックス領域で動作する複数の適応フィルタを用いたエコーキャンセラとして構成してよい。このエコーキャンセラは、例えばMulti Channel EchoCancellerとして構成することができる。なお、このMulti Channel EchoCancellerの構成としては、参考非特許文献に示されるステレオエコーキャンセラを参考にしてよく、このステレオエコーキャンセラはMulti Channel EchoCancellerに入力される参照信号の数を2つ設けた場合の例となる。従って、図23に示すように、マルチチャンネルエコーキャンセル部21Cは、アンビソニックスマイクAMB1のマイク素子の数(例えば4)と同数のMulti Channel EchoCanceller若しくはステレオエコーキャンセラを用いて構成可能である。このMulti Channel EchoCanceller若しくはステレオエコーキャンセラは、例えば参考非特許文献において開示されている構成或いはその構成を参照することで得られる構成でよい。この構成を用いることにより、たとえ参照信号間に相関がある場合(言い換えると、クロストーク成分が含まれないと見做せる程度の所定閾値以上となる場合)でも、アンビソニックスマイクAMB1の収音信号に基づく信号成分(例えば図10に示すW、X、Y、Zの各方向解像度を有する信号)に含まれる参照信号(つまり、個別収音マイクMnが収音した個別音源音信号)の成分を高精度に消去(抑圧)することが可能となる。
Here, the multichannel
<参考非特許文献> 5章 音響エコーキャンセラ、「ステレオエコーキャンセラの構成例」(図5・8参照)、電子情報通信学会、2012年、[令和4年9月2日検索]、インターネット<URL:https://www.ieice-hbkb.org/files/02/02gun_06hen_05.pdf>
<Reference non-patent literature>
次に、図24を参照して、音場臨場感再現装置20Cによる音場臨場感再現の動作手順について説明する。図24は、実施の形態3の変形例に係る音場臨場感再現装置20Cによる音場臨場感再現の動作手順例を時系列に示すフローチャートである。図24の説明において、図15、図18或いは図21の説明と重複する内容については同一のステップ番号を付与して説明を簡略化或いは省略し、異なる内容について説明する。
Next, with reference to FIG. 24, a description will be given of an operation procedure for reproducing a sound field sense of presence by the sound field sense of
以上により、実施の形態3の変形例に係る音場臨場感再現装置20Cにおいて、消去部(マルチチャンネルエコーキャンセル部21C)は、収音デバイス(アンビソニックスマイクAMB1)が備えるマイク素子Mc1~Mc4の数に基づいて定められる個数分のマルチチャンネルエコーキャンセラにより構成される。マルチチャンネルエコーキャンセラは、複数の音源のそれぞれに対応する音源信号が符号化処理された後の信号を入力して消去処理(マルチチャンネルエコーキャンセル処理)を実行する。これにより、音場臨場感再現装置20Cは、たとえ参照信号間に相関がある場合(言い換えると、クロストーク成分が含まれないと見做せる程度の所定閾値以上となる場合)でも、アンビソニックスマイクAMB1のマイク素子ごとの収音信号に基づく信号成分(例えば図10に示すW、X、Y、Zの各方向解像度を有する信号)に含まれる参照信号(つまり、個別収音マイクが収音した個別音源音信号)の成分をアンビソニックス領域上で高精度に消去(抑圧)することが可能となる。
As described above, in the sound field
以上、添付図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した実施の形態における各構成要素を任意に組み合わせてもよい。 Although the embodiments have been described above with reference to the attached drawings, the present disclosure is not limited to such examples. It is clear that a person skilled in the art can conceive of various modifications, corrections, substitutions, additions, deletions, and equivalents within the scope of the claims, and it is understood that these also fall within the technical scope of the present disclosure. Furthermore, the components in the above-described embodiments may be combined in any manner as long as it does not deviate from the spirit of the invention.
なお、上述した実施の形態1では、臨場感音場再生装置は、ライブ会場LV1内で収音(収録)した演者の演者音信号、ゾーン音信号、客席側臨場感音信号を用いてリアルタイムにサテライト会場STL1内において音像定位並びに臨場感の再生を行う例を説明した。しかしながら、臨場感音場再生装置は、ライブ会場LV1において予め録音した演者の演者音信号、ゾーン音信号、客席側臨場感音信号をサテライト会場STL1内の記憶部13に予め保存しておき、リアルタイムではなく録音日よりも後日にライブ会場LV1の音場による雰囲気の再生(音像定位、臨場感再現)を行うようにしても構わない。
In the above-described first embodiment, the realistic sound field reproducing device reproduces sound in real time using the performer's sound signal, the zone sound signal, and the audience seat side realistic sound signal collected (recorded) in the live venue LV1. An example has been described in which sound image localization and realistic reproduction are performed within the satellite venue STL1. However, the realistic sound field reproducing device stores in advance the performer's sound signal, the zone sound signal, and the audience seat side realistic sound signal recorded in advance at the live venue LV1 in the
なお、図1に示したシステム構成例において、記憶部13、音像定位ゾーン決定部15、客席側臨場感パラメータ算出部16、ミキシング/レベルバランス調整部17のうち少なくとも1つはライブ会場LV側に設けられても構わない。言い換えると、図1に示す臨場感音場再生システム1000のシステム構成の配置については、ライブ会場LV1側に設けられるコンピュータ装置P1の性能、サテライト会場STL1側に設けられるコンピュータ装置P2の性能等を勘案して適宜決定してよい。
In the system configuration example shown in FIG. 1, at least one of the
本開示は、音場収録空間内の各種の音源による音像を含む臨場感を音場再生空間内において高感度に再生する臨場感音場再生装置及び臨場感音場再生方法として有用である。 INDUSTRIAL APPLICABILITY The present disclosure is useful as a realistic sound field reproducing device and a realistic sound field reproducing method that highly sensitively reproduces a sense of presence including sound images from various sound sources in a sound field recording space in a sound field reproduction space.
1 ミキサ
2 演者トラッキングシステム
3 顔データベース
4 エンコーダ
5 マッチング表データベース
6 ライブ会場側通信部
7 A/D変換部
8、22、31、3n 符号化部
9、23 マイク素子方向指定部
10、10B 音場臨場感収音装置
11 サテライト会場側通信部
12 デコーダ
13 記憶部
14 映像出力部
15 音像定位ゾーン決定部
16 客席側臨場感パラメータ算出部
17 ミキシング/レベルバランス調整部
18 音場再生処理部
20、20A、20B、20C 音場臨場感再現装置
21、2n、21B、2nB エコーキャンセル部
21A、21C マルチチャンネルエコーキャンセル部
24 スピーカ方向指定部
25、25B、25C 復号化部
26 音場再生部
41、4n 音源位置指定部
100、100A、100B、100C 音場臨場感再現システム
1000 臨場感音場再生システム
AMB1 アンビソニックスマイク
HM1、HM4 ヘッドセットマイク
M1、Mn 個別収音マイク
SPk1、SPk2、SPk3、SPk4、SPk5、SPk6、SPk7、SPk8、SPk9、SPk10、SPk11、SPk12、SPkp サテライトスピーカ
ZM1、ZM2、ZM3、ZM4、ZM5、ZM6、ZM7 ゾーンマイク
1
Claims (11)
前記人物の位置情報に基づいて、前記複数の周辺マイクのうちいずれかであってかつ前記活動エリア内の前記人物が位置する箇所を収録領域とする主周辺マイクを決定する決定部と、
少なくとも前記人物マイクによる前記発話音声信号と、前記主周辺マイクによる第1周辺音信号と、前記主周辺マイク以外の他の前記周辺マイクによる第2周辺音信号とに基づいて、前記音場収録空間とは異なる音場再生空間内に配置された複数のスピーカを用いて前記音場収録空間内の音場を再現するための音場再生処理を実行する音場再生部と、を備える、
臨場感音場再生装置。 A speech audio signal recorded by a person microphone worn by at least one person who can move in an activity area in a sound field recording space, and an ambient sound signal recorded by a plurality of peripheral microphones arranged around the activity area. , and an acquisition unit that acquires at least the location information of the person;
a determining unit that determines a main peripheral microphone, which is one of the plurality of peripheral microphones and whose recording area is a location where the person is located within the activity area, based on position information of the person;
Based on at least the uttered audio signal from the person microphone, a first surrounding sound signal from the main surrounding microphone, and a second surrounding sound signal from the surrounding microphone other than the main surrounding microphone, the sound field recording space is a sound field reproduction unit that executes a sound field reproduction process for reproducing the sound field in the sound field recording space using a plurality of speakers arranged in a sound field reproduction space different from the sound field reproduction space;
Realistic sound field reproduction device.
請求項1に記載の臨場感音場再生装置。 The sound field reproduction unit reproduces the sound field so as to reproduce the sound field in the sound field recording space by emphasizing the first peripheral sound signal more than the second peripheral sound signal in the sound field reproduction space. execute the process,
The realistic sound field reproducing device according to claim 1.
前記音場再生部は、前記音場収録空間内の前記周辺エリアに相当する前記音場再生空間内のエリアに前記周辺エリア音信号による音場を再生するための信号処理を実行する、
請求項1に記載の臨場感音場再生装置。 The acquisition unit further acquires a peripheral area sound signal recorded by a sound recording device located in a peripheral area different from the activity area in the sound field recording space,
The sound field reproduction unit executes signal processing for reproducing a sound field based on the peripheral area sound signal in an area in the sound field reproduction space corresponding to the peripheral area in the sound field recording space.
The realistic sound field reproducing device according to claim 1.
請求項1に記載の臨場感音場再生装置。 The sound field reproduction unit mixes the uttered audio signal, the first ambient sound signal, and the second ambient sound signal, and performs signal level balance adjustment, and outputs the mixture through each of the plurality of speakers.
The realistic sound field reproducing device according to claim 1.
請求項3に記載の臨場感音場再生装置。 The sound field reproduction unit mixes the uttered audio signal, the first ambient sound signal, the second ambient sound signal, and the ambient area sound signal and adjusts the balance of signal levels, and controls each of the plurality of speakers. output via,
The realistic sound field reproducing device according to claim 3.
前記決定部は、前記人物の位置情報の更新の度に、前記主周辺マイクを決定する、
請求項1に記載の臨場感音場再生装置。 The acquisition unit repeatedly acquires position information of the person that can be updated periodically,
The determining unit determines the main peripheral microphone each time the position information of the person is updated.
The realistic sound field reproducing device according to claim 1.
前記決定部は、前記人物ごとに、前記人物の位置情報に基づいて前記主周辺マイクを決定する、
請求項1に記載の臨場感音場再生装置。 the person is plural;
The determination unit determines the main peripheral microphone for each person based on position information of the person.
The realistic sound field reproducing device according to claim 1.
前記人物の位置情報に基づいて、前記複数の周辺マイクのうちいずれかであってかつ前記活動エリア内の前記人物が位置する箇所を収録領域とする主周辺マイクを決定する決定部と、
少なくとも前記人物マイクによる前記発話音声信号と、前記主周辺マイクによる第1周辺音信号と、前記主周辺マイク以外の他の前記周辺マイクによる第2周辺音信号とに基づいて、前記音場収録空間とは異なる音場再生空間内に配置された複数のスピーカを用いて前記音場収録空間内の音場を再現するための音場再生処理を実行する音場再生部と、を備え、
前記取得部は、前記音場収録空間内の前記活動エリアとは異なる周辺エリアに配置された音収録デバイスが収録する周辺エリア音信号を更に取得し、
前記音場再生部は、
前記音場収録空間内の前記周辺エリアに相当する前記音場再生空間内のエリアに前記周辺エリア音信号による音場を再生するための信号処理を実行し、
前記発話音声信号、前記第1周辺音信号及び前記第2周辺音信号を参照信号とし、前記周辺エリア音信号に含まれる前記参照信号の成分を消去する消去処理を前記信号処理として実行する、
臨場感音場再生装置。 A speech audio signal recorded by a person microphone worn by at least one person who can move in an activity area in a sound field recording space, and an ambient sound signal recorded by a plurality of peripheral microphones arranged around the activity area. , and an acquisition unit that acquires at least the location information of the person;
a determining unit that determines a main peripheral microphone, which is one of the plurality of peripheral microphones and whose recording area is a location where the person is located within the activity area, based on position information of the person;
Based on at least the uttered audio signal from the person microphone, a first surrounding sound signal from the main surrounding microphone, and a second surrounding sound signal from the surrounding microphone other than the main surrounding microphone, the sound field recording space is a sound field reproduction unit that executes a sound field reproduction process for reproducing the sound field in the sound field recording space using a plurality of speakers arranged in a sound field reproduction space different from the sound field reproduction space,
The acquisition unit further acquires a peripheral area sound signal recorded by a sound recording device located in a peripheral area different from the activity area in the sound field recording space,
The sound field reproduction section is
performing signal processing for reproducing a sound field based on the surrounding area sound signal in an area in the sound field reproduction space that corresponds to the surrounding area in the sound field recording space;
using the speech audio signal, the first ambient sound signal, and the second ambient sound signal as reference signals, and performing an erasure process as the signal processing for erasing a component of the reference signal included in the ambient area sound signal;
Realistic sound field reproduction device.
請求項8に記載の臨場感音場再生装置。 The sound field reproduction section encodes the signal after the erasure processing, and reproduces the sense of presence of the sound field in the sound field recording space for each of the plurality of speakers based on the signal after the encoding processing. Generating a speaker drive signal for reproduction in a sound field reproduction space,
The realistic sound field reproducing device according to claim 8.
請求項9に記載の臨場感音場再生装置。 The sound field reproduction unit outputs the generated speaker drive signal for each of the speakers from the corresponding speaker.
The realistic sound field reproducing device according to claim 9.
音場収録空間内の活動エリアを移動可能な少なくとも1人の人物が装着する人物マイクが収録する発話音声信号と、前記活動エリアの周辺に配置された複数の周辺マイクが収録する周辺音信号と、前記人物の位置情報と、を少なくとも取得するステップと、
前記人物の位置情報に基づいて、前記複数の周辺マイクのうちいずれかであってかつ前記活動エリア内の前記人物が位置する箇所を収録領域とする主周辺マイクを決定するステップと、
少なくとも前記人物マイクによる前記発話音声信号と、前記主周辺マイクによる第1周辺音信号と、前記主周辺マイク以外の他の前記周辺マイクによる第2周辺音信号とに基づいて、前記音場収録空間とは異なる音場再生空間内に配置された複数のスピーカを用いて前記音場収録空間内の音場を再現するための音場再生処理を実行するステップと、を有する、
臨場感音場再生方法。 A method for reproducing a realistic sound field using a realistic sound field reproducing device, the method comprising:
A speech audio signal recorded by a person microphone worn by at least one person who can move in an activity area in a sound field recording space, and an ambient sound signal recorded by a plurality of peripheral microphones arranged around the activity area. , and obtaining at least the location information of the person;
determining a main peripheral microphone, which is one of the plurality of peripheral microphones and whose recording area is a location where the person is located within the activity area, based on the position information of the person;
Based on at least the uttered audio signal from the person microphone, a first surrounding sound signal from the main surrounding microphone, and a second surrounding sound signal from the surrounding microphone other than the main surrounding microphone, the sound field recording space is executing a sound field reproduction process for reproducing the sound field in the sound field recording space using a plurality of speakers arranged in a sound field reproduction space different from the sound field reproduction space,
A realistic sound field reproduction method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022148617A JP2024043429A (en) | 2022-09-16 | 2022-09-16 | Realistic sound field reproduction device and realistic sound field reproduction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022148617A JP2024043429A (en) | 2022-09-16 | 2022-09-16 | Realistic sound field reproduction device and realistic sound field reproduction method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024043429A true JP2024043429A (en) | 2024-03-29 |
Family
ID=90418276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022148617A Pending JP2024043429A (en) | 2022-09-16 | 2022-09-16 | Realistic sound field reproduction device and realistic sound field reproduction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024043429A (en) |
-
2022
- 2022-09-16 JP JP2022148617A patent/JP2024043429A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7367785B2 (en) | Audio processing device and method, and program | |
Zotter et al. | Ambisonics: A practical 3D audio theory for recording, studio production, sound reinforcement, and virtual reality | |
TWI555412B (en) | Apparatus and method for merging geometry-based spatial audio coding streams | |
KR101984356B1 (en) | An audio scene apparatus | |
CN109891503B (en) | Acoustic scene playback method and device | |
EP3446309A1 (en) | Merging audio signals with spatial metadata | |
JP2015509212A (en) | Spatial audio rendering and encoding | |
JP2020536286A (en) | Equipment, methods, and computer programs for coding, decoding, scene processing, and other procedures related to DirAC-based spatial audio coding. | |
CN113170271A (en) | Method and apparatus for processing stereo signals | |
Rafaely et al. | Spatial audio signal processing for binaural reproduction of recorded acoustic scenes–review and challenges | |
JP5338053B2 (en) | Wavefront synthesis signal conversion apparatus and wavefront synthesis signal conversion method | |
Braasch et al. | A loudspeaker-based projection technique for spatial music applications using virtual microphone control | |
US11483669B2 (en) | Spatial audio parameters | |
JP2024043429A (en) | Realistic sound field reproduction device and realistic sound field reproduction method | |
US20230056690A1 (en) | Encoding device and method, decoding device and method, and program | |
Ikeda et al. | Sound Cask: Music and voice communications system with three-dimensional sound reproduction based on boundary surface control principle. | |
JP2024043430A (en) | Sound field reality reproduction device and sound field reality reproduction method | |
JP5743003B2 (en) | Wavefront synthesis signal conversion apparatus and wavefront synthesis signal conversion method | |
JP5590169B2 (en) | Wavefront synthesis signal conversion apparatus and wavefront synthesis signal conversion method | |
US11589159B2 (en) | Networked audio auralization and feedback cancellation system and method | |
US20230007421A1 (en) | Live data distribution method, live data distribution system, and live data distribution apparatus | |
US20230005464A1 (en) | Live data distribution method, live data distribution system, and live data distribution apparatus | |
US20240163624A1 (en) | Information processing device, information processing method, and program | |
JP2024007669A (en) | Sound field reproduction program using sound source and position information of sound-receiving medium, device, and method | |
JP2022128177A (en) | Sound generation device, sound reproduction device, sound reproduction method, and sound signal processing program |