JP2016092772A - Signal processor and signal processing method and program thereof - Google Patents

Signal processor and signal processing method and program thereof Download PDF

Info

Publication number
JP2016092772A
JP2016092772A JP2014228897A JP2014228897A JP2016092772A JP 2016092772 A JP2016092772 A JP 2016092772A JP 2014228897 A JP2014228897 A JP 2014228897A JP 2014228897 A JP2014228897 A JP 2014228897A JP 2016092772 A JP2016092772 A JP 2016092772A
Authority
JP
Japan
Prior art keywords
sampling rate
information
audio information
multiplexed data
time information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014228897A
Other languages
Japanese (ja)
Inventor
誉 今
Homare Kon
誉 今
高橋 秀介
Shusuke Takahashi
秀介 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014228897A priority Critical patent/JP2016092772A/en
Publication of JP2016092772A publication Critical patent/JP2016092772A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a signal processor capable of using a sound source acquired by a simple device as a sound source for wavefront synthesis.SOLUTION: The signal processor includes: an acquisition part that acquires a piece of audio information and plural multiplexed data multiplexed with at least a piece of time information; a sampling rate adjusting section that adjusts the sampling rate of the audio information on each of the plural multiplexed data; and an output section that outputs plural pieces of audio information after adjusting the sampling rate to the speakers different from each other depending on the audio information. This disclosure is applicable, for example, to signal processors etc.SELECTED DRAWING: Figure 6

Description

本開示は、信号処理装置及びその信号処理方法、並びにプログラムに関し、特に、簡便な機器で取得した音源を波面合成の音源として利用することができるようにすることができるようにする信号処理装置及びその信号処理方法、並びにプログラムに関する。   The present disclosure relates to a signal processing device, a signal processing method thereof, and a program, and in particular, a signal processing device that enables a sound source acquired by a simple device to be used as a sound source for wavefront synthesis, and The present invention relates to the signal processing method and program.

音場における音声の波面を複数のマイクロホンで収音し、得られた収音信号に基づいて音場を再現する音場再現手法として、波面合成技術が知られている。波面合成技術の一つに、境界音場制御がある(例えば、特許文献1参照)。   A wavefront synthesis technique is known as a sound field reproduction technique for collecting a sound wavefront of sound in a sound field with a plurality of microphones and reproducing the sound field based on the obtained sound pickup signal. One of the wavefront synthesis techniques is boundary sound field control (see, for example, Patent Document 1).

一般に、音場再現手法では、音源を収音する際の複数のマイクロホンとして、特殊なマイクロホンや、多数のマイクロホンが必要である。   In general, in the sound field reproduction method, a special microphone and a large number of microphones are required as a plurality of microphones for collecting a sound source.

特開2012−10011号公報JP 2012-10011 A

近年、一人一台スマートフォンを携帯するようになってきており、スマートフォンには、自分の位置を受信するGPS(Global Positioning System)機能や、映像や音声を記録する機能がついているものが多い。   In recent years, smartphones have been carried one by one, and many smartphones have a GPS (Global Positioning System) function for receiving their position and a function for recording video and audio.

そこで、波面合成に必要な音源をスマートフォンで簡単に録音することができれば望ましい。このときに問題となるのが、複数の機器で得られる各音源のクロックのずれである。スマートフォンでは、例えば、映像は30fps、音声は48kHzのサンプリング周波数で記録が可能であるが、厳密には、機器ごとに、サンプリング周波数はわずかに異なる。   Therefore, it is desirable if the sound source necessary for wavefront synthesis can be easily recorded with a smartphone. At this time, the problem is the clock shift of each sound source obtained by a plurality of devices. In a smartphone, for example, video can be recorded at a sampling frequency of 30 fps and audio can be recorded at a sampling frequency of 48 kHz, but strictly speaking, the sampling frequency is slightly different for each device.

音場再現のための専用機では、Wordclockと呼ばれるオーディオのリファレンス信号、Genlockと呼ばれるビデオのリファレンス信号を基準にサンプリングされるので、同期がずれることはない。しかし、専用機以外の一般の民生機器では、このような機構がないため、それぞれの機器間で得られた信号にクロックのずれが生じてしまう。   In a dedicated machine for reproducing the sound field, sampling is performed based on an audio reference signal called Wordclock and a video reference signal called Genlock, so synchronization is not lost. However, in general consumer equipment other than dedicated machines, there is no such mechanism, and thus a clock shift occurs in signals obtained between the respective equipments.

本開示は、このような状況に鑑みてなされたものであり、簡便な機器で取得した音源を波面合成の音源として利用することができるようにするものである。   This indication is made in view of such a situation, and makes it possible to use the sound source acquired with simple equipment as the sound source of wave front composition.

本開示の一側面の信号処理装置は、オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得する取得部と、前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整するサンプリングレート調整部と、サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する出力部とを備える。   A signal processing device according to an aspect of the present disclosure includes an acquisition unit that acquires a plurality of multiplexed data in which audio information and time information are at least multiplexed, and a sampling rate of the audio information for each of the plurality of multiplexed data. A sampling rate adjusting unit to adjust; and an output unit that outputs the plurality of audio information after the sampling rate adjustment to different speakers for each audio information.

本開示の一側面の信号処理方法は、信号処理装置が、オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得し、前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整し、サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する。   In the signal processing method according to an aspect of the present disclosure, the signal processing device acquires a plurality of multiplexed data in which audio information and time information are multiplexed at least, and the audio information is sampled for each of the plurality of multiplexed data. The rate is adjusted, and the plurality of audio information after the sampling rate adjustment is output to different speakers for each audio information.

本開示の一側面のプログラムは、コンピュータを、オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得させる取得部と、前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整するサンプリングレート調整部と、サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力させる出力部として機能させるためのものである。   According to one aspect of the present disclosure, a program includes: an acquisition unit configured to acquire a plurality of multiplexed data in which audio information and time information are at least multiplexed; and a sampling rate of the audio information for each of the plurality of multiplexed data And a sampling rate adjusting unit that adjusts the sampling rate and a plurality of the audio information after the sampling rate adjustment are functioned as an output unit that outputs to different speakers for each audio information.

本開示の一側面においては、オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データが取得され、前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートが調整され、サンプリングレート調整後の複数の前記オーディオ情報が、前記オーディオ情報ごとに異なるスピーカに出力される。   In one aspect of the present disclosure, a plurality of multiplexed data in which at least audio information and time information are multiplexed is acquired, and the sampling rate of the audio information is adjusted for each of the plurality of multiplexed data, and the sampling rate adjustment is performed. The plurality of later audio information is output to different speakers for each audio information.

なお、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。   The program can be provided by being transmitted through a transmission medium or by being recorded on a recording medium.

信号処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。   The signal processing device may be an independent device or an internal block constituting one device.

本開示の一側面によれば、簡便な機器で取得した音源を波面合成の音源として利用することができる。   According to one aspect of the present disclosure, a sound source acquired by a simple device can be used as a sound source for wavefront synthesis.

なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。   Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.

本開示に係る音響システムの一実施の形態の構成例を示すブロック図である。It is a block diagram showing an example of composition of an embodiment of an acoustic system concerning this indication. 境界音場制御法について説明する図である。It is a figure explaining the boundary sound field control method. 録音装置の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a recording device. 録音装置による多重化データ作成処理を説明するフローチャートである。It is a flowchart explaining the multiplexed data creation process by a recording device. 多重化データのデータ配置例を示す図である。It is a figure which shows the data arrangement example of multiplexed data. 再生装置の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a reproducing | regenerating apparatus. オーディオ情報と時刻情報との対応関係を示す図である。It is a figure which shows the correspondence of audio information and time information. 再生装置による多重化データ再生処理を説明するフローチャートである。It is a flowchart explaining the multiplexed data reproduction | regeneration processing by a reproducing | regenerating apparatus. 本実施の形態における音源データの取得方法を説明する図である。It is a figure explaining the acquisition method of the sound source data in this Embodiment. 多重化データを5.1チャンネルのスピーカシステムに利用する例を示す図である。It is a figure which shows the example which utilizes multiplexed data for the speaker system of 5.1 channels. 本開示に係るコンピュータの一実施の形態の構成例を示すブロック図である。It is a block diagram showing an example of composition of a 1 embodiment of a computer concerning this indication.

<音響システムの構成例>
図1は、本開示に係る音響システムの一実施の形態の構成例を示している。
<Configuration example of acoustic system>
FIG. 1 shows a configuration example of an embodiment of an acoustic system according to the present disclosure.

図1の音響システム1は、波面合成を用いて音の臨場感を再現するシステムであり、K個(K>1)のスピーカ101乃至10K、M個(M>1)の録音装置111乃至11M、データ記憶装置12、M個の再生装置131乃至13M、及び、M個のスピーカ141乃至14Mにより構成される。 The acoustic system 1 shown in FIG. 1 is a system that reproduces the realistic sensation of sound using wavefront synthesis, and includes K (K> 1) speakers 10 1 to 10 K and M (M> 1) recording devices 11. 1 to 11 M , a data storage device 12, M playback devices 13 1 to 13 M , and M speakers 14 1 to 14 M.

なお、以下において、K個のスピーカ101乃至10Kそれぞれを特に区別する必要がない場合、単にスピーカ10と記述し、M個の録音装置111乃至11Mそれぞれを特に区別する必要がない場合、単に、録音装置11と記述する。M個の再生装置131乃至13M、及び、M個のスピーカ141乃至14Mについても同様とする。 In the following, when it is not necessary to distinguish each of K loudspeakers 10 1 to 10 K, simply described as the speaker 10, if it is not necessary to distinguish the M recording device 11 1 to 11 M, respectively Is simply referred to as the recording device 11. The same applies to the M playback devices 13 1 to 13 M and the M speakers 14 1 to 14 M.

K個のスピーカ10とM個の録音装置11は、収音システム15を構成し、音源を収音する場合に、所定の会場に設置される。一方、M個の再生装置13とM個のスピーカ14は、再生システム16を構成し、収音された音源を再生する場合に、所定の会場に設置される。なお、データ記憶装置12は、収音システム15または再生システム16の一部として組み込むことができる。   The K speakers 10 and the M recording devices 11 constitute a sound collection system 15 and are installed in a predetermined venue when collecting sound sources. On the other hand, the M playback devices 13 and the M speakers 14 constitute a playback system 16 and are installed at a predetermined venue when playing back a collected sound source. The data storage device 12 can be incorporated as a part of the sound collection system 15 or the reproduction system 16.

図2を参照して、音の臨場感を再現する波面合成技術の一つである、境界音場制御法について説明する。   With reference to FIG. 2, a boundary sound field control method, which is one of wavefront synthesis techniques for reproducing the realistic sensation of sound, will be described.

境界音場制御法は、音場を再現する再生空間に、音源を収音した原空間と同じようにマイクロホンを配置し、そのマイクロホンで観測される信号が、原空間で収音したときのマイクロホン信号と同じになるように、再生空間の周囲に設置した複数のスピーカに入力信号を与える方法である。   In the boundary sound field control method, a microphone is placed in the reproduction space that reproduces the sound field in the same way as the original space where the sound source is collected, and the microphone observed when the signal observed by the microphone is collected in the original space. In this method, an input signal is given to a plurality of speakers installed around the reproduction space so as to be the same as the signal.

具体的には、図2に示されるように、会場Aを原空間として、会場Aにおいて周辺に配置された多数のスピーカ10から出力された音が、会場内に配列させた多数の録音装置11で収音される。   Specifically, as shown in FIG. 2, a large number of recording devices 11 in which sound output from a large number of speakers 10 arranged in the vicinity of the venue A with the venue A as an original space are arranged in the venue. Sound is picked up.

そして、再生空間としての会場Bにおいて、図2に示されるように、原空間と同じような配置で多数の録音装置11を設置した場合に、それぞれの録音装置11で観測されるオーディオ信号が、原空間で収音した信号と同じになるような音を、再生装置13が、スピーカ14から出力させることで、原空間の音場が、再生空間で再現される。原空間及び再生空間における各録音装置11の位置は、境界音場制御法における制御点と呼ばれる。   Then, in the venue B as the reproduction space, as shown in FIG. 2, when a large number of recording devices 11 are installed in the same arrangement as the original space, the audio signals observed in the respective recording devices 11 are When the playback device 13 outputs from the speaker 14 a sound that is the same as the signal collected in the original space, the sound field in the original space is reproduced in the playback space. The position of each recording device 11 in the original space and the reproduction space is called a control point in the boundary sound field control method.

再生空間の制御点で観測されるオーディオ信号が原空間で収音した信号と同じになるようにするには、再生空間の各スピーカ14から各録音装置11までの伝達関数(伝達特性)Gを実測し、再生装置13が、伝達関数Gの逆特性となる逆関数フィルタH=G-1を計算して、原空間で収音したオーディオ信号を逆関数フィルタHを通してスピーカ14から出力する。 In order to make the audio signal observed at the control point in the reproduction space the same as the signal collected in the original space, the transfer function (transfer characteristic) G from each speaker 14 to each recording device 11 in the reproduction space is set to The measurement is actually performed, and the playback device 13 calculates an inverse function filter H = G −1 that is the inverse characteristic of the transfer function G, and outputs the audio signal collected in the original space from the speaker 14 through the inverse function filter H.

図1の説明に戻り、収音システム15は、原空間で音源を収音したり、再生空間で伝達関数Gを実測する際に使用される。   Returning to the description of FIG. 1, the sound collection system 15 is used when collecting a sound source in the original space or actually measuring the transfer function G in the reproduction space.

K個のスピーカ10それぞれは、所定の音を出力する。M個の録音装置11それぞれは、K個のスピーカ10から出力される音を収音し、その結果得られるオーディオ信号をデータ記憶装置12に供給する。   Each of the K speakers 10 outputs a predetermined sound. Each of the M recording devices 11 collects sound output from the K speakers 10 and supplies an audio signal obtained as a result to the data storage device 12.

再生システム16は、原空間で収音した音源を再生空間で再現する際に使用される。   The reproduction system 16 is used when reproducing a sound source collected in the original space in the reproduction space.

再生装置13は、伝達関数Gの逆特性となる逆関数フィルタH=G-1を算出する。そして、再生装置13は、データ記憶装置12から取得したオーディオ信号に対して、逆関数フィルタHによるフィルタ処理を施し、フィルタ処理後のオーディオ信号を出力する。スピーカ14は、接続されている再生装置13から供給されるオーディオ信号に基づく音を出力する。 The reproducing device 13 calculates an inverse function filter H = G −1 that is an inverse characteristic of the transfer function G. Then, the playback device 13 performs a filtering process using the inverse function filter H on the audio signal acquired from the data storage device 12, and outputs the audio signal after the filtering process. The speaker 14 outputs a sound based on the audio signal supplied from the connected playback device 13.

なお、波面合成の伝達関数G及びその逆関数G-1の算出には、上述した境界音場制御の原理の他、キルヒホッフ・ホルムヘルツ積分方程式など、波面合成技術として知られる任意の演算を用いることができる。以下において、再生装置13が、原空間で収音したオーディオ信号に対して実行する、伝達関数Gの逆関数フィルタHを、波面合成フィルタと称する。 For the calculation of the transfer function G of wavefront synthesis and its inverse function G- 1 , in addition to the principle of boundary sound field control described above, an arbitrary calculation known as a wavefront synthesis technique such as the Kirchhoff-Holmhertz integral equation should be used. Can do. Hereinafter, the inverse function filter H of the transfer function G executed by the playback device 13 on the audio signal collected in the original space is referred to as a wavefront synthesis filter.

音響システム1は、以上のように構成される。   The acoustic system 1 is configured as described above.

なお、収音システム15において、複数の録音装置11で行われる処理を、1つの信号処理装置が行う構成とすることもできる。同様に、再生システム16において、複数の再生装置13で行われる処理を1つの信号処理装置が行う構成とすることもできる。また、データ記憶装置12の機能を録音装置11や再生装置13が備える構成とし、データ記憶装置12は省略されてもよい。   Note that, in the sound collection system 15, the processing performed by the plurality of recording devices 11 may be performed by one signal processing device. Similarly, in the reproduction system 16, it is possible to adopt a configuration in which a single signal processing device performs processing performed by a plurality of reproduction devices 13. Further, the recording device 11 and the playback device 13 may have the function of the data storage device 12, and the data storage device 12 may be omitted.

一般に、音場を再現する音響システム1の録音装置11としては、音場再現用に設計された専用機が用いられるが、本実施の形態では、後述するように、録音装置11として、スマートフォンのような多数のユーザが所有する民生機器を使用することができる。録音装置11として民生機器を使用した場合、問題となるのは、複数の録音装置11どうしの同期のずれである。そこで、後述するように、本開示に係る音響システム1の再生装置13は、複数の録音装置11どうしの同期のずれを修正して再生する機能を有している。   In general, a dedicated device designed for sound field reproduction is used as the recording device 11 of the acoustic system 1 that reproduces the sound field. However, in this embodiment, as described later, the recording device 11 is a smartphone. Consumer devices owned by such a large number of users can be used. When a consumer device is used as the recording device 11, a problem is a synchronization shift between the plurality of recording devices 11. Therefore, as will be described later, the playback device 13 of the acoustic system 1 according to the present disclosure has a function of correcting and reproducing a synchronization shift between the plurality of recording devices 11.

以下、録音装置11と再生装置13の詳細について説明する。   Details of the recording device 11 and the playback device 13 will be described below.

<録音装置の構成例>
図3は、録音装置11の詳細な構成例を示すブロック図である。
<Configuration example of recording device>
FIG. 3 is a block diagram illustrating a detailed configuration example of the recording device 11.

録音装置11は、収音部31、撮像部32、GPS受信部33、制御部34、データ記憶部35、及び通信部36を有する。   The recording device 11 includes a sound collection unit 31, an imaging unit 32, a GPS reception unit 33, a control unit 34, a data storage unit 35, and a communication unit 36.

収音部31は、例えば、マイクロホンなどで構成され、周囲の音を取得して、その結果得られるオーディオ信号を制御部34に供給する。   The sound collection unit 31 includes, for example, a microphone, acquires ambient sounds, and supplies an audio signal obtained as a result to the control unit 34.

撮像部32は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどで構成され、所定の映像を撮像し、その結果得られるビデオ信号を制御部34に供給する。   The imaging unit 32 is configured by, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and the like, captures a predetermined video, and supplies a video signal obtained as a result to the control unit 34.

GPS受信部33は、GPS衛星から送信されてくるGPS信号を受信して、受信したGPS信号に含まれる位置情報と時刻情報を制御部34に供給する。GPS信号に含まれる時刻情報は、原子時計に基づく時刻情報であり、高精度な時刻情報である。   The GPS receiving unit 33 receives a GPS signal transmitted from a GPS satellite, and supplies position information and time information included in the received GPS signal to the control unit 34. The time information included in the GPS signal is time information based on an atomic clock and is highly accurate time information.

制御部34は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、各種のプログラムを実行することにより、録音装置11全体の動作を制御する。また、制御部34は、収音部31から供給されるオーディオ信号、撮像部32から供給されるビデオ信号、GPS受信部33から供給される位置情報及び時刻情報を、所定のフォーマットで多重化した多重化データを生成し、データ記憶部35に記憶させる。さらに、制御部34は、生成した多重化データを、通信部36を介して、データ記憶装置12(図1)に出力させる。   The control unit 34 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and controls various operations of the recording apparatus 11 by executing various programs. Further, the control unit 34 multiplexes the audio signal supplied from the sound pickup unit 31, the video signal supplied from the imaging unit 32, the position information and time information supplied from the GPS receiving unit 33 in a predetermined format. Multiplexed data is generated and stored in the data storage unit 35. Further, the control unit 34 causes the generated multiplexed data to be output to the data storage device 12 (FIG. 1) via the communication unit 36.

データ記憶部35は、例えば、EEPROM(Electronically Erasable and Programmable Read Only Memory)などの不揮発性メモリで構成され、所定のプログラムやデータを記憶する。データ記憶部35には、例えば、制御部34が実行するプログラムや、制御部34から供給されたデータが記憶される。   The data storage unit 35 is configured by a nonvolatile memory such as an EEPROM (Electronically Erasable and Programmable Read Only Memory), and stores a predetermined program and data. The data storage unit 35 stores, for example, a program executed by the control unit 34 and data supplied from the control unit 34.

通信部36は、例えば、有線または無線によりLAN(Local Area Network)に接続するための通信モジュールで構成され、ネットワークに接続して、他の装置と通信する。通信部36は、USB(Universal Serial Bus)の規格に基づくUSB I/F(Inter Face)やBluetooth(登録商標)等、有線、無線を問わず、その他の通信方式で通信を行うものでもよい。   The communication unit 36 includes a communication module for connecting to a local area network (LAN) by wire or wireless, for example, and connects to the network to communicate with other devices. The communication unit 36 may perform communication by other communication methods regardless of wired or wireless, such as USB I / F (Inter Face) or Bluetooth (registered trademark) based on the USB (Universal Serial Bus) standard.

以上の構成を有する録音装置11は、例えば、スマートフォンなどの携帯情報端末で構成することができる。   The recording apparatus 11 having the above configuration can be configured by a portable information terminal such as a smartphone, for example.

<多重化データ作成処理>
次に、図4のフローチャートを参照して、録音装置11による多重化データ作成処理について説明する。この処理は、例えば、M個の録音装置11それぞれにおいて、音源の記録開始の指示がなされたとき、実行される。
<Multiplexed data creation process>
Next, the multiplexed data creation process by the recording device 11 will be described with reference to the flowchart of FIG. This process is executed, for example, when each of the M recording devices 11 is instructed to start recording a sound source.

初めに、ステップS11において、GPS受信部33は、GPS信号を受信して、受信したGPS信号に含まれる時刻情報を取得し、制御部34に供給する。制御部34は、供給された時刻情報を開始時刻情報として所定の方式で符号化し、パケット化する。   First, in step S <b> 11, the GPS receiving unit 33 receives a GPS signal, acquires time information included in the received GPS signal, and supplies the time information to the control unit 34. The control unit 34 encodes the supplied time information as start time information by a predetermined method and packetizes it.

ステップS12において、GPS受信部33は、GPS信号を受信して、受信したGPS信号に含まれる位置情報と時刻情報を取得し、制御部34に供給する。制御部34は、GPS受信部33から供給された位置情報と時刻情報を、GPS位置情報及びGPS時刻情報として所定の方式で符号化し、パケット化する。   In step S <b> 12, the GPS receiving unit 33 receives a GPS signal, acquires position information and time information included in the received GPS signal, and supplies them to the control unit 34. The control unit 34 encodes the position information and time information supplied from the GPS reception unit 33 as GPS position information and GPS time information by a predetermined method and packetizes them.

ステップS13において、収音部31は、周囲の音を取得し、その結果得られるオーディオ信号を制御部34に供給する。制御部34は、収音部31から供給されたオーディオ信号を取得し、オーディオ情報として所定の方式で符号化し、パケット化する。   In step S <b> 13, the sound collection unit 31 acquires ambient sound and supplies an audio signal obtained as a result to the control unit 34. The control unit 34 acquires the audio signal supplied from the sound collection unit 31, encodes it as audio information by a predetermined method, and packetizes it.

ステップS14において、撮像部32は、所定の映像を撮像し、その結果得られるビデオ信号を制御部34に供給する。制御部34は、撮像部32から供給されたビデオ信号を取得し、ビデオ情報として所定の方式で符号化し、パケット化する。   In step S <b> 14, the imaging unit 32 captures a predetermined video and supplies a video signal obtained as a result to the control unit 34. The control unit 34 acquires the video signal supplied from the imaging unit 32, encodes it as video information by a predetermined method, and packetizes it.

なお、説明の便宜上、ステップS12乃至S14の処理は、順番に行うこととして説明しているが、実際には、並列に(同時に)実行される。   For convenience of explanation, the processes in steps S12 to S14 are described as being performed in order, but in actuality, they are executed in parallel (simultaneously).

ステップS15において、制御部34は、データ取得が終了したか否かを判定する。   In step S15, the control unit 34 determines whether or not the data acquisition is completed.

ステップS15で、データ取得がまだ終了していないと判定された場合、処理はステップS12に戻り、上述したステップS12乃至S15が繰り返し実行される。   If it is determined in step S15 that the data acquisition has not yet been completed, the process returns to step S12, and the above-described steps S12 to S15 are repeatedly executed.

一方、ステップS15で、データ取得が終了したと判定された場合、処理はステップS16に進み、GPS受信部33は、GPS信号を受信して、受信したGPS信号に含まれる時刻情報を取得し、制御部34に供給する。制御部34は、供給された時刻情報を終了時刻情報として所定の方式で符号化し、パケット化する。   On the other hand, if it is determined in step S15 that the data acquisition is completed, the process proceeds to step S16, and the GPS receiving unit 33 receives the GPS signal and acquires time information included in the received GPS signal. It supplies to the control part 34. The control unit 34 encodes the supplied time information as end time information by a predetermined method and packetizes it.

ステップS17において、制御部34は、上述した各ステップでパケット化した開始時刻情報、GPS位置情報、GPS時刻情報、オーディオ情報、ビデオ情報、及び、終了時刻情報を多重化した多重化データを作成して、データ記憶部35に記憶させる。あるいは、制御部34は、作成した多重化データを、データ記憶部35に記憶する代わりに、通信部36を介してデータ記憶装置12(図1)に出力してデータ記憶装置12に記憶させてもよい。   In step S17, the control unit 34 creates multiplexed data in which the start time information, the GPS position information, the GPS time information, the audio information, the video information, and the end time information packetized in each of the above steps are multiplexed. And stored in the data storage unit 35. Alternatively, instead of storing the created multiplexed data in the data storage unit 35, the control unit 34 outputs the multiplexed data to the data storage device 12 (FIG. 1) via the communication unit 36 and stores it in the data storage device 12. Also good.

<多重化データのデータ配置例>
図5は、図4の多重化データ作成処理により作成される多重化データのデータ配置例を示している。
<Data arrangement example of multiplexed data>
FIG. 5 shows a data arrangement example of multiplexed data created by the multiplexed data creation process of FIG.

例えば、多重化データの最初には、多重化データの記録を開始した時刻を表す開始時刻情報が配置され、多重化データの最後に、記録を終了した時刻を表す終了時刻情報が配置される。そして、開始時刻情報と終了時刻情報の間に、GPS時刻情報、GPS位置情報、オーディオ情報、及びビデオ情報のセットが、繰り返し配置される。   For example, start time information indicating the time when recording of the multiplexed data is started is arranged at the beginning of the multiplexed data, and end time information indicating the time when recording is ended is arranged at the end of the multiplexed data. A set of GPS time information, GPS position information, audio information, and video information is repeatedly arranged between the start time information and the end time information.

各情報は、データの長さに応じた1個以上のパケットで構成される。ここで、オーディオ情報とビデオ情報の1まとまりは、予め定めたNサンプル(N枚)単位とされる。   Each information is composed of one or more packets corresponding to the data length. Here, one set of audio information and video information is in units of N samples (N sheets) determined in advance.

なお、GPS時刻情報、GPS位置情報、オーディオ情報、及びビデオ情報の格納位置や順番はあくまで一例であり、この例に限られない。多重化データのファイルフォーマットは、例えば、MP4や、MPEG2-TS(Moving Picture Experts Group 2 Transport Stream)など、汎用のファイルフォーマットを適宜選択して採用することができる。   The storage positions and order of GPS time information, GPS position information, audio information, and video information are merely examples, and the present invention is not limited to this example. As the file format of the multiplexed data, for example, a general-purpose file format such as MP4 or MPEG2-TS (Moving Picture Experts Group 2 Transport Stream) can be appropriately selected and adopted.

上述した例では、時刻情報については、開始時刻情報及び終了時刻情報と、信号取得中に定期的に取得される時刻情報の両方を、記録データとして保存するようにしたが、多重化データには、開始時刻情報及び終了時刻情報か、または、定期的に取得する時刻情報のいずれか一方のみが少なくとも格納されていればよい。   In the example described above, for the time information, both the start time information and the end time information and the time information periodically acquired during signal acquisition are stored as recorded data. It is only necessary to store at least one of the start time information and the end time information, or the time information acquired periodically.

<再生装置の構成例>
図6は、再生装置13の詳細な構成例を示すブロック図である。
<Configuration example of playback device>
FIG. 6 is a block diagram illustrating a detailed configuration example of the playback device 13.

再生装置13は、データ取得部51、デマルチプレクサ(DEMUX)52、サンプリンレートコンバータ53、波面合成用フィルタ54、D/Aコンバータ55、アンプ(AMP)56、及び基準クロック生成部57を有する。   The playback device 13 includes a data acquisition unit 51, a demultiplexer (DEMUX) 52, a sample rate converter 53, a wavefront synthesis filter 54, a D / A converter 55, an amplifier (AMP) 56, and a reference clock generation unit 57.

データ取得部51は、録音装置11により録音された所定のファイルフォーマットの多重化データを、データ記憶装置12から取得して、デマルチプレクサ52に供給する。   The data acquisition unit 51 acquires multiplexed data of a predetermined file format recorded by the recording device 11 from the data storage device 12 and supplies it to the demultiplexer 52.

デマルチプレクサ52は、データ取得部51から供給される所定のファイルフォーマットの多重化データを、データ種類(トラック)別に分離し、ファイル保存時の符号化方式に対応する復号方式により復号する。デマルチプレクサ52は、復号の結果得られたGPS時刻情報とオーディオ情報についてはサンプリングレートコンバータ53に供給し、復号の結果得られたGPS位置情報については波面合成用フィルタ54に供給する。   The demultiplexer 52 separates the multiplexed data of a predetermined file format supplied from the data acquisition unit 51 for each data type (track), and decodes it by a decoding method corresponding to the encoding method at the time of saving the file. The demultiplexer 52 supplies GPS time information and audio information obtained as a result of decoding to the sampling rate converter 53, and supplies GPS position information obtained as a result of decoding to the wavefront synthesis filter 54.

サンプリングレートコンバータ53は、デマルチプレクサ52から供給されたオーディオ情報のサンプリングレートを調整するサンプリングレート調整部として機能する。具体的には、サンプリングレートコンバータ53は、デマルチプレクサ52から供給されたオーディオ情報のサンプリングレートを、基準クロック生成部57から供給される再生レートfsに変換する。そして、サンプリングレートコンバータ53は、再生レートfsに変換されたオーディオ情報を、波面合成用フィルタ54に供給する。   The sampling rate converter 53 functions as a sampling rate adjustment unit that adjusts the sampling rate of the audio information supplied from the demultiplexer 52. Specifically, the sampling rate converter 53 converts the sampling rate of the audio information supplied from the demultiplexer 52 into a reproduction rate fs supplied from the reference clock generation unit 57. Then, the sampling rate converter 53 supplies the audio information converted to the reproduction rate fs to the wavefront synthesis filter 54.

サンプリングレートコンバータ53には、GPS時刻情報とオーディオ情報が供給されるが、GPS時刻情報は、図7に示されるように、Nサンプルのオーディオ情報に対応付けられている。   GPS time information and audio information are supplied to the sampling rate converter 53. The GPS time information is associated with N samples of audio information as shown in FIG.

例えば、Nサンプルのオーディオ情報71に対して、GPS時刻情報T1が対応付けられ、Nサンプルのオーディオ情報72に対して、GPS時刻情報T2が対応付けられ、Nサンプルのオーディオ情報73に対して、GPS時刻情報T3が対応付けられている。   For example, GPS time information T1 is associated with N-sample audio information 71, GPS time information T2 is associated with N-sample audio information 72, and N-sample audio information 73 is GPS time information T3 is associated.

ここで、基準クロック生成部57から供給される再生装置13の再生レートfsが、例えば、48kHzであり、録音装置11がオーディオ信号を記録したときのサンプリングレートも、同じ48kHzであったとする。しかしながら、録音装置11がスマートフォンのような民生機器である場合、クロック信号の精度が専用機のように高くないため、記録時のサンプリングレートは、例えば、47.998kHzや、48.001kHzのように、多少のずれをもっている。   Here, it is assumed that the reproduction rate fs of the reproduction device 13 supplied from the reference clock generation unit 57 is 48 kHz, for example, and the sampling rate when the recording device 11 records the audio signal is also the same 48 kHz. However, when the recording device 11 is a consumer device such as a smartphone, the accuracy of the clock signal is not as high as that of a dedicated device, so the sampling rate at the time of recording is, for example, 47.998 kHz or 48.001 kHz. , Have some deviation.

Nサンプルのオーディオ情報71のサンプリングレートが再生レートfsと完全に一致していた場合、Nサンプルのオーディオ情報71と再生レートfsには、
(T2-T1)=N/fs
の関係が成り立つ。
When the sampling rate of the N-sample audio information 71 completely matches the playback rate fs, the N-sample audio information 71 and the playback rate fs include
(T2-T1) = N / fs
The relationship holds.

一方、録音装置11のサンプリングレートが48kHzよりも遅かった場合には、
(T2-T1)>N/fs
となり、録音装置11のサンプリングレートが48kHzよりも速かった場合には、
(T2-T1)<N/fs
となる。
On the other hand, when the sampling rate of the recording device 11 is slower than 48 kHz,
(T2-T1)> N / fs
When the sampling rate of the recording device 11 is faster than 48 kHz,
(T2-T1) <N / fs
It becomes.

サンプリングレートコンバータ53は、
fs_est=N/(T2-T1)
を計算し、Nサンプルのオーディオ情報71の録音時のサンプリングレートfs_estを算出する。そして、サンプリングレートコンバータ53は、Nサンプルのオーディオ情報71のサンプリングレートfs_estを、基準クロック生成部57から供給される再生レートfsに変換して、波面合成用フィルタ54に供給する。
The sampling rate converter 53
fs_est = N / (T2-T1)
And the sampling rate fs_est at the time of recording the audio information 71 of N samples is calculated. Then, the sampling rate converter 53 converts the sampling rate fs_est of the N-sample audio information 71 into the reproduction rate fs supplied from the reference clock generation unit 57 and supplies it to the wavefront synthesis filter 54.

サンプリングレートコンバータ53は、以上の処理を、Nサンプル単位のオーディオ情報に対して順次繰り返し実行する。これにより、録音時のサンプリングレートが再生レートfsと厳密に一致していない場合であっても、サンプリングレートを再生レートfsに修正して再生することができる。また、複数の再生装置13間でも、再生時のサンプリングレートを、再生レートfsに一致させることができる。   The sampling rate converter 53 sequentially repeats the above processing for audio information in units of N samples. As a result, even when the sampling rate at the time of recording does not exactly match the reproduction rate fs, the sampling rate can be corrected to the reproduction rate fs and reproduced. Also, the sampling rate at the time of reproduction can be made to coincide with the reproduction rate fs among the plurality of reproducing devices 13.

なお、多重化データに含まれる時刻情報が、開始時刻情報と終了時刻情報のみである場合には、サンプリングレートコンバータ53は、開始時刻情報と終了時刻情報から、記録時のサンプリングレートfs_estを算出し、再生レートfsに変換する。   When the time information included in the multiplexed data is only the start time information and the end time information, the sampling rate converter 53 calculates the sampling rate fs_est at the time of recording from the start time information and the end time information. , Convert to playback rate fs.

図6の説明に戻り、サンプリングレートコンバータ53は、サンプリングレートを再生レートfsに変換した後のオーディオ情報を、波面合成用フィルタ54に供給する。また、波面合成用フィルタ54には、デマルチプレクサ52から、オーディオ情報に対応するGPS位置情報も供給される。   Returning to the description of FIG. 6, the sampling rate converter 53 supplies the audio information after converting the sampling rate to the reproduction rate fs to the wavefront synthesis filter 54. Further, the GPS position information corresponding to the audio information is also supplied from the demultiplexer 52 to the wavefront synthesis filter 54.

波面合成用フィルタ54は、サンプリングレートコンバータ53から供給されたオーディオ情報を記録したときの伝達関数Gを、オーディオ情報に対応するGPS位置情報に基づいて算出する。そして、波面合成用フィルタ54は、サンプリングレートコンバータ53から供給されたオーディオ情報に対して、伝達関数Gの逆特性となる波面合成フィルタ処理を施す。波面合成用フィルタ54は、フィルタ処理後のオーディオ信号をD/Aコンバータ55に供給する。   The wavefront synthesis filter 54 calculates a transfer function G when the audio information supplied from the sampling rate converter 53 is recorded based on GPS position information corresponding to the audio information. Then, the wavefront synthesis filter 54 performs wavefront synthesis filter processing that is the inverse characteristic of the transfer function G on the audio information supplied from the sampling rate converter 53. The wavefront synthesis filter 54 supplies the filtered audio signal to the D / A converter 55.

D/Aコンバータ55は、波面合成用フィルタ54から供給されるデジタルのオーディオ信号をアナログの信号に変換し、アンプ56に供給する。波面合成用フィルタ54とD/Aコンバータ55にも、基準クロック生成部57から、再生レートfsのクロック信号が供給され、波面合成用フィルタ54とD/Aコンバータ55は、再生レートfsで各動作を行う。   The D / A converter 55 converts the digital audio signal supplied from the wavefront synthesis filter 54 into an analog signal and supplies the analog signal to the amplifier 56. The wavefront synthesis filter 54 and the D / A converter 55 are also supplied with a clock signal having a reproduction rate fs from the reference clock generator 57. The wavefront synthesis filter 54 and the D / A converter 55 operate at the reproduction rate fs. I do.

アンプ56は、D/Aコンバータ55から供給されたアナログのオーディオ信号を増幅して、スピーカ14に出力する。   The amplifier 56 amplifies the analog audio signal supplied from the D / A converter 55 and outputs it to the speaker 14.

基準クロック生成部57は、再生レートfsに対応するクロック信号を生成し、サンプリングレートコンバータ53、波面合成用フィルタ54、及び、D/Aコンバータ55に供給する。   The reference clock generation unit 57 generates a clock signal corresponding to the reproduction rate fs and supplies the clock signal to the sampling rate converter 53, the wavefront synthesis filter 54, and the D / A converter 55.

<多重化データ再生処理>
図8のフローチャートを参照して、再生装置13による多重化データ再生処理について説明する。この処理は、例えば、再生装置13において多重化データの再生が指示されたとき、実行される。
<Multiplexed data playback processing>
With reference to the flowchart of FIG. 8, the multiplexed data reproduction process by the reproduction apparatus 13 will be described. This process is executed, for example, when the reproduction apparatus 13 is instructed to reproduce multiplexed data.

初めに、ステップS41において、データ取得部51は、所定のファイルフォーマットの多重化データをデータ記憶装置12から取得して、デマルチプレクサ52に供給する。   First, in step S <b> 41, the data acquisition unit 51 acquires multiplexed data of a predetermined file format from the data storage device 12 and supplies it to the demultiplexer 52.

ステップS42において、デマルチプレクサ52は、データ取得部51から供給された所定のファイルフォーマットの多重化データを、データ種類(トラック)別に分離し、ファイル保存時の符号化方式に対応する復号方式により復号する。復号の結果得られたGPS時刻情報とオーディオ情報は、サンプリングレートコンバータ53に供給され、GPS位置情報は、波面合成用フィルタ54に供給される。   In step S42, the demultiplexer 52 separates the multiplexed data of a predetermined file format supplied from the data acquisition unit 51 for each data type (track) and decodes it by a decoding method corresponding to the encoding method at the time of file storage. To do. The GPS time information and audio information obtained as a result of decoding are supplied to the sampling rate converter 53, and the GPS position information is supplied to the wavefront synthesis filter 54.

ステップS43において、サンプリングレートコンバータ53は、デマルチプレクサ52から供給されたオーディオ情報のサンプリングレートを、基準クロック生成部57から供給された再生レートfsに変換して、サンプリングレート変換後のオーディオ情報を波面合成用フィルタ54に供給する。   In step S43, the sampling rate converter 53 converts the sampling rate of the audio information supplied from the demultiplexer 52 into the reproduction rate fs supplied from the reference clock generation unit 57, and the audio information after the sampling rate conversion is wavefronted. This is supplied to the synthesis filter 54.

ステップS44において、波面合成用フィルタ54は、デマルチプレクサ52から供給されたオーディオ情報を記録したときの伝達関数Gを、デマルチプレクサ52から供給されたオーディオ情報に対応するGPS位置情報に基づいて算出する。   In step S <b> 44, the wavefront synthesis filter 54 calculates the transfer function G when the audio information supplied from the demultiplexer 52 is recorded based on the GPS position information corresponding to the audio information supplied from the demultiplexer 52. .

ステップS45において、波面合成用フィルタ54は、サンプリングレートコンバータ53から供給されたオーディオ情報に対して、伝達関数Gの逆特性となる波面合成フィルタ処理を実行する。フィルタ処理後のオーディオ信号は、D/Aコンバータ55に供給される。   In step S <b> 45, the wavefront synthesis filter 54 performs a wavefront synthesis filter process with the inverse characteristic of the transfer function G on the audio information supplied from the sampling rate converter 53. The filtered audio signal is supplied to the D / A converter 55.

ステップS46において、D/Aコンバータ55は、波面合成用フィルタ54から供給されたデジタルのオーディオ信号をアナログの信号に変換し、アンプ56に供給する。   In step S 46, the D / A converter 55 converts the digital audio signal supplied from the wavefront synthesis filter 54 into an analog signal and supplies the analog signal to the amplifier 56.

ステップS47において、アンプ56は、D/Aコンバータ55から供給されたアナログのオーディオ信号を増幅して、スピーカ14に出力する。スピーカ14は、アンプ56から供給されたアナログのオーディオ信号に対応する音を出力する。   In step S 47, the amplifier 56 amplifies the analog audio signal supplied from the D / A converter 55 and outputs it to the speaker 14. The speaker 14 outputs a sound corresponding to the analog audio signal supplied from the amplifier 56.

多重化データ再生処理は以上のように実行される。   The multiplexed data reproduction process is executed as described above.

図1の音響システム1では、上述したように、多数のユーザが所有するスマートフォンなどを録音装置11として使用することができる。録音装置11としての各ユーザのスマートフォンは、オーディオ信号とビデオ信号を、GPS信号から取得した位置情報と時刻情報とともに多重化して、所定のファイルフォーマットの多重化データとして記録する。   In the acoustic system 1 in FIG. 1, as described above, a smartphone or the like owned by many users can be used as the recording device 11. Each user's smartphone as the recording device 11 multiplexes the audio signal and the video signal together with the position information and time information acquired from the GPS signal, and records the multiplexed data in a predetermined file format.

再生装置13は、録音装置11により作成された所定のファイルフォーマットの多重化データを取得して、GPS時刻情報、GPS位置情報、オーディオ情報、及びビデオ情報に分離する。そして、再生装置13は、多重化データに含まれるGPS時刻情報に基づいて、オーディオ信号のサンプリングレートを、録音時のサンプリングレートfs_estから所定の再生レートfsに変換し、変換後のオーディオ信号に波面合成フィルタ処理を施して、スピーカ14から出力させる。   The playback device 13 acquires multiplexed data of a predetermined file format created by the recording device 11 and separates it into GPS time information, GPS position information, audio information, and video information. Then, the playback device 13 converts the sampling rate of the audio signal from the sampling rate fs_est at the time of recording to a predetermined playback rate fs based on the GPS time information included in the multiplexed data, and wavefronts the converted audio signal. Synthetic filter processing is performed and output from the speaker 14.

ここで、多重化データに含まれる時刻情報は、録音装置11内のカウンタクロックに基づくものではなく、受信したGPS信号から取得した時刻情報であり、原子時計に基づく高精度な時刻情報である。   Here, the time information included in the multiplexed data is not based on the counter clock in the recording device 11, but is time information acquired from the received GPS signal, and is highly accurate time information based on the atomic clock.

再生装置13は、多重化データに含まれる高精度なGPS時刻情報に基づいて、記録されているオーディオ信号のサンプリングレートのずれを検出し、所定の再生レートfsにサンプリングレートを変換してから、音を出力する。これにより、多数のユーザが所有するスマートフォンなどの民生機器を録音装置11として使用した場合であっても、複数の再生装置13どうしで、出力する音の同期をとることができ、録音時の音場を再現することができる。   The playback device 13 detects a deviation in the sampling rate of the recorded audio signal based on the highly accurate GPS time information included in the multiplexed data, converts the sampling rate to a predetermined playback rate fs, Output sound. Thus, even when consumer devices such as smartphones owned by a large number of users are used as the recording device 11, it is possible to synchronize the sound output between the plurality of playback devices 13, and the sound at the time of recording The field can be reproduced.

即ち、簡便な機器で取得した音源を波面合成の音源として利用することができる。   That is, a sound source acquired with a simple device can be used as a sound source for wavefront synthesis.

録音装置11により作成された所定のファイルフォーマットの多重化データには、録音装置11が音源を取得した位置を表すGPS位置情報が含まれている。   The multiplexed data of a predetermined file format created by the recording device 11 includes GPS position information indicating the position where the recording device 11 has acquired the sound source.

再生装置13は、多重化データに含まれるGPS位置情報に基づいて伝達関数Gを算出し、伝達関数Gの逆特性で与えられる波面合成フィルタ処理を実行することができる。   The reproducing device 13 can calculate the transfer function G based on the GPS position information included in the multiplexed data, and can execute wavefront synthesis filter processing given by the inverse characteristic of the transfer function G.

これにより、通常、再生空間で音源データを取得する場合には、図2を参照して説明したように録音装置11を原空間と同じように配列させたり、特性を測定済みの録音装置11を再生空間の現場に持っていく必要があった。   Thus, normally, when acquiring sound source data in the reproduction space, as described with reference to FIG. 2, the recording devices 11 are arranged in the same manner as in the original space, or the recording devices 11 whose characteristics have been measured are arranged. It was necessary to bring it to the site of the reclaimed space.

しかしながら、本実施の形態によれば、再生空間で録音装置11が音源データを取得する際に、録音装置11の位置を示すGPS位置情報も取得することができるので、図9に示されるように、収音位置(制御点)が不均一に配置された状態であっても、GPS位置情報を基に、複数のスピーカ14との距離に基づいて伝達関数Gを算出し、その逆特性を求めることができる。すなわち、より簡単に、再生空間の伝達関数Gを算出し、音場を再現することができる。   However, according to the present embodiment, when the recording device 11 acquires the sound source data in the reproduction space, the GPS position information indicating the position of the recording device 11 can also be acquired. Therefore, as shown in FIG. Even if the sound collection positions (control points) are unevenly arranged, the transfer function G is calculated based on the distance to the plurality of speakers 14 based on the GPS position information, and the inverse characteristic is obtained. be able to. That is, it is possible to more easily calculate the transfer function G of the reproduction space and reproduce the sound field.

なお、上述した説明では、多重化データ作成処理により作成した多重化データを、波面合成処理に用いて音場を再現する例について説明したが、波面合成処理以外に用いてもよい。例えば、多重化データ作成処理により作成された複数の多重化データの一部のみを用いて、5.1チャンネルのスピーカシステムに利用することもできる。   In the above description, the example in which the multiplexed data created by the multiplexed data creation process is used for the wavefront synthesis process to reproduce the sound field has been described, but it may be used other than the wavefront synthesis process. For example, only a part of a plurality of multiplexed data created by the multiplexed data creation process can be used for a 5.1 channel speaker system.

図10は、多重化データ作成処理により作成された多重化データを5.1チャンネルのスピーカシステムに利用する例を示している。   FIG. 10 shows an example in which multiplexed data created by multiplexed data creation processing is used in a 5.1 channel speaker system.

多重化データ作成処理により作成された多数の収音位置の多重化データのうち、例えば、図10に示されるように、録音装置11Aで取得された多重化データを、センタースピーカ91Aに使用し、録音装置11Bで取得された多重化データを、右フロントスピーカ91Bに割り当て、録音装置11Cで取得された多重化データを、右リアスピーカ91Cに割り当て、録音装置11Dで取得された多重化データを、左リアスピーカ91Dに割り当て、録音装置11Eで取得された多重化データを、左フロントスピーカ91Eに割り当て、出力させることができる。   Among the multiplexed data of the multiple sound collection positions created by the multiplexed data creation process, for example, as shown in FIG. 10, the multiplexed data acquired by the recording device 11A is used for the center speaker 91A. The multiplexed data acquired by the recording device 11B is allocated to the right front speaker 91B, the multiplexed data acquired by the recording device 11C is allocated to the right rear speaker 91C, and the multiplexed data acquired by the recording device 11D is Multiplexed data assigned to the left rear speaker 91D and acquired by the recording device 11E can be assigned to the left front speaker 91E for output.

上述した説明では、オーディオ情報を複数の再生装置13間で同期させる処理について説明したが、ビデオ情報についても同様に、多重化データに含まれる時間情報に基づいてサンプリングレートを制御し、オーディオ情報に同期させた映像を表示させたり、複数の録画位置で取得した映像の視点補間も行うことができる。   In the above description, the process of synchronizing the audio information between the plurality of playback devices 13 has been described. Similarly, for the video information, the sampling rate is controlled based on the time information included in the multiplexed data, so that the audio information Synchronized video can be displayed, and viewpoint interpolation of video acquired at a plurality of recording positions can also be performed.

上述した例では、録音装置11が、自身の正確な位置情報を、GPS信号に含まれる位置情報から認識したが、高精度な時刻情報をその他の方法で取得してもよい。例えば、録音装置11の制御部34が、通信部36を介して、正確な時刻情報を配信しているNTP(Network Time Protocol)サーバにアクセスすることで、高精度な時間情報を取得してもよい。   In the example described above, the recording device 11 recognizes its own accurate position information from the position information included in the GPS signal, but high-accuracy time information may be acquired by other methods. For example, even if the control unit 34 of the recording device 11 obtains highly accurate time information by accessing a NTP (Network Time Protocol) server that distributes accurate time information via the communication unit 36. Good.

また、GPS衛星は、アメリカが運用する測位衛星であるが、ロシアによるGLONASS(Global Orbiting Navigation Satellite System )、EUによるGalileoなど、その他の衛星測位システム(GNSS:Global Navigation Satellite System)の測位衛星から送信されてくる送信信号を受信して時刻情報及び位置情報を取得してもよい。   GPS satellites are positioning satellites operated by the United States, but transmitted from positioning satellites of other satellite positioning systems (GNSS) such as GLONASS (Global Orbiting Navigation Satellite System) by Russia and Galileo by EU. The received transmission signal may be received to acquire time information and position information.

オーディオ情報及びビデオ情報を処理する信号処理装置としての録音装置11及び再生装置13のそれぞれは、それ専用のハードウエアとして作成することもできるし、コンピュータに上述した一連の処理を行うプログラムを実行させることで実現することもできる。上述した一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。   Each of the recording device 11 and the playback device 13 as signal processing devices for processing audio information and video information can be created as dedicated hardware, or causes a computer to execute a program for performing the above-described series of processing. It can also be realized. When the above-described series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.

図11は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。   FIG. 11 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.

コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。   In a computer, a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access Memory) 103 are connected to each other via a bus 104.

バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及びドライブ110が接続されている。   An input / output interface 105 is further connected to the bus 104. An input unit 106, an output unit 107, a storage unit 108, a communication unit 109, and a drive 110 are connected to the input / output interface 105.

入力部106は、キーボード、マウス、マイクロホン、カメラなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体111を駆動する。   The input unit 106 includes a keyboard, a mouse, a microphone, a camera, and the like. The output unit 107 includes a display, a speaker, and the like. The storage unit 108 includes a hard disk, a nonvolatile memory, and the like. The communication unit 109 includes a network interface or the like. The drive 110 drives a removable recording medium 111 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, the CPU 101 loads, for example, the program stored in the storage unit 108 to the RAM 103 via the input / output interface 105 and the bus 104 and executes the program. Is performed.

コンピュータでは、プログラムは、リムーバブル記録媒体111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。   In the computer, the program can be installed in the storage unit 108 via the input / output interface 105 by attaching the removable recording medium 111 to the drive 110. Further, the program can be received by the communication unit 109 and installed in the storage unit 108 via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting. In addition, the program can be installed in the ROM 102 or the storage unit 108 in advance.

なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。   In the present specification, the steps described in the flowcharts are performed in parallel or in a call even if they are not necessarily processed in chronological order, as well as performed in chronological order according to the described order. It may be executed at a necessary timing such as when.

なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。   In this specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .

本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。   Embodiments of the present disclosure are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present disclosure.

例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。   For example, the present disclosure can take a configuration of cloud computing in which one function is shared by a plurality of apparatuses via a network and is jointly processed.

また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。   In addition, each step described in the above flowchart can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.

さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。   Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.

なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。   Note that the effects described in this specification are merely examples and are not limited, and there may be effects other than those described in this specification.

なお、本開示は以下のような構成も取ることができる。
(1)
オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得する取得部と、
前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整するサンプリングレート調整部と、
サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する出力部と
を備える信号処理装置。
(2)
前記サンプリングレート調整部は、前記オーディオ情報のサンプリングレートを、前記時刻情報に基づいて調整する
前記(1)に記載の信号処理装置。
(3)
前記多重化データには、位置情報も含まれており、
前記位置情報に基づいて伝達関数を算出し、算出された伝達関数に対応するフィルタを用いてサンプリングレート調整後の前記オーディオ信号をフィルタ処理するフィルタ部をさらに備える
前記(1)または(2)に記載の信号処理装置。
(4)
前記時刻情報は、GPS信号から取得された情報である
前記(1)乃至(3)のいずれかに記載の信号処理装置。
(5)
前記時刻情報は、NTPサーバから取得された情報である
前記(1)乃至(3)のいずれかに記載の信号処理装置。
(6)
前記位置情報は、GPS信号から取得された情報である
前記(1)乃至(5)のいずれかに記載の信号処理装置。
(7)
前記時刻情報は、所定サンプル数の前記オーディオ情報ごとに含まれる
前記(1)乃至(6)のいずれかに記載の信号処理装置。
(8)
前記時刻情報は、前記多重化データの記録を開始した開始時刻情報と、前記多重化データの記録を終了した終了時刻情報である
前記(1)乃至(7)のいずれかに記載の信号処理装置。
(9)
前記サンプリングレート調整部は、前記取得部により取得された前記複数の多重化データの一部の多重化データについてのみサンプリングレートを調整し、
前記出力部は、サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する
前記(1)乃至(8)のいずれかに記載の信号処理装置。
(10)
オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得し、
前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整し、
サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する
信号処理装置の信号処理方法。
(11)
コンピュータを、
オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得させる取得部と、
前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整するサンプリングレート調整部と、
サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力させる出力部
として機能させるためのプログラム。
In addition, this indication can also take the following structures.
(1)
An acquisition unit for acquiring a plurality of multiplexed data in which at least audio information and time information are multiplexed;
For each of the plurality of multiplexed data, a sampling rate adjusting unit that adjusts a sampling rate of the audio information;
A signal processing apparatus comprising: an output unit that outputs the plurality of audio information after adjusting the sampling rate to a different speaker for each audio information.
(2)
The signal processing apparatus according to (1), wherein the sampling rate adjustment unit adjusts a sampling rate of the audio information based on the time information.
(3)
The multiplexed data includes position information,
(1) or (2) further comprising a filter unit that calculates a transfer function based on the position information and filters the audio signal after adjusting the sampling rate using a filter corresponding to the calculated transfer function. The signal processing apparatus as described.
(4)
The signal processing device according to any one of (1) to (3), wherein the time information is information acquired from a GPS signal.
(5)
The signal processing device according to any one of (1) to (3), wherein the time information is information acquired from an NTP server.
(6)
The signal processing apparatus according to any one of (1) to (5), wherein the position information is information acquired from a GPS signal.
(7)
The signal processing device according to any one of (1) to (6), wherein the time information is included for each audio information of a predetermined number of samples.
(8)
The signal processing device according to any one of (1) to (7), wherein the time information is start time information at which recording of the multiplexed data is started and end time information at which recording of the multiplexed data is ended. .
(9)
The sampling rate adjustment unit adjusts the sampling rate only for some of the multiplexed data acquired by the acquisition unit,
The signal processing apparatus according to any one of (1) to (8), wherein the output unit outputs the plurality of audio information after adjusting the sampling rate to different speakers for each audio information.
(10)
Obtaining a plurality of multiplexed data in which at least audio information and time information are multiplexed;
For each of the plurality of multiplexed data, adjust the sampling rate of the audio information,
A signal processing method of a signal processing device that outputs the plurality of audio information after adjusting a sampling rate to a different speaker for each audio information.
(11)
Computer
An acquisition unit for acquiring a plurality of multiplexed data in which at least audio information and time information are multiplexed;
For each of the plurality of multiplexed data, a sampling rate adjusting unit that adjusts a sampling rate of the audio information;
A program for causing a plurality of audio information after sampling rate adjustment to function as an output unit for outputting to a different speaker for each audio information.

1 音響システム, 10 スピーカ, 11 録音装置, 12 データ記憶装置, 13 再生装置, 14 スピーカ, 51 データ取得部, 52 デマルチプレクサ, 53 サンプリングレートコンバータ, 54 波面合成用フィルタ, 56 アンプ, 81 スピーカ, 101 CPU, 102 ROM, 103 RAM, 106 入力部, 107 出力部, 108 記憶部, 109 通信部   DESCRIPTION OF SYMBOLS 1 Audio system, 10 Speaker, 11 Recording apparatus, 12 Data storage apparatus, 13 Playback apparatus, 14 Speaker, 51 Data acquisition part, 52 Demultiplexer, 53 Sampling rate converter, 54 Wavefront synthesis filter, 56 Amplifier, 81 Speaker, 101 CPU, 102 ROM, 103 RAM, 106 input unit, 107 output unit, 108 storage unit, 109 communication unit

Claims (11)

オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得する取得部と、
前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整するサンプリングレート調整部と、
サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する出力部と
を備える信号処理装置。
An acquisition unit for acquiring a plurality of multiplexed data in which at least audio information and time information are multiplexed;
For each of the plurality of multiplexed data, a sampling rate adjusting unit that adjusts a sampling rate of the audio information;
A signal processing apparatus comprising: an output unit that outputs the plurality of audio information after adjusting the sampling rate to a different speaker for each audio information.
前記サンプリングレート調整部は、前記オーディオ情報のサンプリングレートを、前記時刻情報に基づいて調整する
請求項1に記載の信号処理装置。
The signal processing apparatus according to claim 1, wherein the sampling rate adjustment unit adjusts a sampling rate of the audio information based on the time information.
前記多重化データには、位置情報も含まれており、
前記位置情報に基づいて伝達関数を算出し、算出された伝達関数に対応するフィルタを用いてサンプリングレート調整後の前記オーディオ信号をフィルタ処理するフィルタ部をさらに備える
請求項1に記載の信号処理装置。
The multiplexed data includes position information,
The signal processing apparatus according to claim 1, further comprising: a filter unit that calculates a transfer function based on the position information and filters the audio signal after adjusting the sampling rate using a filter corresponding to the calculated transfer function. .
前記時刻情報は、GPS信号から取得された情報である
請求項1に記載の信号処理装置。
The signal processing apparatus according to claim 1, wherein the time information is information acquired from a GPS signal.
前記時刻情報は、NTPサーバから取得された情報である
請求項1に記載の信号処理装置。
The signal processing device according to claim 1, wherein the time information is information acquired from an NTP server.
前記位置情報は、GPS信号から取得された情報である
請求項1に記載の信号処理装置。
The signal processing apparatus according to claim 1, wherein the position information is information acquired from a GPS signal.
前記時刻情報は、所定サンプル数の前記オーディオ情報ごとに含まれる
請求項1に記載の信号処理装置。
The signal processing device according to claim 1, wherein the time information is included for each audio information of a predetermined number of samples.
前記時刻情報は、前記多重化データの記録を開始した開始時刻情報と、前記多重化データの記録を終了した終了時刻情報である
請求項1に記載の信号処理装置。
The signal processing device according to claim 1, wherein the time information is start time information at which recording of the multiplexed data is started and end time information at which recording of the multiplexed data is ended.
前記サンプリングレート調整部は、前記取得部により取得された前記複数の多重化データの一部の多重化データについてのみサンプリングレートを調整し、
前記出力部は、サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する
請求項1に記載の信号処理装置。
The sampling rate adjustment unit adjusts the sampling rate only for some of the multiplexed data acquired by the acquisition unit,
The signal processing apparatus according to claim 1, wherein the output unit outputs the plurality of audio information after adjusting the sampling rate to different speakers for each audio information.
信号処理装置が、
オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得し、
前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整し、
サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する
信号処理方法。
The signal processor
Obtaining a plurality of multiplexed data in which at least audio information and time information are multiplexed;
For each of the plurality of multiplexed data, adjust the sampling rate of the audio information,
A signal processing method of outputting a plurality of the audio information after adjusting a sampling rate to a different speaker for each audio information.
コンピュータを、
オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得させる取得部と、
前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整するサンプリングレート調整部と、
サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力させる出力部
として機能させるためのプログラム。
Computer
An acquisition unit for acquiring a plurality of multiplexed data in which at least audio information and time information are multiplexed;
For each of the plurality of multiplexed data, a sampling rate adjusting unit that adjusts a sampling rate of the audio information;
A program for causing a plurality of audio information after sampling rate adjustment to function as an output unit for outputting to a different speaker for each audio information.
JP2014228897A 2014-11-11 2014-11-11 Signal processor and signal processing method and program thereof Pending JP2016092772A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014228897A JP2016092772A (en) 2014-11-11 2014-11-11 Signal processor and signal processing method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014228897A JP2016092772A (en) 2014-11-11 2014-11-11 Signal processor and signal processing method and program thereof

Publications (1)

Publication Number Publication Date
JP2016092772A true JP2016092772A (en) 2016-05-23

Family

ID=56019102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014228897A Pending JP2016092772A (en) 2014-11-11 2014-11-11 Signal processor and signal processing method and program thereof

Country Status (1)

Country Link
JP (1) JP2016092772A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107544334A (en) * 2017-09-18 2018-01-05 吉林大学 The data collecting card of adjust automatically sample rate
JP2020501428A (en) * 2016-12-05 2020-01-16 マジック リープ, インコーポレイテッドMagic Leap,Inc. Distributed audio capture techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems
CN113259824A (en) * 2021-05-14 2021-08-13 谷芯(广州)技术有限公司 Real-time multi-channel digital hearing aid noise reduction method and system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020501428A (en) * 2016-12-05 2020-01-16 マジック リープ, インコーポレイテッドMagic Leap,Inc. Distributed audio capture techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems
JP7125397B2 (en) 2016-12-05 2022-08-24 マジック リープ, インコーポレイテッド Distributed Audio Capture Techniques for Virtual Reality (VR), Augmented Reality (AR), and Mixed Reality (MR) Systems
JP2022163173A (en) * 2016-12-05 2022-10-25 マジック リープ, インコーポレイテッド Distributed audio capturing techniques for virtual reality (vr), augmented reality (ar) and mixed reality (mr) systems
US11528576B2 (en) 2016-12-05 2022-12-13 Magic Leap, Inc. Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems
CN107544334A (en) * 2017-09-18 2018-01-05 吉林大学 The data collecting card of adjust automatically sample rate
CN113259824A (en) * 2021-05-14 2021-08-13 谷芯(广州)技术有限公司 Real-time multi-channel digital hearing aid noise reduction method and system

Similar Documents

Publication Publication Date Title
US10734030B2 (en) Recorded data processing method, terminal device, and editing device
US20130304244A1 (en) Audio alignment apparatus
JP6349977B2 (en) Information processing apparatus and method, and program
US20130226324A1 (en) Audio scene apparatuses and methods
WO2013088208A1 (en) An audio scene alignment apparatus
WO2014188231A1 (en) A shared audio scene apparatus
WO2014053875A1 (en) An apparatus and method for reproducing recorded audio with correct spatial directionality
WO2013024704A1 (en) Image-processing device, method, and program
JP2016092772A (en) Signal processor and signal processing method and program thereof
EP2932503A1 (en) An apparatus aligning audio signals in a shared audio scene
EP2926339A1 (en) A shared audio scene apparatus
WO2014072772A1 (en) A shared audio scene apparatus
EP3868043B1 (en) Wireless audio synchronization
WO2014208378A1 (en) Information processing device, information processing method, program, and information processing system
US9570056B2 (en) Audio data synthesis method, audio output method, and program for synthesizing audio data based on a time difference
JP2013187841A (en) Electronic apparatus, output control method, and program
JP2010171626A (en) Motion picture generation device, and motion picture generation method
US11127434B2 (en) Timecode generator with global accuracy and flexible framerate
JP2018155897A (en) Information processing method
JP6398694B2 (en) Portable device and recording system having wireless LAN function
JP6471923B2 (en) Signal processing apparatus and method, and program
WO2023281667A1 (en) Media processing device, media processing method, and media processing program
JP2018157385A (en) Data synchronization method
JP2016015584A (en) Network camera system, network camera, and sound and image transmission method
EP3540735A1 (en) Spatial audio processing