JP2016092772A - Signal processor and signal processing method and program thereof - Google Patents
Signal processor and signal processing method and program thereof Download PDFInfo
- Publication number
- JP2016092772A JP2016092772A JP2014228897A JP2014228897A JP2016092772A JP 2016092772 A JP2016092772 A JP 2016092772A JP 2014228897 A JP2014228897 A JP 2014228897A JP 2014228897 A JP2014228897 A JP 2014228897A JP 2016092772 A JP2016092772 A JP 2016092772A
- Authority
- JP
- Japan
- Prior art keywords
- sampling rate
- information
- audio information
- multiplexed data
- time information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
本開示は、信号処理装置及びその信号処理方法、並びにプログラムに関し、特に、簡便な機器で取得した音源を波面合成の音源として利用することができるようにすることができるようにする信号処理装置及びその信号処理方法、並びにプログラムに関する。 The present disclosure relates to a signal processing device, a signal processing method thereof, and a program, and in particular, a signal processing device that enables a sound source acquired by a simple device to be used as a sound source for wavefront synthesis, and The present invention relates to the signal processing method and program.
音場における音声の波面を複数のマイクロホンで収音し、得られた収音信号に基づいて音場を再現する音場再現手法として、波面合成技術が知られている。波面合成技術の一つに、境界音場制御がある(例えば、特許文献1参照)。 A wavefront synthesis technique is known as a sound field reproduction technique for collecting a sound wavefront of sound in a sound field with a plurality of microphones and reproducing the sound field based on the obtained sound pickup signal. One of the wavefront synthesis techniques is boundary sound field control (see, for example, Patent Document 1).
一般に、音場再現手法では、音源を収音する際の複数のマイクロホンとして、特殊なマイクロホンや、多数のマイクロホンが必要である。 In general, in the sound field reproduction method, a special microphone and a large number of microphones are required as a plurality of microphones for collecting a sound source.
近年、一人一台スマートフォンを携帯するようになってきており、スマートフォンには、自分の位置を受信するGPS(Global Positioning System)機能や、映像や音声を記録する機能がついているものが多い。 In recent years, smartphones have been carried one by one, and many smartphones have a GPS (Global Positioning System) function for receiving their position and a function for recording video and audio.
そこで、波面合成に必要な音源をスマートフォンで簡単に録音することができれば望ましい。このときに問題となるのが、複数の機器で得られる各音源のクロックのずれである。スマートフォンでは、例えば、映像は30fps、音声は48kHzのサンプリング周波数で記録が可能であるが、厳密には、機器ごとに、サンプリング周波数はわずかに異なる。 Therefore, it is desirable if the sound source necessary for wavefront synthesis can be easily recorded with a smartphone. At this time, the problem is the clock shift of each sound source obtained by a plurality of devices. In a smartphone, for example, video can be recorded at a sampling frequency of 30 fps and audio can be recorded at a sampling frequency of 48 kHz, but strictly speaking, the sampling frequency is slightly different for each device.
音場再現のための専用機では、Wordclockと呼ばれるオーディオのリファレンス信号、Genlockと呼ばれるビデオのリファレンス信号を基準にサンプリングされるので、同期がずれることはない。しかし、専用機以外の一般の民生機器では、このような機構がないため、それぞれの機器間で得られた信号にクロックのずれが生じてしまう。 In a dedicated machine for reproducing the sound field, sampling is performed based on an audio reference signal called Wordclock and a video reference signal called Genlock, so synchronization is not lost. However, in general consumer equipment other than dedicated machines, there is no such mechanism, and thus a clock shift occurs in signals obtained between the respective equipments.
本開示は、このような状況に鑑みてなされたものであり、簡便な機器で取得した音源を波面合成の音源として利用することができるようにするものである。 This indication is made in view of such a situation, and makes it possible to use the sound source acquired with simple equipment as the sound source of wave front composition.
本開示の一側面の信号処理装置は、オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得する取得部と、前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整するサンプリングレート調整部と、サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する出力部とを備える。 A signal processing device according to an aspect of the present disclosure includes an acquisition unit that acquires a plurality of multiplexed data in which audio information and time information are at least multiplexed, and a sampling rate of the audio information for each of the plurality of multiplexed data. A sampling rate adjusting unit to adjust; and an output unit that outputs the plurality of audio information after the sampling rate adjustment to different speakers for each audio information.
本開示の一側面の信号処理方法は、信号処理装置が、オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得し、前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整し、サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する。 In the signal processing method according to an aspect of the present disclosure, the signal processing device acquires a plurality of multiplexed data in which audio information and time information are multiplexed at least, and the audio information is sampled for each of the plurality of multiplexed data. The rate is adjusted, and the plurality of audio information after the sampling rate adjustment is output to different speakers for each audio information.
本開示の一側面のプログラムは、コンピュータを、オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得させる取得部と、前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整するサンプリングレート調整部と、サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力させる出力部として機能させるためのものである。 According to one aspect of the present disclosure, a program includes: an acquisition unit configured to acquire a plurality of multiplexed data in which audio information and time information are at least multiplexed; and a sampling rate of the audio information for each of the plurality of multiplexed data And a sampling rate adjusting unit that adjusts the sampling rate and a plurality of the audio information after the sampling rate adjustment are functioned as an output unit that outputs to different speakers for each audio information.
本開示の一側面においては、オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データが取得され、前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートが調整され、サンプリングレート調整後の複数の前記オーディオ情報が、前記オーディオ情報ごとに異なるスピーカに出力される。 In one aspect of the present disclosure, a plurality of multiplexed data in which at least audio information and time information are multiplexed is acquired, and the sampling rate of the audio information is adjusted for each of the plurality of multiplexed data, and the sampling rate adjustment is performed. The plurality of later audio information is output to different speakers for each audio information.
なお、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。 The program can be provided by being transmitted through a transmission medium or by being recorded on a recording medium.
信号処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。 The signal processing device may be an independent device or an internal block constituting one device.
本開示の一側面によれば、簡便な機器で取得した音源を波面合成の音源として利用することができる。 According to one aspect of the present disclosure, a sound source acquired by a simple device can be used as a sound source for wavefront synthesis.
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
<音響システムの構成例>
図1は、本開示に係る音響システムの一実施の形態の構成例を示している。
<Configuration example of acoustic system>
FIG. 1 shows a configuration example of an embodiment of an acoustic system according to the present disclosure.
図1の音響システム1は、波面合成を用いて音の臨場感を再現するシステムであり、K個(K>1)のスピーカ101乃至10K、M個(M>1)の録音装置111乃至11M、データ記憶装置12、M個の再生装置131乃至13M、及び、M個のスピーカ141乃至14Mにより構成される。
The
なお、以下において、K個のスピーカ101乃至10Kそれぞれを特に区別する必要がない場合、単にスピーカ10と記述し、M個の録音装置111乃至11Mそれぞれを特に区別する必要がない場合、単に、録音装置11と記述する。M個の再生装置131乃至13M、及び、M個のスピーカ141乃至14Mについても同様とする。
In the following, when it is not necessary to distinguish each of
K個のスピーカ10とM個の録音装置11は、収音システム15を構成し、音源を収音する場合に、所定の会場に設置される。一方、M個の再生装置13とM個のスピーカ14は、再生システム16を構成し、収音された音源を再生する場合に、所定の会場に設置される。なお、データ記憶装置12は、収音システム15または再生システム16の一部として組み込むことができる。
The
図2を参照して、音の臨場感を再現する波面合成技術の一つである、境界音場制御法について説明する。 With reference to FIG. 2, a boundary sound field control method, which is one of wavefront synthesis techniques for reproducing the realistic sensation of sound, will be described.
境界音場制御法は、音場を再現する再生空間に、音源を収音した原空間と同じようにマイクロホンを配置し、そのマイクロホンで観測される信号が、原空間で収音したときのマイクロホン信号と同じになるように、再生空間の周囲に設置した複数のスピーカに入力信号を与える方法である。 In the boundary sound field control method, a microphone is placed in the reproduction space that reproduces the sound field in the same way as the original space where the sound source is collected, and the microphone observed when the signal observed by the microphone is collected in the original space. In this method, an input signal is given to a plurality of speakers installed around the reproduction space so as to be the same as the signal.
具体的には、図2に示されるように、会場Aを原空間として、会場Aにおいて周辺に配置された多数のスピーカ10から出力された音が、会場内に配列させた多数の録音装置11で収音される。
Specifically, as shown in FIG. 2, a large number of
そして、再生空間としての会場Bにおいて、図2に示されるように、原空間と同じような配置で多数の録音装置11を設置した場合に、それぞれの録音装置11で観測されるオーディオ信号が、原空間で収音した信号と同じになるような音を、再生装置13が、スピーカ14から出力させることで、原空間の音場が、再生空間で再現される。原空間及び再生空間における各録音装置11の位置は、境界音場制御法における制御点と呼ばれる。
Then, in the venue B as the reproduction space, as shown in FIG. 2, when a large number of
再生空間の制御点で観測されるオーディオ信号が原空間で収音した信号と同じになるようにするには、再生空間の各スピーカ14から各録音装置11までの伝達関数(伝達特性)Gを実測し、再生装置13が、伝達関数Gの逆特性となる逆関数フィルタH=G-1を計算して、原空間で収音したオーディオ信号を逆関数フィルタHを通してスピーカ14から出力する。
In order to make the audio signal observed at the control point in the reproduction space the same as the signal collected in the original space, the transfer function (transfer characteristic) G from each
図1の説明に戻り、収音システム15は、原空間で音源を収音したり、再生空間で伝達関数Gを実測する際に使用される。
Returning to the description of FIG. 1, the
K個のスピーカ10それぞれは、所定の音を出力する。M個の録音装置11それぞれは、K個のスピーカ10から出力される音を収音し、その結果得られるオーディオ信号をデータ記憶装置12に供給する。
Each of the
再生システム16は、原空間で収音した音源を再生空間で再現する際に使用される。
The
再生装置13は、伝達関数Gの逆特性となる逆関数フィルタH=G-1を算出する。そして、再生装置13は、データ記憶装置12から取得したオーディオ信号に対して、逆関数フィルタHによるフィルタ処理を施し、フィルタ処理後のオーディオ信号を出力する。スピーカ14は、接続されている再生装置13から供給されるオーディオ信号に基づく音を出力する。
The reproducing
なお、波面合成の伝達関数G及びその逆関数G-1の算出には、上述した境界音場制御の原理の他、キルヒホッフ・ホルムヘルツ積分方程式など、波面合成技術として知られる任意の演算を用いることができる。以下において、再生装置13が、原空間で収音したオーディオ信号に対して実行する、伝達関数Gの逆関数フィルタHを、波面合成フィルタと称する。
For the calculation of the transfer function G of wavefront synthesis and its inverse function G- 1 , in addition to the principle of boundary sound field control described above, an arbitrary calculation known as a wavefront synthesis technique such as the Kirchhoff-Holmhertz integral equation should be used. Can do. Hereinafter, the inverse function filter H of the transfer function G executed by the
音響システム1は、以上のように構成される。
The
なお、収音システム15において、複数の録音装置11で行われる処理を、1つの信号処理装置が行う構成とすることもできる。同様に、再生システム16において、複数の再生装置13で行われる処理を1つの信号処理装置が行う構成とすることもできる。また、データ記憶装置12の機能を録音装置11や再生装置13が備える構成とし、データ記憶装置12は省略されてもよい。
Note that, in the
一般に、音場を再現する音響システム1の録音装置11としては、音場再現用に設計された専用機が用いられるが、本実施の形態では、後述するように、録音装置11として、スマートフォンのような多数のユーザが所有する民生機器を使用することができる。録音装置11として民生機器を使用した場合、問題となるのは、複数の録音装置11どうしの同期のずれである。そこで、後述するように、本開示に係る音響システム1の再生装置13は、複数の録音装置11どうしの同期のずれを修正して再生する機能を有している。
In general, a dedicated device designed for sound field reproduction is used as the
以下、録音装置11と再生装置13の詳細について説明する。
Details of the
<録音装置の構成例>
図3は、録音装置11の詳細な構成例を示すブロック図である。
<Configuration example of recording device>
FIG. 3 is a block diagram illustrating a detailed configuration example of the
録音装置11は、収音部31、撮像部32、GPS受信部33、制御部34、データ記憶部35、及び通信部36を有する。
The
収音部31は、例えば、マイクロホンなどで構成され、周囲の音を取得して、その結果得られるオーディオ信号を制御部34に供給する。
The
撮像部32は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどで構成され、所定の映像を撮像し、その結果得られるビデオ信号を制御部34に供給する。
The imaging unit 32 is configured by, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and the like, captures a predetermined video, and supplies a video signal obtained as a result to the
GPS受信部33は、GPS衛星から送信されてくるGPS信号を受信して、受信したGPS信号に含まれる位置情報と時刻情報を制御部34に供給する。GPS信号に含まれる時刻情報は、原子時計に基づく時刻情報であり、高精度な時刻情報である。
The
制御部34は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、各種のプログラムを実行することにより、録音装置11全体の動作を制御する。また、制御部34は、収音部31から供給されるオーディオ信号、撮像部32から供給されるビデオ信号、GPS受信部33から供給される位置情報及び時刻情報を、所定のフォーマットで多重化した多重化データを生成し、データ記憶部35に記憶させる。さらに、制御部34は、生成した多重化データを、通信部36を介して、データ記憶装置12(図1)に出力させる。
The
データ記憶部35は、例えば、EEPROM(Electronically Erasable and Programmable Read Only Memory)などの不揮発性メモリで構成され、所定のプログラムやデータを記憶する。データ記憶部35には、例えば、制御部34が実行するプログラムや、制御部34から供給されたデータが記憶される。
The
通信部36は、例えば、有線または無線によりLAN(Local Area Network)に接続するための通信モジュールで構成され、ネットワークに接続して、他の装置と通信する。通信部36は、USB(Universal Serial Bus)の規格に基づくUSB I/F(Inter Face)やBluetooth(登録商標)等、有線、無線を問わず、その他の通信方式で通信を行うものでもよい。
The
以上の構成を有する録音装置11は、例えば、スマートフォンなどの携帯情報端末で構成することができる。
The
<多重化データ作成処理>
次に、図4のフローチャートを参照して、録音装置11による多重化データ作成処理について説明する。この処理は、例えば、M個の録音装置11それぞれにおいて、音源の記録開始の指示がなされたとき、実行される。
<Multiplexed data creation process>
Next, the multiplexed data creation process by the
初めに、ステップS11において、GPS受信部33は、GPS信号を受信して、受信したGPS信号に含まれる時刻情報を取得し、制御部34に供給する。制御部34は、供給された時刻情報を開始時刻情報として所定の方式で符号化し、パケット化する。
First, in step S <b> 11, the
ステップS12において、GPS受信部33は、GPS信号を受信して、受信したGPS信号に含まれる位置情報と時刻情報を取得し、制御部34に供給する。制御部34は、GPS受信部33から供給された位置情報と時刻情報を、GPS位置情報及びGPS時刻情報として所定の方式で符号化し、パケット化する。
In step S <b> 12, the
ステップS13において、収音部31は、周囲の音を取得し、その結果得られるオーディオ信号を制御部34に供給する。制御部34は、収音部31から供給されたオーディオ信号を取得し、オーディオ情報として所定の方式で符号化し、パケット化する。
In step S <b> 13, the
ステップS14において、撮像部32は、所定の映像を撮像し、その結果得られるビデオ信号を制御部34に供給する。制御部34は、撮像部32から供給されたビデオ信号を取得し、ビデオ情報として所定の方式で符号化し、パケット化する。
In step S <b> 14, the imaging unit 32 captures a predetermined video and supplies a video signal obtained as a result to the
なお、説明の便宜上、ステップS12乃至S14の処理は、順番に行うこととして説明しているが、実際には、並列に(同時に)実行される。 For convenience of explanation, the processes in steps S12 to S14 are described as being performed in order, but in actuality, they are executed in parallel (simultaneously).
ステップS15において、制御部34は、データ取得が終了したか否かを判定する。
In step S15, the
ステップS15で、データ取得がまだ終了していないと判定された場合、処理はステップS12に戻り、上述したステップS12乃至S15が繰り返し実行される。 If it is determined in step S15 that the data acquisition has not yet been completed, the process returns to step S12, and the above-described steps S12 to S15 are repeatedly executed.
一方、ステップS15で、データ取得が終了したと判定された場合、処理はステップS16に進み、GPS受信部33は、GPS信号を受信して、受信したGPS信号に含まれる時刻情報を取得し、制御部34に供給する。制御部34は、供給された時刻情報を終了時刻情報として所定の方式で符号化し、パケット化する。
On the other hand, if it is determined in step S15 that the data acquisition is completed, the process proceeds to step S16, and the
ステップS17において、制御部34は、上述した各ステップでパケット化した開始時刻情報、GPS位置情報、GPS時刻情報、オーディオ情報、ビデオ情報、及び、終了時刻情報を多重化した多重化データを作成して、データ記憶部35に記憶させる。あるいは、制御部34は、作成した多重化データを、データ記憶部35に記憶する代わりに、通信部36を介してデータ記憶装置12(図1)に出力してデータ記憶装置12に記憶させてもよい。
In step S17, the
<多重化データのデータ配置例>
図5は、図4の多重化データ作成処理により作成される多重化データのデータ配置例を示している。
<Data arrangement example of multiplexed data>
FIG. 5 shows a data arrangement example of multiplexed data created by the multiplexed data creation process of FIG.
例えば、多重化データの最初には、多重化データの記録を開始した時刻を表す開始時刻情報が配置され、多重化データの最後に、記録を終了した時刻を表す終了時刻情報が配置される。そして、開始時刻情報と終了時刻情報の間に、GPS時刻情報、GPS位置情報、オーディオ情報、及びビデオ情報のセットが、繰り返し配置される。 For example, start time information indicating the time when recording of the multiplexed data is started is arranged at the beginning of the multiplexed data, and end time information indicating the time when recording is ended is arranged at the end of the multiplexed data. A set of GPS time information, GPS position information, audio information, and video information is repeatedly arranged between the start time information and the end time information.
各情報は、データの長さに応じた1個以上のパケットで構成される。ここで、オーディオ情報とビデオ情報の1まとまりは、予め定めたNサンプル(N枚)単位とされる。 Each information is composed of one or more packets corresponding to the data length. Here, one set of audio information and video information is in units of N samples (N sheets) determined in advance.
なお、GPS時刻情報、GPS位置情報、オーディオ情報、及びビデオ情報の格納位置や順番はあくまで一例であり、この例に限られない。多重化データのファイルフォーマットは、例えば、MP4や、MPEG2-TS(Moving Picture Experts Group 2 Transport Stream)など、汎用のファイルフォーマットを適宜選択して採用することができる。
The storage positions and order of GPS time information, GPS position information, audio information, and video information are merely examples, and the present invention is not limited to this example. As the file format of the multiplexed data, for example, a general-purpose file format such as MP4 or MPEG2-TS (Moving
上述した例では、時刻情報については、開始時刻情報及び終了時刻情報と、信号取得中に定期的に取得される時刻情報の両方を、記録データとして保存するようにしたが、多重化データには、開始時刻情報及び終了時刻情報か、または、定期的に取得する時刻情報のいずれか一方のみが少なくとも格納されていればよい。 In the example described above, for the time information, both the start time information and the end time information and the time information periodically acquired during signal acquisition are stored as recorded data. It is only necessary to store at least one of the start time information and the end time information, or the time information acquired periodically.
<再生装置の構成例>
図6は、再生装置13の詳細な構成例を示すブロック図である。
<Configuration example of playback device>
FIG. 6 is a block diagram illustrating a detailed configuration example of the
再生装置13は、データ取得部51、デマルチプレクサ(DEMUX)52、サンプリンレートコンバータ53、波面合成用フィルタ54、D/Aコンバータ55、アンプ(AMP)56、及び基準クロック生成部57を有する。
The
データ取得部51は、録音装置11により録音された所定のファイルフォーマットの多重化データを、データ記憶装置12から取得して、デマルチプレクサ52に供給する。
The
デマルチプレクサ52は、データ取得部51から供給される所定のファイルフォーマットの多重化データを、データ種類(トラック)別に分離し、ファイル保存時の符号化方式に対応する復号方式により復号する。デマルチプレクサ52は、復号の結果得られたGPS時刻情報とオーディオ情報についてはサンプリングレートコンバータ53に供給し、復号の結果得られたGPS位置情報については波面合成用フィルタ54に供給する。
The
サンプリングレートコンバータ53は、デマルチプレクサ52から供給されたオーディオ情報のサンプリングレートを調整するサンプリングレート調整部として機能する。具体的には、サンプリングレートコンバータ53は、デマルチプレクサ52から供給されたオーディオ情報のサンプリングレートを、基準クロック生成部57から供給される再生レートfsに変換する。そして、サンプリングレートコンバータ53は、再生レートfsに変換されたオーディオ情報を、波面合成用フィルタ54に供給する。
The
サンプリングレートコンバータ53には、GPS時刻情報とオーディオ情報が供給されるが、GPS時刻情報は、図7に示されるように、Nサンプルのオーディオ情報に対応付けられている。
GPS time information and audio information are supplied to the
例えば、Nサンプルのオーディオ情報71に対して、GPS時刻情報T1が対応付けられ、Nサンプルのオーディオ情報72に対して、GPS時刻情報T2が対応付けられ、Nサンプルのオーディオ情報73に対して、GPS時刻情報T3が対応付けられている。
For example, GPS time information T1 is associated with N-
ここで、基準クロック生成部57から供給される再生装置13の再生レートfsが、例えば、48kHzであり、録音装置11がオーディオ信号を記録したときのサンプリングレートも、同じ48kHzであったとする。しかしながら、録音装置11がスマートフォンのような民生機器である場合、クロック信号の精度が専用機のように高くないため、記録時のサンプリングレートは、例えば、47.998kHzや、48.001kHzのように、多少のずれをもっている。
Here, it is assumed that the reproduction rate fs of the
Nサンプルのオーディオ情報71のサンプリングレートが再生レートfsと完全に一致していた場合、Nサンプルのオーディオ情報71と再生レートfsには、
(T2-T1)=N/fs
の関係が成り立つ。
When the sampling rate of the N-
(T2-T1) = N / fs
The relationship holds.
一方、録音装置11のサンプリングレートが48kHzよりも遅かった場合には、
(T2-T1)>N/fs
となり、録音装置11のサンプリングレートが48kHzよりも速かった場合には、
(T2-T1)<N/fs
となる。
On the other hand, when the sampling rate of the
(T2-T1)> N / fs
When the sampling rate of the
(T2-T1) <N / fs
It becomes.
サンプリングレートコンバータ53は、
fs_est=N/(T2-T1)
を計算し、Nサンプルのオーディオ情報71の録音時のサンプリングレートfs_estを算出する。そして、サンプリングレートコンバータ53は、Nサンプルのオーディオ情報71のサンプリングレートfs_estを、基準クロック生成部57から供給される再生レートfsに変換して、波面合成用フィルタ54に供給する。
The
fs_est = N / (T2-T1)
And the sampling rate fs_est at the time of recording the
サンプリングレートコンバータ53は、以上の処理を、Nサンプル単位のオーディオ情報に対して順次繰り返し実行する。これにより、録音時のサンプリングレートが再生レートfsと厳密に一致していない場合であっても、サンプリングレートを再生レートfsに修正して再生することができる。また、複数の再生装置13間でも、再生時のサンプリングレートを、再生レートfsに一致させることができる。
The
なお、多重化データに含まれる時刻情報が、開始時刻情報と終了時刻情報のみである場合には、サンプリングレートコンバータ53は、開始時刻情報と終了時刻情報から、記録時のサンプリングレートfs_estを算出し、再生レートfsに変換する。
When the time information included in the multiplexed data is only the start time information and the end time information, the
図6の説明に戻り、サンプリングレートコンバータ53は、サンプリングレートを再生レートfsに変換した後のオーディオ情報を、波面合成用フィルタ54に供給する。また、波面合成用フィルタ54には、デマルチプレクサ52から、オーディオ情報に対応するGPS位置情報も供給される。
Returning to the description of FIG. 6, the
波面合成用フィルタ54は、サンプリングレートコンバータ53から供給されたオーディオ情報を記録したときの伝達関数Gを、オーディオ情報に対応するGPS位置情報に基づいて算出する。そして、波面合成用フィルタ54は、サンプリングレートコンバータ53から供給されたオーディオ情報に対して、伝達関数Gの逆特性となる波面合成フィルタ処理を施す。波面合成用フィルタ54は、フィルタ処理後のオーディオ信号をD/Aコンバータ55に供給する。
The
D/Aコンバータ55は、波面合成用フィルタ54から供給されるデジタルのオーディオ信号をアナログの信号に変換し、アンプ56に供給する。波面合成用フィルタ54とD/Aコンバータ55にも、基準クロック生成部57から、再生レートfsのクロック信号が供給され、波面合成用フィルタ54とD/Aコンバータ55は、再生レートfsで各動作を行う。
The D / A converter 55 converts the digital audio signal supplied from the
アンプ56は、D/Aコンバータ55から供給されたアナログのオーディオ信号を増幅して、スピーカ14に出力する。
The
基準クロック生成部57は、再生レートfsに対応するクロック信号を生成し、サンプリングレートコンバータ53、波面合成用フィルタ54、及び、D/Aコンバータ55に供給する。
The reference
<多重化データ再生処理>
図8のフローチャートを参照して、再生装置13による多重化データ再生処理について説明する。この処理は、例えば、再生装置13において多重化データの再生が指示されたとき、実行される。
<Multiplexed data playback processing>
With reference to the flowchart of FIG. 8, the multiplexed data reproduction process by the
初めに、ステップS41において、データ取得部51は、所定のファイルフォーマットの多重化データをデータ記憶装置12から取得して、デマルチプレクサ52に供給する。
First, in step S <b> 41, the
ステップS42において、デマルチプレクサ52は、データ取得部51から供給された所定のファイルフォーマットの多重化データを、データ種類(トラック)別に分離し、ファイル保存時の符号化方式に対応する復号方式により復号する。復号の結果得られたGPS時刻情報とオーディオ情報は、サンプリングレートコンバータ53に供給され、GPS位置情報は、波面合成用フィルタ54に供給される。
In step S42, the
ステップS43において、サンプリングレートコンバータ53は、デマルチプレクサ52から供給されたオーディオ情報のサンプリングレートを、基準クロック生成部57から供給された再生レートfsに変換して、サンプリングレート変換後のオーディオ情報を波面合成用フィルタ54に供給する。
In step S43, the
ステップS44において、波面合成用フィルタ54は、デマルチプレクサ52から供給されたオーディオ情報を記録したときの伝達関数Gを、デマルチプレクサ52から供給されたオーディオ情報に対応するGPS位置情報に基づいて算出する。
In step S <b> 44, the
ステップS45において、波面合成用フィルタ54は、サンプリングレートコンバータ53から供給されたオーディオ情報に対して、伝達関数Gの逆特性となる波面合成フィルタ処理を実行する。フィルタ処理後のオーディオ信号は、D/Aコンバータ55に供給される。
In step S <b> 45, the
ステップS46において、D/Aコンバータ55は、波面合成用フィルタ54から供給されたデジタルのオーディオ信号をアナログの信号に変換し、アンプ56に供給する。
In
ステップS47において、アンプ56は、D/Aコンバータ55から供給されたアナログのオーディオ信号を増幅して、スピーカ14に出力する。スピーカ14は、アンプ56から供給されたアナログのオーディオ信号に対応する音を出力する。
In
多重化データ再生処理は以上のように実行される。 The multiplexed data reproduction process is executed as described above.
図1の音響システム1では、上述したように、多数のユーザが所有するスマートフォンなどを録音装置11として使用することができる。録音装置11としての各ユーザのスマートフォンは、オーディオ信号とビデオ信号を、GPS信号から取得した位置情報と時刻情報とともに多重化して、所定のファイルフォーマットの多重化データとして記録する。
In the
再生装置13は、録音装置11により作成された所定のファイルフォーマットの多重化データを取得して、GPS時刻情報、GPS位置情報、オーディオ情報、及びビデオ情報に分離する。そして、再生装置13は、多重化データに含まれるGPS時刻情報に基づいて、オーディオ信号のサンプリングレートを、録音時のサンプリングレートfs_estから所定の再生レートfsに変換し、変換後のオーディオ信号に波面合成フィルタ処理を施して、スピーカ14から出力させる。
The
ここで、多重化データに含まれる時刻情報は、録音装置11内のカウンタクロックに基づくものではなく、受信したGPS信号から取得した時刻情報であり、原子時計に基づく高精度な時刻情報である。
Here, the time information included in the multiplexed data is not based on the counter clock in the
再生装置13は、多重化データに含まれる高精度なGPS時刻情報に基づいて、記録されているオーディオ信号のサンプリングレートのずれを検出し、所定の再生レートfsにサンプリングレートを変換してから、音を出力する。これにより、多数のユーザが所有するスマートフォンなどの民生機器を録音装置11として使用した場合であっても、複数の再生装置13どうしで、出力する音の同期をとることができ、録音時の音場を再現することができる。
The
即ち、簡便な機器で取得した音源を波面合成の音源として利用することができる。 That is, a sound source acquired with a simple device can be used as a sound source for wavefront synthesis.
録音装置11により作成された所定のファイルフォーマットの多重化データには、録音装置11が音源を取得した位置を表すGPS位置情報が含まれている。
The multiplexed data of a predetermined file format created by the
再生装置13は、多重化データに含まれるGPS位置情報に基づいて伝達関数Gを算出し、伝達関数Gの逆特性で与えられる波面合成フィルタ処理を実行することができる。
The reproducing
これにより、通常、再生空間で音源データを取得する場合には、図2を参照して説明したように録音装置11を原空間と同じように配列させたり、特性を測定済みの録音装置11を再生空間の現場に持っていく必要があった。
Thus, normally, when acquiring sound source data in the reproduction space, as described with reference to FIG. 2, the
しかしながら、本実施の形態によれば、再生空間で録音装置11が音源データを取得する際に、録音装置11の位置を示すGPS位置情報も取得することができるので、図9に示されるように、収音位置(制御点)が不均一に配置された状態であっても、GPS位置情報を基に、複数のスピーカ14との距離に基づいて伝達関数Gを算出し、その逆特性を求めることができる。すなわち、より簡単に、再生空間の伝達関数Gを算出し、音場を再現することができる。
However, according to the present embodiment, when the
なお、上述した説明では、多重化データ作成処理により作成した多重化データを、波面合成処理に用いて音場を再現する例について説明したが、波面合成処理以外に用いてもよい。例えば、多重化データ作成処理により作成された複数の多重化データの一部のみを用いて、5.1チャンネルのスピーカシステムに利用することもできる。 In the above description, the example in which the multiplexed data created by the multiplexed data creation process is used for the wavefront synthesis process to reproduce the sound field has been described, but it may be used other than the wavefront synthesis process. For example, only a part of a plurality of multiplexed data created by the multiplexed data creation process can be used for a 5.1 channel speaker system.
図10は、多重化データ作成処理により作成された多重化データを5.1チャンネルのスピーカシステムに利用する例を示している。 FIG. 10 shows an example in which multiplexed data created by multiplexed data creation processing is used in a 5.1 channel speaker system.
多重化データ作成処理により作成された多数の収音位置の多重化データのうち、例えば、図10に示されるように、録音装置11Aで取得された多重化データを、センタースピーカ91Aに使用し、録音装置11Bで取得された多重化データを、右フロントスピーカ91Bに割り当て、録音装置11Cで取得された多重化データを、右リアスピーカ91Cに割り当て、録音装置11Dで取得された多重化データを、左リアスピーカ91Dに割り当て、録音装置11Eで取得された多重化データを、左フロントスピーカ91Eに割り当て、出力させることができる。
Among the multiplexed data of the multiple sound collection positions created by the multiplexed data creation process, for example, as shown in FIG. 10, the multiplexed data acquired by the recording device 11A is used for the
上述した説明では、オーディオ情報を複数の再生装置13間で同期させる処理について説明したが、ビデオ情報についても同様に、多重化データに含まれる時間情報に基づいてサンプリングレートを制御し、オーディオ情報に同期させた映像を表示させたり、複数の録画位置で取得した映像の視点補間も行うことができる。
In the above description, the process of synchronizing the audio information between the plurality of
上述した例では、録音装置11が、自身の正確な位置情報を、GPS信号に含まれる位置情報から認識したが、高精度な時刻情報をその他の方法で取得してもよい。例えば、録音装置11の制御部34が、通信部36を介して、正確な時刻情報を配信しているNTP(Network Time Protocol)サーバにアクセスすることで、高精度な時間情報を取得してもよい。
In the example described above, the
また、GPS衛星は、アメリカが運用する測位衛星であるが、ロシアによるGLONASS(Global Orbiting Navigation Satellite System )、EUによるGalileoなど、その他の衛星測位システム(GNSS:Global Navigation Satellite System)の測位衛星から送信されてくる送信信号を受信して時刻情報及び位置情報を取得してもよい。 GPS satellites are positioning satellites operated by the United States, but transmitted from positioning satellites of other satellite positioning systems (GNSS) such as GLONASS (Global Orbiting Navigation Satellite System) by Russia and Galileo by EU. The received transmission signal may be received to acquire time information and position information.
オーディオ情報及びビデオ情報を処理する信号処理装置としての録音装置11及び再生装置13のそれぞれは、それ専用のハードウエアとして作成することもできるし、コンピュータに上述した一連の処理を行うプログラムを実行させることで実現することもできる。上述した一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
Each of the
図11は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 11 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
In a computer, a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access Memory) 103 are connected to each other via a
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及びドライブ110が接続されている。
An input /
入力部106は、キーボード、マウス、マイクロホン、カメラなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体111を駆動する。
The
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータでは、プログラムは、リムーバブル記録媒体111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
In the computer, the program can be installed in the
なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。 In the present specification, the steps described in the flowcharts are performed in parallel or in a call even if they are not necessarily processed in chronological order, as well as performed in chronological order according to the described order. It may be executed at a necessary timing such as when.
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 In this specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。 Embodiments of the present disclosure are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present disclosure.
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, the present disclosure can take a configuration of cloud computing in which one function is shared by a plurality of apparatuses via a network and is jointly processed.
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 In addition, each step described in the above flowchart can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。 Note that the effects described in this specification are merely examples and are not limited, and there may be effects other than those described in this specification.
なお、本開示は以下のような構成も取ることができる。
(1)
オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得する取得部と、
前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整するサンプリングレート調整部と、
サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する出力部と
を備える信号処理装置。
(2)
前記サンプリングレート調整部は、前記オーディオ情報のサンプリングレートを、前記時刻情報に基づいて調整する
前記(1)に記載の信号処理装置。
(3)
前記多重化データには、位置情報も含まれており、
前記位置情報に基づいて伝達関数を算出し、算出された伝達関数に対応するフィルタを用いてサンプリングレート調整後の前記オーディオ信号をフィルタ処理するフィルタ部をさらに備える
前記(1)または(2)に記載の信号処理装置。
(4)
前記時刻情報は、GPS信号から取得された情報である
前記(1)乃至(3)のいずれかに記載の信号処理装置。
(5)
前記時刻情報は、NTPサーバから取得された情報である
前記(1)乃至(3)のいずれかに記載の信号処理装置。
(6)
前記位置情報は、GPS信号から取得された情報である
前記(1)乃至(5)のいずれかに記載の信号処理装置。
(7)
前記時刻情報は、所定サンプル数の前記オーディオ情報ごとに含まれる
前記(1)乃至(6)のいずれかに記載の信号処理装置。
(8)
前記時刻情報は、前記多重化データの記録を開始した開始時刻情報と、前記多重化データの記録を終了した終了時刻情報である
前記(1)乃至(7)のいずれかに記載の信号処理装置。
(9)
前記サンプリングレート調整部は、前記取得部により取得された前記複数の多重化データの一部の多重化データについてのみサンプリングレートを調整し、
前記出力部は、サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する
前記(1)乃至(8)のいずれかに記載の信号処理装置。
(10)
オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得し、
前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整し、
サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する
信号処理装置の信号処理方法。
(11)
コンピュータを、
オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得させる取得部と、
前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整するサンプリングレート調整部と、
サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力させる出力部
として機能させるためのプログラム。
In addition, this indication can also take the following structures.
(1)
An acquisition unit for acquiring a plurality of multiplexed data in which at least audio information and time information are multiplexed;
For each of the plurality of multiplexed data, a sampling rate adjusting unit that adjusts a sampling rate of the audio information;
A signal processing apparatus comprising: an output unit that outputs the plurality of audio information after adjusting the sampling rate to a different speaker for each audio information.
(2)
The signal processing apparatus according to (1), wherein the sampling rate adjustment unit adjusts a sampling rate of the audio information based on the time information.
(3)
The multiplexed data includes position information,
(1) or (2) further comprising a filter unit that calculates a transfer function based on the position information and filters the audio signal after adjusting the sampling rate using a filter corresponding to the calculated transfer function. The signal processing apparatus as described.
(4)
The signal processing device according to any one of (1) to (3), wherein the time information is information acquired from a GPS signal.
(5)
The signal processing device according to any one of (1) to (3), wherein the time information is information acquired from an NTP server.
(6)
The signal processing apparatus according to any one of (1) to (5), wherein the position information is information acquired from a GPS signal.
(7)
The signal processing device according to any one of (1) to (6), wherein the time information is included for each audio information of a predetermined number of samples.
(8)
The signal processing device according to any one of (1) to (7), wherein the time information is start time information at which recording of the multiplexed data is started and end time information at which recording of the multiplexed data is ended. .
(9)
The sampling rate adjustment unit adjusts the sampling rate only for some of the multiplexed data acquired by the acquisition unit,
The signal processing apparatus according to any one of (1) to (8), wherein the output unit outputs the plurality of audio information after adjusting the sampling rate to different speakers for each audio information.
(10)
Obtaining a plurality of multiplexed data in which at least audio information and time information are multiplexed;
For each of the plurality of multiplexed data, adjust the sampling rate of the audio information,
A signal processing method of a signal processing device that outputs the plurality of audio information after adjusting a sampling rate to a different speaker for each audio information.
(11)
Computer
An acquisition unit for acquiring a plurality of multiplexed data in which at least audio information and time information are multiplexed;
For each of the plurality of multiplexed data, a sampling rate adjusting unit that adjusts a sampling rate of the audio information;
A program for causing a plurality of audio information after sampling rate adjustment to function as an output unit for outputting to a different speaker for each audio information.
1 音響システム, 10 スピーカ, 11 録音装置, 12 データ記憶装置, 13 再生装置, 14 スピーカ, 51 データ取得部, 52 デマルチプレクサ, 53 サンプリングレートコンバータ, 54 波面合成用フィルタ, 56 アンプ, 81 スピーカ, 101 CPU, 102 ROM, 103 RAM, 106 入力部, 107 出力部, 108 記憶部, 109 通信部
DESCRIPTION OF
Claims (11)
前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整するサンプリングレート調整部と、
サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する出力部と
を備える信号処理装置。 An acquisition unit for acquiring a plurality of multiplexed data in which at least audio information and time information are multiplexed;
For each of the plurality of multiplexed data, a sampling rate adjusting unit that adjusts a sampling rate of the audio information;
A signal processing apparatus comprising: an output unit that outputs the plurality of audio information after adjusting the sampling rate to a different speaker for each audio information.
請求項1に記載の信号処理装置。 The signal processing apparatus according to claim 1, wherein the sampling rate adjustment unit adjusts a sampling rate of the audio information based on the time information.
前記位置情報に基づいて伝達関数を算出し、算出された伝達関数に対応するフィルタを用いてサンプリングレート調整後の前記オーディオ信号をフィルタ処理するフィルタ部をさらに備える
請求項1に記載の信号処理装置。 The multiplexed data includes position information,
The signal processing apparatus according to claim 1, further comprising: a filter unit that calculates a transfer function based on the position information and filters the audio signal after adjusting the sampling rate using a filter corresponding to the calculated transfer function. .
請求項1に記載の信号処理装置。 The signal processing apparatus according to claim 1, wherein the time information is information acquired from a GPS signal.
請求項1に記載の信号処理装置。 The signal processing device according to claim 1, wherein the time information is information acquired from an NTP server.
請求項1に記載の信号処理装置。 The signal processing apparatus according to claim 1, wherein the position information is information acquired from a GPS signal.
請求項1に記載の信号処理装置。 The signal processing device according to claim 1, wherein the time information is included for each audio information of a predetermined number of samples.
請求項1に記載の信号処理装置。 The signal processing device according to claim 1, wherein the time information is start time information at which recording of the multiplexed data is started and end time information at which recording of the multiplexed data is ended.
前記出力部は、サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する
請求項1に記載の信号処理装置。 The sampling rate adjustment unit adjusts the sampling rate only for some of the multiplexed data acquired by the acquisition unit,
The signal processing apparatus according to claim 1, wherein the output unit outputs the plurality of audio information after adjusting the sampling rate to different speakers for each audio information.
オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得し、
前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整し、
サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力する
信号処理方法。 The signal processor
Obtaining a plurality of multiplexed data in which at least audio information and time information are multiplexed;
For each of the plurality of multiplexed data, adjust the sampling rate of the audio information,
A signal processing method of outputting a plurality of the audio information after adjusting a sampling rate to a different speaker for each audio information.
オーディオ情報と時刻情報が少なくとも多重化された複数の多重化データを取得させる取得部と、
前記複数の多重化データそれぞれについて、前記オーディオ情報のサンプリングレートを調整するサンプリングレート調整部と、
サンプリングレート調整後の複数の前記オーディオ情報を、前記オーディオ情報ごとに異なるスピーカに出力させる出力部
として機能させるためのプログラム。 Computer
An acquisition unit for acquiring a plurality of multiplexed data in which at least audio information and time information are multiplexed;
For each of the plurality of multiplexed data, a sampling rate adjusting unit that adjusts a sampling rate of the audio information;
A program for causing a plurality of audio information after sampling rate adjustment to function as an output unit for outputting to a different speaker for each audio information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014228897A JP2016092772A (en) | 2014-11-11 | 2014-11-11 | Signal processor and signal processing method and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014228897A JP2016092772A (en) | 2014-11-11 | 2014-11-11 | Signal processor and signal processing method and program thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016092772A true JP2016092772A (en) | 2016-05-23 |
Family
ID=56019102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014228897A Pending JP2016092772A (en) | 2014-11-11 | 2014-11-11 | Signal processor and signal processing method and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016092772A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107544334A (en) * | 2017-09-18 | 2018-01-05 | 吉林大学 | The data collecting card of adjust automatically sample rate |
JP2020501428A (en) * | 2016-12-05 | 2020-01-16 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Distributed audio capture techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems |
CN113259824A (en) * | 2021-05-14 | 2021-08-13 | 谷芯(广州)技术有限公司 | Real-time multi-channel digital hearing aid noise reduction method and system |
-
2014
- 2014-11-11 JP JP2014228897A patent/JP2016092772A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020501428A (en) * | 2016-12-05 | 2020-01-16 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Distributed audio capture techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems |
JP7125397B2 (en) | 2016-12-05 | 2022-08-24 | マジック リープ, インコーポレイテッド | Distributed Audio Capture Techniques for Virtual Reality (VR), Augmented Reality (AR), and Mixed Reality (MR) Systems |
JP2022163173A (en) * | 2016-12-05 | 2022-10-25 | マジック リープ, インコーポレイテッド | Distributed audio capturing techniques for virtual reality (vr), augmented reality (ar) and mixed reality (mr) systems |
US11528576B2 (en) | 2016-12-05 | 2022-12-13 | Magic Leap, Inc. | Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems |
CN107544334A (en) * | 2017-09-18 | 2018-01-05 | 吉林大学 | The data collecting card of adjust automatically sample rate |
CN113259824A (en) * | 2021-05-14 | 2021-08-13 | 谷芯(广州)技术有限公司 | Real-time multi-channel digital hearing aid noise reduction method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10734030B2 (en) | Recorded data processing method, terminal device, and editing device | |
US20130304244A1 (en) | Audio alignment apparatus | |
JP6349977B2 (en) | Information processing apparatus and method, and program | |
US20130226324A1 (en) | Audio scene apparatuses and methods | |
WO2013088208A1 (en) | An audio scene alignment apparatus | |
WO2014188231A1 (en) | A shared audio scene apparatus | |
WO2014053875A1 (en) | An apparatus and method for reproducing recorded audio with correct spatial directionality | |
WO2013024704A1 (en) | Image-processing device, method, and program | |
JP2016092772A (en) | Signal processor and signal processing method and program thereof | |
EP2932503A1 (en) | An apparatus aligning audio signals in a shared audio scene | |
EP2926339A1 (en) | A shared audio scene apparatus | |
WO2014072772A1 (en) | A shared audio scene apparatus | |
EP3868043B1 (en) | Wireless audio synchronization | |
WO2014208378A1 (en) | Information processing device, information processing method, program, and information processing system | |
US9570056B2 (en) | Audio data synthesis method, audio output method, and program for synthesizing audio data based on a time difference | |
JP2013187841A (en) | Electronic apparatus, output control method, and program | |
JP2010171626A (en) | Motion picture generation device, and motion picture generation method | |
US11127434B2 (en) | Timecode generator with global accuracy and flexible framerate | |
JP2018155897A (en) | Information processing method | |
JP6398694B2 (en) | Portable device and recording system having wireless LAN function | |
JP6471923B2 (en) | Signal processing apparatus and method, and program | |
WO2023281667A1 (en) | Media processing device, media processing method, and media processing program | |
JP2018157385A (en) | Data synchronization method | |
JP2016015584A (en) | Network camera system, network camera, and sound and image transmission method | |
EP3540735A1 (en) | Spatial audio processing |