JP2006261886A - Recording/reproducing system, recording device and method, reproducing device and method, and program - Google Patents
Recording/reproducing system, recording device and method, reproducing device and method, and program Download PDFInfo
- Publication number
- JP2006261886A JP2006261886A JP2005074430A JP2005074430A JP2006261886A JP 2006261886 A JP2006261886 A JP 2006261886A JP 2005074430 A JP2005074430 A JP 2005074430A JP 2005074430 A JP2005074430 A JP 2005074430A JP 2006261886 A JP2006261886 A JP 2006261886A
- Authority
- JP
- Japan
- Prior art keywords
- recording
- microphone
- information
- acquired
- audio data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Stereophonic Arrangements (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
本発明は、収録再生システム、収録装置および方法、再生装置および方法、並びにプログラムに関し、特に、収録環境の音場を容易に再現することができるようにする収録再生システム、収録装置および方法、再生装置および方法、並びにプログラムに関する。 The present invention relates to a recording / playback system, a recording device and method, a playback device and method, and a program, and more particularly to a recording / playback system, recording device and method, and playback that can easily reproduce a sound field of a recording environment. The present invention relates to an apparatus and method, and a program.
従来より、映画館などにはマルチサラウンドスピーカが配置され、それにより、大型スクリーンに投影される映像に併せて、臨場感のあるサラウンド音声を再生することが可能となっていた。このようなサラウンド音声の再生は、比較的低価格なサラウンドシステムの普及に伴い、近年、一般家庭でも可能なものになりつつある。 Conventionally, a multi-surround speaker has been arranged in a movie theater or the like, so that it is possible to reproduce surround sound with a sense of presence in addition to an image projected on a large screen. Such surround sound reproduction is becoming possible in general households in recent years with the spread of relatively low-priced surround systems.
現在、サラウンド音声の再生には5.1チャンネルのサラウンドシステムが用いられることが一般的である。5.1チャンネルのサラウンドシステムは、音声を再生する再生装置と、前方センター・前方左右・後方左右の5つのスピーカと重低音強調効果を出すサブウーファの計6つのスピーカとから構成される。これらの6つのスピーカを用いることにより、実際のスピーカの位置とは異なる位置に仮想的な音源を配置することができ、ステレオ出力よりも立体的で、臨場感のある音響環境を実現することが可能になっている。 At present, a 5.1 channel surround system is generally used to reproduce surround sound. The 5.1 channel surround system is composed of a playback device that reproduces sound, five speakers in front center, front left and right, rear left and right, and a subwoofer that produces a deep bass enhancement effect. By using these six speakers, a virtual sound source can be arranged at a position different from the position of the actual speaker, and a three-dimensional and realistic sound environment can be realized rather than a stereo output. It is possible.
ところで、サラウンド音声の再生を実現するためには、5.1チャンネルのサラウンドシステムに対応した音声データが必要である。例えば、「Mark of the Unicorn(MOTU)」から発売されているソフトウェアである「Digital Performer」(商標)や、「Apple Computer, Inc.」から発売されているソフトウェアである「Logic Pro」(商標)では、例えば、音声データの作成者は、収録された各トラックデータの仮想音源位置を2次元グラフィック上で設定することができ、これにより、5.1チャンネルの音声データを容易に作成することができる。 By the way, in order to realize the reproduction of the surround sound, the sound data corresponding to the 5.1 channel surround system is required. For example, “Digital Performer” (trademark), software released from “Mark of the Unicorn (MOTU)”, and “Logic Pro” (trademark), software released from “Apple Computer, Inc.” Then, for example, the creator of the audio data can set the virtual sound source position of each recorded track data on a two-dimensional graphic, thereby easily creating 5.1 channel audio data. it can.
例えば、特許文献1には、映像とサラウンドシステムを組み合わせ、映像の動きに合わせて動的に音声データを生成し、映像に合わせたサラウンド音場を再現する技術が開示されている。
従来の技術では、各トラックデータの仮想音源位置を、音声データの作成者、もしくは視聴者が入力しなければならず、煩雑であるという課題がある。 The conventional technology has a problem that the virtual sound source position of each track data has to be input by the creator of the audio data or the viewer, which is complicated.
例えば、上述したようなソフトウェアにより、誰もが仮想音源位置を設定することが可能なユーザインタフェースが提供されているが、収録時のマイクの数が増加し、トラックデータが増えると、全トラックデータの仮想音源位置を設定するのは非常に手間のかかる作業となる。また、それらのソフトウェアを用いて仮想音源位置を設定することによって、ユーザは、自分の好みに合わせてサラウンド音場を自由に構築することができるというメリットはあるが、収録時のサラウンド音場を忠実に再現することは難しい。 For example, the software as described above provides a user interface that allows anyone to set the virtual sound source position, but if the number of microphones during recording increases and the track data increases, all track data Setting the virtual sound source position is very laborious. In addition, by setting the virtual sound source position using those software, there is an advantage that the user can freely build a surround sound field according to his / her preference, but the surround sound field at the time of recording is reduced. It is difficult to reproduce faithfully.
一方、特許文献1のように、全天球状に複数のマイクロフォンを並べて収録することによって、仮想音源位置を自動的に計算するようにすることは可能であるが、この方法は、ライブやコンサートの収録のように、楽器ごとに複数のマイクロフォンを配置する必要がある状況などには不向きであり、ライブやコンサートのサラウンド再生を実現するためには、各マイクロフォンの位置を、例えば、音声データの作成者が手動で入力する必要がある。
On the other hand, as in
また、マイクロフォンによって、種類、周波数特性、指向性、インピーダンスなどの特性が異なるため、これらの特性を仮想音源に反映させることは困難である。 In addition, since characteristics such as type, frequency characteristics, directivity, and impedance differ depending on the microphone, it is difficult to reflect these characteristics on the virtual sound source.
本発明はこのような状況に鑑みてなされたものであり、収録環境の音場を、容易に再現することができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to easily reproduce the sound field of the recording environment.
本発明の収録再生システムは、収録装置と再生装置からなる収録再生システムであって、収録装置は、収録に用いられるマイクロフォンの位置、向きを表す情報と、マイクロフォンの特性を表す情報とからなるマイクロフォン情報を取得する第1の取得手段と、収録により得られた音声と、第1の取得手段により取得されたマイクロフォン情報を併せて提供する提供手段とを備え、再生装置は、再生対象とする音声のデータとともに、マイクロフォン情報を取得する第2の取得手段と、再生対象とする音声のデータを、第2の取得手段により取得されたマイクロフォン情報に基づいて編集し、再生させる再生制御手段とを備えることを特徴とする。 The recording / playback system of the present invention is a recording / playback system comprising a recording device and a playback device, and the recording device is a microphone comprising information representing the position and orientation of a microphone used for recording and information representing the characteristics of the microphone. And a playback device including a first acquisition unit for acquiring information, a voice obtained by recording, and a providing unit for providing the microphone information acquired by the first acquisition unit. A second acquisition unit that acquires microphone information, and a reproduction control unit that edits and reproduces audio data to be reproduced based on the microphone information acquired by the second acquisition unit. It is characterized by that.
提供手段による提供には、ネットワークを介して行われる提供の他、記録媒体に記録させた形で行われる提供が含まれる。 The provision by the provision means includes provision performed in a form recorded on a recording medium in addition to provision performed via a network.
本発明の収録装置は、収録に用いられるマイクロフォンの位置、向きを表す情報と、マイクロフォンの特性を表す情報とからなるマイクロフォン情報を取得する取得手段と、収録により得られた音声と、取得手段により取得されたマイクロフォン情報を併せて提供する提供手段とを備えることを特徴とする。 The recording apparatus of the present invention includes an acquisition means for acquiring microphone information composed of information indicating the position and orientation of a microphone used for recording, and information indicating characteristics of the microphone, sound obtained by recording, and an acquisition means. And providing means for providing the acquired microphone information together.
本発明の再生装置は、再生対象とする音声のデータとともに、その音声の収録のときに取得された、収録に用いられたマイクロフォンの位置、向きを表す情報と、マイクロフォンの特性を表す情報とからなるマイクロフォン情報を取得する取得手段と、再生対象とする音声のデータを、取得手段により取得されたマイクロフォン情報に基づいて編集し、再生させる再生制御手段とを備えることを特徴とする。 The playback device according to the present invention includes, together with audio data to be played back, information indicating the position and orientation of the microphone used for recording, and information indicating the characteristics of the microphone, which are obtained when the audio is recorded. An acquisition means for acquiring the microphone information, and a reproduction control means for editing and reproducing the audio data to be reproduced based on the microphone information acquired by the acquisition means.
本発明の収録再生システムのうちの収録装置においては、収録に用いられるマイクロフォンの位置、向きを表す情報と、マイクロフォンの特性を表す情報とからなるマイクロフォン情報が取得され、収録により得られた音声と、取得されたマイクロフォン情報が併せて提供される。また、再生装置においては、再生対象とする音声のデータとともに、マイクロフォン情報が取得され、再生対象とする音声のデータが、取得されたマイクロフォン情報に基づいて編集され、再生が行われる。 In the recording device of the recording / playback system of the present invention, microphone information including information indicating the position and orientation of the microphone used for recording and information indicating the characteristics of the microphone is acquired, and the sound obtained by recording The acquired microphone information is also provided. In the playback device, microphone information is acquired together with audio data to be played back, and the audio data to be played back is edited based on the acquired microphone information and played back.
本発明の収録装置においては、収録に用いられるマイクロフォンの位置、向きを表す情報と、マイクロフォンの特性を表す情報とからなるマイクロフォン情報が取得され、収録により得られた音声と、取得されたマイクロフォン情報が併せて提供される。 In the recording apparatus of the present invention, microphone information consisting of information indicating the position and orientation of the microphone used for recording and information indicating the characteristics of the microphone is acquired, the sound obtained by recording, and the acquired microphone information Are also provided.
本発明の再生装置においては、再生対象とする音声のデータとともに、その音声の収録のときに取得された、収録に用いられたマイクロフォンの位置、向きを表す情報と、マイクロフォンの特性を表す情報とからなるマイクロフォン情報が取得され、再生対象とする音声のデータが、取得されたマイクロフォン情報に基づいて編集され、再生が行われる。 In the playback device of the present invention, together with the audio data to be played back, information indicating the position and orientation of the microphone used for recording, and information indicating the characteristics of the microphone, acquired at the time of recording the audio Is acquired, audio data to be reproduced is edited based on the acquired microphone information, and reproduction is performed.
本発明によれば、収録環境の音場を、容易に再現することができる。 According to the present invention, the sound field of the recording environment can be easily reproduced.
以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、発明の実施の形態との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする実施の形態が本明細書に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. The correspondence relationship between the invention described in this specification and the embodiments of the invention is exemplified as follows. This description is intended to assure that embodiments supporting the claimed invention are described in this specification. Therefore, although there is an embodiment which is described in the embodiment of the invention but is not described here as corresponding to the invention, it means that the embodiment is not It does not mean that it does not correspond to the invention. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. Absent.
さらに、この記載は、本明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、本明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。 Further, this description does not mean all the inventions described in this specification. In other words, this description is for the invention described in the present specification and not claimed in this application, i.e., the existence of an invention that will be filed in the future or added by amendment. There is no denial.
請求項1に記載の収録再生システムは、収録装置と再生装置からなる収録再生システムであって、前記収録装置は、収録に用いられるマイクロフォン(例えば、図2の音声入力部11−1乃至11−m)の位置、向きを表す情報と、前記マイクロフォンの特性を表す情報とからなるマイクロフォン情報(音声入力部情報)を取得する第1の取得手段(例えば、図2の音声入力部情報測定部14)と、収録により得られた音声と、前記第1の取得手段により取得された前記マイクロフォン情報を併せて提供する提供手段(例えば、図2の登録制御部16)とを備え、前記再生装置は、再生対象とする音声のデータとともに、前記マイクロフォン情報を取得する第2の取得手段(例えば、図5の通信部31)と、再生対象とする前記音声のデータを、前記第2の取得手段により取得された前記マイクロフォン情報に基づいて編集し、再生させる再生制御手段(例えば、図5の音声データ編集部34)とを備えることを特徴とする。
The recording / playback system according to
請求項2に記載の収録装置においても、各手段が対応する実施の形態(但し一例)は、請求項1に記載の収録再生システムを構成する収録装置と同様である。 Also in the recording apparatus according to the second aspect, the embodiment (however, an example) corresponding to each means is the same as the recording apparatus constituting the recording / reproducing system according to the first aspect.
請求項5に記載の収録方法は、収録に用いられるマイクロフォン(例えば、図2の音声入力部11−1乃至11−m)の位置、向きを表す情報と、前記マイクロフォンの特性を表す情報とからなるマイクロフォン情報(音声入力部情報)を取得する取得ステップ(例えば、図3のステップS4)と、収録により得られた音声と、前記取得ステップの処理により取得された前記マイクロフォン情報を併せて提供する提供ステップ(例えば、図3のステップS7)とを含むことを特徴とする。
The recording method according to
請求項6に記載のプログラムにおいても、各ステップが対応する実施の形態(但し一例)は、請求項5に記載の収録方法と同様である。
Also in the program described in claim 6, the embodiment (however, an example) to which each step corresponds is the same as the recording method described in
請求項7に記載の再生装置においても、各手段が対応する実施の形態(但し一例)は、請求項1に記載の収録再生システムを構成する再生装置と同様である。 Also in the reproducing apparatus according to the seventh aspect, the embodiment (however, an example) to which each means corresponds is the same as the reproducing apparatus constituting the recording / reproducing system according to the first aspect.
請求項8に記載の再生方法は、再生対象とする音声のデータとともに、その音声の収録のときに取得された、収録に用いられたマイクロフォン(例えば、図2の音声入力部11−1乃至11−m)の位置、向きを表す情報と、前記マイクロフォンの特性を表す情報とからなるマイクロフォン情報(音声入力部情報)を取得する取得ステップ(例えば、図6のステップS22)と、再生対象とする前記音声のデータを、前記取得ステップの処理により取得された前記マイクロフォン情報に基づいて編集し、再生させる再生制御ステップ(例えば、図6のステップS26)とを含むことを特徴とする。 The reproduction method according to claim 8 is a microphone used for recording (for example, the audio input units 11-1 to 11 in FIG. 2) acquired at the time of recording the audio together with the audio data to be reproduced. -M) an acquisition step (for example, step S22 in FIG. 6) for acquiring microphone information (speech input unit information) including information indicating the position and orientation of the microphone and information indicating the characteristics of the microphone; A reproduction control step (for example, step S26 in FIG. 6) for editing and reproducing the audio data based on the microphone information acquired by the processing of the acquisition step.
請求項9に記載のプログラムにおいても、各ステップが対応する実施の形態(但し一例)は、請求項8に記載の再生方法と同様である。 Also in the program according to the ninth aspect, the embodiment (however, an example) to which each step corresponds is the same as the reproduction method according to the eighth aspect.
以下、本発明の実施の形態について図を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態に係る収録再生システムの構成例を示す図である。 FIG. 1 is a diagram showing a configuration example of a recording / playback system according to an embodiment of the present invention.
図1に示すように、この録音・再生システムは、サラウンド音場収録装置1、サラウンド音場再生装置2、サラウンドデータ蓄積装置3が、通信網4を介して接続されることによって構成される。
As shown in FIG. 1, the recording / playback system is configured by connecting a surround sound
サラウンド音場収録装置1は、複数のマイクロフォンを使用して収録環境内で発生する音を収録(集音)し、収録により得られたサラウンドデータを、通信網4を介してサラウンドデータ蓄積装置3にアップロードする。
The surround sound
サラウンド音場再生装置2は、サラウンドデータ蓄積装置3に蓄積されているサラウンドデータを通信網4を介してダウンロードし、得られたサラウンドデータを、再生環境に適した形で再生する。
The surround sound
例えば、5.1チャンネルに対応したホームシアターシステムの再生環境で再生する場合、サラウンド音場再生装置2は、サラウンドデータ蓄積装置3から取得したサラウンドデータのトラックを5.1チャンネルにミックスダウンして再生する。ミックスダウンとは、収録された複数のトラック(例えば、48トラック)を、5.1チャンネルの再生環境の場合、6トラックに変換することである。
For example, when playing in a playback environment of a home theater system that supports 5.1 channels, the surround sound
また、サラウンド音場再生装置2は、サラウンドデータの再生時に、それぞれのトラックの音量や定位、エフェクタなどを必要に応じて調節する。
Further, the surround sound
なお、ここでは、サラウンド音場収録装置1で収録されたサラウンドデータは、サラウンドデータ蓄積装置3に一度蓄積され、その後、通信網4を介してサラウンド音場再生装置2に提供されるものとしたが、磁気テープ、CD(Compact Disk)、DVD(Digital Versatile Disc)、Blu-ray Disc(登録商標)等の記録媒体を介して、サラウンド音場収録装置1からサラウンド音場再生装置2に提供されるようにしてもよい。
Here, the surround data recorded by the surround sound
サラウンドデータ蓄積装置3は、サラウンド音場収録装置1から通信網4を介して送信されてきたサラウンドデータを受信し、内蔵する記憶媒体に記憶(蓄積)させる。また、サラウンドデータ蓄積装置3は、記憶しているサラウンドデータを、通信網4を介して、所定のタイミングでサラウンド音場再生装置2に送信する。
The surround data storage device 3 receives the surround data transmitted from the surround sound
このような装置からなる収録再生システムにおいては、後に詳述するように、音声の収録時に、音声データとともに、位置や向きなどの、収録に用いられたマイクロフォンの特性を表す特性情報がサラウンド音場収録装置1により自動的に収録される。
In a recording / playback system composed of such devices, as will be described in detail later, at the time of recording audio, along with the audio data, characteristic information indicating the characteristics of the microphone used for recording, such as position and orientation, is displayed. It is automatically recorded by the
また、再生時には、再生対象とする音声データとともに提供されるマイクロフォンの特性情報をもとに、サラウンド音場再生装置2により音声データが編集され、再生環境に適した音声が出力される。これにより、収録環境と同じ音場が再現される。
At the time of reproduction, the sound data is edited by the surround sound
次に、図1のサラウンド音場収録装置1とサラウンド音場再生装置2の構成と動作についてそれぞれ説明する。
Next, the configuration and operation of the surround sound
はじめに、サラウンド音場収録装置1の構成と動作について説明する。
First, the configuration and operation of the surround sound
図2は、サラウンド音場収録装置1の機能構成例を示すブロック図である。
FIG. 2 is a block diagram illustrating a functional configuration example of the surround sound
音声入力部11−1乃至11−mはマイクロフォンであり、周囲で発生され、集音した音の信号をオーディオインタフェース12にそれぞれ出力する。音声入力部の数は収録対象によって任意に変更可能である。例えば、収録対象が音楽ライブの場合、各楽器ごとに、音声入力部を配置することができる。
The audio input units 11-1 to 11-m are microphones, and output signals of collected sounds that are generated in the surroundings to the
オーディオインタフェース12は、例えば、録音を開始することがユーザから指示されたとき、音声入力部11−1乃至11−mから供給されてきた信号のレベルを揃え、A/D(Analog /Digital)変換を行う。A/D変換等の処理によりオーディオインタフェース12により得られた音声データは音声データ録音部13に出力される。
For example, when the user instructs to start recording, the
なお、音声入力部の数が多い場合、オーディオインタフェース12と音声データ録音部13が複数用意され、それぞれのオーディオインタフェース12により、分散して、音声入力部からの入力が処理されるようにしてもよい。この場合、オーディオインタフェース12により得られた音声データ間の同期を取るため、タイムコードジェネレーターにより生成された同一のタイムコード、例えば、SMPTE(Society of Motion Picture and Television Engineers)が、音声データに付加される。
When the number of audio input units is large, a plurality of
音声データ録音部13は、オーディオインタフェース12から供給されてきた音声データを例えばHDD(Hard Disk Drive)などの記憶媒体に記憶させる。音声データ録音部13により記憶媒体に記憶された音声データは、適宜、登録制御部16により読み出される。
The audio
音声入力部情報測定部14は、例えば、録音を開始することがユーザから指示されたとき、音声入力部11−1乃至11−mのそれぞれの位置、向きを表す情報と、タイプ、指向性、周波数特性、インピーダンス等の特性を表す情報とからなる音声入力部情報を取得する。
For example, when the user instructs to start recording, the voice input unit
音声入力部情報のうちのタイプ、指向性、周波数特性、インピーダンスといった情報は、音声入力部11−1乃至11−mの特有の情報である。従って、音声入力部情報測定部14は、音声入力部11−1乃至11−mのそれぞれを識別することができれば、識別情報と、タイプ、指向性、周波数特性、インピーダンス等を表す情報が対応付けられたテーブル(商品仕様)を参照することによって、それらの情報を取得することができる。
Information such as type, directivity, frequency characteristics, and impedance in the voice input unit information is information unique to the voice input units 11-1 to 11-m. Therefore, if the voice input unit
このテーブルは、サラウンド音場収録装置1にあらかじめ用意されるものであってもよいし、通信網4を介して接続される所定のサーバにより管理されるものであってもよい。
This table may be prepared in advance in the surround sound
これらの音声入力部11−1乃至11−mの特有の情報(特有の情報を得るために必要な識別情報)と、位置、向きの情報は、例えば、本出願人により出願された特願2002−057837号の明細書(特開2003−254716号公報)に記載された技術を用いて、同時に、音声入力部情報測定部14により測定される。
The specific information (identification information necessary for obtaining the specific information), the position and the direction information of the voice input units 11-1 to 11-m are, for example, Japanese Patent Application 2002 filed by the present applicant. Using the technique described in the specification of Japanese Patent No. 057837 (Japanese Patent Laid-Open No. 2003-254716), it is simultaneously measured by the voice input unit
特開2003−254716号公報に記載されている技術によっては、マーカといわれる発光体が表面上に複数配設された測定対象物体をカメラで撮影することによって、マーカの発行パターンから光学的識別情報を取得するとともに、マーカの位置関係などから測定対象物体の3次元的な位置と向きを測定することができるようになされている。 Depending on the technique described in Japanese Patent Application Laid-Open No. 2003-254716, optical identification information can be obtained from a marker issuance pattern by photographing with a camera a measurement target object in which a plurality of light emitters called markers are arranged on the surface. And the three-dimensional position and orientation of the measurement target object can be measured from the positional relationship of the markers.
なお、音声入力部情報を取得するために、特開2003−254716号公報に記載されているもの以外の技術が用いられるようにしてもよい。また、音声入力部情報のうちの、位置、向きを表す情報と、タイプ、指向性、周波数特性、インピーダンス等の特性を表す情報とは、同時にではなく、別々に取得されるようにしてもよい。 In addition, in order to acquire audio | voice input part information, you may make it use techniques other than what is described in Unexamined-Japanese-Patent No. 2003-254716. In addition, the information indicating the position and orientation and the information indicating the characteristics such as type, directivity, frequency characteristics, impedance, etc. in the voice input unit information may be acquired separately instead of simultaneously. .
例えば、音声入力部の識別情報については、音声入力部11−1乃至11−mの表面にプリントされる2次元バーコードや、配設されるRFIDタグから取得されるようにしてもよい。また、位置については、無線LAN(Local Area Network)、RFID、UWB(Ultra Wide Band)などの無線通信を利用した位置検知システムが用いられ、取得されるようにしてもよいし、収録環境が屋外である場合、GPS(Global Positioning System)やPHS(Personal Handyphone System)により取得されるようにしてもよい。向きについては、音声入力部11−1乃至11−mに搭載されたジャイロセンサの出力から取得されるようにしてもよい。 For example, the identification information of the voice input unit may be acquired from a two-dimensional barcode printed on the surface of the voice input units 11-1 to 11-m or an RFID tag provided. For the position, a position detection system using wireless communication such as wireless LAN (Local Area Network), RFID, UWB (Ultra Wide Band), etc. may be used and acquired. In this case, it may be acquired by GPS (Global Positioning System) or PHS (Personal Handyphone System). The direction may be acquired from the output of the gyro sensor mounted on the voice input units 11-1 to 11-m.
音声入力部情報測定部14は、このようにして取得した音声入力部情報を音声入力部情報蓄積部15に出力する。
The voice input unit
音声入力部情報蓄積部15は、音声入力部情報測定部14から供給されてきた音声入力部情報を記憶する。音声入力部情報蓄積部15により記憶された音声入力部情報も、適宜、登録制御部16により読み出される。
The voice input unit
登録制御部16は、サラウンドデータが、通信網4を介してサラウンド音場再生装置2に提供されるものである場合、音声データ録音部13により記憶されたサラウンドデータと、音声入力部情報蓄積部15により記憶された音声入力部情報を読み出し、読み出したデータを併せて通信部17に出力する。
When the surround data is provided to the surround sound
また、登録制御部16は、サラウンドデータが、所定の記録媒体を介してサラウンド音場再生装置2に提供されるものである場合、音声データ録音部13により記憶されたサラウンドデータと、音声入力部情報蓄積部15により記憶された音声入力部情報を読み出し、読み出したデータを記録媒体に記録させる。
In addition, when the surround data is provided to the surround sound
通信部17は、登録制御部16から供給されてきたデータを、通信網4を介してサラウンドデータ蓄積装置3にアップロードする。
The
ここで、図3のフローチャートを参照して、サラウンド音場収録装置1の収録処理について説明する。この処理は、例えば、収録の開始が収録者(ユーザ)により指示されたときに開始される。
Here, the recording process of the surround sound
ステップS1において、オーディオインタフェース12は、収録を終了するか否かを判定する。例えば、収録の開始/終了は、サラウンド音場収録装置1に設けられる収録開始ボタンや収録終了ボタンがユーザにより押されたことに応じて、あるいは、「10分後に収録開始、30分後に終了」などのように、あらかじめ決められたルールに応じて行われる。なお、記憶媒体の空き容量がなくなったときや、オーバーフローエラー等のシステムエラーが生じたときに収録が終了されるようにしてもよい。
In step S1, the
オーディオインタフェース12は、ステップS1において、収録を終了しない(収録を行う)と判定した場合、ステップS2に進む。
If the
ステップS2において、音声入力部11−1乃至11−mは集音を行い、得られた音の信号をオーディオインタフェース12に出力する。
In step S <b> 2, the voice input units 11-1 to 11-m collect sound and output the obtained sound signal to the
ステップS3において、オーディオインタフェース12は、音声入力部11−1乃至11−mから供給されてきた信号から音声データを取得し、取得した音声データを音声データ録音部13により記憶させる。
In step S3, the
ステップS4において、音声入力部情報測定部14は、音声入力部11−1乃至11−mの音声入力部情報を上述したようにして取得し、取得した音声入力部情報を音声入力部情報蓄積部15に出力する。
In step S4, the voice input unit
ステップS5において、音声入力部情報蓄積部15は、音声入力部情報測定部14から供給されてきた音声入力部情報を記憶する。
In step S <b> 5, the voice input unit
図4は、音声入力部情報蓄積部15により記憶される音声入力部情報の例を示す図である。
FIG. 4 is a diagram illustrating an example of the voice input unit information stored by the voice input unit
図4に示すように、音声入力部情報は、例えば、ID、位置、向き、タイプ、指向性、周波数特性、インピーダンスなどの情報から構成される。IDは、音声入力部11−1乃至11−mのそれぞれに割り当てられている識別情報であり、これに他の情報が対応付けられることによって管理されている。 As illustrated in FIG. 4, the voice input unit information includes, for example, information such as ID, position, orientation, type, directivity, frequency characteristics, impedance, and the like. The ID is identification information assigned to each of the voice input units 11-1 to 11-m, and is managed by associating this with other information.
図4の例においては、例えば、「0001」のIDが割り当てられた音声入力部の音声入力部情報は、位置が「(−98,103,119)」、向きが「(22,0,174)」、タイプが「ダイナミック型」、指向性が「単一指向性」、周波数特性が「50Hz−16kHz」、インピーダンスが「150Ω」とされている。 In the example of FIG. 4, for example, the voice input unit information of the voice input unit to which the ID “0001” is assigned has the position “(−98, 103, 119)” and the direction “(22, 0, 174). ) ”, The type is“ dynamic type ”, the directivity is“ unidirectional ”, the frequency characteristic is“ 50 Hz-16 kHz ”, and the impedance is“ 150Ω ”.
音声入力部11−1乃至11−mの位置は、例えば、収録環境の中心を(0,0,0)とした3次元空間上の位置で表され、向きは、3次元空間上のオイラー角により表される。すなわち、再生時には、中心(0,0,0)で表される位置をリスナーの位置とすることによって、収録環境と同じ音場が再現される。 The positions of the audio input units 11-1 to 11-m are represented by, for example, positions in a three-dimensional space where the center of the recording environment is (0, 0, 0), and the direction is the Euler angle in the three-dimensional space. It is represented by That is, at the time of reproduction, the position represented by the center (0, 0, 0) is set as the listener position, thereby reproducing the same sound field as that of the recording environment.
位置と向きは3次元空間上で表されるものとしたが、2次元空間上で表されるようにしてもよい。この場合、上下方向の音の定位はないものとして扱われる。 Although the position and orientation are expressed in a three-dimensional space, they may be expressed in a two-dimensional space. In this case, it is treated that there is no sound localization in the vertical direction.
音声入力部11−1乃至11−mのタイプは、音声入力部11−1乃至11−mの構成上の違いであり、ダイナミック型やコンデンサ型、カーボン型、ベロシティ型、クリスタル型等に分類される。 The types of the voice input units 11-1 to 11-m are structural differences of the voice input units 11-1 to 11-m, and are classified into dynamic type, capacitor type, carbon type, velocity type, crystal type, and the like. The
音声入力部11−1乃至11−mの指向性は、前後左右から入るそれぞれの音に対してどの程度の感度を有するのかを表すものであり、単一指向性型、無指向性型、双指向性型に大別される。単一指向性型は、さらに、カーディオイド、スーパーカーディオイド、ハイパーカーディオイド等に分類されるようにしてもよい。 The directivity of the sound input units 11-1 to 11-m represents how much sensitivity is given to each sound that enters from the front, rear, left, and right, and is unidirectional, omnidirectional, or bi-directional. Broadly divided into directivity types. The unidirectional type may be further classified into a cardioid, a super cardioid, a hyper cardioid, and the like.
音声入力部11−1乃至11−mの周波数特性は、収録可能な周波数(音の高低)の範囲と、感度の変化を表したものである。 The frequency characteristics of the audio input units 11-1 to 11-m represent the range of frequencies (sound pitch) that can be recorded and changes in sensitivity.
音声入力部11−1乃至11−mのインピーダンスは、出力側から見た音声入力部内部の交流抵抗の値である。インピーダンスが高いほど、信号伝送効率はよいがノイズに弱いという特性がある。 The impedance of the voice input units 11-1 to 11-m is the value of the AC resistance inside the voice input unit viewed from the output side. The higher the impedance, the better the signal transmission efficiency but the weaker it is to noise.
図3の説明に戻り、音声入力部情報を記憶した後、処理はステップS1に戻り、それ以降の処理が繰り返される。すなわち、収録を終了すると判定されるまで、音声データの蓄積や、音声入力部情報の蓄積などが繰り返される。 Returning to the description of FIG. 3, after storing the voice input unit information, the process returns to step S <b> 1 and the subsequent processes are repeated. That is, accumulation of audio data, accumulation of audio input unit information, and the like are repeated until it is determined that recording is to be ended.
ステップS1において、オーディオインタフェース12は、収録を終了することが指示されたと判定した場合、ステップS6に進む。
If the
ステップS6において、登録制御部16は、以上の処理で収録されたサラウンドデータ(音声データと音声入力部情報)を、サラウンドデータ蓄積装置3に送信するか否かを、例えば、ユーザによる指示に従って判定し、送信しないと判定した場合、処理を終了させる。この場合、収録されたサラウンドデータはローカルファイルとしてサラウンド音場収録装置1の記憶媒体に記憶され、所定のタイミングで、CDなどの記録媒体に書き込まれて提供される。
In step S6, the
一方、登録制御部16は、ステップS6において、収録されたサラウンドデータをサラウンドデータ蓄積装置3に送信すると判定した場合、ステップS7に進み、通信部17を制御して、サラウンドデータをサラウンドデータ蓄積装置3に送信させる。
On the other hand, if the
以上のように、音声データと音声入力部情報を同時に保存することで、サラウンド音場収録装置1は、収録環境の音場を再現するために必要な情報を得ることが可能になる。
As described above, by simultaneously storing the sound data and the sound input unit information, the surround sound
ここで、図3の処理においては、音声データの収録とともに、音声入力部情報の測定が繰り返し行われるものとしたが、これは、音声入力部情報が時間の経過に伴って変化する状況に対応するために行われるものである。 Here, in the processing of FIG. 3, the measurement of the voice input unit information is repeatedly performed along with the recording of the voice data, but this corresponds to the situation where the voice input unit information changes with the passage of time. Is to be done.
例えば、ライブの収録などにおいては音声入力部11−1乃至11−mの位置や向きが時間の経過に伴って変わることになるが、このような場合であっても、音声データの収録とともに音声入力部情報の測定が繰り返し行われることにより、収録環境の音場を再現するための情報を取得することが可能になる。 For example, in live recording or the like, the positions and orientations of the audio input units 11-1 to 11-m change with the passage of time. By repeatedly measuring the input unit information, it is possible to acquire information for reproducing the sound field of the recording environment.
なお、音声入力部情報が時間の経過に伴って変化しない場合、収録開始時、もしくは収録終了時に音声入力部情報が1度だけ測定されるようにしてもよい。 When the voice input unit information does not change with time, the voice input unit information may be measured only once at the start of recording or at the end of recording.
次に、サラウンド音場再生装置2の構成と動作について説明する。
Next, the configuration and operation of the surround sound
図5は、サラウンド音場再生装置2の機能構成例を示すブロック図である。
FIG. 5 is a block diagram illustrating a functional configuration example of the surround sound
通信部31は、サラウンドデータ蓄積装置3からサラウンドデータをダウンロードし、取得したサラウンドデータを音声データ解析部32と音声入力部情報解析部33に出力する。サラウンドデータ蓄積装置3に記憶されているサラウンドデータには、上述したように、音声データと音声入力部情報が含まれている。
The
なお、サラウンドデータ蓄積装置3からのダウンロードにより取得されるのではなく、CDなどの記録媒体を介してサラウンドデータが取得される場合、図示せぬドライブにより記録媒体から読み出されたサラウンドデータが、音声データ解析部32と音声入力部情報解析部33に出力される。
When surround data is acquired via a recording medium such as a CD instead of being acquired by downloading from the surround data storage device 3, the surround data read from the recording medium by a drive (not shown) The data is output to the voice
音声データ解析部32は、例えば、通信部31から供給されてきたサラウンドデータを解析することによって音声データを取得し、取得した音声データを音声データ編集部34に出力する。
For example, the audio
音声入力部情報解析部33は、例えば、通信部31から供給されてきたサラウンドデータを解析することによって音声入力部情報を取得し、取得した音声入力部情報を音声データ編集部34に出力する。
For example, the voice input unit
音声データ編集部34は、音声入力部情報解析部33から供給されてきた音声入力部情報に基づいて、再生環境に適した音声データになるように、音声データ解析部32から供給されてきた音声データを編集する。
The audio
例えば、音声データ編集部34は、音声入力部情報により指定される位置に仮想音源の位置がくるように、対応する音声データを配置したり、音声入力部情報に基づいたエフェクトを加えるなどして音場を構築する。また、音声データ編集部34は、例えば、音声データに含まれるトラックデータ(例えば48トラック)を、音声出力部の数(例えば5.1チャンネルの場合6)に応じたトラックデータにミックスダウンするなどのように、音声出力部36−1乃至36−nを用いて音場を再現するために、音声データ解析部32から供給されてきた音声データを、音声出力部36−1乃至36−nのそれぞれから出力させる音声データに変換する。
For example, the audio
音声データ編集部34により得られた音声データはオーディオインタフェース35に出力される。
The audio data obtained by the audio
オーディオインタフェース35は、音声データ編集部34から供給されてきた音声データのD/A変換を行い、得られた音声信号を音声出力部36−1乃至36−nのそれぞれに出力する。
The
音声出力部36−1乃至36−nはスピーカであり、オーディオインタフェース35から供給されてきた信号に対応する音声を出力する。
The audio output units 36-1 to 36-n are speakers, and output audio corresponding to the signal supplied from the
ここで、図6のフローチャートを参照して、サラウンド音場再生装置2の再生処理について説明する。この処理は、例えば、サラウンドデータの再生を開始することがユーザ(リスナー)により指示されたときに開始される。
Here, with reference to the flowchart of FIG. 6, the reproduction process of the surround sound
ステップS21において、音声データ解析部32は、再生を終了するか否かを判定する。例えば、再生の開始/終了は、サラウンド音場再生装置2に設けられる再生開始ボタンや再生終了ボタンがユーザにより押されたことに応じて、あるいは、「10分後に再生開始、30分後に終了」などのように、あらかじめ決められたルールに応じて行われる。
In step S21, the audio
音声データ解析部32は、ステップS21において、再生を終了しない(再生を行う)と判定した場合、ステップS22に進む。
If the sound
ステップS22において、音声データ解析部32は、通信部31を制御してサラウンドデータ蓄積装置3からダウンロードすることによって、または、所定の記録媒体から読み出すことによって、再生対象とするサラウンドデータを取得する。どのサラウンドデータを取得するのかは、ユーザからの指示に従って判断される。なお、このとき、音声データ解析部32により取得されたサラウンドデータと同じデータが、音声入力部情報解析部33にも供給されている。
In step S22, the audio
サラウンドデータ蓄積装置3からのダウンロードや記録媒体からの読み出しは、再生対象とするサラウンドデータがサラウンド音場再生装置2のローカルファイルやキャッシュにすでに記憶されている場合、行われないようにすることも可能である。また、サラウンド音場再生装置2にサラウンドデータがすでに記憶されている場合、そのサラウンドデータと、同じタイトルの、ダウンロード可能なものとしてサラウンドデータ蓄積装置3に用意されているサラウンドデータとの同一性が確認され、一致しないときにダウンロードが行われるようにしてもよい。
Downloading from the surround data storage device 3 and reading from the recording medium may not be performed if the surround data to be played is already stored in a local file or cache of the surround sound
ステップS23において、音声データ解析部32は、取得したサラウンドデータを解析することによって音声データを取得し、取得した音声データを音声データ編集部34に出力する。
In step S <b> 23, the audio
ステップS24において、音声入力部情報解析部33は、取得したサラウンドデータを解析することによって音声入力部情報を取得し、取得した音声入力部情報を音声データ編集部34に出力する。
In step S <b> 24, the voice input unit
ステップS25において、音声データ編集部34は、音声入力部情報解析部33から供給されてきた音声入力部情報に基づいて、再生環境に適した音声データになるように、音声データ解析部32から供給されてきた音声データを上述したようにして編集する。音声データ編集部34は、編集して得られた音声データをオーディオインタフェース35に出力する。
In step S <b> 25, the audio
ステップS26において、オーディオインタフェース35は、音声データ編集部34から供給されてきた音声データのD/A変換を行い、得られた音声信号を音声出力部36−1乃至36−nのそれぞれに出力して再生させる。
In step S26, the
その後、処理はステップS21に戻り、それ以降の処理が繰り返される。すなわち、再生を終了すると判定されるまで、サラウンドデータの編集や、編集して得られたサラウンドデータの再生などが繰り返される。 Thereafter, the processing returns to step S21, and the subsequent processing is repeated. That is, until it is determined that the reproduction is to be ended, the editing of the surround data, the reproduction of the surround data obtained by editing, and the like are repeated.
ステップS21において、再生を終了すると判定された場合、処理は終了される。 If it is determined in step S21 that the reproduction is to be terminated, the process is terminated.
以上のような処理により、サラウンド音場収録装置1により得られたサラウンドデータに基づいて、収録環境の音場が、再生環境に合わせて再現されることになる。
Through the processing as described above, the sound field of the recording environment is reproduced in accordance with the reproduction environment based on the surround data obtained by the surround sound
なお、図6の処理においては、サラウンドデータが入力(取得)される度に、音声入力部情報の解析が行われるものとしたが、これは、音声入力部情報が時間の経過に伴って変化する状況に対応するために行われるものである。従って、音声入力部情報が時間の経過に伴って変化しないものである場合、再生開始時に、1度だけ解析が行われるようにしてもよい。 In the process of FIG. 6, it is assumed that the sound input unit information is analyzed every time surround data is input (acquired). This is because the sound input unit information changes over time. This is done to cope with the situation. Therefore, when the voice input unit information does not change with the passage of time, the analysis may be performed only once at the start of reproduction.
以上のような収録再生システムにより、収録を行う者は、収録時に、マイクロフォンの位置や向き等を、サラウンドデータの編集のときに参照するためにメモに残しておいたりする必要がない。 With the recording / playback system as described above, a person who performs recording does not have to leave the position and orientation of the microphone in the memo for reference when editing the surround data.
また、サラウンド音場再生装置2のユーザは、再生時に、各音声データを録音したマイクロフォンの位置等を、収録環境の情報を元に入力したりする必要がない。すなわち、ユーザは、容易に、収録環境の音場を再現することが可能となる。
In addition, the user of the surround sound
なお、以上においては、音声入力部情報は音場を再現するために用いられるものとしたが、それ以外にも、例えば、収録環境における、それぞれのマイクロフォンの位置関係などをディスプレイに表示するために用いられるようにしてもよい。 In the above, the voice input unit information is used to reproduce the sound field. However, in addition to that, for example, in order to display the positional relationship of each microphone in the recording environment on the display. It may be used.
これにより、収録者は、収録時のマイクロフォンの位置や向きの設定のときに、ディスプレイの表示を見ながらそれを行うことによって、収録される音声の「かぶり」を避けることが可能になる。 Thus, the recording person can avoid the “fogging” of the recorded sound by setting the position and orientation of the microphone at the time of recording while watching the display on the display.
図7は、音声入力部情報に基づいて表示される画面の例を示す図である。この画面は、例えば、音声入力部情報測定部14によって表示される。図7の画面は、複数のマイクロフォンが設置されるピアノの演奏の収録環境を表している。
FIG. 7 is a diagram illustrating an example of a screen displayed based on the voice input unit information. This screen is displayed by, for example, the voice input unit
図7の画面において、色が付されている丸印は、音声入力部情報の「位置」に基づいて表示される音声入力部(マイクロフォン)の位置を表す。その丸印からの引き出し線で示されるIDは、音声入力部情報の「ID」に基づいて表示されるそれぞれの音声入力部のIDである。また、色が付されている丸印の上、またはその周りに示す実線は、音声入力部情報の「向き」、「タイプ」、「指向性」などより求められる収録可能領域を表す。 In the screen of FIG. 7, a circle with a color represents the position of the voice input unit (microphone) displayed based on the “position” of the voice input unit information. The ID indicated by the lead line from the circle is the ID of each voice input unit displayed based on the “ID” of the voice input unit information. A solid line above or around the colored circle represents a recordable area determined from the “direction”, “type”, “directivity”, etc. of the voice input unit information.
例えば、IDが「101」である音声入力部は「無指向性」の音声入力部であり、そのため、その音声入力部によって収録(集音)が可能な領域は図に示すようにほぼ円形となっている。また、IDが「001」である音声入力部は「単一指向性」の音声入力部であり、向きによって収録可能領域が変化するから、図に示すようなものになっている。また、収録可能領域の大きさは、音声入力部の感度によって変化する。 For example, the voice input unit whose ID is “101” is a “omnidirectional” voice input unit, and therefore the area that can be recorded (sound collection) by the voice input unit is substantially circular as shown in the figure. It has become. Also, the voice input unit whose ID is “001” is a “unidirectional” voice input unit, and the recordable area changes depending on the orientation, and is as shown in the figure. The size of the recordable area varies depending on the sensitivity of the voice input unit.
このように、各音声入力部の収録可能領域がグラフィカルに表示されることによって、収録者は、どの領域に「かぶり」が集中しているのかを視覚的に判断することが可能となる。 Thus, the recordable area of each voice input unit is graphically displayed, so that the recorder can visually determine in which area the “cover” is concentrated.
また、図7の画面の表示を見ながら、収録中に、音声入力部の位置や向きを変更することによって、収録者は、サラウンド音場収録装置1により得られた情報を、音声入力部の位置関係に動的に反映させることが可能となる。
In addition, by changing the position and orientation of the audio input unit during recording while viewing the display on the screen of FIG. 7, the recorder can record the information obtained by the surround sound
なお、音声入力部情報のうちのID、位置、向き、指向性に基づく表示だけでなく、音声入力部から取得された他の情報も表示されるようにしてもよい。例えば、周波数帯域毎の収録可能領域が表示されるようにすることによって、収録者は、収録環境内の重低音の「かぶり」の状況、高音の「かぶり」の状況といったように、周波数帯域毎の「かぶり」の状況を確認することができる。 Note that not only the display based on the ID, position, orientation, and directivity in the voice input unit information, but also other information acquired from the voice input unit may be displayed. For example, by displaying the recordable area for each frequency band, the recorder can select the frequency range for each of the frequency bands, such as the “fogging” situation of heavy bass in the recording environment, and the “fogging” situation of treble. It is possible to confirm the status of “cover”.
また、図7の画面の例においては、音声入力部の位置関係を把握しやすくするため、ピアノの外観の画像も表示されているが、音声の「かぶり」を防止する目的だけであるなら、必ずしも表示される必要はない。 In addition, in the example of the screen of FIG. 7, an image of the appearance of the piano is also displayed in order to make it easy to grasp the positional relationship of the voice input unit, but if it is only for the purpose of preventing the “fogging” of the voice, It is not necessarily displayed.
さらに、図4に示すような音声入力部情報が取得されている場合、それぞれの音声入力部の収録可能領域を2次元で表す図7に示すような画面ではなく、3次元で表す画面が表示されるようにしてもよい。 Furthermore, when the voice input unit information as shown in FIG. 4 has been acquired, a three-dimensional screen is displayed instead of the screen as shown in FIG. 7 showing the recordable area of each voice input unit in two dimensions. You may be made to do.
このように、収録可能領域という、実際には目で見ることのできない情報が表示されるようにすることによって、収録者は、音場の情報を視覚的に確認することが可能となる。 In this manner, by displaying information that can be recorded, that is, an area that cannot be seen with the eyes, the recording person can visually confirm the information of the sound field.
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。この場合、そのソフトウェアは、例えば、図8に示されるようなパーソナルコンピュータにより実行される。 The series of processes described above can be executed by hardware, but can also be executed by software. In this case, the software is executed by a personal computer as shown in FIG.
図8において、CPU(Central Processing Unit)51は、ROM(Read Only Memory)52に記憶されているプログラム、または、記憶部58からRAM(Random Access Memory)53にロードされたプログラムに従って各種の処理を実行する。RAM53にはまた、CPU51が各種の処理を実行する上において必要なデータなどが適宜記憶される。
In FIG. 8, a CPU (Central Processing Unit) 51 performs various processes according to a program stored in a ROM (Read Only Memory) 52 or a program loaded from a
CPU51、ROM52、およびRAM53は、バス54を介して相互に接続されている。このバス54にはまた、入出力インタフェース55も接続されている。
The
入出力インタフェース55には、キーボード、マウスなどよりなる入力部56、LCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部57、ハードディスクなどより構成される記憶部58、ネットワークを介しての通信処理を行う通信部59が接続されている。
The input /
入出力インタフェース55にはまた、必要に応じてドライブ60が接続される。ドライブ60には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブルメディア61が適宜装着され、それから読み出されたコンピュータプログラムが必要に応じて記憶部58にインストールされる。
A
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。 When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a network or a recording medium into a general-purpose personal computer or the like.
この記録媒体は、図8に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(登録商標)(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア61により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM52や、記憶部58に含まれるハードディスクなどで構成される。
As shown in FIG. 8, the recording medium is distributed to provide a program to the user separately from the apparatus main body, and includes a magnetic disk (including a flexible disk) on which the program is recorded, an optical disk (CD-
なお、本明細書において、各ステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, each step includes not only processing performed in time series according to the described order but also processing executed in parallel or individually, although not necessarily performed in time series.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
1 サラウンド音場収録装置, 2 サラウンド音場再生装置, 3 サラウンドデータ蓄積装置, 4 通信網, 11−1乃至11−m 音声入力部, 12 オーディオインタフェース, 13 音声データ録音部, 14 音声入力部情報測定部, 15 音声入力部情報蓄積部, 16 登録制御部, 17 通信部, 31 通信部, 32 音声データ解析部, 33 音声入力部情報解析部, 34 音声データ編集部, 35 オーディオインタフェース, 36−1乃至36−n 音声出力部 1 surround sound field recording device, 2 surround sound field reproduction device, 3 surround data storage device, 4 communication network, 11-1 to 11-m audio input unit, 12 audio interface, 13 audio data recording unit, 14 audio input unit information Measurement unit, 15 voice input unit information storage unit, 16 registration control unit, 17 communication unit, 31 communication unit, 32 voice data analysis unit, 33 voice input unit information analysis unit, 34 voice data editing unit, 35 audio interface, 36- 1 to 36-n audio output unit
Claims (9)
前記収録装置は、
収録に用いられるマイクロフォンの位置、向きを表す情報と、前記マイクロフォンの特性を表す情報とからなるマイクロフォン情報を取得する第1の取得手段と、
収録により得られた音声と、前記第1の取得手段により取得された前記マイクロフォン情報を併せて提供する提供手段と
を備え、
前記再生装置は、
再生対象とする音声のデータとともに、前記マイクロフォン情報を取得する第2の取得手段と、
再生対象とする前記音声のデータを、前記第2の取得手段により取得された前記マイクロフォン情報に基づいて編集し、再生させる再生制御手段と
を備えることを特徴とする収録再生システム。 In a recording / playback system consisting of a recording device and a playback device,
The recording device is:
First acquisition means for acquiring microphone information including information representing the position and orientation of a microphone used for recording and information representing characteristics of the microphone;
Providing means for providing both the voice obtained by recording and the microphone information acquired by the first acquisition means;
The playback device
A second acquisition means for acquiring the microphone information together with audio data to be reproduced;
A recording / playback system comprising: playback control means for editing and playing back the audio data to be played back based on the microphone information acquired by the second acquisition means.
収録により得られた音声と、前記取得手段により取得された前記マイクロフォン情報を併せて提供する提供手段と
を備えることを特徴とする収録装置。 Acquisition means for acquiring microphone information composed of information indicating the position and orientation of the microphone used for recording, and information indicating the characteristics of the microphone;
A recording apparatus comprising: voice obtained by recording, and providing means for providing the microphone information acquired by the acquiring means together.
ことを特徴とする請求項2に記載の収録装置。 The recording apparatus according to claim 2, wherein the acquisition unit repeatedly acquires the microphone information while recording is being performed.
ことを特徴とする請求項2に記載の収録装置。 The acquisition unit further displays, based on the acquired microphone information, a recordable range of the microphone on a screen representing a recording environment in which the microphone is installed. Recording device.
収録により得られた音声と、前記取得ステップの処理により取得された前記マイクロフォン情報を併せて提供する提供ステップと
を含むことを特徴とする収録方法。 An acquisition step of acquiring microphone information consisting of information indicating the position and orientation of the microphone used for recording and information indicating the characteristics of the microphone;
A recording method comprising: a voice obtained by recording, and a providing step of providing the microphone information acquired by the processing of the acquiring step together.
収録により得られた音声と、前記取得ステップの処理により取得された前記マイクロフォン情報を併せて提供する提供ステップと
を含む処理をコンピュータに実行させるプログラム。 An acquisition step of acquiring microphone information consisting of information indicating the position and orientation of the microphone used for recording and information indicating the characteristics of the microphone;
The program which makes a computer perform the process containing the audio | voice obtained by recording, and the provision step which provides together the said microphone information acquired by the process of the said acquisition step.
再生対象とする前記音声のデータを、前記取得手段により取得された前記マイクロフォン情報に基づいて編集し、再生させる再生制御手段と
を備えることを特徴とする再生装置。 Acquires microphone information including information representing the position and orientation of the microphone used for recording, and information representing the characteristics of the microphone, which was acquired when recording the sound, together with the audio data to be reproduced. Acquisition means;
A playback apparatus comprising: a playback control unit that edits and plays back the audio data to be played back based on the microphone information acquired by the acquiring unit.
再生対象とする前記音声のデータを、前記取得ステップの処理により取得された前記マイクロフォン情報に基づいて編集し、再生させる再生制御ステップと
を含むことを特徴とする再生方法。 Acquires microphone information including information representing the position and orientation of the microphone used for recording, and information representing the characteristics of the microphone, which was acquired when recording the sound, together with the audio data to be reproduced. An acquisition step;
A reproduction control step of editing and reproducing the audio data to be reproduced based on the microphone information acquired by the processing of the acquisition step.
再生対象とする前記音声のデータを、前記取得ステップの処理により取得された前記マイクロフォン情報に基づいて編集し、再生させる再生制御ステップと
を含む処理をコンピュータに実行させるプログラム。 Acquires microphone information including information representing the position and orientation of the microphone used for recording, and information representing the characteristics of the microphone, which was acquired when recording the sound, together with the audio data to be reproduced. An acquisition step;
A program for causing a computer to execute a process including a playback control step of editing and playing back the audio data to be played back based on the microphone information acquired by the process of the acquiring step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005074430A JP2006261886A (en) | 2005-03-16 | 2005-03-16 | Recording/reproducing system, recording device and method, reproducing device and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005074430A JP2006261886A (en) | 2005-03-16 | 2005-03-16 | Recording/reproducing system, recording device and method, reproducing device and method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006261886A true JP2006261886A (en) | 2006-09-28 |
Family
ID=37100656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005074430A Withdrawn JP2006261886A (en) | 2005-03-16 | 2005-03-16 | Recording/reproducing system, recording device and method, reproducing device and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006261886A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014199453A1 (en) * | 2013-06-11 | 2014-12-18 | Toa株式会社 | Microphone array control device |
-
2005
- 2005-03-16 JP JP2005074430A patent/JP2006261886A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014199453A1 (en) * | 2013-06-11 | 2014-12-18 | Toa株式会社 | Microphone array control device |
JPWO2014199453A1 (en) * | 2013-06-11 | 2017-02-23 | Toa株式会社 | Microphone array controller |
US9818430B2 (en) | 2013-06-11 | 2017-11-14 | Toa Corporation | Estimating sound source position with microphone array control |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7184557B2 (en) | Methods and apparatuses for recording and playing back audio signals | |
CN1419796B (en) | Virtual sound image localizing device and virtual sound image localizing method | |
US20230179939A1 (en) | Grouping and transport of audio objects | |
US7881479B2 (en) | Audio processing method and sound field reproducing system | |
JP2004193877A (en) | Sound image localization signal processing apparatus and sound image localization signal processing method | |
JP7192786B2 (en) | SIGNAL PROCESSING APPARATUS AND METHOD, AND PROGRAM | |
US11758345B2 (en) | Processing audio for live-sounding production | |
JP2007158527A (en) | Signal processing apparatus, signal processing method, reproducing apparatus, and recording apparatus | |
JP2007041164A (en) | Sound signal processing method and sound field reproduction system | |
Bartlett et al. | Recording Music on Location: Capturing the Live Performance | |
Bartlett | Stereo microphone techniques | |
JP4489650B2 (en) | Karaoke recording and editing device that performs cut and paste editing based on lyric characters | |
Kalliris et al. | Media management, sound editing and mixing | |
JP7567776B2 (en) | SOUND PROCESSING DEVICE, SOUND PROCESSING METHOD, AND SOUND PROCESSING PROGRAM | |
KR20070034054A (en) | Recording medium, recording apparatus and method, data processing apparatus and method, data output apparatus | |
JP2013156543A (en) | Posting reproducer and program | |
Avarese | Post sound design: the art and craft of audio post production for the moving image | |
JP2006261886A (en) | Recording/reproducing system, recording device and method, reproducing device and method, and program | |
Miller | Mixing music | |
JP2006109151A (en) | Image recording device and electronic album creation system | |
JP2017092832A (en) | Reproduction method and reproducer | |
Franz | Producing in the home studio with pro tools | |
JP6474292B2 (en) | Karaoke equipment | |
Munusamy | Gamelan melayu sound preservation and archiving through recording methods and production techniques | |
JP4422538B2 (en) | Sound playback device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080603 |