JP2016134769A - Audio signal processor - Google Patents

Audio signal processor Download PDF

Info

Publication number
JP2016134769A
JP2016134769A JP2015008307A JP2015008307A JP2016134769A JP 2016134769 A JP2016134769 A JP 2016134769A JP 2015008307 A JP2015008307 A JP 2015008307A JP 2015008307 A JP2015008307 A JP 2015008307A JP 2016134769 A JP2016134769 A JP 2016134769A
Authority
JP
Japan
Prior art keywords
sound
position
audio signal
unit
object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015008307A
Other languages
Japanese (ja)
Inventor
雄太 湯山
Yuta Yuyama
雄太 湯山
良太郎 青木
Ryotaro Aoki
良太郎 青木
加納 真弥
Masaya Kano
真弥 加納
Original Assignee
ヤマハ株式会社
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社, Yamaha Corp filed Critical ヤマハ株式会社
Priority to JP2015008307A priority Critical patent/JP2016134769A/en
Priority claimed from EP16151918.6A external-priority patent/EP3048818B1/en
Publication of JP2016134769A publication Critical patent/JP2016134769A/en
Application status is Pending legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an audio signal processor which imparts an appropriate sound image position or sound field effect.SOLUTION: A control part 171 rearranges an object by converting position information of the object acquired by an object information acquisition unit 172 into a position corresponding to read sound field effect information and outputting the converted position information to a renderer 13. That is, for example, the control part 171 rearranges each object to a position corresponding to the scale of a large concert hall by rearranging positions of the objects at a position far from an audience position when designation of an acoustic space of the large concert hall. The renderer 13 performs sound image localization processing on the basis of the position information inputted from the control part 171.SELECTED DRAWING: Figure 2

Description

この発明は、オーディオ信号に種々の処理を行うオーディオ信号処理装置に関する(例えば特許文献1を参照)。 This invention relates to an audio signal processing apparatus for performing various processes on the audio signal (e.g., see Patent Document 1).

従来から、聴取環境において所望の音場を形成する音場支援装置が知られている。 Conventionally, a sound field support device to form a desired sound field is known in the listening environment. 音場支援装置は、複数チャンネルのオーディオ信号を合成して、合成後のオーディオ信号に所定のパラメータを畳み込むことにより、擬似反射音(音場効果音)を生成する。 Sound field support device synthesizes the audio signals of a plurality of channels, by convolving a predetermined parameter in the audio signal after synthesis, to generate pseudo-reflecting sound (sound effect sound).

一方、近年ではコンテンツに付加されたオブジェクト情報による音像定位の方式が普及している。 On the other hand, in the system of the sound image localization has become popular due to recent years object information added to content. オブジェクト情報は、各オブジェクト(音源)の位置を示す情報が含まれている。 Object information includes information indicating the position of each object (sound source).

特開2001−186599号公報 JP 2001-186599 JP

例えば小さなコンサートホールで録音されたコンテンツである場合において、聴取環境において大きなコンサートホールの音場効果の付与を設定した場合、間接音は広がるが、直接音(各音源)の位置が変化しない。 In the case for example, recorded contents in a small concert hall, if you set the application of sound effect of a large concert hall in a listening environment, indirect sound spreads, does not change the position of the direct sound (each sound source).

そこで、この発明は、適切な音像位置を付与するオーディオ信号処理装置を提供することを目的とする。 Therefore, this invention aims to provide an audio signal processing apparatus that applies an appropriate sound image position.

この発明のオーディオ信号処理装置は、コンテンツに係るオーディオ信号を入力するオーディオ信号入力手段と、前記コンテンツに含まれるオブジェクトの位置情報を取得する取得手段と、前記位置情報に基づいて前記オブジェクトの音像定位を行う音像定位処理部と、前記オーディオ信号に音場効果を付与する処理を行う音場付与部と、聴取環境の変更指示を受け付ける受付部と、前記受付部で受け付けた聴取環境の変更指示に応じて、前記音像定位処理部の音像位置を制御する制御部と、を備えている。 An audio signal processing apparatus of the present invention, an audio signal input means for inputting an audio signal according to the content, an acquisition unit that acquires position information of an object included in the content, the sound image localization of the object based on the position information a sound image localization processing unit that performs, the sound field applying unit that performs a process of giving a sound field effect to the audio signal, and a receiving unit that receives an instruction to change the listening environment, the change instruction of listening environment accepted by the accepting section Correspondingly, a, and a control unit for controlling the sound image position of the sound image localization processing unit.

このように、本発明のオーディオ信号処理装置は、オブジェクト情報に含まれる位置情報を用いて、音像位置の再配置を行う。 Thus, an audio signal processing apparatus of the present invention, by using the position information included in the object information, rearranges the positions of sound images. 例えば、聴取環境の変更指示として大コンサートホールの音響空間の指定を受け付けた場合、聴取位置から遠い位置にオブジェクトの位置を再配置することで、当該大コンサートホールの規模に相当する位置に各オブジェクトを再配置する。 For example, when receiving a specification of the acoustic space of a large concert hall as a change instruction of the listening environment, by rearranging the position of the object from the listening position distant position, each object at a position corresponding to the size of the large concert hall to relocate. また、オーディオ信号処理装置は、聴取環境の変更指示として指定された聴取位置に応じて、各オブジェクトの位置を再配置する。 The audio signal processing apparatus according to the specified listening position as a change instruction of the listening environment, to rearrange the position of each object. 例えば、舞台のすぐ前の位置に聴取位置が指定された場合、オブジェクトの位置を聴取位置に近い位置に再配置し、舞台から遠い位置に聴取位置が指定された場合には、オブジェクトの位置を聴取位置から遠い位置に再配置する。 For example, if the listening position in the stage immediately preceding position is specified, then rearrange the position of the object at a position close to the listening position, when the listening position farther from the stage is specified, the position of the object relocating the listening position distant position. したがって、選択された音響空間の音場環境だけでなく、直接音に相当する音源の位置も実際の音響空間に近づけることができる。 Therefore, it is possible to approximate the sound field environment as well, also the actual acoustic space position of the sound source corresponding to the direct sound of the selected acoustic space.

また、オーディオ信号処理装置は、前記オーディオ信号に音場効果を付与するための音場効果情報を聴取位置毎に記憶する記憶手段を備え、前記制御部は、前記受付部で受け付けた聴取位置の設定に応じて前記記憶手段から前記音場効果情報を読み出し、前記音場付与部に設定することが好ましい。 The audio signal processing apparatus includes a storage means for storing for each listening position the sound field effect information for applying sound field effects on the audio signal, wherein the control unit of the listening position accepted by the accepting section reading the sound effect information from the storage means in accordance with the setting, it is preferable to set the sound field applying unit.

これにより、例えば、舞台のすぐ前の位置における音場、舞台から遠い位置における音場等を再現することができる。 As a result, for example, the sound field in the stage just before the position, it is possible to reproduce the sound field and the like in a position far from the stage.

また、制御部は、前記記憶手段に記憶されている音場効果情報を複数読み出して、読み出した各音場効果情報から対応する聴取位置の音場効果情報を補間することも可能である。 The control unit, said storage means reads out a plurality of sound effect information stored, it is also possible to interpolate the sound effect information of the listening position from the corresponding read each sound field effect information.

例えば、舞台のすぐ前の位置では、直接音が大きくなり、舞台から遠い位置では間接音が大きくなる。 For example, in the immediately previous position of the stage, the direct sound is increased, indirect sound is increased at a position far from the stage. したがって、例えばホール中央の聴取位置が選択された場合には、舞台のすぐ前の位置における測定結果に対応する音場効果情報と舞台から遠い位置に置ける測定結果に対応する音場効果情報とを平均化することで、ホール中央の聴取位置に対応する音場効果情報を補間することもできる。 Thus, for example, when the listening position of the hole center is selected, the sound field effect information corresponding to the measurement result to put farther from the sound effect information and the stage corresponding measurement results in the stage immediately preceding position by averaging, it is also possible to interpolate the sound field effect information corresponding to the listening position of the hole center.

聴取者の向いている方向を検出する方向検出部を備え、 Comprising a direction detector for detecting a direction facing the listener,
前記制御部は、前記方向検出手段で検出した聴取者の向いている方向に応じて前記音像定位処理部の音像位置を制御する請求項1乃至請求項4のいずれかに記載のオーディオ信号処理装置。 Wherein the control unit, an audio signal processing apparatus according to any one of claims 1 to 4 for controlling the sound image position of the sound image localization processing section according to the direction facing the listener detected by the direction detecting means .

この発明によれば、適切な音像位置を付与することができる。 According to the present invention, it is possible to impart an appropriate sound image position.

聴取環境の模式図である。 It is a schematic diagram of the listening environment. 第1実施形態に係るオーディオ信号処理装置のブロック図である。 It is a block diagram of an audio signal processing apparatus according to the first embodiment. DSPおよびCPUの機能的構成を示したブロック図である。 It is a block diagram showing a functional configuration of a DSP and CPU. 第1実施形態の変形例に係るDSPの機能的構成を示すブロック図である。 It is a block diagram showing a functional configuration of a DSP according to a modification of the first embodiment. 第2実施形態の変形例に係るDSPの機能的構成を示すブロック図である。 It is a block diagram showing a functional configuration of a DSP according to a modification of the second embodiment. 分析部の機能的構成を示すブロック図である。 It is a block diagram showing a functional configuration of the analyzing unit. 第1実施形態(または第2実施形態)の変形例1に係るオーディオ信号処理部14の機能的構成を示すブロック図である。 It is a block diagram showing a functional configuration of the audio signal processing unit 14 according to the first modification of the first embodiment (or second embodiment). 第3実施形態に係る聴取環境の模式図である。 It is a schematic diagram of a listening environment according to the third embodiment. 第3実施形態におけるオーディオ信号処理装置のブロック図である。 It is a block diagram of an audio signal processing apparatus according to the third embodiment.

(第1実施形態) (First Embodiment)
図1は、第1実施形態における聴取環境の模式図であり、図2は、第1実施形態におけるオーディオ信号処理装置1のブロック図である。 Figure 1 is a schematic diagram of a listening environment in the first embodiment, FIG. 2 is a block diagram of an audio signal processing apparatus 1 in the first embodiment. 本実施形態では、一例として平面視して正方形状の部屋内において、中心位置が聴取位置となっている聴取環境を示す。 In the present embodiment, in plan view to the square of the room as an example, a listening environment in which the center position is in the listening position. 聴取位置の周囲には、複数のスピーカ(この例では、5つのスピーカ21L、スピーカ21R、スピーカ21C、スピーカ21SL、およびスピーカ21SR)が設置されている。 Around the listening position (in this example, five speakers 21L, speaker 21R, the speaker 21C, speaker 21SL, and a speaker 21SR) a plurality of loudspeakers are installed. スピーカ21Lは、聴取位置の前方左側、スピーカ21Rは、聴取位置の前方右側、スピーカ21Cは、聴取位置の前方中央、スピーカ21SLは、聴取位置の後方左側、スピーカ21SRは、聴取位置の後方右側に設置されている。 Speakers 21L has a front left listening position, the speaker 21R is front right side of the listening position, the speaker 21C is front center of the listening position, the speaker 21SL is backward left listening position, the speaker 21SR is behind the right side of the listening position is set up. スピーカ21L、スピーカ21R、スピーカ21C、スピーカ21SL、およびスピーカ21SRは、それぞれオーディオ信号処理装置1に接続されている。 Speakers 21L, speaker 21R, the speaker 21C, speaker 21SL, and the speaker 21SR are connected to the audio signal processing apparatus 1, respectively.

オーディオ信号処理装置1は、入力部11、デコーダ12、レンダラ13、オーディオ信号処理部14、D/Aコンバータ15、アンプ(AMP)16、CPU17、ROM18、およびRAM19を備えている。 Audio signal processing apparatus 1 includes an input unit 11, a decoder 12, a renderer 13, an audio signal processing section 14, D / A converter 15, an amplifier (AMP) 16, CPU17, ROM18, and RAM 19.

CPU17は、ROM18に記憶されている動作用プログラム(ファームウェア)をRAM19に読み出し、オーディオ信号処理装置1を統括的に制御する。 CPU17 reads program operation stored in the ROM18 and (firmware) to RAM 19, and performs overall control of the audio signal processing apparatus 1.

入力部11は、HDMI(登録商標)等のインタフェースを有する。 The input unit 11 has an interface such as HDMI (registered trademark). 入力部11は、プレーヤ等からコンテンツデータを入力し、デコーダ12に出力する。 The input unit 11 inputs the content data from the player, etc., and outputs to the decoder 12.

デコーダ12は、例えばDSPからなり、コンテンツデータをデコードし、オーディオ信号を抽出する。 Decoder 12, for example, a DSP, decodes the content data, extracts the audio signal. なお、本実施形態においては、オーディオ信号は特に記載がない限り全てデジタルオーディオ信号として説明する。 In the present embodiment, the audio signal are all described as a digital audio signal, unless otherwise noted.

デコーダ12は、入力されたコンテンツデータがオブジェクトベース方式に対応するものである場合、オブジェクト情報を抽出する。 Decoder 12, if the input content data corresponds to the object-based scheme, extracts the object information. オブジェクトベース方式は、コンテンツに含まれるオブジェクト(音源)を、独立したオーディオ信号として格納したものである。 Object-based system is one in which the object (sound source) included in the content, and stored as a separate audio signal. オブジェクトベース方式は、後段のレンダラ13によって当該オブジェクトのオーディオ信号を各チャンネルのオーディオ信号に分配することで(オブジェクト単位での)音像定位を行うものである。 Object-based scheme, the subsequent renderer 13 by distributing the audio signal of the object to the audio signal of each channel (in object units) and performs sound image localization. したがって、オブジェクト情報には、各オブジェクトの位置情報、およびレベル等の情報が含まれている。 Therefore, the object information includes information of the position information, and the level of each object.

レンダラ13は、例えばDSPからなり、オブジェクト情報に含まれている各オブジェクトの位置情報に基づいて、音像定位処理を行う。 Renderer 13, for example, a DSP, based on the position information of each object included in the object information, the sound image localization process. すなわち、レンダラ13は、各オブジェクトの位置情報に対応する位置に音像が定位するように、デコーダ12から出力される各オブジェクトのオーディオ信号を各チャンネルのオーディオ信号に所定のゲインで分配する。 That is, the renderer 13, as a sound image is localized at a position corresponding to the position information of each object, and distributes the audio signals of each object output from the decoder 12 with a predetermined gain to the audio signal of each channel. このようにして、チャンネルベース方式のオーディオ信号が生成される。 In this manner, the audio signal of the channel based scheme is generated. 生成された各チャンネルのオーディオ信号は、オーディオ信号処理部14に出力される。 Audio signals of respective channels thus generated are output to the audio signal processing section 14.

オーディオ信号処理部14は、例えばDSPからなり、CPU17の設定に応じて、入力された各チャンネルのオーディオ信号に所定の音場効果を付与する処理を行う。 Audio signal processing unit 14, for example, a DSP, in accordance with the setting of the CPU 17, performs a process of giving a predetermined sound effect to the audio signal of each channel that is input.

音場効果は、例えば入力されたオーディオ信号から生成される擬似反射音からなる。 Sound effect consists pseudo reflected sound generated from, for example, the input audio signal. 生成された擬似反射音は、元のオーディオ信号に加算されて出力される。 The generated pseudo-reflected sound is output is added to the original audio signal.

図3は、オーディオ信号処理部14およびCPU17の機能的構成を示したブロック図である。 Figure 3 is a block diagram showing a functional configuration of the audio signal processing section 14 and the CPU 17. オーディオ信号処理部14は、機能的に、加算処理部141、音場効果音生成部142、および加算処理部143を備えている。 Audio signal processing section 14 includes, functionally, and an addition processing section 141, sound effect sound generation unit 142 and the addition unit 143.

加算処理部141は、各チャンネルのオーディオ信号を所定のゲインで合成して、モノラル信号にミックスダウンする。 Addition processing section 141, the audio signals of the channels are combined by a predetermined gain, mixing down to mono signals. 各チャンネルのゲインは、CPU17における制御部171により設定される。 Gain of each channel is set by the control unit 171 in the CPU 17. 一般的に、音源がセリフ等の音声の場合には音場効果を抑えることが好ましいため、音楽等の成分が多く含まれることの多いフロントチャンネルやサラウンドチャンネルのゲインは高く、セリフ等の成分が多く含まれることの多いセンタチャンネルのゲインは低く設定されている。 Generally, because preferable to suppress the sound field effect when the sound source is a sound serif, etc., a gain of more front channels and the surround channels be include many components such as music is high, the component of words such as gain of the center channel, which is often included many of which are set low.

音場効果音生成部142は、例えばFIRフィルタからなり、入力されたオーディオ信号に所定のインパルス応答を示すパラメータ(フィルタ係数)を畳み込むことで、擬似反射音を生成する。 Sound effect sound generator 142, for example, a FIR filter, by convolving the parameters (filter coefficients) indicating a predetermined impulse response to an input audio signal, generating a pseudo-reflected sound. また、音場効果音生成部142は、生成した擬似反射音を各チャンネルに分配する処理を行う。 Also, the sound field effect tone generation unit 142 performs processing for distributing the generated pseudo reflected sound to each channel. フィルタ係数および分配比率は、CPU17における制御部171により設定される。 Filter coefficient and distribution ratio is set by the control unit 171 in the CPU 17.

CPU17は、機能的に、制御部171とオブジェクト情報取得部172とを備えている。 CPU17 is functionally includes a control unit 171 and the object information acquisition unit 172. 制御部171は、ROM18に記憶された音場効果情報に基づいて、音場効果音生成部142に、上記フィルタ係数、および各チャンネルへの分配比率等を設定する。 Control unit 171, based on the sound effect information stored in the ROM 18, the sound effect sound generating unit 142 sets the distribution ratio and the like of the filter coefficient, and each channel.

音場効果情報は、ある音響空間で発生する反射音群のインパルス応答、および反射音群の音源位置を示す情報を含むものである。 Sound effect information includes information indicating a certain impulse response of the reflected sound group occurring in the acoustic space, and the sound source position of the reflected sound group. 例えば、スピーカ21Lおよびスピーカ21SLに、所定の遅延量および所定のゲイン比率(例えば1:1)でオーディオ信号を供給すると、聴取位置の左側に擬似反射音を生成することができる。 For example, the speaker 21L and the speaker 21SL, predetermined delay amount and a predetermined gain ratio (e.g. 1: 1) to provide an audio signal in, it is possible to generate a pseudo-reflected sound on the left side of the listening position. 音場効果情報は、例えば前方上方側の音場を演出するプレゼンス音場用の設定や、サラウンド側の音場を演出するサラウンド音場用の設定がある。 Sound effect information, for example, set and for presence sound field to produce a sound field of the front upper side, there is a setting for surround sound field to produce a surround side of the sound field. 選択する音場効果情報は、オーディオ信号処理装置1において1つに固定されていてもよいが、映画館やコンサートホール等、ユーザが所望する音響空間の指定を受け付けて、受け付けた音響空間に対応する音場効果情報を選択するようにしてもよい。 The sound effect information to be selected, may be fixed to one in the audio signal processing apparatus 1, such as a movie theater or concert hall, it accepts the designation of the acoustic space desired by the user, corresponding to the acoustic space accepted it is also possible to select the sound field effect information.

以上のようにして、音場効果音が生成され、加算処理部141において各チャンネルに加算される。 As described above, the sound field effect tone is generated and added to each channel in the addition processing unit 141. その後、各チャンネルのオーディオ信号は、D/Aコンバータ15においてアナログ信号に変換され、アンプ16で増幅された後に各スピーカに出力される。 Thereafter, the audio signals of each channel, the D / A converter 15 is converted into an analog signal, is output to the speaker after being amplified by the amplifier 16. これにより、聴取位置の周囲にコンサートホール等の所定の音響空間を模した音場が形成される。 Thus, the sound field that simulates a predetermined acoustic space such as a concert hall around the listening position is formed.

そして、本実施形態のオーディオ信号処理装置1は、デコーダ12で抽出されたオブジェクト情報をオブジェクト情報取得部172が取得し、オブジェクト毎に最適な音場を形成する。 Then, the audio signal processing apparatus 1 of the present embodiment acquires the object information extracted by the decoder 12 the object information acquisition unit 172, to form an optimum sound field for each object. 制御部171は、オブジェクト情報取得部172が取得したオブジェクト情報に含まれている位置情報に基づいて、加算処理部141の各チャンネルのゲインを設定する。 Control unit 171, based on the position information included in the object information object information acquiring unit 172 has acquired, sets the gain of each channel in the addition processing section 141. これにより、制御部171は、音場効果音生成部142における各チャンネルのゲインを制御する。 Thus, the control unit 171 controls the gain of each channel in the sound field effect tone generator 142.

例えば、時刻t=1のときに聴取位置の前方にオブジェクトが存在し、当該オブジェクトが時刻t=2のときに聴取位置付近に移動し、時刻t=3のときに聴取位置の後方に移動すると仮定する。 For example, there is an object in front of the listening position at time t = 1, when the object is moved to the vicinity of the listening position at time t = 2, is moved to the rear of the listening position at time t = 3 assume. 制御部171は、時刻t=1のとき、フロントチャンネルのゲインを最大に設定し、加算処理部141のサラウンドチャンネルのゲインを最小に設定する。 Control unit 171, at time t = 1, the gain of the front channel is set to the maximum, set the gain of the surround channels of the addition unit 141 to a minimum. 制御部171は、時刻t=2のとき、加算処理部141のフロントチャンネルのゲインおよびサラウンドチャンネルのゲインを同じ程度に設定する。 Control unit 171, at time t = 2, sets the gain of the gain and the surround channels of the front channel of the addition processing section 141 to the same extent. その後、制御部171は、時刻t=3のとき、加算処理部141のサラウンドチャンネルのゲインを最大に設定し、フロントチャンネルのゲインを最小に設定する。 Thereafter, the control unit 171, at time t = 3, the gain of the surround channel of addition processing section 141 is set to the maximum, set the gain of front channels to a minimum.

このように、オーディオ信号処理装置1は、移動するオブジェクトに対応して加算処理部141の各チャンネルのゲインを動的に変化させることで、形成される音場を動的に変化させることができる。 Thus, an audio signal processing apparatus 1, by dynamically changing the gain of each channel in the addition processing section 141 corresponds to the moving object, it is possible to dynamically change the sound field formed . よって、聴取者は、より立体感のある音場効果を得ることができる。 Thus, the listener can obtain the sound field effect a more three-dimensional appearance.

なお、本実施形態では、説明を容易にするために5つのスピーカ21L、スピーカ21R、スピーカ21C、スピーカ21SL、およびスピーカ21SRが設置され、5チャンネルのオーディオ信号を処理する例を示したが、スピーカの数およびチャンネルの数はこの例に限るものではない。 In the present embodiment, five loudspeakers 21L for ease of description, the speaker 21R, the speaker 21C, speaker 21SL, and a speaker 21SR is installed, an example of processing an audio signal of five channels, a speaker the number of the number and channel is not limited to this example. 実際には立体的な音像定位および音場効果を実現するために、高さの異なる位置にさらに多数のスピーカを設置することが好ましい。 Actually, in order to realize a three-dimensional sound localization and sound effects, it is preferable to install a larger number of speakers at different positions in height.

なお、上述の例では、取得した位置情報に基づいたゲインで各チャンネルのオーディオ信号を合成し、所定のインパルス応答を示すパラメータ(フィルタ係数)を畳み込むことで、擬似反射音を生成する処理を行ったが、各チャンネルのオーディオ信号に個別のフィルタ係数を畳み込むことで音場効果を付与する処理を行ってもよい。 In the above example, it synthesizes the audio signals of each channel by the gain based on the obtained position information, by convolving the parameters (filter coefficients) indicating a predetermined impulse response, performing a process of generating a pseudo-reflected sound and it may be subjected to a treatment for imparting sound effects by convolving the individual filter coefficients to an audio signal of each channel. この場合、ROM18には、オブジェクトの位置に応じた複数のフィルタ係数を記憶しておき、制御部171は、取得した位置情報に基づいて、ROM18から対応するフィルタ係数を読み出して音場効果音生成部142に設定する。 In this case, the ROM 18, stores a plurality of filter coefficients corresponding to the position of the object, the control unit 171, based on the acquired position information, generating the sound field effect tone reads the filter coefficient corresponding the ROM 18 It is set to part 142. また、制御部171は、取得した位置情報に基づいたゲインで各チャンネルのオーディオ信号を合成し、かつ取得した位置情報に基づいてROM18から対応するフィルタ係数を読み出して音場効果音生成部142に設定する処理を行ってもよい。 The control unit 171 synthesizes the audio signals of each channel by the gain based on the obtained position information, and the sound effect sound generation unit 142 reads the filter coefficient from the corresponding ROM18 based on the acquired position information the process of setting may be performed.

(第2実施形態) (Second Embodiment)
次に、図4は、第2実施形態に係るオーディオ信号処理装置1Bの構成を示すブロック図である。 Next, FIG. 4 is a block diagram showing a configuration of an audio signal processing apparatus 1B according to the second embodiment. 図2に示した第1実施形態に係るオーディオ信号処理装置1と共通する構成については同一の符号を付し、説明を省略する。 The same reference numerals are assigned to the same constituting an audio signal processing apparatus 1 according to the first embodiment shown in FIG. 2, the description thereof is omitted. また、第2実施形態に係る聴取環境は、図1に示した第1実施形態に係る聴取環境と同様である。 Moreover, listening environment according to the second embodiment is the same as the listening environment according to the first embodiment shown in FIG.

オーディオ信号処理装置1Bにおけるオーディオ信号処理部14は、図3に示した機能に加えて、分析部91の機能を備えている。 Audio signal processing unit 14 in the audio signal processing apparatus 1B, in addition to the functions shown in FIG. 3, has a function of analyzer 91. 実際には、分析部91は、別のハードウェア(DSP)として実現されるものであるが、第2実施形態では説明のため、オーディオ信号処理部14の機能として実現されるものとする。 In practice, the analysis unit 91, but is realized as a separate hardware (DSP), in the second embodiment for illustration, assumed to be implemented as a function of the audio signal processing section 14. また、分析部91は、CPU17によるソフトウェアで実現することも可能である。 The analysis unit 91, it is also possible to implement in software by CPU 17.

分析部91は、各チャンネルのオーディオ信号を分析することにより、コンテンツに含まれているオブジェクト情報を抽出する。 Analyzer 91, by analyzing the audio signal of each channel, extracts the object information included in the content. すなわち、第2実施形態のオーディオ信号処理装置1Bでは、CPU17がデコーダ12からオブジェクト情報を取得しない(取得できない)場合に、各チャンネルのオーディオ信号を分析することでオブジェクト情報を推定するものである。 That is, the audio signal processing device 1B of the second embodiment in that CPU17 estimates the object information by when not acquire the object information from the decoder 12 (not be acquired), analyzing the audio signal of each channel.

図5は、分析部91の機能的構成を示すブロック図である。 Figure 5 is a block diagram showing a functional configuration of the analyzing unit 91. 分析部91は、帯域分割部911と計算部912とを備えている。 Analyzer 91 is provided with a band division unit 911 and the calculating unit 912. 帯域分割部911は、各チャンネルのオーディオ信号を所定の周波数帯域に分割する。 Band division unit 911 divides the audio signal of each channel to a predetermined frequency band. この例では、低域(LPF)、中域(BPF)、および高域(HPF)の3つの帯域に分割する例を示す。 In this example, an example of dividing into three bands of the low-pass (LPF), midrange (BPF), and high (HPF). ただし、分割する帯域は3つに限るものではない。 However, the band to split is not limited to three. 帯域分割された各チャンネルのオーディオ信号は、計算部912に入力される。 Audio signals of the channels which are band division is input to the calculation section 912.

計算部912は、分割された各帯域において、チャンネル間の相互相関を算出する。 Calculation unit 912 in each band that is divided, and calculates the cross-correlation between channels. 算出された相互相関は、CPU17のオブジェクト情報取得部172に入力される。 Cross-correlation calculated is inputted to the object information acquisition unit 172 of the CPU 17. また、計算部912は、各チャンネルのオーディオ信号のレベルを検出するレベル検出部としても機能する。 The calculation unit 912 also functions as a level detector for detecting the level of the audio signal of each channel. 各チャンネルのオーディオ信号のレベル情報もオブジェクト情報取得部172に入力される。 Level information of the audio signals of the respective channels are input to the object information acquisition unit 172.

オブジェクト情報取得部172は、入力された相関値および各チャンネルのオーディオ信号のレベル情報に基づいて、オブジェクトの位置を推定する。 Object information acquisition unit 172, based on the level information of the input correlation values ​​and audio signal of each channel, estimates the position of the object.

例えば、図6(A)に示すように、低域(Low)におけるLチャンネルとSLチャンネルの相関値が高く(所定の閾値を超え)、図6(B)に示すように、低域(Low)におけるLチャンネルのレベルおよびSLチャンネルのレベルが高い(所定の閾値を超える)場合、図6(C)に示すように、スピーカ21Lおよびスピーカ21SLの間にオブジェクトが存在するものとする。 For example, as shown in FIG. 6 (A), high correlation values ​​L channel and SL channels in the low frequency range (Low) (exceeds a predetermined threshold value), as shown in FIG. 6 (B), low frequency (Low high levels of levels and SL channels of L channel in) (above a predetermined threshold), as shown in FIG. 6 (C), it is assumed that the object is present between the speaker 21L and the speaker 21SL.

また、高域(High)においては、相関の高いチャンネルは存在しないが、中域(Mid)のCチャンネルにおいて高レベルのオーディオ信号が入力されている。 In the high band (High), but no higher channel correlation, high-level audio signal is inputted in the C channel of the midrange (Mid). したがって、図6(C)に示すように、スピーカ21Cの付近にもオブジェクトが存在するものとする。 Accordingly, as shown in FIG. 6 (C), it is assumed that the object is present in the vicinity of the speaker 21C.

この場合、制御部171は、図3における加算処理部141に設定するゲインについて、LチャンネルのゲインおよびSLチャンネルのゲインを同じ程度(0.5:0.5)に設定するとともに、Cチャンネルのゲインを最大(1)に設定する。 In this case, the control unit 171, the gain to be set to addition processing section 141 in FIG. 3, the gain of the gain and SL channels of L channel same degree: it sets the (0.5 0.5), the C channel the gain is set to maximum (1). 他のチャンネルのゲインは、最小に設定される。 Gain of the other channels are set to a minimum. これにより、各オブジェクトの位置に応じた最適な寄与率を設定した音場効果音が生成される。 Thus, the sound field effect tone to set the optimal contribution in accordance with the position of each object is generated.

ただし、Cチャンネルにおける高レベルの信号は、セリフ等の音声に関するものである可能性があるため、制御部171は、オブジェクトの種類に関する情報も参照してゲインを設定することが好ましい。 However, the high level of the signal at C channels, there is a possibility relates voice speech like, the control unit 171, it is preferable to set the gain and browse the information about the type of the object. オブジェクトの種類に関する情報については、後述する。 For more information about the type of object, it will be described later.

また、このとき、制御部171は、帯域毎に設定された音場効果情報をROM18から読み出し、帯域毎に個別のパラメータ(フィルタ係数)を音場効果音生成部142に設定することが好ましい。 At this time, the control unit 171 reads out the sound effect information set for each band from the ROM 18, it is preferable to set the individual parameters (filter coefficients) to the sound field effect tone generation unit 142 for each band. 例えば低域については残響時間が短く、高域については残響時間が長くなるように設定される。 For example short reverberation time for low band, for the high frequency is set such that the reverberation time becomes longer.

なお、チャンネルの数が多いほど、オブジェクトの位置は、正確に推定することができる。 Incidentally, as the number of channels is large, the position of the object can be estimated accurately. この例では、各スピーカが全て同じ高さに配置され、5チャンネルのオーディオ信号の相関値を算出する例を示しているが、実際には立体的な音像定位および音場効果を実現するために、高さの異なる位置にさらに多数のスピーカを設置し、さらに多数のチャンネル間の相関値を算出するため、音源の位置はほぼ一意に決定することが可能である。 In this example, the speakers are arranged in all the same height, because it shows an example of calculating the correlation value of the 5-channel audio signals, in practice to realize a three-dimensional sound localization and sound effect , a greater number of loudspeakers installed at different positions in height, for further calculating a number of correlation values ​​between channels, position of sound source can be determined almost uniquely.

なお、この実施形態においては、帯域毎に各チャンネルのオーディオ信号を分割して、帯域毎にオブジェクトの位置情報を取得する例を示したが、帯域毎にオブジェクトの位置情報を取得する構成は、本発明において必須の構成ではない。 Incidentally, in this embodiment, by dividing the audio signal of each channel for each band, an example of acquiring the position information of the objects for each band, configured to acquire the position information of the objects for each band, not essential in this invention.

(変形例1) (Modification 1)
次に、図7は、第1実施形態(または第2実施形態)の変形例1に係るオーディオ信号処理部14の機能的構成を示すブロック図である。 Next, FIG. 7 is a block diagram showing a functional configuration of the audio signal processing unit 14 according to the first modification of the first embodiment (or second embodiment). 変形例1に係るオーディオ信号処理部14は、加算処理部141A、第1音場効果音生成部142A、加算処理部141B、第2音場効果音生成部142B、および加算処理部143を備えている。 Audio signal processing unit 14 according to the first modification, addition processing section 141A, the first sound effect sound generating portion 142A, and includes addition processing section 141B, a second sound effect sound generation unit 142B, and the addition processing unit 143 there. なお、加算処理部141Bおよび第2音場効果音生成部142Bは、それぞれ実際には別のハードウェア(DSP)として構成されるが、この例では説明のため、それぞれオーディオ信号処理部14の機能として実現されるものとする。 Incidentally, the addition processing section 141B and the second sound field effect tone generation unit 142B is constituted as a separate hardware (DSP) actually each, for purposes of explanation in this example, the function of each audio signal processing unit 14 before the process is implemented as a.

加算処理部141Aは、各チャンネルのオーディオ信号を所定のゲインで合成して、モノラル信号にミックスダウンする。 Addition processing section 141A includes an audio signal of each channel are combined at a predetermined gain, mixing down to mono signals. 各チャンネルのゲインは、固定されている。 Gain of each channel is fixed. 例えば、上述したように、フロントチャンネルやサラウンドチャンネルのゲインは高く、センタチャンネルのゲインは低く設定されている。 For example, as discussed above, the gain of front channels and the surround channels is high, the gain of the center channel is set lower.

第1音場効果音生成部142Aは、入力されたオーディオ信号に所定のインパルス応答を示すパラメータ(フィルタ係数)を畳み込むことで、擬似反射音を生成する。 The first sound effect sound generating unit 142A, by convolving the parameters (filter coefficients) indicating a predetermined impulse response to an input audio signal, generating a pseudo-reflected sound. また、第1音場効果音生成部142Aは、生成した擬似反射音を各チャンネルに分配する処理を行う。 The first sound effect sound generating unit 142A performs processing for distributing the generated pseudo reflected sound to each channel. フィルタ係数および分配比率は、制御部171により設定される。 Filter coefficient and distribution ratio is set by the control unit 171. 図3の例と同様に、映画館やコンサートホール等、ユーザが所望する音響空間の指定を受け付けて、受け付けた音響空間に対応する音場効果情報を選択するようにしてもよい。 As in the example of FIG. 3, such as a movie theater or concert hall, the user accepts the designation of a desired acoustic space, it may be selected sound field effect information corresponding to the acoustic space accepted.

一方、制御部171は、オブジェクト情報取得部172が取得したオブジェクト情報に含まれている位置情報に基づいて、加算処理部141Bの各チャンネルのゲインを設定する。 On the other hand, the control unit 171, based on the position information included in the object information object information acquiring unit 172 has acquired, sets the gain of each channel in the addition processing section 141B. これにより、制御部171は、第2音場効果音生成部142Bにおける各チャンネルのゲインを制御する。 Thus, the control unit 171 controls the gain of each channel in the second sound field effect tone generation unit 142B.

第1音場効果音生成部142Aで生成された音場効果音と、第2音場効果音生成部142Bで生成された音場効果音と、は、それぞれ加算処理部143で各チャンネルのオーディオ信号に加算される。 And sound effect sound generated by the first sound field effect tone generation unit 142A, the sound effect sound generated by the second sound field effect tone generation unit 142B, the audio of each channel at each addition processor 143 It is added to the signal.

よって、変形例に係るオーディオ信号処理部14では、従来のように各チャンネルの寄与率を固定した音場効果音を生成しながらも、各オブジェクトの位置に応じた最適な寄与率を設定した音場効果音が生成される。 Therefore, the audio signal processing unit 14 according to the modification, while generating the conventional sound field effect tone with a fixed contribution of each channel as the sound that has been set an optimum contribution according to the position of each object If sound effect is generated.

(変形例2) (Modification 2)
次に、第1実施形態(または第2実施形態)の変形例2に係るオーディオ信号処理装置について説明する。 It will now be described audio signal processing apparatus according to a second modification of the first embodiment (or second embodiment). 変形例2に係るオーディオ信号処理部14およびCPU17は、図3に示した構成(または図7に示した構成)と同様の機能的構成を備えている。 Audio signal processing section 14 and the CPU17 according to the second modification has the same functional configuration as the configuration shown in FIG. 3 (or the configuration shown in FIG. 7). ただし、変形例2に係るオブジェクト情報取得部172は、オブジェクト情報として、位置情報に加えて、オブジェクトの種類を示す情報を取得する。 However, the object information acquisition unit 172 according to the second modification, as the object information, in addition to the location information, acquires information indicating the type of object.

オブジェクトの種類を示す情報は、例えばセリフ、楽器、効果音、等の音源の種類を示す情報である。 Information that indicates the type of object, for example serif, musical instruments, sound effects, is information indicating the type of the sound source and the like. オブジェクトの種類を示す情報は、コンテンツデータに含まれている場合には、デコーダ12が抽出するが、分析部91における計算部912により推定することも可能である。 Information indicating the type of object, if included in the content data, but the decoder 12 extracts, can also be estimated by calculating unit 912 in the analysis unit 91.

例えば、分析部91における帯域分割部911は、入力されたオーディオ信号から、第1フォルマント(200Hz〜500Hz)、および第2フォルマント(2kHz〜3kHz)の帯域を抽出する。 For example, the band division section 911 in the analysis unit 91, the input audio signal to extract the band of the first formant (200Hz~500Hz), and the second formant (2kHz~3kHz). 仮に、入力信号成分にセリフに関する成分が多く含まれる場合、またはセリフに関する成分しか含まれていない場合には、これら第1フォルマントおよび第2フォルマントの成分が他の帯域よりも多く含まれる。 Assuming that ingredients are contained many related words in the input signal components, or if not only contains components relating to speech, the components of the first formant and second formant is contained more than the other bands.

したがって、オブジェクト情報取得部172は、全周波数帯域の平均レベルに比べて、これら第1フォルマントまたは第2フォルマントの成分のレベルが高い場合、オブジェクトの種類がセリフであると判断する。 Therefore, the object information acquisition unit 172, compared to the average level of the entire frequency band, if they first formant or second formant component level is high, it is determined that the object type is speech.

制御部171は、オブジェクトの種類に基づいて加算処理部141(または加算処理部141B)のゲインを設定する。 Control unit 171 sets the gain of the addition processing section 141 (or the addition processing unit 141B) based on the type of object. 例えば、図6(C)に示したように、聴取位置の左側にオブジェクトが存在し、当該オブジェクトの種類がセリフである場合に、LチャンネルおよびSLチャンネルのゲインを低く設定する。 For example, as shown in FIG. 6 (C), There are objects on the left side of the listening position, the type of the object when it is speech, setting a low gain of the L channel and SL channels. また、図6(C)に示したように、聴取位置の前方にオブジェクトが存在し、当該オブジェクトの種類がセリフである場合に、Cチャンネルのゲインを低く設定する。 Further, as shown in FIG. 6 (C), There are objects in front of the listening position, the type of the object when it is speech, setting a low gain of the C-channel.

(変形例3) (Modification 3)
第2実施形態の変形例3として、オーディオ信号処理装置1Bは、推定したオブジェクトの位置情報を用いて、表示部(不図示)にオブジェクトの位置を表示させることができる。 As a third modification of the second embodiment, an audio signal processing apparatus 1B uses the position information of the estimated object, it is possible to display the position of the object on the display unit (not shown). これにより、ユーザは、音源の移動を視覚的に把握することができる。 Thus, the user can visually grasp the movement of the sound source. 映画等のコンテンツの場合は、既に映像として表示部に音源に対応するものが表示されている場合が多いが、表示されている映像は主観的な視野である。 If the content such as a movie, have already often being displayed corresponds to the sound source to the display unit as an image, the image displayed is a subjective vision. そこで、オーディオ信号処理装置1Bは、例えば自身の位置を中心とした俯瞰図としてオブジェクトの位置を表示させることもできる。 Therefore, the audio signal processing device 1B can also display the position of the object as a bird's-eye view around the example its position.

(第3実施形態) (Third Embodiment)
次に、図8(A)および図8(B)は、第3実施形態に係る聴取環境の模式図であり、図9は、第3実施形態におけるオーディオ信号処理装置1Cのブロック図である。 Next, FIG. 8 (A) and FIG. 8 (B) is a schematic view of a listening environment according to the third embodiment, FIG. 9 is a block diagram of an audio signal processing apparatus 1C according to the third embodiment. 第3実施形態に係るオーディオ信号処理装置1Cは、図2に示したオーディオ信号処理装置1と同一のハードウェア構成を備えているが、さらにユーザインタフェース(I/F)81を備えている。 An audio signal processing apparatus 1C according to the third embodiment is provided with the same hardware configuration as the audio signal processing apparatus 1 shown in FIG. 2, further comprising a user interface (I / F) 81.

ユーザI/F81は、ユーザの操作を受け付けるインタフェースであり、例えばオーディオ信号処理装置の筐体に設けられたスイッチ、タッチパネル、またはリモコン等からなる。 User I / F 81 is an interface for accepting a user operation, formed of, for example, a switch provided on the housing of the audio signal processing device, a touch panel or remote controller. ユーザは、ユーザI/F81を介して、聴取環境の変更指示として、所望する音響空間を指定する。 The user, via the user I / F 81, as an instruction to change the listening environment, to specify a desired acoustic space.

CPU17の制御部171は、当該音響空間の指定を受け付けて、ROM18から指定された音響空間に対応する音場効果情報を読み出す。 Control unit 171 of the CPU17 accepts the designation of the acoustic space, reads the sound effect information corresponding to the acoustic space specified by the ROM 18. そして、制御部171は、当該音場効果情報に基づくフィルタ係数および各チャンネルへの分配比率等をオーディオ信号処理部14に設定する。 Then, the control unit 171 sets the distribution ratio and the like of the filter coefficients and the channel based on the sound effect information to the audio signal processing section 14.

さらに、制御部171は、オブジェクト情報取得部172で取得したオブジェクトの位置情報を、読み出した音場効果情報に対応する位置に変換し、レンダラ13に変換後の位置情報を出力することで、オブジェクトを再配置する。 Further, the control unit 171, by converting the position information of the object obtained by the object information acquiring unit 172, a position corresponding to the read sound effect information, and outputs the positional information converted to the renderer 13, the object to relocate.

すなわち、制御部171は、例えば大コンサートホールの音響空間の指定を受け付けた場合、聴取位置から遠い位置にオブジェクトの位置を再配置することで、当該大コンサートホールの規模に相当する位置に各オブジェクトを再配置する。 That is, the control unit 171, for example, when receiving a specification of the acoustic space of a large concert hall, by rearranging the position of the object farther from the listening position, each object at a position corresponding to the size of the large concert hall to relocate. レンダラ13は、制御部171から入力される位置情報に基づいて、音像定位処理を行う。 Renderer 13 based on the position information input from the control unit 171 performs the sound image localization process.

例えば、図8(A)に示すように、聴取位置の前方右側にオブジェクト51Rが配置され、聴取位置の前方左側にオブジェクト51Lが配置されている場合において、制御部171は、図8(B)に示すように、大コンサートホールの音響空間の指定を受け付けた場合、聴取位置から離れた位置にオブジェクト51Rおよびオブジェクト51Lを再配置する。 For example, as shown in FIG. 8 (A), the object 51R is disposed on the front right of the listening position, when the object 51L to the left front of the listening position is located, the control unit 171, and FIG. 8 (B) as shown in, when receiving a specification of the acoustic space of a large concert hall, to reposition the object 51R and object 51L at a position away from the listening position. これにより、選択された音響空間の音場環境だけでなく、直接音に相当する音源の位置も実際の音響空間に近づけることができる。 This makes it possible to approximate the sound field environment as well, also the actual acoustic space position of the sound source corresponding to the direct sound of the selected acoustic space.

また、制御部171は、オブジェクトの移動についても、選択された音響空間の規模に対応する移動量に変換する。 The control unit 171, for the movement of the object, into a movement amount corresponding to the size of the selected acoustic space. 例えば、演劇等では、演者は、動的に移動しながらセリフを発する。 For example, in the theater or the like, performers, it emits speech while dynamically move. 制御部171は、例えば大ホールの音響空間の指定を受け付けた場合、デコーダ12で抽出されるオブジェクトの移動量を大きくして、演者に対応するオブジェクトの位置を再配置する。 Control unit 171, for example, when receiving a specification of the acoustic space of a large hall, by increasing the moving amount of the object to be extracted by the decoder 12, to rearrange the position of the object corresponding to the performer. これにより、演者がその場所で演じているような臨場感を与えることができる。 As a result, it is possible to give a sense of realism, such as performers to play at that location.

また、ユーザI/F81は、聴取環境の変更指示として、聴取位置の指定を受け付けることも可能である。 The user I / F 81 as an instruction to change the listening environment, it is possible to accept the designation of the listening position. ユーザは、例えば、大ホールの音響空間を選択した後、さらに、ホールの中で、舞台のすぐ前の位置、2階席(斜め上から舞台を見下ろす位置)、出口付近の舞台から遠い位置等の聴取位置を選択する。 The user, for example, after selecting the acoustic space of a large hall, further, in the hall, the stage of the immediately previous position, second floor (overlooking the stage from obliquely position), a position far like from the stage near the exit to select the listening position.

制御部171は、指定された聴取位置に応じて、各オブジェクトを再配置する。 Control unit 171, in accordance with the specified listening position, rearranges the respective object. 例えば、舞台のすぐ前の位置に聴取位置が指定された場合、オブジェクトの位置を聴取位置に近い位置に再配置し、舞台から遠い位置に聴取位置が指定された場合には、オブジェクトの位置を聴取位置から遠い位置に再配置する。 For example, if the listening position in the stage immediately preceding position is specified, then rearrange the position of the object at a position close to the listening position, when the listening position farther from the stage is specified, the position of the object relocating the listening position distant position. また、例えば、2階席の位置が聴取位置として指定された場合(斜め上から舞台を見下ろす位置)、聴取者から見て斜め位置にオブジェクトの位置を再配置する。 For example, when the position of the second floor is designated as the listening position (looking down the stage from obliquely positioned), it rearranges the position of the object at an angle position when viewed from the listener.

また、聴取位置の指定を受け付ける場合、各位置における実際の音場(間接音の到来タイミングおよび方向)を測定し、音場効果情報としてROM18に格納しておくことが好ましい。 Further, when receiving designation of the listening position, the actual sound field at each position (arrival timing and direction of the indirect sound) is measured, it is preferable to store in the ROM18 as a sound effect information. 制御部171は、指定された聴取位置に対応する音場効果情報をROM18から読み出す。 Control unit 171 reads out the sound effect information corresponding to the specified listening position from ROM 18. これにより、舞台のすぐ前の位置における音場、舞台から遠い位置における音場等を再現することができる。 As a result, the sound field in the stage just before the position, it is possible to reproduce the sound field and the like in a position far from the stage.

なお、音場効果情報は、実際の音響空間における全ての位置で測定する必要はない。 Incidentally, the sound field effect information need not be measured at all positions in the actual acoustic space. 例えば、舞台のすぐ前の位置では、直接音が大きくなり、舞台から遠い位置では間接音が大きくなる。 For example, in the immediately previous position of the stage, the direct sound is increased, indirect sound is increased at a position far from the stage. したがって、例えばホール中央の聴取位置が選択された場合には、舞台のすぐ前の位置における測定結果に対応する音場効果情報と舞台から遠い位置に置ける測定結果に対応する音場効果情報とを平均化することで、ホール中央の聴取位置に対応する音場効果情報を補間することもできる。 Thus, for example, when the listening position of the hole center is selected, the sound field effect information corresponding to the measurement result to put farther from the sound effect information and the stage corresponding measurement results in the stage immediately preceding position by averaging, it is also possible to interpolate the sound field effect information corresponding to the listening position of the hole center.

(応用例) (Application Example)
応用例に係るオーディオ信号処理装置1Bは、ユーザが装着する端末に設けられたジャイロセンサ等を用いて、ユーザの向いている方向に関する情報を取得する。 An audio signal processing apparatus 1B according to the application example, by using a gyro sensor or the like provided in the terminal that the user wears, to obtain information about the direction facing the user. 制御部171は、ユーザの向いている方向に応じて各オブジェクトを再配置する。 Control unit 171 rearranges each object according to the direction facing the user.

例えば、制御部171は、聴取者が右側を向いている場合、聴取者から見て左側の位置にオブジェクトの位置を再配置する。 For example, the control unit 171, the listener may facing right, as viewed from the listener to relocate the position of the object in the left position.

また、応用例に係るオーディオ信号処理装置1BのROM18は、方向毎の音場効果情報を記憶している。 Further, ROM 18 of the audio signal processing apparatus 1B according to the application example, stores a sound effect information for each direction. 制御部171は、聴取者の向いている方向に応じてROM18から音場効果情報を読み出し、オーディオ信号処理部14に設定する。 Control unit 171 reads out the sound effect information from ROM18 depending on the direction facing the listener, and sets the audio signal processing section 14. これにより、ユーザは、あたかもその場所に居るような実在感を得ることができる。 As a result, the user, can be as if get the real feeling of being at that location.

1,1B,1C…オーディオ信号処理装置11…入力部12…デコーダ13…レンダラ14…オーディオ信号処理部15…D/Aコンバータ17…CPU 1, 1B, 1C ... audio signal processing device 11 ... input section 12 ... decoder 13 ... renderer 14 ... audio signal processing unit 15 ... D / A converter 17 ... CPU
18…ROM 18 ... ROM
19…RAM 19 ... RAM
21C,21L,21R,21SL,21SR…スピーカ51L,51R…オブジェクト91…分析部141,141A,141B…加算処理部142…音場効果音生成部142A…第1音場効果音生成部142B…第2音場効果音生成部143…加算処理部171…制御部172…オブジェクト情報取得部911…帯域分割部912…相関計算部 21C, 21L, 21R, 21SL, 21SR ... speaker 51L, 51R ... object 91 ... analyzer 141,141A, 141B ... adding unit 142 ... sound effect sound generating portion 142A ... first sound effect sound generating portion 142B ... first 2 sound effect sound generation unit 143 ... adding unit 171 ... control unit 172 ... object information acquiring unit 911 ... band divider 912 ... correlation calculator

Claims (4)

  1. コンテンツに係るオーディオ信号を入力するオーディオ信号入力手段と、 An audio signal input means for inputting an audio signal according to the content,
    前記コンテンツに含まれるオブジェクトの位置情報を取得する取得手段と、 An acquisition unit that acquires position information of an object included in the content,
    前記位置情報に基づいて前記オブジェクトの音像定位を行う音像定位処理部と、 A sound image localization processing unit that performs sound image localization of the object based on the position information,
    前記オーディオ信号に音場効果を付与する処理を行う音場付与部と、 A sound field applying unit that performs a process of giving a sound field effect to the audio signal,
    聴取環境の変更指示を受け付ける受付部と、 And a receiving unit that receives an instruction to change the listening environment,
    前記受付部で受け付けた聴取環境の変更指示に応じて、前記音像定位処理部の音像位置を制御する制御部と、 Depending on the change instruction listening environment accepted by the accepting section, and a control unit for controlling the sound image position of the sound image localization processing unit,
    を備えたことを特徴とするオーディオ信号処理装置。 Audio signal processing apparatus characterized by comprising a.
  2. 前記オーディオ信号に音場効果を付与するための音場効果情報を聴取位置毎に記憶する記憶手段を備え、 Comprising storage means for storing sound effect information for applying sound field effects on the audio signal for each listening position,
    前記受付部は、前記聴取環境の変更指示として聴取位置の設定を受け付け、 The accepting unit accepts the setting of the listening position as a change instruction of the listening environment,
    前記制御部は、前記受付部で受け付けた聴取位置の設定に応じて前記記憶手段から前記音場効果情報を読み出し、前記音場付与部に設定する請求項1に記載のオーディオ信号処理装置。 Wherein the control unit reads out the sound effect information from the storage means in accordance with the setting of the listening position accepted by the accepting unit, an audio signal processing apparatus according to claim 1 to be set in the sound field applying unit.
  3. 前記制御部は、前記記憶手段に記憶されている音場効果情報を複数読み出して、読み出した各音場効果情報から対応する聴取位置の音場効果情報を補間する請求項2に記載のオーディオ信号処理装置。 Wherein the control unit, an audio signal as claimed in claim 2 wherein said storage means reads out a plurality of sound effect information stored interpolates sound effect information of the listening position from the corresponding read each sound field effect information processing apparatus.
  4. 聴取者の向いている方向を検出する方向検出部を備え、 Comprising a direction detector for detecting a direction facing the listener,
    前記制御部は、前記方向検出手段で検出した聴取者の向いている方向に応じて前記音像定位処理部の音像位置を制御する請求項1乃至請求項3のいずれかに記載のオーディオ信号処理装置。 Wherein the control unit, an audio signal processing apparatus according to any one of claims 1 to 3 for controlling the sound image position of the sound image localization processing section according to the direction facing the listener detected by the direction detecting means .
JP2015008307A 2015-01-20 2015-01-20 Audio signal processor Pending JP2016134769A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015008307A JP2016134769A (en) 2015-01-20 2015-01-20 Audio signal processor

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015008307A JP2016134769A (en) 2015-01-20 2015-01-20 Audio signal processor
EP16151918.6A EP3048818B1 (en) 2015-01-20 2016-01-19 Audio signal processing apparatus
CN201610036844.0A CN105812991B (en) 2015-01-20 2016-01-20 Audio signal processing apparatus
US15/001,446 US9883317B2 (en) 2015-01-20 2016-01-20 Audio signal processing apparatus

Publications (1)

Publication Number Publication Date
JP2016134769A true JP2016134769A (en) 2016-07-25

Family

ID=56464606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015008307A Pending JP2016134769A (en) 2015-01-20 2015-01-20 Audio signal processor

Country Status (1)

Country Link
JP (1) JP2016134769A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018096954A1 (en) * 2016-11-25 2018-05-31 ソニー株式会社 Reproducing device, reproducing method, information processing device, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224600A (en) * 1989-02-27 1990-09-06 Sony Corp Sound field generating method
JPH0686400A (en) * 1992-09-01 1994-03-25 Fujitsu Ltd Sound image localization device
JP2000152399A (en) * 1998-11-12 2000-05-30 Yamaha Corp Sound field effect controller
JP2014522155A (en) * 2011-07-01 2014-08-28 ドルビー ラボラトリーズ ライセンシング コーポレイション System and method for adaptive audio signal generation, coding, and render

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224600A (en) * 1989-02-27 1990-09-06 Sony Corp Sound field generating method
JPH0686400A (en) * 1992-09-01 1994-03-25 Fujitsu Ltd Sound image localization device
JP2000152399A (en) * 1998-11-12 2000-05-30 Yamaha Corp Sound field effect controller
JP2014522155A (en) * 2011-07-01 2014-08-28 ドルビー ラボラトリーズ ライセンシング コーポレイション System and method for adaptive audio signal generation, coding, and render

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018096954A1 (en) * 2016-11-25 2018-05-31 ソニー株式会社 Reproducing device, reproducing method, information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
ES2453074T3 (en) Apparatus and method for generating output signals by using audio object based metadata
US6931134B1 (en) Multi-dimensional processor and multi-dimensional audio processor system
US5386082A (en) Method of detecting localization of acoustic image and acoustic image localizing system
JP5455657B2 (en) Method and apparatus for enhancing the reproduction of sound
US20120082319A1 (en) Spatial audio encoding and reproduction of diffuse sound
US5440639A (en) Sound localization control apparatus
JP6085029B2 (en) System for rendering and reproduction of the audio based on the object in various listening environments
ES2553382T3 (en) An apparatus and method for generating output data by expanding bandwidth
US8180062B2 (en) Spatial sound zooming
US20030007648A1 (en) Virtual audio system and techniques
US9264834B2 (en) System for modifying an acoustic space with audio source content
US6490359B1 (en) Method and apparatus for using visual images to mix sound
US8724821B2 (en) Sound field controller
EP1761110A1 (en) Method to generate multi-channel audio signals from stereo signals
JP2019097204A (en) System and method for providing 3D enhanced audio
JP5944840B2 (en) Stereophonic sound reproducing method and apparatus
US20110252950A1 (en) System and method for forming and rendering 3d midi messages
JP4597275B2 (en) Method and apparatus for projecting sound to the speaker
US9131305B2 (en) Configurable three-dimensional sound system
KR101195980B1 (en) Method and apparatus for conversion between multi-channel audio formats
JP2013211906A (en) Sound spatialization and environment simulation
JP2014506416A (en) Audio space reduction and environmental simulation
JP4674505B2 (en) Audio signal processing method, sound reproduction system
JP2005229618A (en) Audio rendering by dynamic sound source and listener positions
CN102387460B (en) Sound field controlling device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181226

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604