JP2015163909A - Acoustic reproduction device, acoustic reproduction method, and acoustic reproduction program - Google Patents

Acoustic reproduction device, acoustic reproduction method, and acoustic reproduction program Download PDF

Info

Publication number
JP2015163909A
JP2015163909A JP2014039269A JP2014039269A JP2015163909A JP 2015163909 A JP2015163909 A JP 2015163909A JP 2014039269 A JP2014039269 A JP 2014039269A JP 2014039269 A JP2014039269 A JP 2014039269A JP 2015163909 A JP2015163909 A JP 2015163909A
Authority
JP
Japan
Prior art keywords
sound
acoustic
frequency component
sound pressure
missing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014039269A
Other languages
Japanese (ja)
Inventor
幹篤 ▲角▼岡
幹篤 ▲角▼岡
Motoshi Sumioka
菜美 長田
Nami Osada
菜美 長田
佐々木 和雄
Kazuo Sasaki
和雄 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014039269A priority Critical patent/JP2015163909A/en
Publication of JP2015163909A publication Critical patent/JP2015163909A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stereophonic System (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an acoustic reproduction device, an acoustic reproduction method, and an acoustic reproduction program with which it is possible to accurately recognize the vertical direction of a sound even when acoustic data irreversibly compressed with a high compression rate where a high-frequency component tends to be lacking is decoded.SOLUTION: Provided is an acoustic reproduction device for reproducing the acoustic data transmitted from an acoustic broadcasting device, the acoustic reproduction device comprising: lacking frequency analysis means for analyzing the frequency component region of the acoustic data that is lacking due to acoustic compression by the acoustic broadcasting device; sound pressure analysis means for analyzing the sound pressure of a frequency band, among the lacking frequency component region, that adjoins a lowest frequency band and is lower than the lowest frequency band; and high frequency component addition means for adding the frequency component of a sound pressure equivalent to said sound pressure to the lacking frequency component region.

Description

本発明は、圧縮のために欠落した音響データの高周波成分を補って音響再生する音響再生装置、音響再生方法及び音響再生プログラムに関する。   The present invention relates to a sound reproducing device, a sound reproducing method, and a sound reproducing program that reproduce sound by supplementing high-frequency components of sound data that are missing due to compression.

音響信号を圧縮する音響符号化技術は、音響信号の伝送及び蓄積において極めて重要な技術である。   An acoustic coding technique for compressing an acoustic signal is an extremely important technique in transmission and storage of an acoustic signal.

例えば、ある地点の周囲の音響環境を、限られた数の仮想スピーカで集約して別の地点で再現する音響AR(Augmented Reality:拡張現実)システムがある。   For example, there is an acoustic AR (Augmented Reality) system in which an acoustic environment around a certain point is aggregated by a limited number of virtual speakers and reproduced at another point.

図1は、音響ARシステムの概略を説明するための図である。
図1に示すように、ネットワーク4を介して接続された三次元音響放送装置3及び三次元音響再生装置5を有する音響ARシステムでは、ある地点1の異なる方位に設置された複数のマイク35−1、35−2、35−3、35−4、35−5、35−6、35−7、35−8が、複数の音源2−1、2−2、2−3から発生された音響信号をそれぞれ取得する。
FIG. 1 is a diagram for explaining the outline of the acoustic AR system.
As shown in FIG. 1, in an acoustic AR system having a three-dimensional sound broadcasting device 3 and a three-dimensional sound reproducing device 5 connected via a network 4, a plurality of microphones 35- installed in different directions at a certain point 1 1, 35-2, 35-3, 35-4, 35-5, 35-6, 35-7, and 35-8 are generated from a plurality of sound sources 2-1, 2-2, and 2-3. Acquire each signal.

三次元音響放送装置3は、音響入力部31、音源管理部32、集約部33、及び送信部34を備える。音響入力部31は、マイク35−1乃至35−8で取得した音響信号をそれぞれ三次元音響放送装置3に入力する。音源管理部32は、音響入力部31で入力した音響信号を管理する。集約部33は、複数のマイク35−1乃至35−8で取得した音響信号を集約する。そして、送信部34は、集約した音響データをネットワーク4経由で三次元音響再生装置5に送信する。   The three-dimensional audio broadcasting device 3 includes an audio input unit 31, a sound source management unit 32, an aggregation unit 33, and a transmission unit 34. The sound input unit 31 inputs sound signals acquired by the microphones 35-1 to 35-8 to the three-dimensional sound broadcasting device 3. The sound source management unit 32 manages the sound signal input by the sound input unit 31. The aggregating unit 33 aggregates the acoustic signals acquired by the plurality of microphones 35-1 to 35-8. Then, the transmission unit 34 transmits the collected acoustic data to the three-dimensional sound reproduction device 5 via the network 4.

三次元音響再生装置5は、受信部51及びHRTF(Head-Related Transfer Function:頭部伝達関数)処理部52を備える。頭部姿勢センサ53は、利用者6の頭部の姿勢を検出する。イヤホン54は、右スピーカ54R及び左スピーカ54Lを備え、音響を出力する。   The three-dimensional sound reproduction device 5 includes a receiving unit 51 and an HRTF (Head-Related Transfer Function) processing unit 52. The head posture sensor 53 detects the posture of the head of the user 6. The earphone 54 includes a right speaker 54R and a left speaker 54L, and outputs sound.

受信部51は、三次元音響再生装置5からネットワーク4経由で送信された音響データを受信する。HRTF処理部52は、頭部伝達関数を用いた処理であり、受信した音響データのそれぞれのチャンネルの音に対して、角度毎の周波数特性を適用して、左右2つのスピーカ(右スピーカ54R及び左スピーカ54L)に集約(加算処理)する。   The receiving unit 51 receives acoustic data transmitted from the three-dimensional sound reproducing device 5 via the network 4. The HRTF processing unit 52 is a process using a head-related transfer function, and applies frequency characteristics for each angle to the sound of each channel of the received acoustic data, and two left and right speakers (the right speaker 54R and the right speaker 54R). The left speaker 54L) is aggregated (addition process).

このような音響ARシステムにより、イヤホン54を装着した利用者6は、複数の音源2−1、2−2、2−3から発生された音響信号が、利用者6の異なる方位に仮想的に設置されている複数の仮想スピーカ7−1、7−2、7−3、7−4、7−5、7−6、7−7、7−8から発生されたように聞こえる。   With such an acoustic AR system, the user 6 wearing the earphone 54 virtually receives the acoustic signals generated from the plurality of sound sources 2-1, 2-2, 2-3 in different directions of the user 6. Sounds like being generated from a plurality of installed virtual speakers 7-1, 7-2, 7-3, 7-4, 7-5, 7-6, 7-7, 7-8.

上述したように、音響ARシステムは、三次元音響放送装置3が複数のチャネルで集約した音響データを、別の地点に設置された三次元音響再生装置5にストリーミングしている。このストリーミングのための通信帯域は、例えば44.1kHz、16bitの通信データであれば、6Mbps程度が必要になる。そこで、この音響信号を圧縮して、例えば512kbps程度に圧縮して通信することが望まれる。この場合、圧縮率は約8%である。   As described above, the sound AR system streams the sound data collected by the three-dimensional sound broadcasting device 3 through a plurality of channels to the three-dimensional sound reproduction device 5 installed at another point. For example, if the communication band for streaming is 44.1 kHz and 16-bit communication data, about 6 Mbps is required. Therefore, it is desired to compress this acoustic signal, for example, compress it to about 512 kbps for communication. In this case, the compression rate is about 8%.

現在の可逆圧縮技術では、圧縮率は70%程度である。他方、不可逆圧縮であれば、圧縮率4%程度まで圧縮することが可能である。ところが、例えばMP3(MPEG(Moving Picture Experts Group)1 Audio Layer-3)形式や、AAC(Advanced Audio Coding)形式による不可逆圧縮では、音響データに含まれる高周波成分を取り除くように圧縮して符号化するため、復号した音響データは、高周波成分が欠落してしまう。   In the current lossless compression technique, the compression rate is about 70%. On the other hand, in the case of irreversible compression, the compression rate can be reduced to about 4%. However, in irreversible compression using, for example, MP3 (MPEG (Moving Picture Experts Group) 1 Audio Layer-3) format or AAC (Advanced Audio Coding) format, compression is performed so as to remove high-frequency components contained in audio data. For this reason, the decoded acoustic data lacks high frequency components.

また、人間は、左右両耳から得た音の周波数特性及び位相差を脳で処理することにより、音源の位置(音像)を判断している。このような事象を音像定位という。人間が明確な音像定位を得るためには、例えば、8kHz以上の比較的高い周波数成分が必要である。すなわち、不可逆圧縮で圧縮した音響データを復号して再生する場合のような低い周波数成分のみでは、音像を明確に知ることができない。つまり、通信に係る情報量の節約のため、或いはその他の理由によって、最高周波数が低くなり、正しい音像定位が得られない場合がある。特に、上下方向の判定のキーとなる高周波成分の脱落により前方の定位感が悪化する。具体的には、前方の音が実際の位置よりも上方に聞こえてしまう。このような場合、音響の高圧縮と定位感を両立させるため、音域を高周波数領域側に拡大することが考えられる。   In addition, humans determine the position (sound image) of a sound source by processing the frequency characteristics and phase difference of the sound obtained from the left and right ears with the brain. Such an event is called sound image localization. In order for humans to obtain a clear sound image localization, for example, a relatively high frequency component of 8 kHz or more is required. That is, a sound image cannot be clearly known only with a low frequency component as in the case of decoding and reproducing acoustic data compressed by lossy compression. That is, there is a case where the maximum frequency is lowered and the correct sound image localization cannot be obtained for saving the amount of information related to communication or for other reasons. In particular, the sense of localization at the front is deteriorated due to the dropout of high-frequency components which are the keys for the determination in the vertical direction. Specifically, the forward sound is heard above the actual position. In such a case, in order to achieve both high acoustic compression and a sense of localization, it is conceivable to expand the sound range to the high frequency region side.

図2は、音域拡大の例を説明する図である。
図2(a)に示すような元の入力信号(上述の高周波成分が欠落した音響データに相当)に、ハイパスフィルタをかけると図2(b)に示すように、入力信号内での高周波成分が取り出される。次に、取り出した高周波成分を逓倍すると、図2(c)に示す拡大高周波成分が得られる。そして、図2(a)の元の入力信号と、図2(c)の拡大高周波成分とを合成すると、図2(d)に示す合成成分が得られる。(例えば、特許文献1を参照。)。
FIG. 2 is a diagram for explaining an example of sound range expansion.
When a high-pass filter is applied to the original input signal (corresponding to the above-described acoustic data lacking the high-frequency component) as shown in FIG. 2A, the high-frequency component in the input signal is shown in FIG. 2B. Is taken out. Next, when the extracted high frequency component is multiplied, an enlarged high frequency component shown in FIG. 2C is obtained. Then, when the original input signal of FIG. 2A and the enlarged high frequency component of FIG. 2C are synthesized, a synthesized component shown in FIG. 2D is obtained. (For example, see Patent Document 1).

また、音響信号に含まれる高周波成分を特徴成分として抽出し、抽出された特徴成分の音像が音響信号の音像よりも聴取者に近接して定位するように、音響信号および抽出された特徴成分を音響出力部に供給する技術が開示されている(例えば、特許文献2を参照。)。   In addition, the high-frequency component included in the acoustic signal is extracted as a feature component, and the acoustic signal and the extracted feature component are determined so that the sound image of the extracted feature component is localized closer to the listener than the sound image of the acoustic signal. A technique for supplying to an acoustic output unit is disclosed (for example, see Patent Document 2).

特開2003−134596号公報JP 2003-134596 A 特開2011−049862号公報JP 2011-049862 A 音響サイエンスシリーズ2「空間音響学」、飯田一博、森本政之、日本音響学会編、コロナ社Acoustic Science Series 2 “Spatial Acoustics”, Kazuhiro Iida, Masayuki Morimoto, The Acoustical Society of Japan, Corona

図3は、従来技術の問題点を示す図であり、図4は、周波数特性と音像の定位感との関係を示す図である。   FIG. 3 is a diagram illustrating a problem of the prior art, and FIG. 4 is a diagram illustrating a relationship between frequency characteristics and a sense of localization of a sound image.

図3に示したように、音響データの音域を拡大して欠落した高周波成分として用いる場合、音の周波数特性がフラットな場合(図3(a))には問題はない。しかしながら、自然な音によくあるように周波数が増えるに連れ音量が減る右下がりの特性を持っていた場合(図3(b))、人工的な窪み(ノッチ)ができてしまう。   As shown in FIG. 3, there is no problem when the frequency range of sound is flat (FIG. 3 (a)) when used as a missing high frequency component by expanding the sound range of acoustic data. However, if it has a characteristic of decreasing right as the frequency increases as is often the case with natural sounds (FIG. 3B), an artificial depression (notch) is formed.

他方、図4に示すように、人間は周波数特性の窪みの位置を検知して音の上下方向を認知していることが知られている(例えば、非特許文献1を参照。)。   On the other hand, as shown in FIG. 4, it is known that a human recognizes the vertical direction of sound by detecting the position of the depression of the frequency characteristic (see, for example, Non-Patent Document 1).

しかしながら、図3に示すような人工的な窪みは、人間が検知する音の上下方向を正確に認知できない、という問題点があった。   However, the artificial depression as shown in FIG. 3 has a problem that the vertical direction of the sound detected by humans cannot be accurately recognized.

1つの側面では、本発明は、高周波成分が欠落してしまう圧縮率の高い不可逆圧縮した音響データを復号した場合であっても、音の上下方向を正確に認知することが可能な音響再生装置、音響再生方法及び音響再生プログラムを提供することを目的とする。   In one aspect, the present invention provides a sound reproducing apparatus that can accurately recognize the vertical direction of sound even when irreversibly compressed acoustic data with a high compression rate at which high-frequency components are lost is decoded. An object of the present invention is to provide a sound reproduction method and a sound reproduction program.

1つの案では、音響再生装置は、音響放送装置から送信される音響データを再生する音響再生装置であって、前記音響放送装置での音響圧縮により欠落した前記音響データの周波数成分領域を解析する欠落周波数解析手段と、前記欠落した周波数成分領域のうち最も低い周波数帯に隣接し、前記最も低い周波数帯よりも低い周波数帯の音圧を解析する音圧解析手段と、前記音圧に相当する音圧の周波数成分を前記欠落した周波数成分領域に付加する高周波成分付加手段とを備えることを特徴とする。   In one plan, the sound reproduction device is a sound reproduction device that reproduces sound data transmitted from the sound broadcast device, and analyzes a frequency component region of the sound data that is lost due to sound compression in the sound broadcast device. Corresponding to a missing frequency analysis means, a sound pressure analysis means for analyzing a sound pressure in a frequency band adjacent to the lowest frequency band of the missing frequency component regions and lower than the lowest frequency band, and the sound pressure High frequency component addition means for adding a frequency component of sound pressure to the missing frequency component region.

実施の形態によれば、圧縮率の高い不可逆圧縮した音響データの復号により欠落した高周波成分の領域に、欠落しなかった領域のエッジ部分と同様の音圧を付加するので、高圧縮された音響データであっても、音像の正確な前方定位感を発生させることができるようになる。   According to the embodiment, since the sound pressure similar to the edge portion of the region that was not lost is added to the region of the high-frequency component that is lost due to the decoding of the irreversibly compressed acoustic data with a high compression rate, the highly compressed sound Even in the case of data, it is possible to generate an accurate forward localization feeling of a sound image.

音響ARシステムの概略を説明するための図である。It is a figure for demonstrating the outline of an acoustic AR system. 音域拡大の例を説明する図である。It is a figure explaining the example of a sound range expansion. 従来技術の問題点を示す図である。It is a figure which shows the problem of a prior art. 周波数特性と音像の定位感との関係を示す図である。It is a figure which shows the relationship between a frequency characteristic and the feeling of localization of a sound image. 本実施の形態に係る三次元音響放送装置及び三次元音響再生装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the three-dimensional sound broadcasting apparatus and three-dimensional sound reproduction apparatus which concern on this Embodiment. 本実施の形態の概要を示す図である。It is a figure which shows the outline | summary of this Embodiment. 本実施の形態における機能ブロックを示す図である。It is a figure which shows the functional block in this Embodiment. 係数データの例を示す図である。It is a figure which shows the example of coefficient data. HRTF処理を説明するための図(その1)である。It is FIG. (1) for demonstrating HRTF process. HRTF処理を説明するための図(その2)である。It is FIG. (2) for demonstrating a HRTF process. HRTF処理を説明するための図(その3)である。FIG. 10 is a third diagram illustrating the HRTF process. 欠落周波数解析処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a missing frequency analysis process. 音の周波数と感じ方の関係を示す図である。It is a figure which shows the relationship between the frequency of a sound, and how to feel. 正当な聴覚を持つ人が等しい大きさに感じる純音の音圧レベルと周波数の関係を示す図である。It is a figure which shows the relationship between the sound pressure level and frequency of a pure tone which a person with a proper hearing feels equal. 音圧解析処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a sound pressure analysis process. 高周波成分付加処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a high frequency component addition process. 情報処理装置の構成図である。It is a block diagram of information processing apparatus.

以下、図面を参照しながら、実施の形態について詳細に説明する。
図5は、本実施の形態に係る三次元音響放送装置及び三次元音響再生装置のハードウェア構成を示す図である。
Hereinafter, embodiments will be described in detail with reference to the drawings.
FIG. 5 is a diagram illustrating a hardware configuration of the three-dimensional sound broadcasting apparatus and the three-dimensional sound reproducing apparatus according to the present embodiment.

図5において、本実施の形態に係る音響ARシステムは、ネットワーク4を介して接続された三次元音響放送装置100及び三次元音響再生装置200を備える。   In FIG. 5, the acoustic AR system according to the present embodiment includes a three-dimensional sound broadcasting apparatus 100 and a three-dimensional sound reproduction apparatus 200 connected via a network 4.

三次元音響放送装置100は、CPU(Central Processing Unit:中央処理装置)81、記憶装置82、通信IF(InterFace:インターフェース)83、及び音響入力装置84を備える。記憶装置82は、例えばハードディスクメモリ、ROM(Read Only Memory:読み出し専用記憶装置)、及びRAM(Random Access Memory:即時呼び出し記憶装置)等である。これらのハードウェア各部は、バスを介して相互に接続されている。   The three-dimensional audio broadcasting apparatus 100 includes a CPU (Central Processing Unit) 81, a storage device 82, a communication IF (InterFace) 83, and an audio input device 84. The storage device 82 is, for example, a hard disk memory, a ROM (Read Only Memory), a RAM (Random Access Memory), or the like. These hardware units are connected to each other via a bus.

CPU81は、三次元音響放送装置100のハードウェア各部を制御するプロセッサであり、ハードディスクメモリに格納された各ソフトウェアプログラムをRAMにロードして実行する。ROMは、例えば不揮発性の半導体メモリであり、三次元音響放送装置100の起動時にCPU81が実行するBIOS(Basic Input/Output System:基本入出力システム)、ファームウェア等を格納している。RAMは、例えばSRAM(Static RAM)、DRAM(Dynamic RAM)等であり、CPU81が実行する処理の過程で必要なデータ等を一時的に格納する。ハードディスクメモリは、三次元音響放送装置100に内蔵された、又は外部に接続された、大容量の情報を格納することが可能な補助記憶装置である。   The CPU 81 is a processor that controls each part of the hardware of the three-dimensional sound broadcasting apparatus 100, and loads each software program stored in the hard disk memory to the RAM for execution. The ROM is, for example, a non-volatile semiconductor memory, and stores a BIOS (Basic Input / Output System) executed by the CPU 81 when the 3D sound broadcasting apparatus 100 is activated, firmware, and the like. The RAM is, for example, SRAM (Static RAM), DRAM (Dynamic RAM), and the like, and temporarily stores data and the like necessary in the course of processing executed by the CPU 81. The hard disk memory is an auxiliary storage device that is built in the three-dimensional sound broadcasting apparatus 100 or connected to the outside and can store a large amount of information.

通信IF83は、有線若しくは無線通信のモデム又はLAN(Local Area Network)カード等であり、インターネット等のネットワーク4に接続されている。   The communication IF 83 is a wired or wireless communication modem, a LAN (Local Area Network) card, or the like, and is connected to the network 4 such as the Internet.

音響入力装置84は、複数のマイク35−nで取得した音響信号をそれぞれ三次元音響放送装置100に入力し、バスを介してCPU81に伝送する。そして、CPU81は、三次元音響放送装置100が入力した音響信号に基づいて音響放送処理を実行する他、記憶装置82に格納された音響信号に基づいて音響放送処理を実行する。   The sound input device 84 inputs the sound signals acquired by the plurality of microphones 35-n to the three-dimensional sound broadcasting device 100 and transmits them to the CPU 81 via the bus. Then, the CPU 81 executes the acoustic broadcast process based on the acoustic signal stored in the storage device 82 in addition to executing the acoustic broadcast process based on the acoustic signal input by the three-dimensional acoustic broadcast apparatus 100.

三次元音響再生装置200は、CPU91、記憶装置92、通信IF93、及び音響出力装置94を備える。記憶装置92は、例えばハードディスクメモリ、ROM、及びRAM等である。これらのハードウェア各部は、バスを介して相互に接続されている。   The three-dimensional sound reproduction device 200 includes a CPU 91, a storage device 92, a communication IF 93, and a sound output device 94. The storage device 92 is, for example, a hard disk memory, a ROM, a RAM, or the like. These hardware units are connected to each other via a bus.

CPU91は、三次元音響再生装置200のハードウェア各部を制御するプロセッサであり、ハードディスクメモリに格納された各ソフトウェアプログラムをRAMにロードして実行する。ROMは、例えば不揮発性の半導体メモリであり、三次元音響再生装置200の起動時にCPU91が実行するBIOS、ファームウェア等を格納している。RAMは、例えばSRAM、DRAM等であり、CPU91が実行する処理の過程で必要なデータ等を一時的に格納する。ハードディスクメモリは、三次元音響再生装置200に内蔵された、又は外部に接続された、大容量の情報を格納することが可能な補助記憶装置である。   The CPU 91 is a processor that controls each part of the hardware of the three-dimensional sound reproduction apparatus 200, and loads each software program stored in the hard disk memory to the RAM for execution. The ROM is, for example, a nonvolatile semiconductor memory, and stores a BIOS, firmware, and the like that are executed by the CPU 91 when the three-dimensional sound reproduction device 200 is activated. The RAM is, for example, SRAM, DRAM, and the like, and temporarily stores data and the like necessary in the course of processing executed by the CPU 91. The hard disk memory is an auxiliary storage device that is built in the three-dimensional sound reproduction device 200 or is connected to the outside and can store a large amount of information.

通信IF93は、有線若しくは無線通信のモデム又はLANカード等であり、インターネット等のネットワーク4に接続されている。また、通信IF93は、利用者の頭部の姿勢を検出する頭部姿勢センサ53とも接続されている。頭部姿勢センサ53は、地磁気センサや角速度センサを用いることで実現する場合もある。   The communication IF 93 is a wired or wireless communication modem, a LAN card, or the like, and is connected to the network 4 such as the Internet. The communication IF 93 is also connected to a head posture sensor 53 that detects the posture of the user's head. The head posture sensor 53 may be realized by using a geomagnetic sensor or an angular velocity sensor.

音響出力装置94は、CPU91が実行する音響再生処理に係る処理結果をイヤホン54から出力する。   The sound output device 94 outputs the processing result related to the sound reproduction processing executed by the CPU 91 from the earphone 54.

本実施の形態の三次元音響再生装置200は、CPU91が音響再生プログラムを実行することで機能する。音響再生プログラムの実行内容である音響再生処理については、詳細を後述する。   The three-dimensional sound reproduction apparatus 200 according to the present embodiment functions when the CPU 91 executes a sound reproduction program. Details of the sound reproduction process, which is the execution content of the sound reproduction program, will be described later.

図6は、本実施の形態の概要を示す図である。
本実施の形態に係る三次元音響放送装置100は、元の音に係る音響信号を不可逆圧縮で高圧縮する。ここで、元の音は音像の前方定位感が高い(図6(a))。
FIG. 6 is a diagram showing an outline of the present embodiment.
The three-dimensional sound broadcasting apparatus 100 according to the present embodiment highly compresses the sound signal related to the original sound by irreversible compression. Here, the original sound has a high forward localization feeling of the sound image (FIG. 6A).

音響信号の不可逆圧縮は、高周波成分を取り除くように圧縮して符号化するため、伝送データ量が少なくなる半面、圧縮後の音の前方定位感は低くなる(図6(b))。   Since the irreversible compression of the acoustic signal is compressed and encoded so as to remove high frequency components, the amount of transmitted data is reduced, but the forward localization feeling of the compressed sound is reduced (FIG. 6B).

そこで、本実施の形態に係る三次元音響再生装置200は、音像の前方定位感を得るためだけであれば、元の音を完全には再現する必要がないことに着目し、欠落した高周波領域に所定の周波数分布、例えばホワイトノイズを付加する。高周波領域にホワイトノイズを付加しても、どういう音であるのかというような音の了解への影響は小さいが、音像の前方定位感は高くなる(図6(c))。   Therefore, the three-dimensional sound reproduction apparatus 200 according to the present embodiment pays attention to the fact that the original sound does not need to be completely reproduced if only to obtain a sense of front localization of the sound image. A predetermined frequency distribution, for example, white noise is added. Even if white noise is added to the high-frequency region, the effect on sound intelligibility, such as what kind of sound it is, is small, but the sense of localization of the sound image increases (FIG. 6 (c)).

このように、本実施の形態は、三次元音響放送装置100で高周波成分をカットすることで通信量を削減しても、三次元音響再生装置200で高周波成分を追加することで音像の前方定位感を補うことができる。   As described above, according to the present embodiment, even if the communication volume is reduced by cutting high-frequency components in the three-dimensional sound broadcasting apparatus 100, the high-frequency components are added by the three-dimensional sound reproduction apparatus 200, so Can compensate for the feeling.

図7は、本実施の形態における機能ブロックを示す図であり、図8は、係数データの例を示す図である。   FIG. 7 is a diagram showing functional blocks in the present embodiment, and FIG. 8 is a diagram showing an example of coefficient data.

図7において、三次元音響放送装置100は、音響入力部31、DFT(Discrete Fourier Transform:離散フーリエ変換)部101、削減パラメータDB(DataBase:データベース)102、高周波成分削減部103、係数圧縮部104、及び送信部34を備える。   In FIG. 7, the three-dimensional sound broadcasting apparatus 100 includes an acoustic input unit 31, a DFT (Discrete Fourier Transform) unit 101, a reduction parameter DB (DataBase) 102, a high frequency component reduction unit 103, and a coefficient compression unit 104. And a transmission unit 34.

音響入力部31は、不図示の複数のマイク35−1乃至35−8(図5参照)で取得した音響信号をそれぞれ三次元音響放送装置100に入力する。DFT部101は、各チャンネルの音響信号に高速フーリエ変換(FFT:Fast Fourier Transform)等により離散フーリエ変換を行って、音響信号のスペクトルを出力する。例えば、図8に例示するように、16bit、44.1kHzでサンプリングした音響信号に対して1024点ずつ離散フーリエ変換を行う。   The sound input unit 31 inputs sound signals acquired by a plurality of microphones 35-1 to 35-8 (see FIG. 5) (not shown) to the three-dimensional sound broadcasting apparatus 100. The DFT unit 101 performs discrete Fourier transform on the acoustic signal of each channel by Fast Fourier Transform (FFT) or the like, and outputs a spectrum of the acoustic signal. For example, as illustrated in FIG. 8, 1024 points are subjected to discrete Fourier transform for an acoustic signal sampled at 16 bits and 44.1 kHz.

削減パラメータDB102は、DFT部101が離散フーリエ変換を行って出力した音響信号のスペクトルについて、高周波成分削減部103が削減する周波数成分のパラメータを格納する。高周波成分削減部103は、削減パラメータDB102を参照してDFT部101が出力した音響信号のスペクトルのうち高周波成分を削減する。係数圧縮部104は、高周波成分が削減された音響信号の係数データを圧縮する。そして、送信部34は、圧縮した音響データをネットワーク4経由で三次元音響再生装置200に送信する。   The reduction parameter DB 102 stores parameters of frequency components to be reduced by the high frequency component reduction unit 103 for the spectrum of the acoustic signal output by the DFT unit 101 performing discrete Fourier transform. The high frequency component reduction unit 103 refers to the reduction parameter DB 102 and reduces high frequency components in the spectrum of the acoustic signal output from the DFT unit 101. The coefficient compression unit 104 compresses the coefficient data of the acoustic signal from which the high frequency component has been reduced. Then, the transmission unit 34 transmits the compressed acoustic data to the three-dimensional sound reproduction device 200 via the network 4.

また、図7において、三次元音響再生装置200は、受信部51、係数復元部201、欠落周波数解析部202、前方定位関連情報DB203、音圧解析部204、高周波成分付加部205、逆DFT部206、センサ値受信部207、及びHRTF処理部208を備える。   In FIG. 7, the three-dimensional sound reproduction apparatus 200 includes a receiving unit 51, a coefficient restoring unit 201, a missing frequency analyzing unit 202, a front localization related information DB 203, a sound pressure analyzing unit 204, a high frequency component adding unit 205, and an inverse DFT unit. 206, a sensor value receiving unit 207, and an HRTF processing unit 208.

受信部51は、三次元音響放送装置100からネットワーク4経由で送信された音響データを受信する。係数復元部201は、圧縮された係数データを復号する。   The receiving unit 51 receives acoustic data transmitted from the three-dimensional acoustic broadcast apparatus 100 via the network 4. The coefficient restoration unit 201 decodes the compressed coefficient data.

欠落周波数解析部202は、欠落周波数解析処理を実行することにより、欠落した(削減された)周波数領域を求める(図7(1))。欠落周波数解析処理の処理内容の詳細については、図12を用いて後述する。   The missing frequency analysis unit 202 performs missing frequency analysis processing to obtain missing (reduced) frequency regions (FIG. 7 (1)). Details of the processing content of the missing frequency analysis processing will be described later with reference to FIG.

音圧解析部204は、音圧解析処理を実行することにより、エッジ音圧を求める(図7(2))。すなわち、欠落周波数解析部202が解析した欠落した周波数成分領域のうち、最も低い周波数帯に隣接し、かつその周波数帯よりも低い周波数帯での平均音量を求める。音圧解析処理の処理内容の詳細については、図15を用いて後述する。   The sound pressure analysis unit 204 obtains edge sound pressure by executing sound pressure analysis processing (FIG. 7 (2)). That is, the average volume in the frequency band adjacent to the lowest frequency band and lower than the frequency band among the missing frequency component regions analyzed by the missing frequency analysis unit 202 is obtained. Details of the processing content of the sound pressure analysis processing will be described later with reference to FIG.

高周波成分付加部205は、高周波成分付加処理を実行することにより、求めたエッジ音圧と同じ音圧の周波数分布、例えばホワイトノイズ等の音響データを、欠落した周波数領域に付加する(図7(3))。高周波成分付加処理の処理内容の詳細については、図16を用いて後述する。   The high-frequency component adding unit 205 performs high-frequency component addition processing to add frequency distribution of the same sound pressure as the obtained edge sound pressure, for example, acoustic data such as white noise to the missing frequency region (FIG. 7 ( 3)). Details of the processing content of the high-frequency component addition processing will be described later with reference to FIG.

前方定位関連情報DB203は、欠落周波数解析部202によって求めた欠落周波数の区間、及び音圧解析部204によって求めたエッジ音圧をチャンネル毎に格納する。   The forward localization related information DB 203 stores the missing frequency section obtained by the missing frequency analysis unit 202 and the edge sound pressure obtained by the sound pressure analysis unit 204 for each channel.

逆DFT部206は、高周波数領域に所定の周波数分布が付加されたスペクトルに逆離散フーリエ変換を行って、各チャンネル毎の音響信号として出力する。センサ値受信部207は、頭部姿勢センサ53が検出した利用者の頭部の姿勢を示す値を受信する。HRTF処理部208は、センサ値受信部207が頭部姿勢センサ53から受信したセンサ値を用いて、逆DFT部206が出力した音響信号をHRTF処理し、イヤホン54に出力する。   The inverse DFT unit 206 performs inverse discrete Fourier transform on the spectrum in which a predetermined frequency distribution is added to the high frequency region, and outputs the result as an acoustic signal for each channel. The sensor value receiving unit 207 receives a value indicating the posture of the user's head detected by the head posture sensor 53. The HRTF processing unit 208 performs HRTF processing on the acoustic signal output from the inverse DFT unit 206 using the sensor value received from the head position sensor 53 by the sensor value receiving unit 207, and outputs it to the earphone 54.

図9、図10、図11は、HRTF処理を説明するための図である。
例えば、図9(b)に示すように、チャンネル0の音に対して、利用者6の正面を基準にして0度の周波数特性(図9(a)参照)を適用し、チャンネル7の音に対して、315度の周波数特性を適用し、チャンネル6の音に対して、270度の周波数特性を適用し、チャンネル5の音に対して、225度の周波数特性を適用して、これらを加算して左スピーカ54Lに集約する。同様に、チャンネル1の音に対して、45度の周波数特性を適用し、チャンネル2の音に対して、90度の周波数特性を適用し、チャンネル3の音に対して、135度の周波数特性を適用し、チャンネル4の音に対して、180度の周波数特性を適用して、これらを加算して右スピーカ54Rに集約する。ここで、音に対して周波数特性を適用するとは、図10に示すように、音の係数データ(図10(a))とHRTF特性(図10(b))とを掛け合わせて新しい音の係数データ(図10(c))を求めることをいう。
9, FIG. 10 and FIG. 11 are diagrams for explaining the HRTF processing.
For example, as shown in FIG. 9B, a frequency characteristic of 0 degree (see FIG. 9A) is applied to the sound of channel 0 with reference to the front of the user 6, and the sound of channel 7 is applied. On the other hand, a frequency characteristic of 315 degrees is applied, a frequency characteristic of 270 degrees is applied to the sound of channel 6, and a frequency characteristic of 225 degrees is applied to the sound of channel 5, The sum is added to the left speaker 54L. Similarly, a frequency characteristic of 45 degrees is applied to the sound of channel 1, a frequency characteristic of 90 degrees is applied to the sound of channel 2, and a frequency characteristic of 135 degrees is applied to the sound of channel 3. Is applied to the sound of channel 4 and a frequency characteristic of 180 degrees is applied, and these are added and collected in the right speaker 54R. Here, the frequency characteristic is applied to the sound, as shown in FIG. 10, by multiplying the coefficient data of the sound (FIG. 10 (a)) and the HRTF characteristic (FIG. 10 (b)). It means obtaining coefficient data (FIG. 10C).

また、HRTF処理部52は、図11に示すように、頭部姿勢センサ53で検出した利用者6の頭部の姿勢に基づいて、利用者6が向いている方向に対応させて出力する音を変換する。ここで用いるHRTFは、音像の定位方向に対応するように予め決定されている。イヤホン54は、HRTF処理部52で変換した音響信号を右スピーカ54Rと左スピーカ54Lから出力する。   Further, as shown in FIG. 11, the HRTF processing unit 52 outputs sound corresponding to the direction in which the user 6 is facing based on the posture of the head of the user 6 detected by the head posture sensor 53. Convert. The HRTF used here is determined in advance so as to correspond to the localization direction of the sound image. The earphone 54 outputs the acoustic signal converted by the HRTF processing unit 52 from the right speaker 54R and the left speaker 54L.

図12は、欠落周波数解析処理の流れを示すフローチャートである。
まず、欠落周波数解析部202は、ステップS1201において、係数復元部201が復号した係数データを入力する。
FIG. 12 is a flowchart showing the flow of missing frequency analysis processing.
First, the missing frequency analysis unit 202 inputs the coefficient data decoded by the coefficient restoration unit 201 in step S1201.

次に、全てのチャンネルについて欠落周波数解析処理を実行するために、ステップS1202において、未処理のチャンネルがあるか否かを判断する。全てのチャンネルについて欠落周波数解析処理が終了していれば(ステップS1202:N)、本欠落周波数解析処理を終了する。   Next, in order to execute the missing frequency analysis process for all channels, it is determined in step S1202 whether or not there is an unprocessed channel. If the missing frequency analysis process has been completed for all channels (step S1202: N), this missing frequency analysis process is terminated.

他方、未処理のチャンネルがあれば(ステップS1202:Y)、ステップS1203において、未処理のチャンネルから1つを選び、周波数f1〜f1024に対応する係数データp1〜p1024のうち、所定の閾値未満(p<threshould)となる最大の周波数fmaxを求める。 On the other hand, if there is an unprocessed channel (step S1202: Y), one of the unprocessed channels is selected in step S1203, and the coefficient data p1 to p1024 corresponding to the frequencies f1 to f1024 is less than a predetermined threshold ( The maximum frequency f max that satisfies p <threshould) is obtained.

ステップS1204において、fmaxが16kHz以下か否かを判断する。16kHz以下でなければ(ステップS1204:N)、ステップS1205において、欠落区間なしとして[0,0]を前方定位関連情報DB203に格納する。 In step S1204, it is determined whether f max is 16 kHz or less. If it is not less than 16 kHz (step S1204: N), [0, 0] is stored in the forward localization related information DB 203 as no missing section in step S1205.

他方、fmaxが16kHz以下の場合(ステップS1204:Y)、ステップS1206において、fmaxが4kHz以上か否かを判断する。4kHz以上でなければ(ステップS1206:N)、ステップS1207において、欠落区間なしとして[4k,f1024]を前方定位関連情報DB203に格納する。 On the other hand, if f max is 16 kHz or less (step S1204: Y), it is determined in step S1206 whether f max is 4 kHz or more. If it is not 4 kHz or more (step S1206: N), [4k, f1024] is stored in the forward localization related information DB 203 as no missing section in step S1207.

他方、fmaxが4kHz以上の場合(ステップS1206:Y)、すなわち、fmaxが4kHz以上、かつ16kHz以下の場合、ステップS1208において、このときの区間[fmax,f1024]を欠落周波数帯として前方定位関連情報DB203に格納する。そして、ステップS1202に戻る。 On the other hand, if f max is 4 kHz or more (step S1206: Y), that is, if f max is 4 kHz or more and 16 kHz or less, in step S1208, the section [f max , f1024] at this time is set as the missing frequency band. Stored in the localization related information DB 203. Then, the process returns to step S1202.

図13は、音の周波数と感じ方の関係を示す図である。
図12のステップS1208で、欠落周波数帯として前方定位関連情報DB203に格納する周波数を、fmaxが4kHz以上、かつ16kHz以下としたのは、図13に示すように、この間の周波数が音の定位感に影響を与えるからである。
FIG. 13 is a diagram illustrating the relationship between the frequency of sound and how it is felt.
In step S1208 of FIG. 12, the frequency stored in the forward localization related information DB 203 as a missing frequency band is set so that f max is 4 kHz or more and 16 kHz or less, as shown in FIG. This is because it affects the feeling.

図14は、正当な聴覚を持つ人が等しい大きさに感じる純音の音圧レベルと周波数の関係を示す図である。   FIG. 14 is a diagram showing the relationship between the sound pressure level and frequency of a pure tone that a person with proper hearing feels at the same magnitude.

曲線に付してある数値は音の大きさのレベルで、1[kHz]の純音の音圧レベル(dB)と同じ値をphon(フォン)という単位で表し、1[kHz]の純音と同じ大きさに聞こえるそれぞれの周波数の音圧レベルを結んで等感曲線として示している。   The numerical value attached to the curve is the level of the loudness, the same value as the sound pressure level (dB) of a pure tone of 1 [kHz] is expressed in units of phon, and the same as the pure tone of 1 [kHz]. The sound pressure level of each frequency that sounds like a magnitude is connected and shown as an isometric curve.

図14に示すように、周波数が高いほど音圧レベルを低く感じる。特に、4[kHz]あたりは音が小さく感じる。   As shown in FIG. 14, the higher the frequency, the lower the sound pressure level. In particular, the sound feels small around 4 [kHz].

図15は、音圧解析処理の流れを示すフローチャートである。
まず、全てのチャンネルについて音圧解析処理を実行するために、ステップS1501において、未処理のチャンネルがあるか否かを判断する。全てのチャンネルについて音圧解析処理が終了していれば(ステップS1501:N)、本音圧解析処理を終了する。
FIG. 15 is a flowchart showing the flow of sound pressure analysis processing.
First, in order to execute the sound pressure analysis process for all channels, it is determined in step S1501 whether there is an unprocessed channel. If the sound pressure analysis process has been completed for all channels (step S1501: N), the sound pressure analysis process is terminated.

他方、未処理のチャンネルがあれば(ステップS1501:Y)、ステップS1502において、未処理のチャンネルから1つを選び、前方定位関連情報DB203から、欠落周波数の最小値fminを取得する。 On the other hand, if there is an unprocessed channel (step S1501: Y), one of the unprocessed channels is selected in step S1502, and the minimum value f min of the missing frequency is acquired from the forward localization related information DB 203.

ステップS1503において、このときの区間[fmin−Δf,fmin]における平均音圧を求め、前方定位関連情報DB203のエッジ音圧の欄に格納する。そして、ステップS1501に戻る。なお、Δfは事前に設定可能な所定の値である。また、fminが0の場合はエッジ音圧を0とする。 In step S1503, the average sound pressure in the section [f min −Δf, f min ] at this time is obtained and stored in the edge sound pressure column of the front localization related information DB 203. Then, the process returns to step S1501. Δf is a predetermined value that can be set in advance. When f min is 0, the edge sound pressure is set to 0.

図16は、高周波成分付加処理の流れを示すフローチャートである。
まず、全てのチャンネルについて高周波成分付加処理を実行するために、ステップS1601において、未処理のチャンネルがあるか否かを判断する。全てのチャンネルについて高周波成分付加処理が終了していれば(ステップS1601:N)、本高周波成分付加処理を終了する。
FIG. 16 is a flowchart showing the flow of high-frequency component addition processing.
First, in order to execute high-frequency component addition processing for all channels, it is determined in step S1601 whether or not there is an unprocessed channel. If the high frequency component addition processing has been completed for all channels (step S1601: N), this high frequency component addition processing is terminated.

他方、未処理のチャンネルがあれば(ステップS1601:Y)、ステップS1602において、未処理のチャンネルから1つを選び、前方定位関連情報DB203から、欠落周波数帯とエッジ音圧を取得する。   On the other hand, if there is an unprocessed channel (step S1601: Y), one of the unprocessed channels is selected in step S1602, and the missing frequency band and the edge sound pressure are acquired from the front localization related information DB 203.

ステップS1603において、このときの区間[fmin,fmax]における音圧データとして、事前に用意したホワイトノイズ等の周波数特性データをエッジ音圧と同じレベルになるように挿入する。そして、ステップS1601に戻る。 In step S1603, frequency characteristic data such as white noise prepared in advance is inserted so as to have the same level as the edge sound pressure as the sound pressure data in the section [f min , f max ] at this time. Then, the process returns to step S1601.

以上、図面を参照しながら、本実施の形態について詳細に説明したが、以下のように変形することも可能である。   While the present embodiment has been described in detail with reference to the drawings, it can be modified as follows.

例えば、変形例1として、付加する高周波成分であるホワイトノイズの代わりに、低周波数成分を逓倍したものを更にイコライジングして周波数特性をフラットにしたものを用いることもできる。   For example, instead of white noise, which is a high-frequency component to be added, a variation in which a low frequency component is multiplied and further equalized to make the frequency characteristic flat can be used as Modification 1.

また、変形例2として、音圧解析部204による音圧解析処理で解析したエッジ音圧が、平均音圧に比べて非常に小さい場合、エッジ付近の音圧を滑らかに盛り上げて、例えば、平均の8割程度の音圧まで上げた上で、高周波成分付加部205による高周波成分付加処理を実行することもできる。   As a second modification, when the edge sound pressure analyzed by the sound pressure analysis processing by the sound pressure analysis unit 204 is very small compared to the average sound pressure, the sound pressure near the edge is smoothly raised, for example, an average The high-frequency component addition processing by the high-frequency component addition unit 205 can be executed after the sound pressure is increased to about 80%.

また、通常は本実施の形態を実行し、定位感を落としてでも音質を向上したい場合は変形例1を実行し、音質を落としてでも、さらなる定位感を得たい場合は変形例2を実行する等、選択的に各実施の形態を実行することもできる。   Also, this embodiment is usually executed, and if it is desired to improve sound quality even if the sense of localization is lowered, Modification 1 is executed, and if further localization is desired even if the sound quality is lowered, Modification 2 is executed. For example, each embodiment can be selectively executed.

図17は、情報処理装置の構成図である。
上述の三次元音響再生装置200は、例えば、図17に示すような情報処理装置(コンピュータ)を用いて実現することが可能である。図17の情報処理装置は、CPU1701、メモリ1702、入力装置1703、出力装置1704、外部記録装置1705、媒体駆動装置1706及びネットワーク接続装置1707を備える。これらはバス1708により互いに接続されている。
FIG. 17 is a configuration diagram of the information processing apparatus.
The above-described three-dimensional sound reproduction apparatus 200 can be realized using, for example, an information processing apparatus (computer) as shown in FIG. 17 includes a CPU 1701, a memory 1702, an input device 1703, an output device 1704, an external recording device 1705, a medium driving device 1706, and a network connection device 1707. These are connected to each other by a bus 1708.

メモリ1702は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、三次元音響再生装置200が実行する音響再生処理に用いられるプログラム及びデータを格納する。例えば、CPU1701は、メモリ1702を利用してプログラムを実行することにより、上述の音響再生処理を行う。   The memory 1702 is, for example, a semiconductor memory such as a ROM (Read Only Memory), a RAM (Random Access Memory), or a flash memory, and stores a program and data used for sound reproduction processing executed by the three-dimensional sound reproduction device 200. . For example, the CPU 1701 performs the above-described sound reproduction process by executing a program using the memory 1702.

入力装置1703は、例えば、キーボード、ポインティングデバイス等であり、オペレータからの指示や情報の入力に用いられる。出力装置1704は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータへの問い合わせや処理結果の出力に用いられる。   The input device 1703 is, for example, a keyboard, a pointing device, or the like, and is used for inputting instructions and information from an operator. The output device 1704 is, for example, a display device, a printer, a speaker, and the like, and is used to output an inquiry to the operator and a processing result.

外部記録装置1705は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。この外部記録装置1705には、ハードディスクドライブも含まれる。情報処理装置は、この外部記録装置1705にプログラム及びデータを格納しておき、それらをメモリ1702にロードして使用することができる。   The external recording device 1705 is, for example, a magnetic disk device, an optical disk device, a magneto-optical disk device, a tape device, or the like. The external recording device 1705 includes a hard disk drive. The information processing apparatus can store programs and data in the external recording apparatus 1705 and load them into the memory 1702 for use.

媒体駆動装置1706は、可搬型記録媒体1709を駆動し、その記録内容にアクセスする。可搬型記録媒体1709は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。この可搬型記録媒体1709には、Compact Disk Read Only Memory (CD−ROM)、Digital Versatile Disk(DVD)、Universal Serial Bus(USB)メモリ等も含まれる。オペレータは、この可搬型記録媒体1709にプログラム及びデータを格納しておき、それらをメモリ1702にロードして使用することができる。   The medium driving device 1706 drives a portable recording medium 1709 and accesses the recorded contents. The portable recording medium 1709 is a memory device, a flexible disk, an optical disk, a magneto-optical disk, or the like. The portable recording medium 1709 includes a compact disk read only memory (CD-ROM), a digital versatile disk (DVD), a universal serial bus (USB) memory, and the like. An operator can store programs and data in the portable recording medium 1709 and load them into the memory 1702 for use.

このように、音響再生処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体には、メモリ1702、外部記録装置1705、及び可搬型記録媒体1709のような、物理的な(非一時的な)記録媒体が含まれる。   As described above, the computer-readable recording medium for storing the program and data used for the sound reproduction processing includes physical (non-transitory) such as the memory 1702, the external recording device 1705, and the portable recording medium 1709. Recording medium).

ネットワーク接続装置1707は、通信ネットワーク1710に接続され、通信に伴うデータ変換を行う通信インターフェースである。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1707を介して受け取り、それらをメモリ1702にロードして使用することができる。   The network connection device 1707 is a communication interface that is connected to the communication network 1710 and performs data conversion accompanying communication. The information processing apparatus can receive a program and data from an external apparatus via the network connection apparatus 1707, and can use them by loading them into the memory 1702.

開示の実施の形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができる。   Although embodiments of the disclosure and advantages thereof have been described in detail, those skilled in the art can make various changes, additions and omissions without departing from the scope of the present invention clearly described in the claims.

図面を参照しながら説明した実施の形態に関し、さらに以下の付記を開示する。
(付記1)
音響放送装置から送信される音響データを再生する音響再生装置において、
前記音響放送装置での音響圧縮により欠落した前記音響データの周波数成分領域を解析する欠落周波数解析手段と、
前記欠落した周波数成分領域のうち最も低い周波数帯に隣接し、前記最も低い周波数帯よりも低い周波数帯の音圧を解析する音圧解析手段と、
前記音圧に相当する音圧の周波数成分を前記欠落した周波数成分領域に付加する高周波成分付加手段と、
を備えることを特徴とする音響再生装置。
(付記2)
前記高周波成分付加手段は、前記音圧に相当する音圧のホワイトノイズを前記欠落した周波数成分領域に付加する、
ことを特徴とする付記1に記載の音響再生装置。
(付記3)
前記高周波成分付加手段は、前記最も低い周波数帯よりも低い周波数帯の周波数成分を逓倍しイコライジングして周波数特性をフラットにしたものを前記欠落した周波数成分領域に付加する、
ことを特徴とする付記1に記載の音響再生装置。
(付記4)
音響放送装置から送信される音響データを再生する音響再生装置のコンピュータに、
前記音響放送装置での音響圧縮により欠落した前記音響データの周波数成分領域を解析し、
前記欠落した周波数成分領域のうち最も低い周波数帯に隣接し、前記最も低い周波数帯よりも低い周波数帯の音圧を解析し、
前記音圧に相当する音圧の周波数成分を前記欠落した周波数成分領域に付加する、
処理を実行させることを特徴とする音響再生プログラム。
(付記5)
前記音圧に相当する音圧のホワイトノイズを前記欠落した周波数成分領域に付加する、
ことを特徴とする付記4に記載の音響再生プログラム。
(付記6)
前記最も低い周波数帯よりも低い周波数帯の周波数成分を逓倍しイコライジングして周波数特性をフラットにしたものを前記欠落した周波数成分領域に付加する、
ことを特徴とする付記4に記載の音響再生プログラム。
(付記7)
音響放送装置から送信される音響データを再生する音響再生装置のコンピュータが実行する音響再生方法であって、
前記音響放送装置での音響圧縮により欠落した前記音響データの周波数成分領域を解析し、
前記欠落した周波数成分領域のうち最も低い周波数帯に隣接し、前記最も低い周波数帯よりも低い周波数帯の音圧を解析し、
前記音圧に相当する音圧の周波数成分を前記欠落した周波数成分領域に付加する、
ことを特徴とする音響再生方法。
(付記8)
前記音圧に相当する音圧のホワイトノイズを前記欠落した周波数成分領域に付加する、
ことを特徴とする付記7に記載の音響再生方法。
(付記9)
前記最も低い周波数帯よりも低い周波数帯の周波数成分を逓倍しイコライジングして周波数特性をフラットにしたものを前記欠落した周波数成分領域に付加する、
ことを特徴とする付記7に記載の音響再生方法。
The following notes are further disclosed with respect to the embodiment described with reference to the drawings.
(Appendix 1)
In a sound reproduction device that reproduces sound data transmitted from a sound broadcast device,
A missing frequency analysis means for analyzing a frequency component region of the acoustic data that is missing due to acoustic compression in the acoustic broadcast device;
A sound pressure analyzing means for analyzing a sound pressure in a frequency band adjacent to the lowest frequency band of the missing frequency component regions and lower than the lowest frequency band;
High frequency component adding means for adding a frequency component of sound pressure corresponding to the sound pressure to the missing frequency component region;
A sound reproducing device comprising:
(Appendix 2)
The high frequency component adding means adds white noise of sound pressure corresponding to the sound pressure to the missing frequency component region.
The sound reproducing device according to Supplementary Note 1, wherein:
(Appendix 3)
The high frequency component adding means multiplies and equalizes a frequency component of a frequency band lower than the lowest frequency band and adds a flat frequency characteristic to the missing frequency component region.
The sound reproducing device according to Supplementary Note 1, wherein:
(Appendix 4)
In the computer of the sound reproduction device that reproduces the sound data transmitted from the sound broadcasting device,
Analyzing the frequency component region of the acoustic data missing due to acoustic compression in the acoustic broadcast device,
Analyzing the sound pressure of the frequency band adjacent to the lowest frequency band of the missing frequency component region and lower than the lowest frequency band,
Adding a frequency component of sound pressure corresponding to the sound pressure to the missing frequency component region;
A sound reproduction program for executing a process.
(Appendix 5)
Adding white noise of sound pressure corresponding to the sound pressure to the missing frequency component region;
The sound reproduction program according to supplementary note 4, characterized in that:
(Appendix 6)
The frequency component of the frequency band lower than the lowest frequency band is multiplied and equalized to add a flat frequency characteristic to the missing frequency component region,
The sound reproduction program according to supplementary note 4, characterized in that:
(Appendix 7)
An acoustic reproduction method executed by a computer of an acoustic reproduction device that reproduces acoustic data transmitted from an acoustic broadcast device,
Analyzing the frequency component region of the acoustic data missing due to acoustic compression in the acoustic broadcast device,
Analyzing the sound pressure of the frequency band adjacent to the lowest frequency band of the missing frequency component region and lower than the lowest frequency band,
Adding a frequency component of sound pressure corresponding to the sound pressure to the missing frequency component region;
An acoustic reproduction method characterized by the above.
(Appendix 8)
Adding white noise of sound pressure corresponding to the sound pressure to the missing frequency component region;
The sound reproducing method according to appendix 7, wherein
(Appendix 9)
The frequency component of the frequency band lower than the lowest frequency band is multiplied and equalized to add a flat frequency characteristic to the missing frequency component region,
The sound reproducing method according to appendix 7, wherein

1 地点
2−1、2−2、2−3 音源
3 三次元音響放送装置
4 ネットワーク
5 三次元音響再生装置
6 利用者
7−1、7−2、7−3、7−4、7−5、7−6、7−7、7−8 仮想スピーカ
31 音響入力部
32 音源管理部
33 集約部
34 送信部
35−1、35−2、35−3、35−4、35−5、35−6、35−7、35−8 マイク
51 受信部
52 HRTF処理部
53 頭部姿勢センサ
54 イヤホン
54R 右スピーカ
54L 左スピーカ
81 CPU
82 記憶装置
83 通信IF
84 音響入力装置
91 CPU
92 記憶装置
93 通信IF
94 音響出力装置
100 三次元音響放送装置
101 DFT部
102 削減パラメータDB
103 高周波成分削減部
104 係数圧縮部
200 三次元音響再生装置
201 係数復元部
202 欠落周波数解析部
203 前方定位関連情報DB
204 音圧解析部
205 高周波成分付加部
206 逆DFT部
207 センサ値受信部
208 HRTF処理部
1701 CPU
1702 メモリ
1703 入力装置
1704 出力装置
1705 外部記録装置
1706 媒体駆動装置
1707 ネットワーク接続装置
1708 バス
1709 可搬型記録媒体
1710 通信ネットワーク
1 point 2-1, 2-2, 2-3 sound source 3 3D sound broadcasting device 4 network 5 3D sound reproduction device 6 user 7-1, 7-2, 7-3, 7-4, 7-5 , 7-6, 7-7, 7-8 Virtual speaker 31 Acoustic input unit 32 Sound source management unit 33 Aggregation unit 34 Transmission unit 35-1, 35-2, 35-3, 35-4, 35-5, 35- 6, 35-7, 35-8 Microphone 51 Receiver 52 HRTF processor 53 Head posture sensor 54 Earphone 54R Right speaker 54L Left speaker 81 CPU
82 Storage device 83 Communication IF
84 Sound input device 91 CPU
92 Storage device 93 Communication IF
94 Sound output device 100 Three-dimensional sound broadcasting device 101 DFT unit 102 Reduction parameter DB
DESCRIPTION OF SYMBOLS 103 High frequency component reduction part 104 Coefficient compression part 200 Three-dimensional sound reproduction apparatus 201 Coefficient decompression | restoration part 202 Missing frequency analysis part 203 Front localization related information DB
204 Sound pressure analysis unit 205 High frequency component addition unit 206 Inverse DFT unit 207 Sensor value reception unit 208 HRTF processing unit 1701 CPU
1702 Memory 1703 Input device 1704 Output device 1705 External recording device 1706 Medium drive device 1707 Network connection device 1708 Bus 1709 Portable recording medium 1710 Communication network

Claims (5)

音響放送装置から送信される音響データを再生する音響再生装置において、
前記音響放送装置での音響圧縮により欠落した前記音響データの周波数成分領域を解析する欠落周波数解析手段と、
前記欠落した周波数成分領域のうち最も低い周波数帯に隣接し、前記最も低い周波数帯よりも低い周波数帯の音圧を解析する音圧解析手段と、
前記音圧に相当する音圧の周波数成分を前記欠落した周波数成分領域に付加する高周波成分付加手段と、
を備えることを特徴とする音響再生装置。
In a sound reproduction device that reproduces sound data transmitted from a sound broadcast device,
A missing frequency analysis means for analyzing a frequency component region of the acoustic data that is missing due to acoustic compression in the acoustic broadcast device;
A sound pressure analyzing means for analyzing a sound pressure in a frequency band adjacent to the lowest frequency band of the missing frequency component regions and lower than the lowest frequency band;
High frequency component adding means for adding a frequency component of sound pressure corresponding to the sound pressure to the missing frequency component region;
A sound reproducing device comprising:
前記高周波成分付加手段は、前記音圧に相当する音圧のホワイトノイズを前記欠落した周波数成分領域に付加する、
ことを特徴とする請求項1に記載の音響再生装置。
The high frequency component adding means adds white noise of sound pressure corresponding to the sound pressure to the missing frequency component region.
The sound reproducing device according to claim 1.
前記高周波成分付加手段は、前記最も低い周波数帯よりも低い周波数帯の周波数成分を逓倍しイコライジングして周波数特性をフラットにしたものを前記欠落した周波数成分領域に付加する、
ことを特徴とする請求項1に記載の音響再生装置。
The high frequency component adding means multiplies and equalizes a frequency component of a frequency band lower than the lowest frequency band and adds a flat frequency characteristic to the missing frequency component region.
The sound reproducing device according to claim 1.
音響放送装置から送信される音響データを再生する音響再生装置のコンピュータに、
前記音響放送装置での音響圧縮により欠落した前記音響データの周波数成分領域を解析し、
前記欠落した周波数成分領域のうち最も低い周波数帯に隣接し、前記最も低い周波数帯よりも低い周波数帯の音圧を解析し、
前記音圧に相当する音圧の周波数成分を前記欠落した周波数成分領域に付加する、
処理を実行させることを特徴とする音響再生プログラム。
In the computer of the sound reproduction device that reproduces the sound data transmitted from the sound broadcasting device,
Analyzing the frequency component region of the acoustic data missing due to acoustic compression in the acoustic broadcast device,
Analyzing the sound pressure of the frequency band adjacent to the lowest frequency band of the missing frequency component region and lower than the lowest frequency band,
Adding a frequency component of sound pressure corresponding to the sound pressure to the missing frequency component region;
A sound reproduction program for executing a process.
音響放送装置から送信される音響データを再生する音響再生装置のコンピュータが実行する音響再生方法であって、
前記音響放送装置での音響圧縮により欠落した前記音響データの周波数成分領域を解析し、
前記欠落した周波数成分領域のうち最も低い周波数帯に隣接し、前記最も低い周波数帯よりも低い周波数帯の音圧を解析し、
前記音圧に相当する音圧の周波数成分を前記欠落した周波数成分領域に付加する、
ことを特徴とする音響再生方法。
An acoustic reproduction method executed by a computer of an acoustic reproduction device that reproduces acoustic data transmitted from an acoustic broadcast device,
Analyzing the frequency component region of the acoustic data missing due to acoustic compression in the acoustic broadcast device,
Analyzing the sound pressure of the frequency band adjacent to the lowest frequency band of the missing frequency component region and lower than the lowest frequency band,
Adding a frequency component of sound pressure corresponding to the sound pressure to the missing frequency component region;
An acoustic reproduction method characterized by the above.
JP2014039269A 2014-02-28 2014-02-28 Acoustic reproduction device, acoustic reproduction method, and acoustic reproduction program Pending JP2015163909A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014039269A JP2015163909A (en) 2014-02-28 2014-02-28 Acoustic reproduction device, acoustic reproduction method, and acoustic reproduction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014039269A JP2015163909A (en) 2014-02-28 2014-02-28 Acoustic reproduction device, acoustic reproduction method, and acoustic reproduction program

Publications (1)

Publication Number Publication Date
JP2015163909A true JP2015163909A (en) 2015-09-10

Family

ID=54186864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014039269A Pending JP2015163909A (en) 2014-02-28 2014-02-28 Acoustic reproduction device, acoustic reproduction method, and acoustic reproduction program

Country Status (1)

Country Link
JP (1) JP2015163909A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2561594A (en) * 2017-04-20 2018-10-24 Nokia Technologies Oy Spatially extending in the elevation domain by spectral extension

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0936685A (en) * 1994-10-06 1997-02-07 Shin Nakagawa Method and device for reproducing sound signal
JP2002366178A (en) * 2001-06-08 2002-12-20 Matsushita Electric Ind Co Ltd Method and device for band expansion of audio signal
WO2008015732A1 (en) * 2006-07-31 2008-02-07 Pioneer Corporation Band expanding device and method
JP2009229519A (en) * 2008-03-19 2009-10-08 Oki Electric Ind Co Ltd Voice band expanding device, method and program, and voice communication device
JP2010020356A (en) * 2003-07-29 2010-01-28 Panasonic Corp Apparatus for extending band of audio signal
WO2011027494A1 (en) * 2009-09-01 2011-03-10 パナソニック株式会社 Digital broadcasting transmission device, digital broadcasting reception device, digital broadcasting reception system
JP2012083790A (en) * 2006-11-09 2012-04-26 Sony Corp Signal processor and signal processing method, program and recording medium, and reproducer

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0936685A (en) * 1994-10-06 1997-02-07 Shin Nakagawa Method and device for reproducing sound signal
JP2002366178A (en) * 2001-06-08 2002-12-20 Matsushita Electric Ind Co Ltd Method and device for band expansion of audio signal
JP2010020356A (en) * 2003-07-29 2010-01-28 Panasonic Corp Apparatus for extending band of audio signal
WO2008015732A1 (en) * 2006-07-31 2008-02-07 Pioneer Corporation Band expanding device and method
JP2012083790A (en) * 2006-11-09 2012-04-26 Sony Corp Signal processor and signal processing method, program and recording medium, and reproducer
JP2009229519A (en) * 2008-03-19 2009-10-08 Oki Electric Ind Co Ltd Voice band expanding device, method and program, and voice communication device
WO2011027494A1 (en) * 2009-09-01 2011-03-10 パナソニック株式会社 Digital broadcasting transmission device, digital broadcasting reception device, digital broadcasting reception system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2561594A (en) * 2017-04-20 2018-10-24 Nokia Technologies Oy Spatially extending in the elevation domain by spectral extension

Similar Documents

Publication Publication Date Title
US10070245B2 (en) Method and apparatus for personalized audio virtualization
JP4939933B2 (en) Audio signal encoding apparatus and audio signal decoding apparatus
JP5227946B2 (en) Filter adaptive frequency resolution
JP2010538571A (en) Audio signal decoding method and apparatus
JP2002078100A (en) Method and system for processing stereophonic signal, and recording medium with recorded stereophonic signal processing program
JP2004529515A (en) Method for decoding two-channel matrix coded audio to reconstruct multi-channel audio
JP5326465B2 (en) Audio decoding method, apparatus, and program
US8041041B1 (en) Method and system for providing stereo-channel based multi-channel audio coding
KR100763919B1 (en) Method and apparatus for decoding input signal which encoding multi-channel to mono or stereo signal to 2 channel binaural signal
JP2015528925A (en) Audio signal processing apparatus and method
EP3766262A1 (en) Temporal spatial audio parameter smoothing
TW202029186A (en) Apparatus, method and computer program for encoding, decoding, scene processing and other procedures related to dirac based spatial audio coding using diffuse compensation
WO2022014326A1 (en) Signal processing device, method, and program
JP5309944B2 (en) Audio decoding apparatus, method, and program
US9311925B2 (en) Method, apparatus and computer program for processing multi-channel signals
CN112823534B (en) Signal processing device and method, and program
US8577051B2 (en) Sound signal compensation apparatus and method thereof
JP2015163909A (en) Acoustic reproduction device, acoustic reproduction method, and acoustic reproduction program
JP2006325162A (en) Device for performing multi-channel space voice coding using binaural queue
TWI762949B (en) Method for loss concealment, method for decoding a dirac encoding audio scene and corresponding computer program, loss concealment apparatus and decoder
US20160344902A1 (en) Streaming reproduction device, audio reproduction device, and audio reproduction method
TWI684368B (en) Method, electronic device and recording medium for obtaining hi-res audio transfer information
CN115497485A (en) Three-dimensional audio signal coding method, device, coder and system
CN115376527A (en) Three-dimensional audio signal coding method, device and coder
JP6694755B2 (en) Channel number converter and its program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180724